Als 2005 die arbeitsmarktpolitische Intention zur Unterstützung älterer langzeitarbeitsloser Menschen in das Arbeitsmarktprojekt „Perspektive 50plus“ Eingang fand, stellte das einen tatsächlichen Paradigmenwechsel dar. Vor dem Hintergrund der immer deutlicheren gesellschaftlichen Konsequenzen des demografischen Wandels als auch in der bis dahin öffentlich und zunehmend lauter geführten Diskussion zur Renten- und Sozialpolitik erfuhren die Älteren in der Arbeitsmarktpolitik neue Aufmerksamkeit. Ein Ziel des Bundesprogramms war, die Beschäftigungschancen älterer Langzeitarbeitsloser zu verbessern und sie wieder dauerhaft in sozialversicherungspflichtige Beschäftigungsverhältnisse zu integrieren. Ganz wörtlich im Sinne der „Perspektive 50plus“ war es ein Umsetzungsschwerpunkt, den Teilnehmern neue Perspektiven zu eröffnen, ihnen Wege aufzuzeigen sich ihrer Ressourcen wieder bewusst zu werden und ihre eigenen Qualitäten wertzuschätzen. Aus dieser Haltung heraus sollte für sie wieder Zugang zu gesellschaftlicher Anerkennung und Teilhabe entstehen – und sich so im besten Fall auch wieder der Zugang zum ersten Arbeitsmarkt erschließen.
Um eine Ein“schätzung“ des Wertes und der Qualität älterer Langzeitarbeitsloser vorzunehmen, mussten diese zuerst einmal bewusst wahrgenommen werden. Denkanstöße dazu bekam die Politik in den letzten Jahrzehnten immer wieder durch Veränderungen auf dem Arbeitsmarkt. Wurden Ältere im Arbeitsleben tendenziell nicht mehr gewünscht, benötigt? Hatten sie für Unternehmen noch „brauchbare“ Qualitäten? Und besaß umgekehrt Arbeit an sich keinen Wert mehr für Ältere? Hatte sich deren Einschätzung der eigenen Lebensqualität losgelöst vom Wert der Arbeit, vom Besitz eines Arbeitsplatzes, vom eigenen erwirtschafteten Einkommen?
Nach zehn Jahren Projektlaufzeit steht fest: Die Inklusion von Älteren in den Arbeitsmarkt ist von großer Wichtigkeit und nach wie vor von Dringlichkeit. Ältere Menschen sind wertvoll für den Arbeitsmarkt. Soll den Auswirkungen des demographischen Wandels langfristig Rechnung getragen werden, müssen ältere Arbeitslose genauso wie die Unternehmen motiviert und bei ihren Integrationsbemühungen unterstützt werden. Genau das leistete die „Perspektive 50plus“. Eine Bilanz der Erfahrungen aus zehn Jahren Projektlaufzeit mit unterschiedlichen Perspektivwechseln zum Thema Qualitäten.

Sabine Braunersreuther

1. Einführung

Die Bedeutung von Software in unserem Alltag nimmt immer mehr zu. Auch technische Systeme wie Automobile sind heute ohne Software nicht mehr denkbar. Komplexe Fahrerassistenzsysteme wie Abstandsregeltempomat oder Spurhalteassistent sind durch die weitgehende Realisierung in Software schneller und kostengünstiger umzusetzen, aber auch einfacher zu ändern. Demgemäß ist autonomes Fahren ohne Software ist undenkbar.
Allerdings hat Software eine unangenehme Eigenschaft: Bei ihrer Entwicklung werden besonders viele Fehler gemacht, die sich im fertigen Produkt als fehlerhafte Funktionalität zeigen. Im harmlosesten Fall führt das zu einem Schaden am Ruf des Herstellers, wie beispielsweise bei über Mobilfunk angreifbaren Fahrzeugen von BMW oder Chrysler, bei denen glücklicherweise niemand zu Schaden kam, weil verantwortungsbewusste Sicherheitsforscher die Fehler aufdeckten. Die resultierenden Kosten für die Aktualisierung der Software in allen Fahrzeugen waren aber nicht zu vernachlässigen, da teilweise Rückrufe in die Werkstätten notwendig waren. Auf der anderen Seite kann fehlerhafte Software aber auch Personenschäden, also Verletzung oder Tod von Menschen bedeuten, wie der Fall der unerwünschten Beschleunigungen bei Toyota gezeigt hat. Im Gerichtsprozess zu einem Unfall eines Toyota Camry, bei dem ein Mensch getötet und einer verletzt wurde, zeigten Gutachter, dass die unerwünschte Beschleunigung auf fehlerhafte Software zurückzuführen war. Toyota wurde zur Zahlung von drei Millionen Dollar Schadensersatz verurteilt. Und das war nur einer von mehreren Fällen.
Software sollte also aus ethischen, aber auch aus wirtschaftlichen Überlegungen heraus eine möglichst hohe Qualität besitzen. Dazu zählt sicherlich, dass Software möglichst wenig Fehler haben sollte. Aber ist das schon alles? Im Folgenden wird zunächst der Begriff Softwarequalität genauer definiert. Anschließend wird gezeigt, wie man Softwarequalität in der Praxis messbar macht. Abschließend werden Qualitätssicherungsmaßnahmen vorgestellt, mit denen eine möglichst hohe Softwarequalität erreicht werden kann.

2. Definition

Qualität hat viele Aspekte. Glass unterscheidet beispielsweise fünf verschiedene Sichten, unter den man Qualität betrachten kann: die transzendente, die produktbezogene, die benutzerbezogene, die herstellungsbezogene und die kostenbezogene. Zwei dieser Sichten tauchen in einer von vielen akzeptierten Definition der Softwarequalität im Standard IEEE 610.12-1990 auf. Dort wird software quality definiert als:

(1) The degree to which a system, component, or process meets specified requirements.

(2) The degree to which a system, component, or process meets customer or user needs or expectations.

Die erste Definition entspricht der produktbezogenen Sicht, die zweite der benutzerbezogenen. Da die Benutzer eines Softwaresystems typischerweise sehr heterogen sind, ist es aber meistens unmöglich, eine eindeutige systemspezifische Definition der gewünschten benutzerbezogenen Qualität anzugeben. Es hat sich daher bewährt, der produktbezogenen Sicht zu folgen, d. h. hohe Qualität liegt dann vor, wenn alle dokumentierten Anforderungen in hohem Umfang erfüllt sind.
Zu beachten ist, dass die Definition sowohl Anforderungen an das Produkt, also die entwickelte Software, als auch Anforderungen an den Entwicklungsprozess der Software umfasst. Entsprechend unterscheidet man Produktqualität und Prozessqualität. Außerdem kann man unterscheiden zwischen Eigenschaften des Produkt, die von außen wahrnehmbar sind (externe Qualität) und Eigenschaften des Produkts, die nur den Entwicklern zugänglich sind (interne Qualität). Die interne Qualität wird dann wichtig, wenn es darum geht, die Software zu erweitern, Fehler zu beheben oder sonstige Änderungen vorzunehmen. Sie darf nicht vernachlässigt werden, denn Änderungen machen in der Praxis mehr als die Hälfte des Gesamtaufwands für Software über ihre Lebenszeit aus.

3. Messung

Um Softwarequalität messbar zu machen, haben sich Qualitätsmodelle bewährt, die alle relevanten Aspekte, die sich in Anforderungen an die Software wiederfinden sollten, umfassen. Dabei gibt es zwei wesentliche Ansätze: generische Qualitätsmodelle oder Vorgehensmodelle. Generische Modelle sind quasi ein Baukasten, aus dem man sich die gewünschten Eigenschaften für das konkrete Produkt auswählt, während Vorgehensmodelle einen Prozess beschreiben, wie man zu einem maßgeschneiderten Qualitätsmodell für ein konkretes Produkt kommt. Das bekannteste Vorgehensmodell ist Goal-Question-Metric (GQM). Beide Ansätze liefern am Schluss einen Satz an Maßen, sog. Metriken, mit denen Qualitätseigenschaften der Software gemessen werden können.

4. Qualitätssicherung

Software hat bestimmte Eigenschaften, die es Menschen sehr schwer machen, bei ihrer Entwicklung keine Fehler zu machen. Selbst die beste bekannte Software aus der Raumfahrt enthält immer noch Restfehler. Es hat sich allerdings gezeigt, dass zum einen über eine brauchbare Vorgehensweise bei der Entwicklung der Software die Wahrscheinlichkeit der Entstehung von Fehlern reduziert werden kann, und man durch geeignete Maßnahmen die meisten der trotzdem gemachten Fehler finden kann. Die dazu notwendigen Qualitätssicherungsmaßnahmen werden unterschieden in drei Bereiche: organisatorische, konstruktive und analytische. Organisatorische Maßnahmen stellen sicher, dass die Entwicklung sinnvoll organisiert wird, beispielsweise durch Einhaltung von Prozessnormen wie Automotive SPICE. Die konstruktiven Maßnahmen stellen sicher, dass die Entwicklung auf bewährte Strukturen zurückgreift und typische Fehler vermeidet, z. B. durch Einhaltung von Programmierrichtlinien wie MISRA-C. Beide Bereiche setzen also an der Fehlerentstehung an. Die analytische Qualitätssicherung hingegen hat die Aufgabe, vorhandene Fehler zu identifizieren. Die bekanntesten Ansätze sind hier Review, statische Analyse und Test. Das aus dem Projektmanagement bekannte magische Dreieck aus Qualität, Kosten und Zeit legt allerdings nahe, dass nicht beliebig viel Aufwand in Qualität investiert werden darf, da sonst die Kosten explodieren und die angestrebten Auslieferungstermine nicht eingehalten werden können. Es ist also letztlich ein wirtschaftlicher Kompromiss zwischen Qualitätssicherungskosten und Fehlerkosten nötig.

Ralf Reißing

Brands are a child of industrial society. They were developed to provide orientation in a new era in which numerous products and goods could easily be confused. A brand is supposed to signify a clearly marked territory. And, the fact that the brand gained its importance in the industrial society seems to make it inseparable from material commodities. It is connected to goods, products and hardware. Goods and products were the visible proof that the brand was still alive. It existed because its sign was recognized and its beneficial use was appreciated. But, what happens to this visibility when today most things are replaced by ideas and knowledge, by services and processes? We can best describe brand and how these brands survive by using pictures from theology. Brands function in the knowledge society like religion. We see nothing when brands sell knowledge goods. In religions, we do not see the beings that they are all about, either. But, we see churches, priests, ritual objects. People tend to believe only what they can see. Like in religion storytelling is a central tool in interior architecture designs. The staging of real-life brand stories and imagined ones increase consumer loyalty. Scenically designed brand environments today are not only the subject of objects which are exhibited in the classical way in display cabinets, or, that can be experienced in a more modern way, namely, interactively. Many public and private brand environments try to convey intangibles: from social problems or challenges to company philosophies or brand values. Successful communication in spaces has the primary objective of reaching the emotional state of fascination. All of the scenic, dramaturgical, surprising and emotionalizing elements of communication ensure the necessary interaction between human beings and the brand. Interaction provides the visitor with the opportunity of experiencing something new. Quenching the thirst for knowledge. Communication in spaces is perhaps the most efficient from of branding. The positive internal part of the brand must be made outwardly visible. Design as “walkable” identity in the form of branding space with all of
its expressive qualities presents a singular opportunity to influence the brand in a positive way.

Sandra Scalici & Mark N. Phillips

Seit der Gründung des “Science Citation Index” und der Einführung des sogenannten Impact-Faktor (IF; “impact factor”), verstärkt durch allgegenwärtige EDV, hat sich die Vorstellung ausgebreitet, durch simples Zählen von Zitaten, die eine wissenschaftliche Arbeit erhält, sowie der durchschnittlichen Anzahl der Zitate zu den Publikationen in einer bestimmten Zeitschrift, könne wissenschaftliche “Qualität” gemessen werden. Im Laufe der Zeit hat sich dazu eine Art wissenschaftssoziologische Forschungsrichtung entwickelt, die sich unter anderem damit befasst, Rangfolgen vom Wissenschaftlern, Hochschulen oder sogar Ländern zu erstellen bezüglich ihrer wissenschaftlichen “Produktivität” und “Qualität”, in einfacher Weise gemessen durch die Anzahl der Zitate. Andererseits gibt es auch zahlreiche kritische Berichte und Untersuchungen zu dieser Entwicklung, die diese simple Quantifizierung von “Qualität” widerlegen und es gibt zunehmend Bestrebungen, etwa die “San Francisco Declaration of Research Assessment”, die unsachgemässe Anwendung des IF zu unterbinden. Hingegen erschient es möglich, durch differenzierende Anwendung des IF, wie beispielsweise auf verwandte Arbeiten sowie durch Abgleich von Zitaten in wissenschaftlichen Arbeiten Aussagen über “Qualität” oder “Originalität” oder “Interdisziplinarität” zu gewinnen. Diese Anwendung des IF zeigt auch, dass der IF nicht zur Beurteilung von wissenschaftlicher “Produktivität” und “Qualität” geeignet ist, d.h., der IF kann zum Nachweis seiner eigenen Irrelevanz verwendet werden.

Gerhard Knothe

Das Recht ist einschließlich seiner Verwirklichung stets mit bestimmten Qualitäten verbunden. Diese Qualitäten sind nicht notwendiger Weise moralischer Natur. Bisweilen sind sie zudem auch nicht allgemeingültig verifizierbar, sondern entsprechen nur mehr oder weniger gut den formalen oder normativen Erwartungen unterschiedlicher beruflicher, gesellschaftlicher, politischer und/ oder wissenschaftlicher Gruppen; auch den jeweiligen Zeitgeist dürfen wir in diesem Kontext getrost einbeziehen.
Vor diesem Hintergrund werden im Rahmen des Beitrages zwei exemplarische Themenkomplexe skizziert, die summa summarum einen Einblick in Aspekte formaler, normativer und methodischer Rechtsqualität gestatten: Zum einen blicken wir auf die traditionsreiche rechtsphilosophische Naturrechts-Rechtspositivismus-Kontroverse, die u.a. die Relevanz moralischer Urteile über staatliches Recht zum Gegenstand hat, zum anderen wird die noch vergleichsweise junge, aber umso vehementer polarisierende Fragestellung der Verknüpfung methodischer Standards von Recht und Sozialer Arbeit vorgestellt. Während der erste Themenbereich die Gültigkeitsbedingungen von Rechtsnormen qualitativ hinterfragt, stehen bei der zweiten Fragestellung die Bedingungen gelungener Rechtsverwirklichung im Fokus, die wiederum nach rechtswissenschaftlicher Auffassung durch Rechtsnormen konditioniert wird.

Eckardt Buchholz-Schuster

Hochschulbildung und Hochschulbildungspolitik haben aktuell Konjunktur. Dies wird gemeinhin mit neueren, allgemein gesellschaftlichen und spezifisch wirtschaftlichen, Entwicklungen im Zuge von Globalisierung, demographischem Wandel und Digitalisierung sowie parallelen, öffentlichkeitswirksamen Wissenschaftsbefunden zum Bildungsstand der Bevölkerung („Pisa-Schock“) in Zusammenhang gebracht. Ihren rhetorischen Niederschlag findet die andauernde Bildungsdiskussion um notwendige Veränderungen in der Hochschullehre in gängigen Phrasen wie „offene Hochschule“, „lebenslanges Lernen“, „Studierendenorientierung“, „flexible Studienbedingungen“, „aktivierende Lehre“, „Kompetenzorientierung“, „individualisierte Lern- und Prüfungspfade“ usw. Deren wiederholter Gebrauch in der Auseinandersetzung gilt quasi als ‚en vogue’ sowie ‚political correct‘, und sie kommen auch – vergleichsweise lapidar, d.h. ebenso kraftvoll wie beiläufig – im Kontext interner hochschulischer Kommunikations- und Aushandlungsprozesse zunehmend zum Einsatz.
In vermeintlich gedanklich-inhaltlicher Übereinkunft wird so an der Basis, im Kollegium, sprachgewandt zuweilen leichtfertig verdeckt, woran es im Hochschulalltag spürbar mangelt: am kollegialen Verständnis für und an der vertieften Einsicht in den herausfordernden Mut, die konkreten Mühen und die Art der (fach)didaktischen Entscheidungen, die mit der Umsetzung solcher Begriffe bzw. Konzepte in konkrete Lehr-Lern-Praxis verbunden sind.
Ein systematischer, dialogischer Austausch lohnt deshalb gerade über diese Aspekte der Weiterentwicklung von Lehre, insofern die Allokation qualitativ hochwertiger und nachhaltig sinnvoller Lehr- und Studienangebote als zentrale Aufgabe einer Hochschule betrachtet wird und die Gleichwertigkeit von Lehre und Forschung für (fach)wissenschaftliche Entwicklung, akademische Reputation und Hochschulprofil sinnfällig werden soll. Wichtige Arbeitsschritte, spezifische didaktische Entscheidungen und unterstützende Kontextbedingungen werden deshalb im folgenden Beitrag auf der Folie zweier einschlägiger Dokumente veranschaulicht: der „Charta guter Lehre“, die in einem für die deutsche Hochschullandschaft einzigartigen Partizipationsprozess ausgehandelt wurde, sowie den jüngst erschienenen „Standards and Guidelines for Quality Assurance in the European Higher Education Area (EGS)“, die ebenfalls einem breit angelegten Revisionsprozess unterlagen. Ziel ist es, nachvollziehbar werden zu lassen, welche Bedeutung der entwicklungsoffenen subjektiven Einstellung zur Lehre einerseits sowie der wissenschaftsbasierten hochschuldidaktischen Information und Reflexion jeder in die Planung und Gestaltung von Hochschullehre involvierten Person, insbesondere aller Dozentinnen und Dozenten, andererseits zukommt.
Nachhaltiges didaktisches Design von Studienangeboten und die Suche nach passgenauen, sinnvollen und übertragbaren Lehr-Lern-Konzepten sowie Lehr-Lern-Methoden fordern von den Beteiligten weit mehr als populäre Rhetorik, pragmatische Improvisation, fesselndes Entertainment und motivierende Animation (mit und ohne digitale Medien). Sie gehen mit der gewollten Reflexion eigener Lehrpraxis und der Gewinnung didaktischer Einsicht und Erkenntnis auf der Grundlage von Lehr-Lern-, Bildungs- und Hochschulforschung einher.

Birgit M. Stubner M.A. (Univ.) – Leitung Referat Didaktik & Medien, Hochschule Coburg

Das Thema des nächsten Aufsatzsammelbandes lautet „Qualitäten“. Falls Sie Interesse haben, daran mitzuwirken oder jemanden kennen, den Sie gerne als Autorin oder Autor vorschlagen wollen, bitten wir Sie um eine Benachrichtigung via E-Mail an Josef.Loeffl@hs-coburg.de. Sofern Sie am Band „Qualitäten“  mitwirken möchten und damit dieser im Wintersemester erscheinen kann, bitten wir Sie bis zum 15. September 2015 einen Abstract zu erstellen. Dieser wird allen Mit-Autorinnen und Mit-Autoren zur Verfügung gestellt sowie im Blog veröffentlicht. Die Deadline für die Einreichung der Aufsätze ist der 15. Oktober 2015.Vielen Dank !

Beste Grüße

Ihre

Jürgen Krahl  & Josef Löffl

Martin Keller, Weiterentwicklung einer Durchlauf-Epitaxieanlage und Implementierung einer turbulenten Gasführung (= Zwischen den Welten, Bd. 1. hrsg. v. Jürgen Krahl, Josef Löffl), Göttingen 2015.

Knapper werdende Rohstoffe und die Auswirkungen des massiven Ausstoßes an klimaschädlichem CO2, haben in Deutschland zum Erneuerbare-Energien-Gesetz geführt. Erneuerbare Energien müssen hinsichtlich des Preises konkurrenzfähig sein. Bei der Photovoltaik (PV) werden vornehmlich zwei Strategien verfolgt: Zum Einen werden Solarzellen mit Hilfe der preisgünstigen Dünnschichttechnik hergestellt, zum Anderen gibt es Solarzellen aus kristallinen Siliziumwafern, welche ihre hohen Kosten durch hohe Wirkungsgrade kompensieren. Um eine Solarzelle zu entwickeln, welche die Effizienz von kristallinen Silizumwafern mit den Kosten der Dünnschichttechnik vereint, wird am Fraunhofer ISE das Konzept der kristallinen Silizumdünnschicht verfolgt. Dazu ist eine Epitaxieanlage notwendig, welche in industriellem Maßstab epitaktische Siliziumschichten abscheiden kann. Die ConCVD (Continuous Chemical-Vapor-Deposition) stellt dabei einen entscheidenden Zwischenschritt auf dem Weg von einer Laboranlage hin zu einer Produktionsanlage (ProConCVD) dar. In diesem Buch werden sowohl entscheidende ingenieurtechnische Weiterentwicklungen, als auch die Ergebnisse naturwissenschaftlicher Grundlagenforschung beschrieben, welche für die Entwicklung einer Epitaxieanlage notwendig sind.

Der im unterfränkischen Werneck geborene Dipl.-Ing. (FH) Martin Keller wurde bereits 2009 für seine Diplomarbeit mit dem E.on-Kulturpreis ausgezeichnet. Diese Arbeit zum „Design der Oberflächentextur einer Dünnschichtsolarzelle mithilfe statistischer Versuchsplanung“ fertigte er im Studiengang Physikalische Technik der Hochschule Coburg in Kooperation mit dem Fraunhofer Institut für Solare Energiesysteme in Freiburg an. Danach arbeitet er dort als Doktorand an der „Weiterentwicklung einer Durchlauf–Epitaxieanlage und Implementierung einer turbulenten Gasführung“. Da diese Aufgabenstellung neben Halbleiterphysik, Kristallographie und Strömungs simulation auch Anlagenbau beinhaltet, war der fachlich breit aufgestellte Studiengang physikalische Technik eine hervorragende Grundlage zum erfolgreichen Abschluss der Promotion.

Die Monographie ist als Band 1 der Reihe „Zwischen den Welten“ beim Cuvillier Verlag erschienen:

https://cuvillier.de/de/shop/people/54763-martin-keller

 

ZWISCHEN DEN WELTEN

ist eine interdisziplinäre Forschungsreihe der Hochschule Coburg. Aus ihrer jeweiligen Fachdisziplin heraus interpretieren Autorinnen und Autoren Themen und Begriffe „inter disciplinas„. Es entstehen Beiträge die sowohl im eigenen Fach als auch darüber hinaus zur Diskussion anregen sollen. In der Buchreihe erscheinen Monographien ( Band 1:  Martin Keller, Weiterentwicklung einer Durchlauf – Epitaxieanlage und Implementierung einer turbulenten Gasführung, Göttingen 2015.)  und Aufsatzsammelbände (Band 2: Philipp Epple, Regina Graßmann, Petra Gruner, Michael Heinrich, Peter Herz, Alheydis Plassmann, Claudia Schlager, Strömungen, Göttingen 2015.).

Eine Besonderheit von „Zwischen den Welten“ liegt im Austausch der Autorinnen und Autorinnen während der Arbeit am Sammelband. Zudem werden die Beiträge im Wissenschaftsblog „Zwischen den Welten“ (https://zdw.hs-coburg.de/) diskutiert.

Prof. Dr. Jürgen Krahl & Dr. Josef Löffl

Projektleiter