Sicherheitskulturen – Safety und Security im Technologienvergleich

Sicherheitskulturen – Safety und Security im Technologienvergleich

Der Workshop fand am 09. Februar 2017 im Vortragssaal der ULB statt

„Sicherheitskultur“ ist ein inzwischen in Industrie, Politik und Wissenschaft verbreiteter Begriff, entsprechend vielschichtig ist seine Verwendung. Die im Englischen gebräuchliche Unterscheidung von safety als technischer und security als gesellschaftlicher Sicherheitsproblematik wird im Deutschen implizit mitgeführt, und mit Sicherheitskulturen werden beide Dimensionen adressiert. Es geht dabei um die von gesellschaftlichen Wertvorstellungen geprägten Beziehungen zwischen einzelnen, immer komplexer werdenden technischen Systemen, ihren Entwickler_innen und Anwender_innen sowie der Politik. Sie konfrontiert uns vor allem mit der Rolle von Ingenieur_innen und ihrer Verantwortung für die wirksame Ausgestaltung einer tragfähigen Sicherheitskultur.

Die Arbeitsteilung der Sicherheitsforschung für safety und security weist in unterschiedlichen Technikfeldern Gemeinsamkeiten und Unterschiede auf. Was können wir voneinander lernen, wenn wir Herausforderungen und Defizite der Sicherheitsforschung in den Blick nehmen? Was können Ingenieur_innen und Ingenieurwissenschaften leisten? Sind Sicherheitskulturen gestaltbar? Oder sind die gesellschaftlichen Erwartungen an technische Lösungsansätze zu hoch? Werden Studierende auf ihre zukünftige, über das rein Technische hinausgehende Verantwortung vorbereitet?

Am Beispiel von Nuklear-, Mobilitäts- und IuK-Technologien und mit Impulsvorträgen u.a. von Christoph Hubig (Philosophie), Uwe Klingauf (FSR), Alfred Nordmann (IANUS), Ahmad-Reza Sadeghi (System Security Lab) und Annette Schaper (HSFK) wollen wir neue Entwicklungen diskutieren und Konsequenzen für Wissenschaft und Praxis erörtern. Ausgangspunkt unseres Dialogs ist ein von IANUS erarbeitetes Diskussionspapier.

Der Workshop wird von IANUS in Kooperation mit dem Forum interdisziplinäre Forschung (FiF) organisiert. Während die Forschungshypothesen von IANUS überprüft, differenziert und geschärft werden, geht es auch um die Wünschbarkeit eines intensiveren interdisziplinären Austauschs innerhalb der TU Darmstadt und am FiF.

Informationen zum Ablauf des Workshops finden Sie imProgrammheft.

Impressionen

Rückblick: Bericht

Die von IANUS in diesem Workshop zur Diskussion gestellte These der Verschiebung von Safety u. Security Fragen auf eine zunehmend (inner-)technische Ebene konnte weitgehend bestätigt und ausdifferenziert werden. Die damit einhergehende Herausforderung vor allem in Fragen der Verantwortung, die sich an Wissenschaft und Praxis stellt kann nun, durch den Technologienvergleich und den Austausch der Teilnehmer*innen konkreter benannt werden.

Sicherheitskulturen unterliegen einem stetigen Wandel. Der Begriff, aus der Reaktorsicherheit heraus entstanden, weist die Nukleartechnologie als Impulsgeber für viele der aktuell stattfindenden Entwicklungen aus. War damit im Zusammenhang mit dem Reaktorunfall in Tschernobyl der Faktor Mensch in den Blick geraten, so hat sich gezeigt, dass seither die Frage nach der Sensibilisierung des mit operativen Fragen befassten Personals für Störanfälligkeiten und Sicherheitsmängel in komplexen technischen Systemen technologienübergreifend an Bedeutung gewinnt. Das betrifft sowohl Safety- als auch Security-Belange.

Doch angesichts wachsender Komplexität und Digitalisierung in allen Technologiefeldern wird die Frage nach der Verantwortung für deren umfassende Sicherheit nicht nur weiter an die Technik delegiert, sondern auch schwieriger zu adressieren: Herkömmliche Techniken der Sicherung erweisen sich als unzulänglich aufgrund neuer Gefährdungslagen einerseits und wegen der Synthetisierung von Primärtechnologien mit weiteren (z.B. zu cyber-physischen Systemen) andererseits. Nicht zuletzt müssen deshalb auch die Ausbildungskonzepte, etwa von Ingenieuren ergänzt oder angepasst werden, müssen sich Geisteswissenschaften aus ihren vertrauten Forschungsfeldern herausbewegen.

Sicherheitskulturen sind daher mit Fragen des Safety-Managements nur unzureichend charakterisiert. Vielmehr wird mit dem Begriff implizit auch eine Security Culture angesprochen, deren Definitionsbereich jedoch gestaltet werden und die den Umgang von Menschen mit der Technik regeln muss. In dieses Forschungsfeld gehören Fragen, die die Safety-Culture nicht beantworten kann. Sie betreffen z.B. den Aspekt der Vermeidbarkeit ethischer Dilemmata, etwa mit Blick auf die Implementierung ethischer Algorithmen zur Vermeidung von Personenschäden in der Entwicklung von ‚smart cars‘. In der IT-Sicherheit ist damit u.a. das aktuell drängende Problem der Ununterscheidbarkeit zwischen ‚real‘ und ‚fake news‘ bezeichnet, das durch die performative Verfasstheit ethischer Algorithmen (noch) nicht erfasst werden kann

Mit der Implementierung technologischer Innovationen aktualisieren sich zumeist mehr Eigenschaften als zuvor bedacht, was im Falle von Safety- und Security-sensiblen Sachlagen fatale Folgen haben kann. Auch lassen sich Systemfehler meist erst dann eruieren, wenn es zu Störungen kommt. An diesem Punkt lohnt sich ein Blick auf konzeptuelle Überlegungen der Responsible Research and Innovation (RRI)-Forschung. Danach sollen Innovationen entlang der vier Dimensionen der Antizipation, Reflexion, Inklusion und des Austauschs (Responsiveness) implementiert und somit versucht werden unintendierte und unerwünschte Effekte sowie Störungen im Vorfeld zu vermeiden und Neuerungen im Sinne europäischer Richtlinien und Werte zu prägen.

Im Hinblick auf die Nukleartechnologie wurde erneut gezeigt, dass Safety- und Security Aufgaben trotz klarer Arbeitsteilung kaum voneinander getrennt werden können: die Dual-Use Problematik durchzieht alle Safety-Bereiche und macht selbige gleichsam zum Security-Problem. Seit Ende des Kalten Krieges ist zudem eine klare Zuordnung des Materials an bestimmte (staatliche) Akteure nicht mehr gegeben, sind friedliche Nutzung nuklearer Energie gleichsam zum Security-Faktor geworden, die institutioneller, internationaler und interdisziplinärer Verregelungen bedürfen und deren Praktiken sich weniger durch ihre politische als vielmehr durch ihre technische Verfasstheit auszeichnen. Der hierfür geprägte Begriff der „Safeguards“ macht das deutlich: Qua Kontroll-, Versiegelungs-, Detektionstechnologien werden Absprachen und Einhaltung von Abrüstungs- und Nichtverbreitungsverträgen verifiziert. Allerdings lässt sich auch zeigen, dass sich spieltheoretische Überlegungen, die zu Beginn des Kalten Krieges im Zusammenhang mit dem Umgang von Nuklearwaffen etabliert worden sind, weiter fort- und als Methode in technisch gestützte Rüstungskontrollverfahren einschreiben. So soll ein Nichtwissen operationalisiert werden, das in Ermangelung eindeutiger Zuschreibungsmöglichkeit die Entdeckungswahrscheinlichkeit von Vertragsverstößen steigern soll.

Technische Transportsysteme wie der Luftverkehr sind ähnlich streng reglementiert wie die Nukleartechnologie. Und ähnlich wie das Safety-Management in der Reaktorsicherheit basieren die Sicherheitsprinzipien im Luftverkehr auf international verbindlichem Sicherheitsmanagement, systemischem Denken, standardisiertem Vorgehen und auf Sicherheitsnetzen, in die mehrere Rückfallebenen eingebaut sind („Schweizer-Käse-Modell“). Das betrifft auch das Feld Security-sensibler Belange. Die oben angesprochene Ununterscheidbarkeit von ‚real‘ und ‚fake‘, ‚Freund‘ und ‚Feind‘ zeigt sich hier in strengen Kontrollbestimmungen, etwa an Flughäfen, die zwischen Personal und Passagier keine Unterschiede mehr macht. Übergreifend wird durch Veränderungen der allgemeinen Bedrohungslage die Forderung nach einer Schärfung des Sicherheitsbewusstseins formuliert, durch die Verantwortung verteilt und die Vulnerabilität des Gesamtsystems sichtbar wird.

Die Bewusstwerdung neuer Sicherheitsstrukturen bei Mitarbeitern und Nutzern spielt auch in der so genannten Industrie 4.0 eine bedeutende Rolle, in der Produkte und Maschinen künftig miteinander vernetzt und aus der Ferne zustandsüberwacht und gesteuert werden sollen. Mit diesem Versprechen gehen neue Unsicherheiten einher: Produktgeheimnisse, Sicherung der Produktion und der Schutz vor unbefugten Zugriffen müssen nicht nur seitens der IT-Sicherheit gewährleistet werden, sondern eben auch durch entsprechendes Verhalten der Mitarbeiter, das in Sensibilisierungs-Schulungen eingeübt werden soll.

Sicherheitsfragen, so lässt sich resümieren, behandeln immer ein Nichtwissen, das durch Vorausberechnungen, Reflexion und Inklusion zugänglich gemacht und im Sinne verantwortlichen Handelns gesteuert werden soll. Nichtwissen ist aber auch ein konstitutiver Bestandteil komplexer technischer Systeme, das sich niemals vollständig beherrschen lässt und das erst durch Störungen handhabbar wird. Die Herausforderung verantwortlichen Handelns besteht also weniger im Versuch umfassender Steuerung und auch nicht in der Zuschreibung von Verantwortung für Störungen an einen „Feind“ als vielmehr im Versuch Definitionsbereiche von Safety- und Security-als Sicherheitskulturen zu benennen und sowohl den Umgang mit Störungen als auch technische Innovationen frühzeitig im Sinne ethischer Akzeptabilität zu gestalten. Das wiederum kann nur in inter- und transdisziplinärer Zusammenarbeit gelingen und in der Bereitschaft, sich mit operativen Prozessen und deren Verfasstheit auseinanderzusetzen und diese zu reflektieren.