...der Computer.
In der Luftfahrt gab es eine Zeit, in der das ansonsten schon so erfolgreiche
Crew-Resource-Management (CRM) nochmal auf eine
harte Probe gestellt wurde.
Mit dem ersten
voll computerisierten Cockpit im Airbus A320, Ende der 1980er-Jahre, stieg die Zahl der Unfälle durch
menschliches Versagen wieder an.
Gleich 1988, bei der Vorführung des völlig neuartigen Jets auf einer Flugschau an der deutsch-französischen Grenze, verwirrten die Computer die Cockpitbesatzung derart, dass sie die Kontrolle über die Maschine verloren. Das Flugzeug rauschte in den Wald und brannte aus, 3 Menschen starben.
Die
Probleme und Herausforderungen der Digitalisierung im Cockpit beschreibe ich ausführlich in einem
anderen Artikel.
Und es ging so weiter. Fast jedes Jahr Abstürze durch menschliches Versagen in Computer-Cockpits. Betroffen waren fast alle Airlines.
Was lief auf einmal falsch im bisher so erfolgreichen CRM-Prozess?
Ende der 1990er-Jahre ergriff, in enger Zusammenarbeit mit der damals noch existierenden, großen US-Airline Continental, einer der
Väter des CRM, der namhafte Psychologe
Robert Helmreich die Initiative, um unter anderem diesem Phänomen in Computer-Cockpits auf den Grund zu gehen.
Bisher sammelte man für das
Fehlermanagement im CRM hauptsächlich Daten von Zwischen- und Unfällen im damals noch jungen
ASRS (Aviation Safety Reporting System), wertete diese präzise aus und entwickelte daraus
Empfehlungen und Anweisungen für die Luftfahrt.
Schon immer war die amerikanische
Luftfahrtbehörde FAA eng in die CRM-Entwicklung involviert, so auch bei der Gestaltung und Weiterentwicklung des ASRS.
Also war es schon fast selbstverständlich, dass auch jetzt, mit dem neuen Projekt der Wissenschaftler, die FAA von Anfang an mit im Boot saß und dem Projekt offiziellen und finanziellen Schub verlieh.
Es war die Geburtsstunde des LOSA. Die Abkürzung steht für
Line
Operations
Safety
Audit und ist ein weiterer
Meilenstein in der Luftfahrtsicherheit (Qualität).
Damit entwickelte sich aus dem Fehlermanagement das
TEM (Thread an Error Management). DER Verdienst des LOSA.
Man wollte sich in Zukunft nicht nur mit gemeldeten Fehlern aus dem ASRS zufriedengeben, sondern Daten über mögliche Gefahren sammeln, die (noch) zu gar keinem Fehlerreport oder Unfall geführt haben.
Prof. Helmreich und sein Weggefährte Dr. James Klinect gründeten für das LOSA an der Universität Austin (TX) ein
eigenes Institut. Es sammelt Daten über einen definierten Zeitraum im ganz
normalen Flugbetrieb von Airlinern und wertet diese aus.
Unterstützt werden diese Audits jeweils
von ganz oben, der FAA sowie den CEOs der großen Airlines.
Folgende wesentliche Voraussetzungen sind für den Erfolg und die Akzeptanz von LOSA bei den Crews nötig:
- Nicht das einzelne Crew-Mitglied soll im Handeln beobachtet werden, sondern der Handlungsablauf der gesamten Crew im Rahmen der festgelegten Verfahren.
- Die Daten werden streng anonym gesammelt und haben keinerlei negative Auswirkungen oder Folgen auf das einzelne Crewmitglied oder die Airline.
- Speziell ausgebildete, auf die LOSA-Datensammlung trainierte Flugkapitäne nehmen diese Erfassung unkommentiert vom „Jump-Seat“ wahr.
- Die Erkenntnisse daraus sind öffentlich zugänglich.
- Das Audit hat einen definierten Zeitraum über maximal einige Wochen.
Betrachtet wurden
alle Prozesse im Cockpit, die mit einem Flug in Zusammenhang stehen.
So auch die Kommunikation mit der Flugleitstelle (ATC) und die
Interaktion mit den Bordcomputern.
Die Daten werden vor der Auswertung nochmal von Spezialisten der Airline und Hersteller verifiziert. Es sind
reine Daten aus Human Factors, keine technischen Daten.
Denn: Human Errors waren zu 80 % die Ursache von Flugzeugkatastrophen.
Die Datenflut aus dem normalen Flugbetrieb und ihre sehr sorgfältige Auswertung brachten dem CRM nochmals sehr wertvolle Ergänzungen und komplett neue Erkenntnisse.
Das betrifft vor allem die
Zusammenarbeit von Menschen mit Computern.
Damit wurden unter anderem
zwei entscheidende Irrtümer in der Entwicklung von Hard- und Software
aufgedeckt und korrigiert.
Beide waren Hauptursachen von Flugzeugkatastrophen mit vielen Toten:
- Der Mensch muss sich nicht dem Computer anpassen, sondern der Computer dem Menschen.
(Diese Usability-Erkenntnis deckt sich zu 100% mit den Erkenntnissen von Don Norman und Jakob Nielsen, siehe meinen Artikel vom Juli 2017)
- Der Computer besitzt keine Intelligenz, auch keine künstliche – egal wie hoch er entwickelt ist! Computer sind dumm, so eine deutliche Überschrift im LOSA.
Computer können weder Absichten erkennen noch die Situationsübersicht haben.
Computer sind von Sensoren abhängig, die den menschlichen Sinnen nicht mal annähernd das Wasser reichen können.
Das aus dem LOSA entstandene
Schema des Thread and Error Managements (TEM) zeigt, wie heute das
Sicherheitsmanagement in der Verkehrsluftfahrt funktioniert.
Es hat
Mensch und Computer im Cockpit zu einer
einzigartig fehlerarmen Zusammenarbeit und
Effizienz geführt.
LOSA könnte ein
Vorbild für jedes Qualitätsmanagement sein und Unternehmen sowie Kliniken neue Welten eröffnen.
In den USA ist man in Kliniken schon weit fortgeschritten damit. In Europa, und speziell in Deutschland, steckt das Thema noch in den Kinderschuhen.
In
Unternehmen ist es, bis auf wenige Ausnahmen, überhaupt noch
nicht angekommen.
Das
Wissen existiert und ist jedermann öffentlich zugänglich, seit fast 20 Jahren.
Gerade bei den schnell wachsenden
Herausforderungen der Digitalisierung kann die Luftfahrt ein exzellentes Vorbild sein.
Denn: setze
Sicherheit=Qualität und der Transfer ist fast 1:1 möglich.
Quellen:
Kanki, B. G., Helmreich, R. L., and Anca, J. (2010) Crew Resource Management, Second Edition, Elsevier, Amsterdam.