Warum habe ich mich beim Transfer des Crew-Resource-Managements in die Welt der Wirtschaft und Medizin für die Cockpit-Simulation entschieden?
Die Verkehrsluftfahrt verfügt über eines der besten Simulations-Systeme der Welt. Verkehrspiloten werden heute größtenteils in Simulatoren ausgebildet. Sie stehen der Realität kaum nach. Einen solchen professionellen Simulator habe ich in meinen Trainingsraum integriert.
In meinem kurzen Videoclip erzähle ich von meinen Erfahrungen mit Managern im Cockpit...
Gerade bei Führungskräften fehlt häufig der Abgleich zwischen theoretischem Wissen undtatsächlichem Verhalten.
Erst in einer lebensnahen Simulation erleben sie nachhaltig ihre tatsächlichen Verhaltensmuster. Es ist ein wirkungsvoller Soll-Ist Abgleich mit gleichzeitig nachhaltigem Lern- und Trainingseffekt in einer sehr fordernden, aber ungefährlichen Umgebung.
Sicherlich hat eine solche Szenario-Situation immer Spielcharakter. Eine Computerspielsituation ist keine Ernstsituation – so sollte man meinen. Tatsache aber ist, dass unsere Versuchspersonen unsere «Spiele» meist sehr ernst nahmen und mit großer Betroffenheit die Effekte ihrer eigenen Maßnahmen zur Kenntnis nahmen. «Spiele» können sehr ernst genommen werden – wer wüsste das nicht schon von der sonntäglichen Monopoly-Runde am Familientisch.
Quelle: Dörner D (2003) Die Logik des Mißlingens – Strategisches Denken in komplexen Situationen. Rowohlt, Reinbek bei Hamburg
Vor einigen Tagen führte ich mit einem Top-Manager, vor einem Cockpit-Training, eine engagierte Diskussion, welche Fehler Mitarbeiter und Chefs machen dürfen und welche nicht. Als Beispiel für einen unakzeptablen Fehler nannte er mir, wenn die Piloten im Landeanflug vergessen das Fahrwerk auszufahren.
Diese Bewertung von Fehlern finde ich bei Führungskräften recht oft. Sie teilen Fehler in akzeptabel und unakzeptabel ein.
Ich höre mir das meist sehr geduldig an und sage dann: die „unakzeptablen“ Fehler passieren aber trotzdem. Menschen können nicht zwischen unakzeptablen und akzeptablen Fehlern unterscheiden. Sie begehen sie einfach – sei es aus Routine, aus Unwissen, falschen Regeln oder schlicht durch fahrlässige Nichtbeachtung von Verfahren und vorgeschriebenen Verhaltensmustern. Die Fehlerforschung definiert daher einen Fehler als unbeabsichtigte Handlung. Sie werden nicht absichtlich und bewusst begangen.
Selbst ein bewusster Regelverstoß ist nicht automatisch ein absichtlich begangener Fehler, da Menschen die Konsequenz des Regelverstoßes ja anders einschätzen als das dann nicht erwünschte Ergebnis.
Deshalb hat die Luftfahrt in ihrem Thread and Error Management (TEM) das Begehen fast jeder Art menschlicher Fehler einkalkuliert. Ziel des TEM ist es, bei brisanten Prozessen möglichst viele Sicherheits-Barrieren für Schlüsselhandlungen einzubauen.
Zu einer solchen Schlüsselhandlung gehört auch das Ausfahren von Landeklappen und Fahrwerk für die Landung eines Flugzeuges. Beides ist extrem sicherheitsrelevant und ein Versäumnis kann zu fatalen Unfällen führen. Deshalb haben Hersteller und Airlines für diese beiden Handlungen viele Sicherheits-Barrieren eingezogen, in technischer (Warnungen optisch wie akustisch), verfahrensmäßiger (Checklisten) und menschlicher (vier Augen Prinzip, Kommunikationsregeln etc.) Hinsicht. Das reicht aber leider nicht.
Zu dieser Erkenntnis kam die Crew-Resource-Management Forschung im Bereich Fehlermanagement früh. Unter anderem deshalb wurde das einfache Fehlermanagement zum TEM entwickelt. Es bezieht nicht nur das System, in dem gearbeitet wird ein (hier Cockpit und Kabine des Flugzeuges), sondern auch einflussnehmende, äußere Faktoren.
Das wären in meinem Beispiel Luftfahrt u.a. das Ground Handling, die Flugsicherung (ATC), Wartung und die bodenseitige Flugplanung durch die Airline (Dispatch).
Vor zwei Tagen las ich über einen genau dazu passenden, aktuellen Fall: im Landeanflug „vergaß“ die Crew einer Boeing 787 Dreamliner der Vietnam Airlines, im Landeanflug auf den Flughafen Melbourne in Australien, das Fahrwerk auszufahren.
In wenigen hundert Fuß Höhe gab der Towerlotse über Funk eine deutliche Warnung an die Crew über die gefährlich falsche Landekonfiguration, wie es in der Fachsprache heißt.
Die Piloten starteten durch und landeten die Maschine ohne weitere Besonderheiten in einem zweiten Anflug, mit ausgefahrenem Fahrwerk. Die äußeren Umstände für den Flug waren problemlos, das Wetter einwandfrei. Die Piloten meldeten vorher keinerlei Störungen.
Die australische Luftfahrtbehörde ATSB wurde seitens Vietnam Airlines gebeten den Vorfall zu untersuchen.
Die Untersuchung läuft. Ziel ist es jetzt nicht, einen Schuldigen zu finden, den an die Wand zu nageln und dann ist es gut. Ziel der behördlichen Untersuchung und der Airline-Verantwortlichen ist es, die Umstände zu erfahren, die zu dieser Fehlerkette geführt haben. Dank des Crew-Resource-Managements (CRM) in seiner weiten Entwicklung (7. Entwicklungsstufe) und des daraus resultierenden TEM hielt eine der letzten Sicherheits-Barrieren, außerhalb von Cockpit und Kabine: die Flugverkehrskontrolle, hier der die Landung optisch beobachtende Towerlotse.
Gerade Australien ist neben den USA und England beispielhaft in der Forschung und Umsetzung des CRM. Das hat hier, mit hoher Wahrscheinlichkeit, eine Katastrophe mit zumindest vielen Verletzten und erheblichem wirtschaftlichen Schaden verhindert. So soll es sein!
Ich verfolge aufmerksam das Ergebnis der Untersuchung und den daraus abgeleiteten, verhaltensmäßigen und technischen Empfehlungen sowie ggf. Verfahrens-Optimierungen. Warum? Weil ich daraus für mein eigenes Handeln als Trainer, Change- und Krisenmanager lernen kann.
Und ich lerne gerne, ein Leben lang!
Eigentlich sollte es ein Clip über die Vorteile guter Simulationen werden. Ist es dann auch noch geworden ;)
Ausgerechnet vor laufender Kamera ist mir beim Start in Westerland/Sylt einer der häufigsten Fehlerarten passiert, die im Leben vorkommen, auch im Cockpit: der Routinefehler (Slip).
Erst wollte ich die Sequenz noch einmal drehen. Dann dachte ich mir: zeig es öffentlich, genau darüber reden wir im Crew-Resource-Management doch immer.
Fehler gehörten zum Alltag des Menschen.
Oft lese ich in Unternehmensleitlinien, dass Fehler machen erlaubt ist, jeder Fehler aber nur einmal passieren darf.
Schon in der frühen Fehlerforschung hat der weltbekannte Fehlerforscher James Reason rausgefunden, dass diese Wunschvorstellung an der Wirklichkeit vorbei geht. Gerade sich wiederholende Routinefehler sind nicht zu vermeiden!
Was zu vermeiden ist, sind die Konsequenzen daraus. Fatale Fehlerketten dürfen aus einzelnen Fehlern eben nicht entstehen.
Dazu müssen einige Voraussetzungen erfüllt sein:
Entdeckte Fehler müssen sofort offen und unaufgeregt angesprochen werden, auch in einer Hierarchie.
Der den Fehler begehende Mensch muss lernen und ständig trainieren, möglichst unaufgeregt und ohne Aktivismus auf eigene Fehler zu reagieren.
Fehler müssen in jedem Fall analysiert und in einem Fehlermanagement-System ausgewertet werden. In der Luftfahrt passiert das im ASRS (Aviation Safety Reporting System).
Die Fehlerauswertung muss ständig mit den existierenden Verfahren und SOP´s abgeglichen werden.
Piloten und Crews lernen das notwendige Verhalten von Anfang an, trainieren es ein Leben lang und können so völlig offen mit gemachten Fehlern umgehen. Ständig werden aus dem Fehlermanagement heraus Verfahren verbessert, die Organisation angepasst und neue Verhaltensmuster entwickelt. Das betrifft auch die Kommunikation.
In Unternehmen ist mir der richtige Umgang mit Fehlern bisher extrem selten begegnet. Das QM fristet ein nicht selten isoliertes Dasein, in einer Stabsfunktion. Es entwickelt und weist weitgehend vom grünen Tisch aus an, was in der Praxis oft nicht umgesetzt werden kann.
Der oben erwähnte fatale Satz „Fehler dürfen nur einmal passieren“ verhindert von vornherein den offenen Umgang mit Fehlern. Er ist Gift für eine angstfreie Fehlerkultur!
Richtig wären die Sätze:
Menschen machen Fehler, das ist unvermeidbar. Unsere Aufgabe als Unternehmensführung ist es, eine entsprechende Kultur und Voraussetzungen zu schaffen, dass aus begangenen Fehlern fatale Fehlerketten sicher vermieden werden.
Airline-Crews machen nach jedem Tag gemeinsamer Arbeit ein De-Briefing. Darin besprechen sie offen was gut und was nicht so gut gelaufen ist. Gegebenenfalls melden sie Ereignisse mit Gefahrenpotential in das ASRS der Airline, damit andere Crews daraus lernen und Verfahren bei einer Häufung von Fehlern gleicher Art verbessert werden können. Das Crew-Resource-Management schafft die Verhaltensmuster und Regeln für diese psychologisch sichere Arbeitsumgebung. So geht richtige Führungskultur, Nachahmung empfohlen!
Was ist eigentlich aus dem Boeing 737MAX Problem bzw. den beiden fatalen Unfällen in Äthiopien und Indonesien geworden?
Ein Aufschrei der Entrüstung ging durch Medien und Öffentlichkeit.
Das Problem wurde sehr vereinfacht dargestellt: ein Schuldiger, der heißt Boeing mit seiner Schlampigkeit aus Habgier und fertig. Entspricht das der Realität? Interessiert niemanden! Es klingt gut, trifft den richtigen, verklärt die Piloten und Airlines zu hilflosen Opfern und verdammt ein Stück weit moderne Technik und Profitsucht. Es fiel in vermeintlich seriösen Medien dazu sogar der Begriff „Killer-Computer“.
Die Verhaltensforschung hat eine seit längerem sichere Erkenntnis:
Es gehört zu den größten Fehlerquellen menschlicher Entscheidungen, komplexe Zusammenhänge und Ursachen zu vereinfachen. Die Lösungen erscheinen dann ebenfalls einfacher, Antworten kann man schnell (aktivistisch) geben, und glaubt damit die Probleme los zu sein.
Einen Fehlerweg, den nicht nur Politiker bravourös gehen gelernt haben, sondern zunehmend auch Manager.
Die Wirklichkeit wird solange vereinfacht, bis die alten Verhaltensmuster für die vermeintliche Lösung passen. Die starke Motivation dazu:
Verhalten verändern erfordert ein hohes Maß kritischer Selbstreflexion und einen sehr anstrengenden Weg persönlicher Verhaltensänderung. Es erfordert viel Selbstdisziplin, und das auch noch unter der Beobachtung eigener Hierarchien. Also versuchen wir doch lieber gleich die Strukturen (Organisation) zu verändern, mit plakativen, einfachen, nicht selten radikalen Maßnahmen, in einer zusammengebastelten Scheinwelt.
Dabei erlebe ich in vielen Unternehmen den immer näher kommenden „Ketchup-Flaschen-Effekt“:
sie schlagen immer wieder kräftig auf den Boden der Ketchup-Flasche, doch es tröpfelt nur ganz langsam etwas heraus. Und mit einem Mal verteilt sich der komplette Inhalt schlagartig auf Ihrem Teller und spritzt auf ihr Hemd. Übersetzt heißt das:
Eine Reihe falscher Maßnahmen führt zu wenigen Konsequenzen, weder positiv noch negativ. Bis auf einmal, recht plötzlich, das ganze Unternehmen ins Wanken gerät.
Was das mit dem Boeing-Unfall zu tun hat? Die (zum Glück) ruhige, präzise und tiefe Analyse des Problems, abseits der öffentlichen Wahrnehmung, hat eine Vielzahl von Schwachstellen im System Effizienzdruck, Hersteller, Airlines, Technik, Ausbildung und Crew zu Tage gefördert. Das führt nun dazu, dass nicht nur die Software des MCAS-Systems überarbeitet werden muss, sondern das gesamte computergestützte Steuersystem des Flugzeuges von Grund auf.
Denn: die Ursache für beide Unfälle ist komplex. Sie liegt in einer Gemengelage von technischem Versagen, hohem wirtschaftlichen Druck, mangelhaft trainierten Piloten und schlichter Fehler beim Berechnen der Betriebssicherheit des Flugzeuges. Dazu kamen zufallsbedingte, die Fehlerkette begünstigende Faktoren, wie der Weggang zweier hocherfahrener FAA-Prüfspezialisten für die Boeing 737-Serie mitten im Zulassungsverfahren für die 737MAX.
Zum Absturz gebracht hat beide Maschinen letztlich nicht das technische Versagen des MCAS, sondern eine Kette von Pilotenfehlern im Umgang mit dieser Situation, begünstigt durch schlechte Usability des vorgeschriebenen Fehlermanagements im Cockpit, mangelndem Training und last but not least eines fehlenden „milder“ verlaufenden Präzedenzfalls, der die gravierenden Fehler im System frühzeitiger hätte in den Vordergrund treten lassen.
Wir können dem Crew-Resource-Management der Luftfahrt und der daraus resultierenden offenen, vorbehaltlosen Kommunikation und Genauigkeit in Analyse und Konsequenzen dieser fatalen Fehlerkette dankbar sein. Sie macht einen Wiederholungsfall eines derartigen, systemisch komplexen Fehlers beim Zulassen eines computergesteuerten Mensch-Maschine Arbeitsraumes sehr viel unwahrscheinlicher.
Was hat das mit modernem Management in der übrigen Wirtschaft zu tun? Sehr viel!
Vergleichen Sie einfach die Vorgehensweise im Management bei heute auftretenden Problemen und Veränderungen in Unternehmen mit der Differenz der öffentlichen Wahrnehmung zur Wirklichkeit im Fall Boeing 737Max.
Wen es interessiert: im oben eingebundenen Video erfahren Sie den aktuellen Stand der Untersuchung und Entwicklung der Boeing 737MAX Probleme.
Vorsicht, es ist anstrengend und stellt hohe Ansprüche um es wirklich zu verstehen ;)