Freitag, 22. Dezember 2017

Human Factors vs. Digitalisierung – die eindrucksvolle Demonstration der Realitäten

Die Landung mit einem Verkehrsflugzeug, wie der A320, in Paro/Bhutan ist die größte Anforderung an Arbeitsqualität für Piloten, die man sich vorstellen kann.



Perfektes Workload-Management, Stressmanagement, exaktes Einhalten der Verfahren und Routen (zero tolerance), stetige Situational-Awareness, Grenzen der digitalen Technik und, last but not least viel Training verschmelzen hier zu einer untrennbaren Leistungseinheit, ohne die eine sichere Flugdurchführung nicht möglich ist.

Meine besondere Herausforderung: Single Pilot Operation und Self-Management

Paro dürfen weltweit nur 8 Piloten mit einem Flugzeug wie dem A319/320 anfliegen.
Es ist der schwierigste Airport der Welt für einen Verkehrsjet.
Die Piste ist nur 2.000m lang, liegt 2.350m über dem Meeresspiegel, in einem engen Tal, umgeben von bis zu 4.500m hohen Bergen in unmittelbarer Umgebung.
Der Anflug muss nach Sicht durch Täler im Zickzack Kurs, mit großen Kurvenneigungen geflogen werden.

Der Sinkgradient der Maschine wird bis aufs letzte ausgereizt – das Können der Piloten auch.
Das Manöver muss weitgehend manuell und zum Schluss im grenznahen Geschwindigkeitsbereich geflogen werden.


Diesen Airport nutze ich im Stress- und Teamtraining nur mit einzelnen Teilnehmern, die Vorbildung im Crew-Resource-Management und in der Luftfahrt oder ähnlichen Berufen, wie Seefahrt, Flugsicherung oder Raumfahrt haben.

Samstag, 16. Dezember 2017

5 Tipps für erfolgreiches und stressarmes Arbeiten unter Druck – aus dem Cockpit

Laut einer DAK Studie nehmen sich 59% aller Befragten für 2018 vor: Stress vermeiden und abbauen!

Da habe ich gleich 5 bewährte Tipps aus dem Cockpit, wie Ihnen das erfolgreich gelingt :)

Am Ende des Videos sehen Sie die 5 „behavioral markers“ für ein richtiges workload management und eine sichere situational awareness eingeblendet, die mich die Aufgabe erfolgreich und stressfrei abschließen lassen.


Sie haben sich bei mir auch als Manager in schwierigen und anspruchsvollen Situationen ausgezeichnet bewährt!

Donnerstag, 14. Dezember 2017

Als das dümmste Crew-Mitglied an Bord kam...

...der Computer.



In der Luftfahrt gab es eine Zeit, in der das ansonsten schon so erfolgreiche Crew-Resource-Management (CRM) nochmal auf eine harte Probe gestellt wurde.

Mit dem ersten voll computerisierten Cockpit im Airbus A320, Ende der 1980er-Jahre, stieg die Zahl der Unfälle durch menschliches Versagen wieder an.
Gleich 1988, bei der Vorführung des völlig neuartigen Jets auf einer Flugschau an der deutsch-französischen Grenze, verwirrten die Computer die Cockpitbesatzung derart, dass sie die Kontrolle über die Maschine verloren. Das Flugzeug rauschte in den Wald und brannte aus, 3 Menschen starben.

Die Probleme und Herausforderungen der Digitalisierung im Cockpit beschreibe ich ausführlich in einem anderen Artikel.

Und es ging so weiter. Fast jedes Jahr Abstürze durch menschliches Versagen in Computer-Cockpits. Betroffen waren fast alle Airlines.

Was lief auf einmal falsch im bisher so erfolgreichen CRM-Prozess?

Ende der 1990er-Jahre ergriff, in enger Zusammenarbeit mit der damals noch existierenden, großen US-Airline Continental, einer der Väter des CRM, der namhafte Psychologe Robert Helmreich die Initiative, um unter anderem diesem Phänomen in Computer-Cockpits auf den Grund zu gehen.

Bisher sammelte man für das Fehlermanagement im CRM hauptsächlich Daten von Zwischen- und Unfällen im damals noch jungen ASRS (Aviation Safety Reporting System), wertete diese präzise aus und entwickelte daraus Empfehlungen und Anweisungen für die Luftfahrt.

Schon immer war die amerikanische Luftfahrtbehörde FAA eng in die CRM-Entwicklung involviert, so auch bei der Gestaltung und Weiterentwicklung des ASRS.
Also war es schon fast selbstverständlich, dass auch jetzt, mit dem neuen Projekt der Wissenschaftler, die FAA von Anfang an mit im Boot saß und dem Projekt offiziellen und finanziellen Schub verlieh.

Es war die Geburtsstunde des LOSA. Die Abkürzung steht für Line Operations Safety Audit und ist ein weiterer Meilenstein in der Luftfahrtsicherheit (Qualität).
Damit entwickelte sich aus dem Fehlermanagement das TEM (Thread an Error Management). DER Verdienst des LOSA.
Man wollte sich in Zukunft nicht nur mit gemeldeten Fehlern aus dem ASRS zufriedengeben, sondern Daten über mögliche Gefahren sammeln, die (noch) zu gar keinem Fehlerreport oder Unfall geführt haben.

Prof. Helmreich und sein Weggefährte Dr. James Klinect gründeten für das LOSA an der Universität Austin (TX) ein eigenes Institut. Es sammelt Daten über einen definierten Zeitraum im ganz normalen Flugbetrieb von Airlinern und wertet diese aus.
Unterstützt werden diese Audits jeweils von ganz oben, der FAA sowie den CEOs der großen Airlines.

Folgende wesentliche Voraussetzungen sind für den Erfolg und die Akzeptanz von LOSA bei den Crews nötig:
  • Nicht das einzelne Crew-Mitglied soll im Handeln beobachtet werden, sondern der Handlungsablauf der gesamten Crew im Rahmen der festgelegten Verfahren.
  • Die Daten werden streng anonym gesammelt und haben keinerlei negative Auswirkungen oder Folgen auf das einzelne Crewmitglied oder die Airline.
  • Speziell ausgebildete, auf die LOSA-Datensammlung trainierte Flugkapitäne nehmen diese Erfassung unkommentiert vom „Jump-Seat“ wahr.
  • Die Erkenntnisse daraus sind öffentlich zugänglich.
  • Das Audit hat einen definierten Zeitraum über maximal einige Wochen.
Betrachtet wurden alle Prozesse im Cockpit, die mit einem Flug in Zusammenhang stehen.

So auch die Kommunikation mit der Flugleitstelle (ATC) und die Interaktion mit den Bordcomputern.

Die Daten werden vor der Auswertung nochmal von Spezialisten der Airline und Hersteller verifiziert. Es sind reine Daten aus Human Factors, keine technischen Daten.

Denn: Human Errors waren zu 80 % die Ursache von Flugzeugkatastrophen.

Die Datenflut aus dem normalen Flugbetrieb und ihre sehr sorgfältige Auswertung brachten dem CRM nochmals sehr wertvolle Ergänzungen und komplett neue Erkenntnisse.

Das betrifft vor allem die Zusammenarbeit von Menschen mit Computern.

Damit wurden unter anderem zwei entscheidende Irrtümer in der Entwicklung von Hard- und Software aufgedeckt und korrigiert.
Beide waren Hauptursachen von Flugzeugkatastrophen mit vielen Toten:
  • Der Mensch muss sich nicht dem Computer anpassen, sondern der Computer dem Menschen.
(Diese Usability-Erkenntnis deckt sich zu 100% mit den Erkenntnissen von Don Norman und Jakob Nielsen, siehe meinen Artikel vom Juli 2017)
  • Der Computer besitzt keine Intelligenz, auch keine künstliche – egal wie hoch er entwickelt ist! Computer sind dumm, so eine deutliche Überschrift im LOSA.
 Computer können weder Absichten erkennen noch die Situationsübersicht haben. 
Computer sind von Sensoren abhängig, die den menschlichen Sinnen nicht mal annähernd das Wasser reichen können.



Das aus dem LOSA entstandene Schema des Thread and Error Managements (TEM) zeigt, wie heute das Sicherheitsmanagement in der Verkehrsluftfahrt funktioniert.
Es hat Mensch und Computer im Cockpit zu einer einzigartig fehlerarmen Zusammenarbeit und Effizienz geführt.

LOSA könnte ein Vorbild für jedes Qualitätsmanagement sein und Unternehmen sowie Kliniken neue Welten eröffnen.

In den USA ist man in Kliniken schon weit fortgeschritten damit. In Europa, und speziell in Deutschland, steckt das Thema noch in den Kinderschuhen.
In Unternehmen ist es, bis auf wenige Ausnahmen, überhaupt noch nicht angekommen.

Das Wissen existiert und ist jedermann öffentlich zugänglich, seit fast 20 Jahren.

Gerade bei den schnell wachsenden Herausforderungen der Digitalisierung kann die Luftfahrt ein exzellentes Vorbild sein.

Denn: setze Sicherheit=Qualität und der Transfer ist fast 1:1 möglich.

Quellen:

Kanki, B. G., Helmreich, R. L., and Anca, J. (2010) Crew Resource Management, Second Edition, Elsevier, Amsterdam.

Donnerstag, 7. Dezember 2017

Fehler sind die Lehren des Lebens

Als Manager-Trainer und Coach habe ich es mir auferlegt, mich selbst nicht nur ständig weiterzubilden, sondern regelmäßig meine Fehler zu analysieren um dadurch mein Selbstbild zu überprüfen.
Als Verkehrspilot geschieht das sowieso mehrfach im Jahr von Amts wegen.
Als Trainer jedoch brauchen Sie Disziplin, das immer wieder zu machen.
Neben der jährlichen Überprüfung meiner Methode und Fähigkeiten durch Dritte (EASA zertifizierte Human-Factor Spezialisten aus der Verkehrsluftfahrt) mache ich alle 2 Monate zusätzlich einen „Selbsttest“ um mein eigenes Fehlermanagement zu praktizieren.

Am 6. Dezember 2017 teste ich, wie ich selbst mit Stress umgehe und ob das noch den hohen Anforderungen im Crew-Resource-Management entspricht.
Dazu setze ich mich einer Extremsituation im Simulator aus, die ich per Video aufzeichne.

Normalerweise zeige ich das niemandem, heute mache ich mal eine Ausnahme ;)


Der Anflug auf Paro/Bhutan mit einem Airbus ist das schwierigste, was ich je mit einem Airliner gesehen habe.
Es gibt nur eine Handvoll Piloten, die für die heimische Fluggesellschaft in Bhutan so etwas dürfen und können. Sie fliegen mit einem Airbus A319 dort unter Sichtflugbedingungen an.
Ich habe es heute erstmals mit einer A320 gemacht und mich darauf theoretisch, anhand der Karten, gut vorbereitet.




Aber, ich kenne die Gegend in diesem bis zu 6.000m hohen, mächtigen Himalaya-Massiv nicht aus eigener Erfahrung.

Außerdem war ich „single pilot“ unterwegs, also alleine.

Dadurch geriet ich massiv unter Stress und machte einige Fehler, darunter einen Kapitalfehler – ich flog im Sinkflug ins falsche Tal ein.
Ich verlor teilweise die Situationsübersicht im Hinblick auf die Position.
Im Audiokommentar zum Video analysiere ich meine Fehlhandlungen und Sie sehen, wie ich mich mit gezieltem Stressmanagement aus dieser, im Ernstfall tödlichen Umklammerung wieder befreie.

Dienstag, 5. Dezember 2017

Streiten denn Piloten nie?

Diese Frage wird mir von Führungskräften in Seminaren häufig gestellt, wenn die Elemente „Entscheiden“ und „Führen“ im Crew-Resource-Management (CRM) behandelt und trainiert werden.



Meine Antwort lautet:

Dann wären Sie ja Übermenschen ;)
Crews gehen nur anders mit Konflikten um.
Das „Geheimnis“ heißt FOR-DEC.

So kann der Satz „lass uns doch bitte FOR-DEC machen“ dem 1. Offizier oder Chef der Kabine die Tür für einen Einwand gegenüber dem Kapitän öffnen, ohne eine Provokation in einem hierarchischen Verhältnis zu riskieren, wenn wirklich mal zwei Meinungen gegeneinanderstehen.
Das klappt auch unter Zeitdruck gut, denn alle Besatzungsmitglieder sind im Umgang mit dem Entscheidungsfindungs-Modell FOR-DEC geschult und trainiert.

Die letzte Entscheidung liegt natürlich nach wie vor beim Kapitän. Sie fällt dann – nach dem FOR-DEC-Prozess, in fast allen Fällen in Übereinstimmung mit den Crewmitgliedern aus.

Besteht kein akuter Zeitdruck, so gibt es ergänzend noch den „Zaubersatz“:

„Was halten Sie für angemessen?“

So kann unter der Moderation des Kapitäns ein vielleicht bisher nicht erkannter, dritter Weg gefunden werden, der alle Ansichten berücksichtigt, ohne einen nachteiligen Kompromiss auf dem kleinsten gemeinsamen Nenner einzugehen. Es wird kein ungeklärter Konflikt hinterlassen, der im Krisenfall die Kommunikation erheblich behindert.

Ich habe diese Situation im Cockpit und in Unternehmen mehr als einmal erlebt.

Das „Sprit“-Beispiel:

Vor dem Rückflug von Lanzarote nach Hannover ging es darum, wieviel Kraftstoff getankt werden sollte.
Um das zulässige Startgewicht bei kräftigem Seitenwind auf der für diesen Jet kurzen Startbahn nicht zu überschreiten, schlug ich als Kapitän vor, nur knapp über der gesetzlichen Mindestreserve zu tanken. So konnten wir alle gebuchten Passagiere und die vorgesehene Fracht mitnehmen. Die Wetterlage war überschaubar und ich hatte auf der Route jahrelang Erfahrung gesammelt.

Mein sehr junger 1. Offizier sagte höflich aber klar, dass er die Menge für zu knapp halte, da bei einer eventuell höheren Gegenwindkomponente der Kraftstoff nicht sicher reiche.

Er hatte Bedenken, ich würde ein erhöhtes Risiko eingehen, um die wirtschaftlichen Vorgaben der Airline einzuhalten.
Er kannte mich ja nicht und hatte zu diesem Thema wohl schon schlechte Erfahrungen gemacht.
Ich konnte seine Bedenken nicht so einfach zerstreuen.

Nun hatte ich zwei Möglichkeiten:
  1. Ich bin der Kapitän und entscheide so, fertig!
  2. Die Frage stellen: Was halten Sie für angemessen?
Ich entschied mich für 2., denn an einer miesen und wortkargen „Sie sind der Chef“-Stimmung im Cockpit war ich aus erwähnten Gründen auf keinen Fall interessiert.
Nun wollte ich aber auch nicht noch mehr tanken, da der Ärger bei zurückgelassenen Passagieren oder Fracht erheblich ist und nicht zur Kundenzufriedenheit beiträgt.

Was nun?

Ich suchte nach einer dritten, bisher nicht berücksichtigten Variante, die alle Bedürfnisse unter einen Hut bringt.
So kam ich auf den Vorschlag, die vorgesehene Menge zu tanken, den Kraftstoffvorrat auf dem Flug jedoch doppelt so häufig zu checken wie vorgeschrieben.
Beim geringsten Anzeichen, dass der Sprit eng würde, machen wir rechtzeitig, etwa auf halber Strecke, einen Zwischenstopp zum Nachtanken.

Um glaubhaft zu sein, ließ ich Sevilla als Ausweichflughafen demonstrativ mit in den Flugplan eintragen. Der Flugplan ist für jeden Trip eines Verkehrsflugzeuges bei der Verkehrskontrolle einzureichen und von ihr zu genehmigen.

Damit war mein Copilot sichtlich zufrieden – Atmosphäre gerettet.
Ich ging zwar das Risiko einer knapp 10.000 € teuren Zwischenlandung ein, aber nach meiner Erfahrung war diese Wahrscheinlichkeit sehr gering.
Wir landeten ohne Verspätung, nach rund 4 Stunden Nonstop-Flug in Hannover.

Diese Lösung war jetzt auf dieser Strecke mein Favorit in der dann und wann mal auftretenden Spritdiskussion.
Auf über 100 Flügen musste ich zweimal zu meinem Wort stehen und in Sevilla landen.
Das vertrat ich dann auch als „Kapitäns-Entscheidung“ ohne Zögern mit guten Argumenten bei der Flugleitung, denn: ich war der Kapitän und trug die Verantwortung nach oben.



So brachte ich alles unter einen Hut:
den Einwand der jungen Pilot/innen und den Wirtschaftlichkeitsanspruch der Airline, ohne durch „atmosphärische Störungen“ im Cockpit die Sicherheit zu gefährden.

Denn: genau durch solche Kommunikations-Barrieren sind vor dem CRM zahlreiche fatale Unfälle passiert.