Menschliche Fehler
Entwicklung
Menschen machen mehr Fehler
Systemkomplexität
Organisatorische Rahmenbedingungen
Reduktion der technischen Fehler
Aber: viele der Fehler sind die Folge schlechten Designs oder schlechter Organisationsstrukturen und nicht unverantwortlicher Handlungen (Norman, 1988; Reason, 1990, 1997; Woods & Cook, 1999)
Menschliche Fehlhandlungen in der Regel das letzte Glied einer Kette von Fehlern / Versagen, die oft mechanischer und/oder organisatorischer Natur (Reason, 1997)
Swiss Cheese Modell (Reason, 1997)
Erhöhung der Sicherheit eines Systems durch Sicherheitsvorkehrungen auf unterschiedlichen Ebenen
Technische Sicherheitseinrichtungen (z.B., Alarmschaltungen)
Organisatorische Sicherheitsregelungen (z.B., Vorschriften für sichere Systemführung)
Ausbildungsbezogene Maßnahmen (z.B., Trainings zur Erhöhung des Sicherheitsbewusstseins)
Swiss Cheese Model (Reason, 1997)
=> Unfälle passieren dann, wenn Sicherheitsvorkehrungen in Kombination versagen
—> “Verkettung unglücklicher Umstände”
Swiss Cheese Model (Abbildung)
Swiss Cheese Model
Unterteilung von Fehlern
Aktive Fehler
=> Fehlhandlung von Operateuren
Latente Fehler
=> Werden zeitlich und räumlich weit entfernt von Unfallentstehung begangen
—> z.B. fehlerhafte Ausführung von Wartungsarbeiten, Konstruktionsfehler…
—> Wirken sich zunächst nicht aus
=> Zusammenwirken von aktiven und latenten Fehlern führt zu Systemversagen
Bsp.: Untergang der “Herald of Free Enterprise”
Kontext
Fähre mit Bug- und Heckklappen
Zur Minimierung der Standzeit im Hafen: Bugklappen werden erst nach Ablegen auf Weg zur Hafenausfahrt geschlossen
Am 6. März 1987, 18:20, läuft Fähre mit 459 Passagieren und 80 Besatzungsmitgliedern von Zeebrügge Richtung Dover aus
Bugklappen werden nicht geschlossen, Wasser dringt ein
Schiff kentert innerhalb von 2 Minuten
188 Menschen sterben
Unmittelbare Ursachen
Bugklappen nicht geschlossen, da verantwortlicher Bootsmann in Kabine schlief
Oberbootsmann, der für Bugklappe verantwortlich, muss beim Auslaufen auf Brücke sein
Auf Brücke Bugklappen nicht zu sehen, keine Kontrollleuchten à offene Klappen werden nicht bemerkt
Besonderer Tiefgang der Fähre, da Ballasttanks geflutet wg. niedriger Landungsbrücken in Zeebrügge und Überladung
Keine wasserdichten Schotten
Unklare, nicht an Sicherheit orientierte Aufgabenverteilungen
Fehlen des Bootsmannes wird nicht bemerkt
Mangelnde Kommunikation
Abfahrbereitschaft wird nicht durch Meldesystem festgestellt
Hoher Zeitdruck
Offizier zur Brücke bevor Beladen beendet
Managementfehler
Keine Einführung von Regeln zur Gewährleistung eines sicheren Fährbetriebs
Fehlerkategorien
Generic Error Modeling System GEMS (Reason, 1990)
Unterscheidet drei Ebenen der Handlungssteuerung
Fertigkeitsbasiert
Regelbasiert
Wissensbasiert
Handlungen werden auf den unteren Ebenen gesteuert (Fertigkeitsbasiert, regelbasiert)
Effiziente Informationsverarbeitung
Parallelität
Erst bei Problemen, werden höhere Ebenen aktiviert
Fehlerkategorien (3)
Fertigkeitsbasierte Fehler: Slips
Richtige Intention wird fehlerhaft ausgeführt
Capture error
„Verhalten wird durch ähnliche, gut gelernte Verhaltensroutine gefangen“ (Wickens, et al., 2012, S. 313)
Ursachen
Intendierte Handlung beinhaltet eine kleine Abweichung von einer gut gelernten Routinehandlung
Einige Merkmale der Reizumgebung oder der Handlungssequenz selber sind eng verknüpft mit der falschen (aber häufigeren Handlung)
Handlungsabfolge ist automatisiert und wird nicht durch Aufmerksamkeit überwacht
Beispiel:
Während man über die kommende Klausur nachdenkt, nimmt man den Weg rechts zum Bäcker, bei dem man sich jeden Tag die Brötchen holt, anstelle links zur Apotheke abzubiegen
Fertigkeitsbasierte Fehler II: Lapses
Handlung wird nicht ausgeführt
Hängt eng mit Gedächtnis zusammen ~ „Vergesslichkeit“
„Post-completion errors (Byrne & Davis, 2006) • Beispiel: Letztes Papier wird im Kopierer liegengelassen
Omission slips
Häufig Unterbrechung einer Handlungssequenz, die dann 2 oder 3 Schritte weiter als richtig wäre, fortgesetzt wird,
Handlungsschritte dazwischen fehlen
Beispiele: Ich ging zum Schwesternraum, um die Laborbericht zu holen. Auf dem Weg dorthin klingelte mein Handy. Ich telefonierte und ging zurück ins Krankenzimmer ohne Bericht.“
Theory of Action Selection (Norman & Shallice, 1986)
Handlungsschemata
Menge von koordinierten Handlungssequenzen
Werden automatisch angestoßen / getriggert
Mehrere Handlungsschemata können gleichzeitig aktiviert sein
Contention scheduling
Bezieht sich auf die Koordination mehrerer Handlungsschemata
Handlungsschema mit höchster Aktivierung wird ausgwählt
Supervisory attentional system (SAS)
Beeinflusst Auswahl von Handlungsschemata durch zusätzliche Aktivierung der Schemata
Entsprechend den Aufgabenzielen
Übung stärkt die Verbindung zwischen auslösenden Reizen und entsprechendem Handlungsschema
Fehlerkategorien: Mode Errors
Eine Handlung, die in einem Kontext angemessen ist, wird in anderem, nicht passendem Kontext ausgeführt, weil Operateur angemessenen Kontext nicht richtig erinnert
Sind häufig Konsequenz automatisierten Handelns oder hoher Beanspruchung
Operateur vergisst, in welchem Modus er ist – und ungeeignetem Design
Gleiche Aktion kann sowohl in passenden und nicht passenden Modi ausgeführt werden
Betätigen des Gaspedals um an Kreuzung anzufahren, wenn Rückwärtsgang eingelegt ist.
Vergessen, dass Feststelltaste gedrückt
Häufig in Zusammenhang mit hoch automatisierten Systemen
Mistakes
Korrekte Ausführung falscher Handlungsintention
a. Wissensbasierte Fehler
b. Regelbasierte Fehler
Regelbasierte Fehler
Falsche Anwendung vorhandenen Regelwissens
=> falscher Handlungsplan wird fehlerfrei ausgeführt!
Häufig bei Ausnahmen von Regeln: Kleine Unterschiede zur „Standardsituation“ werden übersehen und Regel falsch angewandt
Anwendung von Regeln beeinflusst von Häufigkeit und Verstärkung
Häufig und erfolgreich angewandte Regeln werden bevorzugt
Operateur ist sich in der Regel sicher à glaubt passende Bedingungen sind gegeben
„strong but wrong“ (Reason, 1990)
2 Arten
Verwechslungsfehler
Falsche Klassifikation von Situation, die zum Abruf einer mit dieser Klassifikation verbundenen, in diesem Fall aber falschen Aktion führt
Zum Löschen einer brennenden Pfanne mit Öl wird Wasser verwendet
Erkennungsfehler
Direkt erkennbare Rückmeldungen werden übersehen oder verwechselt
Warnhinweis auf mangelnde Kühlflüssigkeit wird übersehen und die Maschine erneut gestartet
Wissensbasierte Fehler
Denkfehler in der Planungsphase
Falsche Handlungspläne werden aufgestellt, weil
Entscheidende Gesichtspunkte werden bei der Situationsanalyse nicht berücksichtigt,
Konsequenz von Biases und kognitiven Einschränkungen (z.B., begrenztes Arbeitsgedächtnis und Informationsflut)
Alternativen werden nicht berücksichtigt
Fehlendes, falsches Wissen
oft Informationsanzeigen schlecht gestaltet
Inadäquate Information wird dargestellt, oder Information wird in schlechtem Format dargestellt
Bsp.: Beim Spülen einer Anlage wird nicht berücksichtigt, das Ventile zu schließen sind, so dass die Lauge nicht austritt.
Urteilsfehler
Treten in der Rückmeldungsphase der Handlung auf, wenn Reaktionen des Systems, mit dem man interagiert, falsch beurteilt werden
Bei der Herstellung eines neuartigen Flüssigkeit-Gas-Gemisches wird anhand von Anzeigen nicht erkannt, dass der Siedepunkt des Gemisches bereits überschritten wurde.
Regelverletzungen
Absichtliches Übertreten von Sicherheitsbestimmungen
Schutzkleidung wird nicht getragen
Fehlerkategorien und Schiffsunfälle
Zuletzt geändertvor 2 Jahren