die systemische Aufarbeitung von Fehlern
und kritischen Ereignissen wertvolle Hin-
weise auf Sicherheitslücken im System
liefert.
9
Für die Luftfahrt (Abbildung 3) gibt es
seit 1975 das vermutlich bekannteste Be-
richtssystem „Aviation Safety Reporting
System“ (ASRS) von der „Federal Aviation
Administration“ in den USA, bei dem alle
Piloten, das gesamte Bord- und Boden-
personal, Mechaniker und andere in der
Luftfahrt beteiligte Personen tatsächlich
oder potenziell gefährliche Situationen
melden können.
10
Dort werden in bisher
über 600.000 Berichten Probleme und
Schwachstellen in den Flugsicherheitssys-
temen und Sicherheitsprozeduren aufge-
zeigt. Durch die Analyse der Berichte kön-
nen Sicherheitslücken geschlossen und
Verbesserungen eingeführt werden. Die
Analyseergebnisse des ASRS dienen auch
als Datenbasis für die Entwicklung neuer
Richtlinien oder neuer Ausrüstungen in
der Luftfahrt.
11
Mittlerweile spielen Fehlerberichts-
systeme auch im Gesundheitswesen eine
immer wichtigere Rolle. Sie werden als
unverzichtbares Element zur dringend
erforderlichen Erhöhung der Patientensi-
cherheit bewertet.
12
Bei
den
Fehlerberichtssystemen
handelt es sich um internet- oder
papiergestützte Berichterstattungssyste-
me zur anonymen Meldung von sicher-
heitsrelevanten Ereignissen wie kritische
Ereignisse, Fehler, „Beinahe-Fehler“ und
Schäden. Häufig wird für Fehlerberichts-
systeme die englische Beschreibung „Cri-
tical Incident Reporting System“ mit dem
Akronym CIRS verwendet.
CIRS wurde in Deutschland Mitte der
1990er Jahre, damals noch „papierge-
stützt“, durch die Gesellschaft für Risiko-
Beratung mbH (GRB) in verschiedenen
Krankenhäusern implementiert. Nun wird
es weitverbreitet in Einrichtungen der Al-
tenhilfe, im Rettungsdienst und in Kran-
kenhäusern in Deutschland, in Österreich
und in der Schweiz eingesetzt. Auch die
Schweizer Anästhesiologische Vereini-
gung entwickelte Mitte der 1990er Jahre
ein CIRS, das fortentwickelt wurde und
seit dem Jahr 2005 ebenfalls in Deutsch-
land als „CIRSmedical.de“ genutzt wird.
13
Die
Weltgesundheitsorganisation
(WHO) gab im Jahr 2005 die „WHO Draft
for Adverse Event Reporting and Learning
Systems“ bekannt, in denen die vier fol-
genden Kernprinzipien eines Fehlermel-
desystems formuliert werden.
14
• Verbesserung der Patientensicher-
heit durch Lernen aus Fehlern des
Gesundheitssystems
• Sanktionsfreiheit für den Meldenden
GRUNDREGELN FÜR EINE
KULTUR DER SICHERHEIT
mod. nach 7
•
Offenheit
→
Nur, wenn man offen
mit Fehlern umgeht, kann es gelin-
gen die Ursachen zu klären und aus
ihnen zu lernen.
•
No blame
→
Es geht nicht darum,
jemandem die Schuld zu geben, son-
dern darum, die Ursache herauszu-
finden und Lösungen zu generieren.
•
Teamansatz
→
Kritische Ereignisse
entstehen oft in einem Prozess mit
mehreren Beteiligten. Deshalb gilt
es, Fehler im Team zu analysieren.
•
Systembetrachtung
→
Normen und
Regeln in einem System können
eine fehlerbegünstigende oder feh-
lervermeidende Wirkung haben.
•
Prozessanalyse
→
Der Prozess, in
dem der Fehler auftrat, sollte syste-
matisch analysiert werden.
•
Qualitätsmanagement
→
Die
Fehlervermeidung
ist
Bestand-
teil
des
einrichtungsinternen
Qualitätsmanagements.
•
Fehler berichten und daraus lernen
→
Es sollte eine Möglichkeit geben,
über Fehler und andere ungewöhn-
liche Ereignisse zu berichten, bei-
spielsweise über ein Fehlerberichts-
und Lernsystem.
ABBILDUNG 3:
In der Hochrisikobranche Luftfahrt gab es schon seit 1975 das sogenannte „Aviation Safety Reporting System“.
Foto: den-belitsky – Fotolia.com
AKWL Fortbildung Aktuell – Das Journal /
7
ANNABELLE HEIMING