Fehlerfreundlichkeit
aus Wikipedia, der freien Enzyklopädie
Fehlerfreundlichkeit ist ein auf Ernst Ulrich und Christine von Weizsäcker zurückgehender Begriff, der zunächst für biologische Systeme definiert wurde, dann aber auf andere Bereiche ausgedehnt wurde (siehe Technikfolgenabschätzung).
"Fehlerfreundlichkeit bedeutet zunächst einmal eine besonders intensive Hinwendung zu und Beschäftigung mit Abweichungen vom erwarteten Lauf der Dinge. Dies ist eine in der belebten Natur überall anzutreffende Art des Umgangs mit der Wirklichkeit und ihren angenehmen und unangenehmen Überraschungen" (Ernst Ulrich von Weizsäcker) [1].
Für die Fehlerfreundlichkeit müssen drei Komponenten zusammenwirken: "Redundanz, Vielfalt und Barrieren zusammen garantieren lebenden Systemen ihre Fehlerfreundlichkeit und damit ihr Vorbereitetsein auf künftige Ereignisse" (Ernst Ulrich von Weizsäcker) [1].
Systeme und Netzwerke
Fehlerfreundlichkeit eines Systems bedeutet, dass es so eingerichtet ist, dass (kleine) Fehler nicht zu weit reichenden negativen Folgen oder gar zur Auslöschung des Systems führen. Das System ist also in der Lage, aus Fehlern zu lernen. Dies ist z. B. in stabilen Ökosystemen der Fall, da es immer genug Ausweichmöglichkeiten gibt, wenn Störungen auftreten (siehe auch Resilienz).
So kann es z. B. bei vernetzten Systemen gefährlich sein, Redundanzen zu weit zu vermeiden, also das Netzwerk zu stark auszudünnen (→ schlankes Management, Verschlankung, schlanker Staat, schlanke Organisation), da dann unter Umständen Ausfälle von den verbleibenden Bestandteilen des Systems nicht mehr kompensiert werden können (z. B. bei Sicherheitseinrichtungen, aber auch in Organisationen).
Fehlerfreundlichkeit und Risikobereitschaft
Wird Risikobereitschaft als verantwortliches Handeln verstanden, dann ist Fehlerfreundlichkeit eine notwendige Voraussetzung. Nur in fehlerfreundlichen Systemen führen die Auswirkungen risikofreudigen Entscheidens nicht zu unkalkulierbaren Risiken.
Dies gilt besonders für Technologien und Tätigkeiten mit besonderen Risiken, z. B. bei großtechnologischen Anlagen und im Arbeitsschutz.
[Bearbeiten] Literatur
- Weizsäcker, Christine / Weizsäcker, Ernst Ulrich von (1984): Fehlerfreundlichkeit. In: Kornwachs, Klaus (Hrsg.): Offenheit – Zeitlichkeit – Komplexität. Zur Theorie der Offenen Systeme. Frankfurt/New York: Campus. S. 167 - 201.
- Wehner, T., Nowack, J., und Mehl, K. (1992). Über die Enttrivialisierung von Fehlern: Automation und ihre Auswirkungen als Gefährdungspotentiale. In T. Wehner (Hg.), Sicherheit als Fehlerfreundlichkeit: arbeits- und sozialpsychologische Befunde für eine kritische Technikbewertung (Sozialverträgliche Technikgestaltung; Bd. 31) (S. 36-56). Opladen: Westdeutscher Verlag.
Ähnliche Thematik:
- Mehl, K. (1993). Aus Fehlern lernt mann! Was lernt man wie aus Fehlern? In E. Rümmele (Hg.), Kognitive Repräsentationen über Unfälle und Sicherheitsunterweisungen im Sport (S. 129-140). Köln.
[Bearbeiten] Weblinks
- [1] Definition der Fehlerfreundlichkeit
- Jochen Krautwald (2002): Fehlerfreundlichkeit - Zusammenfassung des Aufsatzes von Christine und Ernst von Weizsäcker als pdf
- Fehlerfreundlichkeit in der Friedensforschung
- Definition in einer Magisterarbeit über Musik
- Uni Oldenburg Abteilung Arbeits- & Organisationspsychologie Publikationen
- Sicherheit als Fehlerfreundlichkeit