- Im Fokus des zweiten Kapitels „Approaches to solutions“ aus Lisanne Bainbridges Aufsatz von 1983 “The ironies of automation” stehen Erkenntnisse, die sich auf AI-basierte Automatisierung anwenden lassen
- Wenn Menschen die Arbeit von AI-Agenten überwachen, erzeugen schnelle Entscheidungen und kognitive Grenzen unter Stress eine dem industriellen Leitsystem ähnliche Risikostruktur
- Die heutigen LLM-basierten Agenten-UI/UX sind für die Fehlererkennung ungeeignet; es braucht Lernimpulse aus den Entwurfsprinzipien industrieller Leitsysteme
- Durch das Paradox des Trainings wird mit dem Erfolg der Automatisierung eine kontinuierliche und kostspielige Schulung menschlicher Aufsichtspersonen unverzichtbar
- Im Zeitalter der AI-Agenten reicht bloße Aufsicht nicht mehr aus; gefragt ist vielmehr „Leadership-Kompetenz“, was zu einer neuen Form der Mensch-Maschine-Zusammenarbeit führt
AI-Automatisierung und die Grenzen menschlicher Urteilskraft
- In industriellen Leitsystemen muss innerhalb weniger Sekunden reagiert werden, während bei der Automatisierung von White-Collar-Arbeit das unmittelbare Risiko geringer ist, aber dennoch schnelle Entscheidungen und Eingriffe erforderlich bleiben
- Wenn AI mit übermenschlicher Geschwindigkeit Ergebnisse erzeugt, brauchen Menschen zum Verstehen und Prüfen kognitive Unterstützung auf vergleichbarem Niveau
- Die effizienzorientierte Unternehmenskultur und stressige Umgebungen in Unternehmen schwächen die Analysefähigkeit des Menschen und erschweren die Fehlererkennung zusätzlich
- Fehler in AI-Ergebnissen können zu schwerwiegenden Folgen wie Sicherheitsvorfällen führen, weshalb ein Überwachungssystem auf einem industriellen Niveau nötig ist
Das schlimmste UI-Problem
- Bainbridge weist darauf hin, dass „in Situationen, in denen Ereignisse mit geringer Wahrscheinlichkeit schnell erkannt werden müssen, künstliche Unterstützung erforderlich ist“
- Das bedeutet, dass Warnsysteme gestärkt werden müssen, um das Problem der Monitoring-Müdigkeit zu entschärfen
- Die heutige Verwaltung von AI-Agenten-Flotten ist ein ineffizientes Interface, bei dem Menschen Hunderte Zeilen von Plänen prüfen müssen
- Fehler treten selten auf, können aber fatal sein; deshalb ist eine Neugestaltung von UI/UX mit Fokus auf Fehlererkennung erforderlich
- Dafür sollten die Prinzipien visueller Gestaltung und Alarmierung aus industriellen Leitsystemen übernommen werden
Das Paradox des Trainings
- Bainbridge betont die Bedeutung des Erhalts manueller Fähigkeiten und weist darauf hin, dass Menschen Systeme regelmäßig selbst direkt bedienen müssen
- Je höher der Automatisierungsgrad, desto schneller sinkt die Routine und Fertigkeit des Menschen
- Simulatortraining kann unerwartete Fehlersituationen nur schwer nachbilden; daher ist Training mit Fokus auf allgemeine Strategien notwendig
- Wie der Satz „Von Menschen, die darauf trainiert wurden, Anweisungen zu befolgen, Intelligenz zu erwarten, ist eine Ironie“ zeigt, müssen auch AI-Aufseher ihre Fähigkeit zum Umgang mit Ausnahmesituationen kontinuierlich trainieren
- Je erfolgreicher die Automatisierung ist, desto stärker steigen die Kosten für menschliches Training; mit reiner Kostensenkungslogik ist das nicht zu bewältigen
Das Leadership-Dilemma
- Die Aufsicht über AI-Agenten ist keine bloße Überwachung, sondern eine Leadership-Rolle durch Anweisung, Koordination und Feedback
- Menschen müssen nicht mehr direkt ausführen, sondern indirekt Ergebnisse steuern, was einen Wechsel zu einer neuen Arbeitsweise erfordert
- Die meisten Praktiker werden Agenten ohne Leadership-Training managen; der Rat „Schreibe einfach bessere Prompts“ reicht dafür nicht aus
- Es braucht AI-Leadership-Training, das strukturell dem bestehenden Leadership-Training für Menschen ähnelt
- Bis Agenten künftig ausreichend ausgereift sind, ist eine Stärkung der Leadership-Kompetenzen von Aufsichtspersonen unverzichtbar
Fazit: die wahre Ironie der Automatisierung
- Wie Bainbridge schlussfolgert, sind Menschen ohne Zeitdruck hervorragende Problemlöser, doch unter Druck sinkt ihre Effizienz drastisch
- Automatisierung beseitigt menschliche Schwierigkeiten nicht, sondern verlangt im Gegenteil mehr technische Raffinesse und mehr Investitionen in menschliche Fähigkeiten
- Die Erkenntnisse von vor 40 Jahren sind auch im Zeitalter der AI-Agenten weiterhin gültig; das Gleichgewicht der Mensch-Maschine-Zusammenarbeit muss neu bestimmt werden
- Der Fortschritt der AI-Automatisierung hängt mehr von der Neugestaltung der menschlichen Rolle als von der Technik selbst ab
Noch keine Kommentare.