- Im Februar 2026 bombardierte das US-Militär die iranische Minab-Grundschule, wobei mehr als 175 Menschen starben; zunächst verbreitete sich die Falschmeldung, Anthropics Claude habe das Ziel ausgewählt
- Tatsächlich wurde die Zielentscheidung vom Maven-System von Palantir getroffen, und nicht aktualisierte alte Militärdaten führten zu zivilen Opfern
- Maven erhöhte das Tempo so stark, dass es die Kill-Chain-Verfahren automatisierte und 1.000 Ziele pro Stunde festlegen konnte; dabei wurden Verifikations- und Neubewertungsschritte entfernt
- Diese Automatisierung führte – wie bei früheren Fehlbombardierungen im Vietnamkrieg und Kosovokrieg – zu einem wiederkehrenden strukturellen Problem, bei dem technologisches Vertrauen menschliches Urteilsvermögen ersetzt
- Der Kern des Vorfalls ist nicht ein Fehler der KI, sondern ein bürokratisches System, das Urteilsvermögen entfernt, und das Verschwinden menschlicher Verantwortung
Der Bombenangriff auf die Minab-Grundschule im Iran und die Illusion der „KI-Verantwortung“
- Am 28. Februar 2026 bombardierte das US-Militär die Shajareh-Tayyebeh-Grundschule in Minab im Süden Irans, wobei 175 bis 180 Menschen starben, darunter Mädchen im Alter von 7 bis 12 Jahren
- Unmittelbar nach dem Angriff konzentrierten sich Medien und Politik auf die Frage, ob Anthropics Chatbot Claude das Ziel ausgewählt habe
- Das tatsächliche Zielauswahlsystem war jedoch Palantirs Maven, Claude hatte damit nichts zu tun
- Das Schulgebäude war früher eine militärische Einrichtung gewesen, wurde aber wegen fehlender Aktualisierung der Informationen weiterhin als militärisches Ziel klassifiziert
Ursprung und Struktur des Maven-Systems
- Maven ist ein Projekt, das 2017 im Algorithmic Warfare Cross-Functional Team des US-Verteidigungsministeriums begann
- Das ursprüngliche Ziel war die Automatisierung der Analyse von Drohnenvideos, um die Überlastung menschlicher Analysten zu verringern
- Zunächst übernahm Google den Auftrag, zog sich aber nach internem Widerstand zurück; anschließend führte Palantir Technologies ab 2019 die Entwicklung an
- Maven entwickelte sich zu einer Targeting-Infrastruktur, die Satelliten-, Signal- und Sensordaten zusammenführt und von der Zielerkennung bis zum Angriffsbefehl verbindet
- Palantir gestaltete Maven als „Smart System“ neu und integrierte Echtzeit-Datenfusion sowie automatisierte Unterstützung bei Entscheidungen
- Die Oberfläche von Maven besteht aus einem Kanban-artigen Workflow-Board, auf dem Ziele schrittweise weiterverarbeitet werden
- Mit drei Klicks lassen sich Erkennungsdaten in ein offizielles Ziel umwandeln, während das System Angriffswege und Waffenkombinationen empfiehlt
Komprimierung der „Kill Chain“ und der Wettbewerb um Geschwindigkeit
- Maven ist die modernste komprimierte Form des militärischen Verfahrens, das als „Kill Chain“ bezeichnet wird
- Die Kill Chain ist ein Konzept zur Systematisierung des Ablaufs von der Erkennung bis zur Zerstörung; das US-Militär entwickelt seit Jahrzehnten Technologien, um diesen Prozess zu verkürzen
- Maven ist ein System zur extremen Erhöhung der Entscheidungsgeschwindigkeit und zielte Stand 2024 darauf ab, 1.000 Ziele pro Stunde zu entscheiden
- Das entspricht einer Entscheidung alle 3,6 Sekunden beziehungsweise individuell betrachtet einer Entscheidung alle 72 Sekunden
- Im Irakkrieg 2003 wurde Zielarbeit, die zuvor von 2.000 Personen erledigt wurde, durch 20 Personen ersetzt
- Die höhere Geschwindigkeit beseitigte den Spielraum für Abwägung, und Verifikation, Einwände und Neubewertung verschwanden
- Das führte letztlich zu einer höheren Wahrscheinlichkeit von Fehlentscheidungen und zu mehr zivilen Opfern
Historische Wiederholung: technologisches Vertrauen und das Verschwinden des Urteilsvermögens
- Das Problem von Maven ist kein neues Phänomen, sondern die Wiederholung eines historischen Musters, in dem technologische Automatisierung Urteilsvermögen ersetzt
- Operation Igloo White im Vietnamkrieg der 1960er Jahre produzierte wegen Fehlfunktionen eines sensorbasierten Zielsystems falsche Erfolge
- Die CIA berichtete, dass die Zahl der „zerstörten Lastwagen“ die tatsächlich existierende Zahl überstieg, und legte damit die Abgeschlossenheit eines Systems offen, das sich nicht selbst verifizieren kann
- Auch die Doktrin des Präzisionsbombardements im Zweiten Weltkrieg verlor in ihrer Fixierung auf Effizienz den Sinn des Ziels und wurde als „technological fanaticism“ bezeichnet
- Das Zielhandbuch der US Air Force von 1998 betonte „rationales Denken auf Grundlage von Fakten und Schlussfolgerungen“,
- in realen Operationen wurden jedoch PowerPoint-basierte „target packages (TIP)“ ohne Prüfung durch zirkuläre Berichterstattung bestätigt
- Im Kosovokrieg 1999 wurde der Fehlangriff auf die chinesische Botschaft als typisches Beispiel eines solchen Verfahrensfehlers festgehalten
Die Entfernung des Urteilsvermögens und der „bürokratische Double Bind“
- Organisationen brauchen bei der Befolgung von Regeln zugleich Menschen, die Ausnahmen interpretieren können,
- doch weil die Anerkennung von Urteilskraft die Autorität der Regeln erschüttert, wird versucht, Urteilsvermögen zu quantifizieren und zu prozeduralisieren
- Der Historiker Theodore Porter bezeichnete dies als „Trust in Numbers“
- Palantir-CEO Alex Karp schrieb in seinem Buch The Technological Republic,
- „Software ist der Steuermann, Hardware ist das Mittel zur Ausführung der Empfehlungen der KI“
- und präsentierte ein Modell „autonomen kollektiven Handelns (bee swarm)“ ohne menschliche Zwischenbeurteilung als Ideal
- Das führt jedoch zu einer vollständigen Prozeduralisierung ohne Interpretationsspielraum, also zu einer „fragilen Bürokratie“
- Sitzungen, Berichte und Prüfprozesse waren keine Ineffizienz, sondern die einzigen Punkte, an denen Urteilsvermögen eingreifen konnte,
- Maven ersetzte sie durch das Workflow-Kanban-Board einer Software und beseitigte damit den Raum für Beurteilung
Die strukturelle Ursache des Bombenangriffs auf die Schule in Minab
- Im Zielpaket war das betreffende Gebäude als militärische Einrichtung klassifiziert,
- tatsächlich war es jedoch in Google Maps und iranischen kommerziellen Datenbanken als Schule registriert
- Bei einer Entscheidungsgeschwindigkeit von 1.000 Fällen pro Stunde suchte oder überprüfte das jedoch niemand
- Ohne Zustimmung des Kongresses wurden innerhalb von zwei Wochen 6.000 Ziele angegriffen, darunter eine Grundschule
- Nach dem Vorfall konzentrierte sich die Debatte auf einen „Fehler von Claude“,
- wodurch zentrale politische und rechtliche Verantwortlichkeiten wie die Rechtmäßigkeit des Krieges, die Frage einer Zustimmung des Kongresses oder mögliche Kriegsverbrechen verdeckt wurden
- Der Frame eines „KI-Problems“ fungiert als Fluchtpunkt, der menschliche Entscheidungen und Verantwortung verschleiert
- Jemand hat die Kill Chain komprimiert und Nachdenken als „latency“ betrachtet,
- und ein System entworfen, das 1.000 Zielentscheidungen pro Stunde als „hochwertig“ bezeichnete
- All diese Entscheidungen wurden von Menschen getroffen, und KI kann diese Verantwortung nicht ersetzen
1 Kommentare
Hacker-News-Kommentare
Maven ist ein Werkzeug, das für den Einsatz mitten im Krieg entwickelt wurde
Wenn zwei Seiten im Gefecht stehen, kann jede eingesparte Minute Leben retten
Aber dieser Angriff war kein Einsatz während eines Gefechts, sondern ein Überraschungsangriff. Zeit zu sparen hat in einer Situation ohne Gegenwehr keine Leben gerettet
Die Zielidentifikation hätte sorgfältiger sein müssen, und Menschen hätten sie mehrfach überprüfen müssen. Die Schule war eindeutig als Schule erkennbar, es gab sogar eine Website
Mit nur drei Klicks zum nächsten Ziel überzugehen, ist klar menschliches Versagen. Es gab ausreichend Zeit, um einen solchen Fehler zu verhindern
Ob es nun Selbstüberschätzung gegenüber dem Werkzeug oder Gleichgültigkeit gegenüber zivilem Leben war, das Ergebnis war der Tod junger Mädchen
Ich hoffe, dass die Personen, die diese Entscheidung getroffen haben, zur Verantwortung gezogen werden
Die USA haben Kriege mit dem Ziel der Destabilisierung von Staaten begonnen und dabei zivile Opfer ignoriert
Das ist, als würde ich ein Haus anzünden und später behaupten: „Ich wusste nicht, dass es ein Kindergarten war“
Schon im sogenannten Krieg gegen den Terror gab es viele Fälle, in denen Hochzeitsfeiern bombardiert und dann als „Versehen“ bezeichnet wurden
Aber solche Online-Informationen sind keine verlässliche Grundlage für die Zielauswahl
Man hätte sie anhand direkter Informationen wie Satellitenbeobachtung identifizieren müssen. Eine Schule hat bestimmte Aktivitätsmuster und hätte anders ausgesehen als eine militärische Anlage
Vermutlich wurde die gesamte Basis als eine Einheit markiert, wodurch das Schulgebäude irrtümlich als Teil der Basis eingestuft wurde
Nach dem Befehl könnte Zeitdruck bestanden haben. So oder so ist das Ganze eine Tragödie
Wenn es unter Tausenden Einsätzen nur einen einzigen Fehlangriff gab, dann ist die Fehlerrate eher niedrig, aber dieser Fall war eindeutig ein Versagen
Die Behauptung, das Ziel sei „nicht ausreichend geprüft“ worden, ist allerdings schwach belegt. Tatsächlich sagen Insider, dieses Ziel hätte von der Liste gestrichen werden müssen
Gerade wegen der Natur eines Überraschungsangriffs liegt die Verantwortung vollständig bei den Planern, Genehmigern und Ausführenden
Die Frage „Warum waren Kinder in der Schule?“ zeugt von Unwissenheit. Der Iran hat ein anderes Wochenendsystem, und mit einem Überraschungsangriff war nicht zu rechnen
Je leichter tödliche Gewalt eingesetzt wird, desto mehr unschuldige Opfer gibt es
Es gibt außerdem einen israelischen Fall, bei dem anhand von WhatsApp-Metadaten die Standorte erwachsener Männer verfolgt und angegriffen wurden
Diese Vorgehensweise unterscheidet sich nicht von der vor 20 Jahren, und irgendwann könnte so eine Bombe auch auf unser Haus fallen
Vor ein paar Wochen gab es schon einmal etwas Ähnliches
Die USA und Israel griffen eine iranische Polizeieinrichtung an und bombardierten dabei einen Park in Teheran mit dem Namen „Police Park“
Tatsächlich war es einfach ein ganz normaler Park
Zugehöriges Video, weitere Quelle
Wenn man eine AI fragt: „Liste 100 Polizeieinrichtungen in Teheran auf“, könnte genau so etwas herauskommen. Es gibt deutliche Hinweise darauf, dass AI für die Zielauswahl verwendet wurde
Die USA sind ein moralisch und ethisch bankrotter Staat, deshalb wiederholt sich so etwas
Die Bombardierung des Amiriyah-Schutzraums ist ein weiteres Beispiel dafür
Im Artikel war dies die erste Stelle, an der stand, dass Anthropics Claude die Schule als Ziel markiert habe
Bislang gab es eher Berichte, wonach veraltete Verfahren und fehlerhafte Informationen die Ursache waren als der Einsatz von AI
Claude kann über Amazon Bedrock laufen; in diesem Fall handelt es sich nicht um eine direkt von Anthropic betriebene API, sondern um ein in einem Kundendatacenter ausgeführtes Modell
Ein Anbieter wie Palantir kann wählen, welches Modell verwendet wird, und es ist möglich, dass Claude über Bedrock eingesetzt wurde
Anthropic hat bei solchen Verträgen keinen Zugriff auf Telemetriedaten und kann daher nicht belegen, wie das Modell tatsächlich genutzt wurde
Am Ende ist die Aussage „Claude wurde verwendet“ technisch gesehen womöglich richtig, womöglich aber auch nicht — ein Ablenkungsmanöver
Erwähnenswert ist auch, dass der Autor des Artikels das Thema zuvor bereits in seinem Substack-Beitrag behandelt hatte
Hat wirklich jemand geglaubt, dass AI schuld sei?
In modernen Armeen werden LLMs oft als Werkzeug zur Verantwortungsabwälzung eingesetzt
Wenn es ein klares Ziel gegeben hätte, wäre vermutlich bereits eine dokumentierte Liste vorbereitet worden
Stattdessen wirkt es heute eher wie ein Ansatz nach dem Motto: „Werft so viele Bomben wie möglich ab, der Computer wird das schon irgendwie regeln“
Das Töten selbst hat Vorrang vor strategischen Zielen
Ich fand den Artikel interessant
Der Satz „Das US-Militär hat versucht, die Lücke zwischen Beobachtung und Zerstörung zu verkleinern“ wirkt etwas tendenziös, zeigt aber gut, wie dicht der fog of war geworden ist
Die ersten paar Absätze fühlten sich im Gegenteil sogar erfrischend an
Bemerkenswert war die Aussage, dass AI-washing inzwischen nicht mehr nur für Entlassungen, sondern auch für Kriege genutzt wird
Früher war es Gott, dann die Natur und jetzt AI
Der Mensch hat ein grundlegendes Problem mit der Vermeidung von Verantwortung für das eigene Handeln
Vielleicht wirkt das gesamte Zeitalter der Industrialisierung und Computerisierung wie ein Versuch, diese Verantwortung dauerhaft loszuwerden
Letztlich lassen sich amerikanische Kriegsverbrechen in keinem Fall entschuldigen
Die Realität, dass es nicht einmal zu einer ordentlichen Entschuldigung reicht, könnte sich später als Wendepunkt der Geschichte erweisen