-
Diese Entwicklung zeigt, dass generative AI bereits tief in die militärische Infrastruktur vorgedrungen ist: Anthropic's Claude wurde über Palantir's Maven-System für US-Militär-Geheimdienstanalyse, Zielerkennung und Simulationen eingesetzt.
-
Der Ausgangspunkt war 2017 das Project Maven des US-Verteidigungsministeriums. Google zog sich 2018 nach internem Widerstand zurück, doch danach füllten Palantir und Anthropic diese Lücke.
-
Anthropic legte dem Verteidigungsministerium Anfang 2026 zwei Bedingungen vor: ein Verbot großflächiger Überwachung von US-Bürgern und ein Verbot vollständig autonomer Waffen. Diese wurden jedoch nicht akzeptiert.
-
In diesem Prozess versuchte die Trump-Regierung, Anthropic faktisch auszuschließen, und das Verteidigungsministerium stufte das Unternehmen als Lieferkettenrisiko ein.
-
Dennoch wurde Claude genau zu dieser Zeit weiterhin in Operationen mit Bezug auf den Iran eingesetzt, und innerhalb des Verteidigungsministeriums hieß es, ein Ersatz könne mehrere Monate dauern.
-
Das bedeutet: Wenn ein AI-Modell einmal tief in militärische Systeme integriert ist, ist es nicht länger bloß Software, sondern eine schwer austauschbare Infrastruktur.
-
Gleichzeitig baute OpenAI seine Pentagon-Verträge aus, und Google strich 2025 in seinen AI-Prinzipien die Passage zum Verbot von Waffen und Überwachung — ein Zeichen dafür, dass sich die Maßstäbe in der gesamten Branche verschieben.
-
Die Kernfrage lautet: Selbst wenn AI nicht direkt den Abzug betätigt, bis zu welchem Punkt kann noch von menschlicher Kontrolle gesprochen werden, wenn sie tief in Zielvorschläge und Priorisierungsentscheidungen eingreift?
-
Letztlich zeigt dieser Fall, dass ethische Grundsätze in Friedenszeiten im Krieg leicht ins Wanken geraten und dass reale Verhandlungsmacht eher aus Integrationstiefe und Wechselkosten als aus Prinzipien entsteht.
-
Daher verschiebt sich die Frage von „Soll man AI-Waffen zulassen?“ hin zu wer in welchem Tempo menschliches Urteil durch AI-Empfehlungen ersetzt.
Noch keine Kommentare.