- Das US-Verteidigungsministerium (DoD) droht Anthropic mit der Anwendung des Defense Production Act und versucht so, das Unternehmen dazu zu zwingen, Modelle für militärische Zwecke bereitzustellen und an die Anforderungen des Militärs anzupassen
- Anthropic lehnt es ab, dass seine Modelle für umfangreiche inländische Überwachung oder autonomes Töten ohne menschliche Kontrolle eingesetzt werden; als Vergeltung versucht das Verteidigungsministerium offenbar, das Unternehmen als Lieferkettenrisiko (supply chain risk) einzustufen
- Um Anthropic zur Annahme der abgelehnten Bedingungen zu bewegen, verhandelt das Verteidigungsministerium auch mit Google und OpenAI und versucht dabei, die Unternehmen gegeneinander auszuspielen
- Daraufhin fordern 709 aktuelle Mitarbeitende von Google und OpenAI (614 bei Google, 95 bei OpenAI) in einem gemeinsamen offenen Brief, dass die beiden Unternehmen geschlossen auftreten und die Forderungen des Verteidigungsministeriums ablehnen
- Der Brief ist ein symbolischer Akt internen Widerstands gegen den militärischen Missbrauch von KI und ein Zeichen für Solidarität in der Branche
Zentrale Inhalte des offenen Briefs
- Das Verteidigungsministerium bedroht Anthropic mit der Anwendung des Defense Production Act und der Einstufung als Lieferkettenrisiko
- Gefordert wird, dass Anthropic seine KI-Modelle dem Militär zur Verfügung stellt und sie an militärische Anforderungen anpasst
- Anthropic hält an internen Grundsätzen fest, die den Einsatz für inländische Überwachung und autonome tödliche Waffen untersagen
- Nach der Ablehnung durch Anthropic führt das Verteidigungsministerium Verhandlungen mit Google und OpenAI
- Dies wird als Strategie beschrieben, Angst zu erzeugen, dass jeweils das andere Unternehmen zuerst nachgeben könnte
- Der Brief versteht sich als gemeinsame Positionsbekundung, um solche Spaltungsversuche zu verhindern
- Mit der Aussage „Diese Strategie funktioniert nur, solange wir die Positionen der anderen nicht kennen“ wird die Notwendigkeit von Solidarität betont
Unterzeichnende und Beteiligung
- 614 Mitarbeitende von Google und 95 Mitarbeitende von OpenAI haben unterzeichnet
- Sie wurden alle als aktuelle Mitarbeitende verifiziert
- Einige zeichneten mit Klarnamen, viele anonym (Anonymous)
- Unterschriften konnten anonym oder mit Klarnamen abgegeben werden; alle wurden über ein Beschäftigungsnachweis-Verfahren verifiziert
- Verifizierungsmethoden: Bestätigung per Firmen-E-Mail, Login über Google Form oder Einreichung eines Ausweisfotos
- Personenbezogene Daten anonymer Unterzeichnender werden innerhalb von 24 Stunden nach der Verifizierung automatisch gelöscht
Bedeutung des Briefs
- Ein Beispiel dafür, dass innerhalb von KI-Unternehmen ethische Grenzen für militärische Nutzung klar benannt werden
- Mitarbeitende von Google und OpenAI erklären öffentlich, dass sie gemeinsame Prinzipien höher gewichten als den Wettbewerb zwischen Unternehmen
- Der Brief hat große Bedeutung als brancheninterner Gegenimpuls gegen autonomen tödlichen KI-Einsatz und den Missbrauch von Überwachungstechnologien
3 Kommentare
Bei einem US-Geheimdienst würde man meinen, dass sie so etwas direkt selbst entwickeln könnten … Zumal sie beim Sammeln von Trainingsdaten wohl sogar besser wären.
Wow
Hacker-News-Kommentare
Diese Angelegenheit dürfte weitaus größere Auswirkungen auf die US-Wirtschaft und die Rechtsstaatlichkeit insgesamt haben.
Wenn die Regierung Beschaffungsregeln, die unter dem Vorwand der nationalen Sicherheit geschaffen wurden, nutzen kann, um Anthropic wegen „mangelnder Loyalität“ zu bestrafen, könnten künftig auch andere Unternehmen wie Apple oder Amazon demselben Risiko ausgesetzt sein.
Das ist ein wichtiger Wendepunkt für die USA.
Ich halte es für klug, dass Anthropic klar erklärt hat, dass die eigenen Modelle nicht zu den Zielen des US-Verteidigungsministeriums einer „groß angelegten automatisierten Tötung“ passen.
Waffen mit LLMs zu betreiben, ist auch historisch gesehen ein schrecklicher Fehltritt.
Falls Anthropic zusammenbricht, wäre das ein weiterer Nagel im Sarg des Vertrauens in die USA.
Unternehmen mit Abo-Modellen würden durch ein einziges Wort des Präsidenten wichtige Werkzeuge verlieren und anfangen zu bezweifeln, ob sie sich weiterhin auf andere US-Unternehmen verlassen können.
Inzwischen kann ein einzelner Truth-Social-Post an einem Tag Dinge auslösen, für die früher Jahre nötig gewesen wären.
Am Ende wird irgendjemand die Forderungen des Verteidigungsministeriums erfüllen, und selbst wenn Anthropic standhält, ändert das nichts am Ergebnis.
Dass das Verteidigungsministerium sie als „Schwachstelle in der Lieferkette“ eingestuft hat, war ein Fehler. Hätte es einfach den DPA genutzt, wäre es viel billiger und leiser gewesen.
So wie Wissenschaftler einst aus Nazideutschland in die USA flohen und am Manhattan-Projekt mitarbeiteten, werden diesmal AI-Talente die USA verlassen.
Massenüberwachung im eigenen Land mag für die eigene Bevölkerung noch erträglich erscheinen, aber wie würden Amerikaner reagieren, wenn ein anderes Land dasselbe täte?
Solche Maßnahmen laufen letztlich darauf hinaus, dass die ganze Welt einander überwacht.
Sie klang so, als wären ausländische Überwachung oder autonome Waffen in Ordnung, solange nicht das Leben von US-Bürgern bedroht werde.
Ich frage mich, ob das wirklich die Haltung mancher Amerikaner ist oder ob diese Formulierung nur extremen Patrioten gefallen soll.
Wenn ich sehe, wie sich die Regierung derzeit verhält, mache ich mir Sorgen, wie sie mit solchen Menschen umgehen wird.
Die USA haben zu lange als Supermacht dominiert und scheinen in eine Machtvergiftung verfallen zu sein, in der sie glauben, immer recht zu haben.
Unternehmen bestehen letztlich aus Individuen, daher glaube ich, dass Innovation stirbt, wenn der Staat Politik erzwingt.
Herausragende Wissenschaftler und Ingenieure mit Gewalt zur Unterwerfung zu bringen, ist Verschwendung.
Dass die Regierung jedoch sämtliche Geschäfte stoppt, könnte überzogen sein.
Wenn zum Beispiel ein Hersteller von Dosentomaten sagt „Nicht für den Krieg gegen den Terror verwenden“, dann kann es vernünftig sein, dass die Regierung dieses Unternehmen meidet.
Auch wenn Macht verloren geht, verschwindet dieses Monopol nicht. Erst recht nicht, wenn die Führung einflussreiche Personen der Gesellschaft über ihre Schwachstellen kontrolliert.
Die in Anthropics Erklärung erwähnte Ablehnung von „inländischer Massenüberwachung und autonomem Töten“ ist eine Falle.
Das Wort „inländisch“ ist bedeutungslos.
Laut dem Eyes-Abkommen umgehen Staaten Verbote der Überwachung der eigenen Bürger, indem sie untereinander Bürgerdaten austauschen.
Am Ende überwachen sich alle Staaten gegenseitig, und das Gesetz ist nur ein dekoratives Beruhigungsmittel für die Öffentlichkeit.
Spionage-Bots kennen kein Konzept von Staatsbürgerschaft, und jede digitale Aktivität ist ein potenzielles Überwachungsziel.
Wenn Google oder TikTok das können, dann können es Regierungen oder agentische AI wie ChatGPT natürlich auch.
Was hier geschieht, ist kein AI-Problem, sondern ein Loyalitätstest.
Staatliche Gelder im Tausch gegen Loyalität, und ein Moment der Entscheidung, der auf alle zukommt.
Eine Welt, in der zum Komplizen zu werden als Beweis der Loyalität gilt.
Also nicht hoffen, sondern fordern und Widerstand leisten.
Mit Modellen wie EmbeddingGemma oder Qwen3 ist Daten-Clusterung bereits gut genug möglich.
Die USA funktionieren bereits wie eine Kommandowirtschaft.
Schon während Corona kam das Wachstum nur durch Staatsausgaben zustande, unter der Hülle „privater Unternehmen“.
Wenn das Verteidigungsministerium keine bessere AI als die Privatwirtschaft hat, ist das ein Eingeständnis von Inkompetenz.
Jetzt muss die Militärorganisation reformiert und unfähige Führung ersetzt werden.
Und dass die Regierung keine bessere generative AI als Anthropic hat, erscheint mir selbstverständlich.
Selbst bei einem Regierungswechsel steigen die Verteidigungsausgaben weiter, und dieses Geld fließt an Unternehmen, denen es nichts ausmacht, Menschen zu töten.
Eisenhowers Warnung ist damit Realität geworden.
Der Unterschied des Kapitalismus bestand nur darin, Eliten nach Leistung auszuwählen, aber selbst das ist seit 2011 unschärfer geworden.
Eine Timeline der bisherigen Ereignisse:
Neben den Diskussionen, Anthropic als Sicherheitsrisiko für die Lieferkette einzustufen, gab es auch Drohungen, das Unternehmen unter Berufung auf die nationale Sicherheit zu übernehmen.
Die Vorhersage lautet letztlich, dass auch bei OpenAI auf ähnliche Weise Gewinne privatisiert und Verluste sozialisiert werden.
Eine bestimmte Website sammelt Identitätsdaten von aktuellen und ehemaligen Mitarbeitern von OpenAI oder Google mit bestimmten politischen Ansichten.
Zur Verifizierung würden Firmen-E-Mails, Fotos von Mitarbeiterausweisen und Ähnliches verlangt, und die Daten würden in einer US-basierten Cloud gespeichert.
Der Betreiber ist anonym, und es wirkt, als könnten verschiedene Akteure diese Daten für ganz unterschiedliche Zwecke nutzen.
Der Satz „Wir hoffen, dass Führungspersönlichkeiten ihre Differenzen beiseitelegen und gemeinsam Nein sagen“ klingt gut, aber man muss auch darüber nachdenken, was passiert, wenn diese Hoffnung scheitert.
Realistisch ist das zwar kaum, aber eine solche Entscheidung würde ich respektieren.