2 Punkte von GN⁺ 2026-03-01 | 3 Kommentare | Auf WhatsApp teilen
  • Das US-Verteidigungsministerium (DoD) droht Anthropic mit der Anwendung des Defense Production Act und versucht so, das Unternehmen dazu zu zwingen, Modelle für militärische Zwecke bereitzustellen und an die Anforderungen des Militärs anzupassen
  • Anthropic lehnt es ab, dass seine Modelle für umfangreiche inländische Überwachung oder autonomes Töten ohne menschliche Kontrolle eingesetzt werden; als Vergeltung versucht das Verteidigungsministerium offenbar, das Unternehmen als Lieferkettenrisiko (supply chain risk) einzustufen
  • Um Anthropic zur Annahme der abgelehnten Bedingungen zu bewegen, verhandelt das Verteidigungsministerium auch mit Google und OpenAI und versucht dabei, die Unternehmen gegeneinander auszuspielen
  • Daraufhin fordern 709 aktuelle Mitarbeitende von Google und OpenAI (614 bei Google, 95 bei OpenAI) in einem gemeinsamen offenen Brief, dass die beiden Unternehmen geschlossen auftreten und die Forderungen des Verteidigungsministeriums ablehnen
  • Der Brief ist ein symbolischer Akt internen Widerstands gegen den militärischen Missbrauch von KI und ein Zeichen für Solidarität in der Branche

Zentrale Inhalte des offenen Briefs

  • Das Verteidigungsministerium bedroht Anthropic mit der Anwendung des Defense Production Act und der Einstufung als Lieferkettenrisiko
    • Gefordert wird, dass Anthropic seine KI-Modelle dem Militär zur Verfügung stellt und sie an militärische Anforderungen anpasst
    • Anthropic hält an internen Grundsätzen fest, die den Einsatz für inländische Überwachung und autonome tödliche Waffen untersagen
  • Nach der Ablehnung durch Anthropic führt das Verteidigungsministerium Verhandlungen mit Google und OpenAI
    • Dies wird als Strategie beschrieben, Angst zu erzeugen, dass jeweils das andere Unternehmen zuerst nachgeben könnte
  • Der Brief versteht sich als gemeinsame Positionsbekundung, um solche Spaltungsversuche zu verhindern
    • Mit der Aussage „Diese Strategie funktioniert nur, solange wir die Positionen der anderen nicht kennen“ wird die Notwendigkeit von Solidarität betont

Unterzeichnende und Beteiligung

  • 614 Mitarbeitende von Google und 95 Mitarbeitende von OpenAI haben unterzeichnet
    • Sie wurden alle als aktuelle Mitarbeitende verifiziert
    • Einige zeichneten mit Klarnamen, viele anonym (Anonymous)
  • Unterschriften konnten anonym oder mit Klarnamen abgegeben werden; alle wurden über ein Beschäftigungsnachweis-Verfahren verifiziert
    • Verifizierungsmethoden: Bestätigung per Firmen-E-Mail, Login über Google Form oder Einreichung eines Ausweisfotos
    • Personenbezogene Daten anonymer Unterzeichnender werden innerhalb von 24 Stunden nach der Verifizierung automatisch gelöscht

Bedeutung des Briefs

  • Ein Beispiel dafür, dass innerhalb von KI-Unternehmen ethische Grenzen für militärische Nutzung klar benannt werden
  • Mitarbeitende von Google und OpenAI erklären öffentlich, dass sie gemeinsame Prinzipien höher gewichten als den Wettbewerb zwischen Unternehmen
  • Der Brief hat große Bedeutung als brancheninterner Gegenimpuls gegen autonomen tödlichen KI-Einsatz und den Missbrauch von Überwachungstechnologien

3 Kommentare

 
chcv0313 2026-03-03

Bei einem US-Geheimdienst würde man meinen, dass sie so etwas direkt selbst entwickeln könnten … Zumal sie beim Sammeln von Trainingsdaten wohl sogar besser wären.

 
kimjoin2 2026-03-01

Wow

 
GN⁺ 2026-03-01
Hacker-News-Kommentare
  • Diese Angelegenheit dürfte weitaus größere Auswirkungen auf die US-Wirtschaft und die Rechtsstaatlichkeit insgesamt haben.
    Wenn die Regierung Beschaffungsregeln, die unter dem Vorwand der nationalen Sicherheit geschaffen wurden, nutzen kann, um Anthropic wegen „mangelnder Loyalität“ zu bestrafen, könnten künftig auch andere Unternehmen wie Apple oder Amazon demselben Risiko ausgesetzt sein.
    Das ist ein wichtiger Wendepunkt für die USA.

    • Die Regierung entwickelt sich zu einer gesetzlosen Kakistokratie, die Fakten umschreibt.
      Ich halte es für klug, dass Anthropic klar erklärt hat, dass die eigenen Modelle nicht zu den Zielen des US-Verteidigungsministeriums einer „groß angelegten automatisierten Tötung“ passen.
      Waffen mit LLMs zu betreiben, ist auch historisch gesehen ein schrecklicher Fehltritt.
    • Das fühlt sich an wie eine moderne Wiederaufführung der Sicherheitsanhörung gegen Oppenheimer im Jahr 1954.
    • Diese Regierung erzeugt ständig aufs Neue einen Moment, der angeblich ein „wichtiger Wendepunkt für Amerika“ sei.
    • Ich weiß inzwischen nicht mehr, wem ich vertrauen soll. Ich habe viel zu lange geglaubt, dass schon alles gutgehen wird.
    • Eigentlich fühlt sich so etwas gar nicht mehr neu an, sondern einfach wie der normale Alltag.
  • Falls Anthropic zusammenbricht, wäre das ein weiterer Nagel im Sarg des Vertrauens in die USA.
    Unternehmen mit Abo-Modellen würden durch ein einziges Wort des Präsidenten wichtige Werkzeuge verlieren und anfangen zu bezweifeln, ob sie sich weiterhin auf andere US-Unternehmen verlassen können.

    • Schon jetzt fühlt es sich weltweit riskant an, von US-Unternehmen abhängig zu sein.
      Inzwischen kann ein einzelner Truth-Social-Post an einem Tag Dinge auslösen, für die früher Jahre nötig gewesen wären.
    • Ehrlich gesagt wünsche ich mir teilweise sogar, dass Anthropic scheitert, aber die Folgen wären so groß, dass am Ende auch ich selbst darunter leiden würde.
    • Jedes Land hat Gesetze, mit denen unter Berufung auf das „nationale Interesse“ Privateigentum beschlagnahmt werden kann.
      Am Ende wird irgendjemand die Forderungen des Verteidigungsministeriums erfüllen, und selbst wenn Anthropic standhält, ändert das nichts am Ergebnis.
      Dass das Verteidigungsministerium sie als „Schwachstelle in der Lieferkette“ eingestuft hat, war ein Fehler. Hätte es einfach den DPA genutzt, wäre es viel billiger und leiser gewesen.
    • Anthropic wird die USA am Ende verlassen.
      So wie Wissenschaftler einst aus Nazideutschland in die USA flohen und am Manhattan-Projekt mitarbeiteten, werden diesmal AI-Talente die USA verlassen.
    • „Nein“ zu sagen zerstört kein Vertrauen, sondern ist ein Akt der Prinzipientreue.
  • Massenüberwachung im eigenen Land mag für die eigene Bevölkerung noch erträglich erscheinen, aber wie würden Amerikaner reagieren, wenn ein anderes Land dasselbe täte?
    Solche Maßnahmen laufen letztlich darauf hinaus, dass die ganze Welt einander überwacht.

    • Amerikaner glauben, sie seien eine Ausnahme, und denken deshalb, sie dürften Dinge tun, die andere nicht tun dürfen.
    • Ich habe eher das Gefühl, es wäre mir lieber, von China überwacht zu werden als von den USA. Das US-Justizsystem kann viel furchteinflößender sein.
    • Die Erklärung von Anthropic war bemerkenswert.
      Sie klang so, als wären ausländische Überwachung oder autonome Waffen in Ordnung, solange nicht das Leben von US-Bürgern bedroht werde.
      Ich frage mich, ob das wirklich die Haltung mancher Amerikaner ist oder ob diese Formulierung nur extremen Patrioten gefallen soll.
    • Als jemand, der die Regierung seit mehr als zehn Jahren öffentlich kritisiert, habe ich das Gefühl, dass Überwachungs-AI mich sicher nicht übersehen wird.
      Wenn ich sehe, wie sich die Regierung derzeit verhält, mache ich mir Sorgen, wie sie mit solchen Menschen umgehen wird.
    • Wenn man sich wichtige AI-Papers dieser Tage ansieht, stehen dort meist Namen von Nicht-Amerikanern.
      Die USA haben zu lange als Supermacht dominiert und scheinen in eine Machtvergiftung verfallen zu sein, in der sie glauben, immer recht zu haben.
  • Unternehmen bestehen letztlich aus Individuen, daher glaube ich, dass Innovation stirbt, wenn der Staat Politik erzwingt.
    Herausragende Wissenschaftler und Ingenieure mit Gewalt zur Unterwerfung zu bringen, ist Verschwendung.

    • Wenn die Regierung X will und Unternehmen A sagt „Das können wir nicht tun“, dann ist es institutionell gesehen natürlich, die Geschäftsbeziehung zu beenden.
      Dass die Regierung jedoch sämtliche Geschäfte stoppt, könnte überzogen sein.
      Wenn zum Beispiel ein Hersteller von Dosentomaten sagt „Nicht für den Krieg gegen den Terror verwenden“, dann kann es vernünftig sein, dass die Regierung dieses Unternehmen meidet.
    • Das Wesen des Staates ist das Monopol auf Zwang.
      Auch wenn Macht verloren geht, verschwindet dieses Monopol nicht. Erst recht nicht, wenn die Führung einflussreiche Personen der Gesellschaft über ihre Schwachstellen kontrolliert.
    • Man hört auch den zynischen Einwand: „Und wohin willst du dann auswandern, nach Russland? China? In die VAE?“
  • Die in Anthropics Erklärung erwähnte Ablehnung von „inländischer Massenüberwachung und autonomem Töten“ ist eine Falle.
    Das Wort „inländisch“ ist bedeutungslos.
    Laut dem Eyes-Abkommen umgehen Staaten Verbote der Überwachung der eigenen Bürger, indem sie untereinander Bürgerdaten austauschen.
    Am Ende überwachen sich alle Staaten gegenseitig, und das Gesetz ist nur ein dekoratives Beruhigungsmittel für die Öffentlichkeit.

    • Wir fühlen uns als US-Bürger sicher, aber das Internet kennt keine Grenzen.
      Spionage-Bots kennen kein Konzept von Staatsbürgerschaft, und jede digitale Aktivität ist ein potenzielles Überwachungsziel.
      Wenn Google oder TikTok das können, dann können es Regierungen oder agentische AI wie ChatGPT natürlich auch.
    • Anthropic hätte darauf bestehen sollen, dass das US-Militär Daten, die von ausländischen Stellen gesammelt wurden, nicht auf US-Bürger anwenden darf.
    • Hoffnung ist keine Strategie.
      Was hier geschieht, ist kein AI-Problem, sondern ein Loyalitätstest.
      Staatliche Gelder im Tausch gegen Loyalität, und ein Moment der Entscheidung, der auf alle zukommt.
      Eine Welt, in der zum Komplizen zu werden als Beweis der Loyalität gilt.
      Also nicht hoffen, sondern fordern und Widerstand leisten.
    • Tatsächlich ist fraglich, ob für inländische Überwachung überhaupt LLMs nötig sind.
      Mit Modellen wie EmbeddingGemma oder Qwen3 ist Daten-Clusterung bereits gut genug möglich.
    • Warum also will das Verteidigungsministerium unbedingt ein LLM? Das ist die zentrale Frage.
  • Die USA funktionieren bereits wie eine Kommandowirtschaft.
    Schon während Corona kam das Wachstum nur durch Staatsausgaben zustande, unter der Hülle „privater Unternehmen“.
    Wenn das Verteidigungsministerium keine bessere AI als die Privatwirtschaft hat, ist das ein Eingeständnis von Inkompetenz.
    Jetzt muss die Militärorganisation reformiert und unfähige Führung ersetzt werden.

    • Ohne Staatsausgaben wäre das Wachstum negativ, aber das gilt für jedes Land.
      Und dass die Regierung keine bessere generative AI als Anthropic hat, erscheint mir selbstverständlich.
    • Bald ist es gut möglich, dass die USA OpenAI oder Nvidia mit Rettungspaketen unterstützen werden.
      Selbst bei einem Regierungswechsel steigen die Verteidigungsausgaben weiter, und dieses Geld fließt an Unternehmen, denen es nichts ausmacht, Menschen zu töten.
      Eisenhowers Warnung ist damit Realität geworden.
    • Manche weisen darauf hin, dass Verteidigungsausgaben nicht der größte Posten im Steuerhaushalt sind.
    • Dass das Militär nutzlosen Kram kauft, ist auch nichts Neues.
    • Tatsächlich gibt es eine solche Struktur der Kontrollwirtschaft in jedem Land.
      Der Unterschied des Kapitalismus bestand nur darin, Eliten nach Leistung auszuwählen, aber selbst das ist seit 2011 unschärfer geworden.
  • Eine Timeline der bisherigen Ereignisse:

  • Neben den Diskussionen, Anthropic als Sicherheitsrisiko für die Lieferkette einzustufen, gab es auch Drohungen, das Unternehmen unter Berufung auf die nationale Sicherheit zu übernehmen.
    Die Vorhersage lautet letztlich, dass auch bei OpenAI auf ähnliche Weise Gewinne privatisiert und Verluste sozialisiert werden.

    • George Hotz hat einmal gesagt, er habe tinygrad begonnen, weil er eine mögliche Verstaatlichung von Nvidia befürchtete.
    • Diese Entwicklung wirkt wie eine Hufeisentheorie, in der sich die Extreme der Verstaatlichung treffen. Komisch, aber bitter real.
  • Eine bestimmte Website sammelt Identitätsdaten von aktuellen und ehemaligen Mitarbeitern von OpenAI oder Google mit bestimmten politischen Ansichten.
    Zur Verifizierung würden Firmen-E-Mails, Fotos von Mitarbeiterausweisen und Ähnliches verlangt, und die Daten würden in einer US-basierten Cloud gespeichert.
    Der Betreiber ist anonym, und es wirkt, als könnten verschiedene Akteure diese Daten für ganz unterschiedliche Zwecke nutzen.

  • Der Satz „Wir hoffen, dass Führungspersönlichkeiten ihre Differenzen beiseitelegen und gemeinsam Nein sagen“ klingt gut, aber man muss auch darüber nachdenken, was passiert, wenn diese Hoffnung scheitert.

    • Die Menschheit ist immer schon in Gruppenspaltungen auf Probleme zugestürzt. Das ist nur eine Form der natürlichen Selektion.
    • Wenn Anthropic seine Prinzipien wirklich wahren will, wäre sogar eine freiwillige Auflösung des Unternehmens denkbar.
      Realistisch ist das zwar kaum, aber eine solche Entscheidung würde ich respektieren.
    • Der heutigen Tech-Führung ist nur schwer zu vertrauen.
    • Wenn man sieht, wie Google mit Mitarbeiterprotesten umgegangen ist oder wie Amazon-artig die Kultur geworden ist, dann scheint es gut möglich, dass man auch diesmal stillschweigend Verträge unterschreibt oder internen Widerstand niederwalzt.
    • In Führungspersonen wie Sam oder Dario kann ich wohl keine Hoffnung mehr setzen.