2 Punkte von GN⁺ 2026-03-05 | 3 Kommentare | Auf WhatsApp teilen
  • Anthropic-CEO Dario Amodei kritisierte in einem Mitarbeitermemo OpenAIs Vertrag mit dem US-Verteidigungsministerium scharf und bezeichnete ihn als „safety theater“
  • Anthropic verfügte bereits über einen bestehenden Militärvertrag im Umfang von 200 Millionen Dollar, doch eine Einigung scheiterte, weil das Verteidigungsministerium unbegrenzten Zugang zur Technologie verlangte
  • Stattdessen schloss OpenAI einen Vertrag mit dem Verteidigungsministerium; Sam Altman erklärte, dieser enthalte dieselben Schutzmaßnahmen für rote Linien, die Anthropic gefordert hatte
  • Amodei teilte Mitarbeitenden mit, Altman inszeniere sich als „Friedensvermittler und Deal-Maker“, und OpenAIs Botschaften seien „offensichtliche Lügen“
  • Nach diesem Vertrag stieg die Zahl der ChatGPT-Löschungen um 295 %, und die öffentliche Meinung reagierte eher wohlwollend gegenüber Anthropic

Inhalt von Dario Amodeis Mitarbeitermemo

  • In dem von The Information berichteten Memo bezeichnete Amodei OpenAIs Geschäft mit dem Verteidigungsministerium als „safety theater“
  • Er schrieb: „Der Hauptgrund, warum OpenAI diesen Vertrag angenommen hat und wir ihn abgelehnt haben, ist, dass sie sich darum gekümmert haben, ihre Mitarbeitenden zu besänftigen, während wir uns tatsächlich um die Verhinderung von Missbrauch gekümmert haben“
  • Er sagte, Altman stelle sich als „Friedensvermittler und Deal-Maker“ dar, und nannte OpenAIs Botschaft direkt „straight up lies“ („offensichtliche Lügen“)

Warum die Verhandlungen zwischen Anthropic und dem Verteidigungsministerium scheiterten

  • Anthropic lehnte in den Verhandlungen mit dem US-Verteidigungsministerium die Forderung nach unbegrenztem Zugriff auf seine AI-Technologie ab
    • Das Unternehmen wollte Garantien, dass das DoD seine AI nicht für umfassende inländische Überwachung oder die Entwicklung autonomer Waffen einsetzen würde
    • Da diese Bedingung nicht akzeptiert wurde, platzte der Vertrag über 200 Millionen Dollar
  • Danach schloss das DoD einen neuen Vertrag mit OpenAI
    • Das unter der Trump-Regierung als „Department of War“ bekannte Verteidigungsministerium schloss statt mit Anthropic einen Vertrag mit OpenAI
    • Sam Altman erklärte, der neue Verteidigungsvertrag enthalte dieselben Schutzmaßnahmen für rote Linien, die Anthropic gefordert hatte
  • OpenAI erklärte in einem Blogpost, seine AI-Systeme könnten für „all lawful purposes“ eingesetzt werden
    • Laut dem OpenAI-Blog war „im Austausch mit dem Verteidigungsministerium klar, dass es umfassende inländische Überwachung als rechtswidrig betrachtet und nicht plant, die Systeme zu diesem Zweck zu verwenden“
    • Weiter hieß es, dies sei ausdrücklich im Vertrag festgehalten worden, da es nicht in den Bereich zulässiger Nutzung falle

Konkrete Einwände von Anthropic

  • Anthropic erhob konkret Einwände dagegen, dass das Verteidigungsministerium seine AI für „any lawful use“ einsetzen können sollte
  • Kritiker weisen darauf hin, dass Gesetze geändert werden können und heute Illegales künftig erlaubt sein könnte

Öffentliche Reaktion und Marktauswirkungen

  • Nach der Ankündigung von OpenAIs Vertrag mit dem Verteidigungsministerium stieg die Zahl der ChatGPT-Löschungen um 295 %
    • Das deutet darauf hin, dass die Öffentlichkeit OpenAIs Militärvertrag als fragwürdig oder intransparent wahrnimmt
  • Amodei schrieb in dem Memo: „Dieser Versuch von spin/gaslighting verfängt weder in der Öffentlichkeit noch in den Medien; die meisten sehen OpenAIs Vertrag als fragwürdig an und uns als die Helden“

Stimmung innerhalb von Anthropic

  • Amodei betonte gegenüber Mitarbeitenden, man müsse verhindern, dass OpenAIs „verzerrte Botschaft“ die Belegschaft beeinflusst
  • Er bewertete OpenAIs PR-Strategie als etwas, das nur bei einigen Online-Nutzern funktioniere und die breite Öffentlichkeit nicht überzeuge

3 Kommentare

 
jjpark78 2026-03-05

Aber warum wurde opencode dann blockiert … schnief …

 
GN⁺ 2026-03-05
Hacker-News-Kommentare
  • Als @sama nur wenige Stunden später ankündigte, dass OpenAI an Anthropics Stelle denselben Vertrag zu denselben Bedingungen abschließen würde, wirkte es offensichtlich, dass entweder das DoW oder OAI die Fakten verdreht.
    Wenn das DoW Anthropics Bedingungen abgelehnt hat, dann müssen OpenAIs Bedingungen faktisch nicht durchsetzbar gewesen sein.
    Tatsächlich las es sich so, als laute die Bedingung sinngemäß: „Das DoW verstößt nicht gegen seine eigenen Regeln.“

    • Es wirkt, als versuche OpenAI, sich hinter der Formulierung „alle rechtmäßigen Nutzungen“ zu verstecken.
      Sam Altman sagte, man werde Regeln in die Modelle für das DoD einbauen, um Missbrauch zu verhindern, aber das kommt praktisch der Behauptung gleich, das Alignment-Problem kurzfristig lösen zu können. Schwer zu glauben.
    • Normale ChatGPT-Nutzer sollten ihre GPTs im OpenAI-Datenschutzportal löschen und ihr Konto entfernen.
    • Nicht nur Sam Altman, sondern auch mein Respekt vor Paul Graham ist völlig verschwunden.
      Früher mochte ich seine Essays, aber zunehmend wirkte er auf mich selbstkritikarm und so, als seien Startups das Einzige im Leben.
      Auch diesmal ist es extrem enttäuschend, wie er Altman verteidigt. Wenn man seinen Tweet sieht, ignoriert er die Realität.
      Vermutlich kann er Altman nicht kritisieren, weil er sich dafür verantwortlich fühlt, ihn der Welt bekannt gemacht zu haben.
    • Darios Schicksal scheint bereits besiegelt. Nicht Wissen oder Reichtum, sondern Macht beherrscht die Welt.
      Die meisten Techniker haben keine politische Philosophie studiert, und die antike Geschichte vom Ring des Gyges gilt noch immer.
    • Ich dachte von Anfang an, dass entweder das DoW oder OAI etwas verheimlicht. Es war zu offensichtlich. Im Vorfeld hätte man wohl ChatGPT fragen sollen.
  • Das lässt sich nicht nur als Ethikfrage betrachten. Es geht um gewaltiges Kapital.
    Das Training von Modellen an der Spitze ist astronomisch teuer, und Einrichtungen wie das DoD sind fast die einzigen, die das stemmen können.
    Dass Anthropic aus Sicherheitsgründen einen Vertrag mit dem Verteidigungsministerium ablehnte, ist ein großes Wagnis. Im Gegenzug hofft man offenbar, dass der Ansatz von „Constitutional AI“ am Markt belohnt wird.
    OpenAI will Geld vom Verteidigungsministerium und zugleich ein verbraucherfreundliches Image behalten. Aber man kann nicht zwei Herren zugleich dienen.

    • Das Vertragsvolumen liegt bei etwa 200 Millionen Dollar, für Firmen, die zig Milliarden in Infrastruktur stecken, ist das kein riesiger Betrag.
      Durch diese Affäre könnte Anthropic am Ende sogar mehr Umsatz gemacht haben.
      Das eigentliche Risiko wäre, wenn die Regierung Anthropic als Lieferkettenrisiko einstuft.
    • Es ist weniger ein „ethischer Kampf“ als vielmehr, wie so oft, ein Kampf um Profite.
  • Es wirkt widersprüchlich, dass Anthropic mit Palantir kooperiert und zugleich gegen DoD-Überwachung ist.

    • Palantir hat jedoch Anthropics Nutzungsbeschränkungen akzeptiert, das DoD hingegen abgelehnt.
      Dass das DoD den Vertrag beendete und stattdessen einen neuen mit OpenAI abschloss, zeigt klar, dass es zwischen den Bedingungen der beiden Firmen einen echten Unterschied gab.
    • Palantir ist kein Unternehmen, das wie Flock selbst Überwachung betreibt, sondern stellt eine Datenintegrationsplattform bereit.
      Im Rahmen staatlicher Verträge werden verschiedene Datenbestände integriert, auch aus Ermittlungs- und Sicherheitsbereichen, aber Palantir erhebt sie nicht selbst.
      Siehe den Wired-Artikel.
    • Vielleicht schloss der Vertrag mit Palantir inländische Überwachung aus. Möglich, dass Anthropic als Bedingung ein „Verbot inländischer Überwachung“ festgelegt hat.
    • Tatsächlich hat Anthropic auch in der Zusammenarbeit mit Palantir ausdrücklich Beschränkungen genannt, wonach die Systeme nicht für „Waffendesign, Zensur, inländische Überwachung, Desinformation oder bösartige Cyberoperationen“ verwendet werden dürfen.
      Siehe den TechCrunch-Artikel.
    • Sehr wahrscheinlich gab es auch im Palantir-Vertrag ähnliche Bedingungen. Einfach zu behaupten, das sei nicht der Fall gewesen, wirkt seltsam.
  • Darios vollständiges Memo ist hier veröffentlicht.

    • Es ist überraschend, dass die offene Feindseligkeit zwischen den großen AI-Laboren so deutlich zutage tritt.
      Es wirkt nicht nur wie Konkurrenz, sondern wie ein ideologischer Konflikt.
      Dazu kommt, dass es aus Sicht der Personalgewinnung keine kluge Entscheidung ist, OpenAI-Mitarbeiter als „leichtgläubige Twitter-Idioten“ zu bezeichnen.
      Siehe diesen Beispiel-Tweet.
    • Eine Textversion des Memos gibt es auch auf Pastebin.
    • Dario sagt, dass OpenAIs Spin und Gaslighting in der Öffentlichkeit nicht verfangen, und betont, dass OpenAI-Mitarbeiter nicht auf Altmans Narrativ hereinfallen dürfen.
  • @pg beschrieb @sama als jemanden, den man „auf einer Kannibaleninsel aussetzen könnte und der fünf Jahre später ihr König wäre“; heute klingt das fast wie ein symbolisches Zitat für Machtgier.
    Dario wirkt wie eine aufrichtige Persönlichkeit, wie sie in dieser Zeit selten ist. Hoffentlich bleibt er standhaft.

    • Andererseits hat auch Anthropic mit Palantir zusammengearbeitet und ist also nicht völlig makellos.
      Am Ende sind das alles gewinnorientierte Unternehmen, und nur weil die eine Seite falschliegt, ist die andere nicht automatisch im Recht.
      Siehe die offizielle Mitteilung.
    • Wenn man betrachtet, welcher der beiden CEOs versucht, als informelle Macht Einfluss auf staatliche Entscheidungen zu nehmen, dann betreibt nur eine Seite wirklich Machtmaximierung.
      Dass Altman Anthropic in der SCR-Klausel verteidigt hat, erkenne ich an, aber das ist ein so selbstverständliches Minimum, dass es kaum zählt.
    • Schon lange war mir die übertriebene Verehrung für Sam Altman unangenehm. Kult ohne Kritik ist immer verdächtig.
      Dieses Zitat klang für mich von Anfang an negativ. Auch diese Community sollte eine natürliche Skepsis gegenüber Hierarchien haben.
    • Diese Online-Kämpfe zwischen Milliardären wirken wie eine Tech-Version der UFC. Für normale Leute gibt es keinen Grund mehr, Partei zu ergreifen.
    • Ich hätte nie gedacht, dass die Worte „wenn man zurückblickt?“ einmal so schwer wiegen würden.
  • Tatsächlich betreiben beide Labore nur „Safety Theater“.
    Ohne das Alignment-Problem gelöst zu haben, liefern sie sich unter Marktdruck ein gefährliches Wettrennen um Fähigkeiten.

  • Das ist ein Aufruf zum Handeln: OpenAI-Abos kündigen und Konten löschen.
    Nichts zu tun ist nicht anders als Duldung.

  • Dass Sam Altman lügt? Das überrascht inzwischen nicht einmal mehr.

    • Er ist jemand, der Lüge auf Lüge stapelt.
      Er macht die Leute immer abhängiger von sich, bis ihn irgendwann niemand mehr verdrängen kann.
  • OpenAI befindet sich in einer Lage, in der das Unternehmen nur noch mit staatlicher Unterstützung überleben kann.
    Sam und das Management haben die Krise offenbar bereits erkannt und brauchen Regierungsgelder.

    • Genau. OpenAIs Strategie ist es, ein „too big to fail“-Unternehmen zu werden.
      Kurz vor den Wahlen steckt darin auch politisches Kalkül, um den Markt zu stabilisieren.
      Nvidia, Micron, Oracle und Microsoft hängen alle mit in diesem Strudel.
  • Ich habe eine Timeline-Website erstellt, die die jüngsten Ereignisse zwischen Anthropic, OpenAI und der US-Regierung zusammenfasst.
    Link zum HN-Beitrag

 
nemorize 2026-03-05

DoD: Department of Defense
..W: ..Krieg