9 Punkte von GN⁺ 2026-02-28 | 3 Kommentare | Auf WhatsApp teilen
  • Pete Hegseth wies das Verteidigungsministerium an, Anthropic als Unternehmen mit Lieferkettenrisiko für die nationale Sicherheit einzustufen, und verbot allen Unternehmen mit Verträgen mit dem US-Militär die Nutzung von Anthropic
  • Er forderte uneingeschränkten Modellzugang für alle rechtmäßigen Verteidigungszwecke, kritisierte jedoch, dass Anthropic dem nicht nachgekommen sei
  • Präsident Trump ordnete über Truth Social den sofortigen Stopp der Nutzung von Anthropic-Technologie in allen Bundesbehörden an und gewährte eine Übergangsfrist von 6 Monaten
  • In monatelangen Verhandlungen hatte Anthropic Schutzmaßnahmen gefordert, damit Modelle nicht für umfassende inländische Überwachung und die Entwicklung autonomer Waffen ohne menschliches Eingreifen eingesetzt werden; das Verteidigungsministerium lehnte dies ab
  • Claude ist derzeit das einzige KI-Modell in geheimen Systemen des US-Militärs und wurde auch bei der Operation zur Festnahme von Maduro eingesetzt, weshalb bei der Umstellung erhebliche Schwierigkeiten erwartet werden
  • Die Maßnahme ist der erste Fall, in dem eine Einstufung als Lieferkettenrisiko gegen ein US-Unternehmen angewandt wird, und schafft einen bedeutenden Präzedenzfall für die Beziehung zwischen KI-Unternehmen und nationaler Sicherheit

Offizielle Erklärung von Verteidigungsminister Pete Hegseth

  • Er kritisierte Anthropic und CEO Dario Amodei dafür, hinter der Rhetorik des „effective altruism“ zu verstecken und ein Veto gegen das US-Militär ausüben zu wollen
  • Das Verteidigungsministerium habe vollständigen und unbegrenzten Zugang zu Anthropic-Modellen für alle rechtmäßigen Zwecke gefordert und betonte, dass sich diese Position nicht ändern werde
  • Es erklärte, dass Anthropics Nutzungsbedingungen nicht über die Sicherheit, Einsatzbereitschaft und das Leben von US-Soldaten gestellt werden könnten
  • Mit sofortiger Wirkung dürfe kein Auftragnehmer, Zulieferer oder Partner mit Verträgen mit dem US-Militär kommerzielle Aktivitäten mit Anthropic betreiben
  • Anthropic solle dem Verteidigungsministerium für einen reibungslosen Übergang noch bis zu 6 Monate lang weiter Dienste bereitstellen
  • Mit den Worten, „Amerikas Soldaten werden niemals Geiseln ideologischer Launen von Big Tech sein“, bezeichnete er dies als endgültige Entscheidung

Hintergrund des Konflikts: monatelange Verhandlungen

  • Anthropic und das Verteidigungsministerium führten monatelang angespannte Verhandlungen über die Bedingungen für den militärischen Einsatz von Claude
  • Anthropic zeigte sich offen für Anpassungen der Nutzungsrichtlinien, beharrte jedoch auf zwei Schutzmaßnahmen: kein Einsatz der Modelle für umfassende Überwachung von US-Bürgern und keine Entwicklung von Waffen, die ohne menschliches Eingreifen ausgelöst werden
  • Das Verteidigungsministerium sah darin übermäßige Einschränkungen und argumentierte, dass es bei der Definition von umfassender Überwachung und autonomen Waffen viele Grauzonen gebe, was einen praktischen Betrieb unmöglich mache
  • Das Verteidigungsministerium verhandelt nicht nur mit Anthropic, sondern auch mit OpenAI, Google und xAI über die Nutzung von Modellen nach dem Maßstab „all lawful purposes“
  • Berichten zufolge hegten hochrangige Beamte des Verteidigungsministeriums schon lange Unmut gegenüber Anthropic und nutzten die Gelegenheit einer öffentlichen Konfrontation aktiv

Direktgespräch Hegseth–Amodei (24. Februar)

  • Hegseth teilte Amodei mit, dass das Verteidigungsministerium entweder eine Einstufung als Lieferkettenrisiko oder die Aktivierung des Defense Production Act wählen werde
  • Der Defense Production Act ist ein Gesetz aus den 1950er Jahren, das im nationalen Notfall Unternehmen zur Produktion bestimmter Güter verpflichten kann
  • Zur Atmosphäre des Treffens sagte ein Beteiligter, sie sei „nicht warm“ gewesen, während eine andere Quelle berichtete, es sei „höflich“ gewesen, ohne dass jemand die Stimme erhoben habe
  • Hegseth lobte Claude gegenüber Amodei, machte aber deutlich, dass kein Unternehmen Bedingungen für operative Entscheidungen des Verteidigungsministeriums diktieren oder einzelne Anwendungsfälle beanstanden könne
  • Hegseth erwähnte konkret die Behauptung des Verteidigungsministeriums, Anthropic habe während der Maduro-Operation gegenüber Palantir Bedenken gegen die Nutzung von Claude geäußert; Amodei bestritt dies
  • An dem Treffen nahmen zahlreiche hochrangige Vertreter teil, darunter Vizeverteidigungsminister Steve Feinberg, der Staatssekretär für Forschung und Technik Emil Michael sowie der Staatssekretär für Beschaffung Michael Duffey

Amodeis endgültige Ablehnung und Reaktion des Verteidigungsministeriums

  • Amodei lehnte am Donnerstag das „beste und endgültige Angebot“ des Verteidigungsministeriums ab und erklärte, er könne „aus Gewissensgründen ihren Forderungen nicht zustimmen“
  • Emil Michael bezeichnete Amodei als „Lügner“ und als jemanden mit „Gottkomplex“ und warf ihm vor, sich damit einverstanden erklärt zu haben, die nationale Sicherheit zu gefährden
  • Anthropic hielt auch nach dem Treffen einen versöhnlichen Ton aufrecht und erklärte, man führe weiterhin Gespräche in gutem Glauben über die Nutzungsrichtlinien, damit Anthropic die Missionen der Regierung im Bereich der nationalen Sicherheit weiter unterstützen könne

Strategische Bedeutung von Claude und Herausforderungen bei der Umstellung

  • Claude ist derzeit das einzige KI-Modell, das in geheimen Systemen des US-Militärs eingesetzt wird
  • Es wurde in Partnerschaft mit Palantir bei der Operation zur Festnahme von Maduro eingesetzt und könnte auch bei möglichen Militäreinsätzen gegen den Iran genutzt werden
  • Auch Beamte des Verteidigungsministeriums erkennen die Fähigkeiten von Claude an und beschrieben die Umstellung als „enormen Schmerz“
  • Ein Beteiligter sagte: „Der einzige Grund, warum wir noch reden, ist, dass wir sie brauchen, und zwar sofort; das Problem ist, dass sie so gut sind.“
  • Der Wert von Anthropics Vertrag mit dem Verteidigungsministerium beträgt bis zu 200 Millionen Dollar, was nur einen sehr kleinen Teil des Jahresumsatzes von 14 Milliarden Dollar ausmacht
  • Da Anthropic angibt, dass 8 der 10 größten US-Unternehmen Claude nutzen, dürften die Folgewirkungen der Einstufung als Lieferkettenrisiko weitreichend sein

Alternative Modelle und Entwicklungen bei Wettbewerbern

  • Elon Musks xAI hat kürzlich einen Vertrag zur Einführung von Grok in geheimen Umgebungen abgeschlossen, doch ob Claude vollständig ersetzt werden kann, ist unklar
  • Das Verteidigungsministerium beschleunigt Gespräche, um Modelle von OpenAI und Google aus nicht geheimen Umgebungen in geheime Systeme zu überführen
  • Ein hochrangiger Regierungsvertreter räumte ein, konkurrierende Modelle lägen bei speziellen Regierungsanwendungen „leicht zurück“, was eine abrupte Umstellung erschwere
  • OpenAI, Google und xAI haben bereits zugestimmt, Schutzmaßnahmen in nicht geheimen Systemen zu entfernen, werden aber bislang noch nicht für geheime Aufgaben eingesetzt

Reaktion von OpenAI

  • OpenAI-CEO Sam Altman erklärte in einem Memo vom Freitag, OpenAI habe dieselben roten Linien wie Anthropic
  • Er stellte klar: „KI sollte weder für umfassende Überwachung noch für autonome tödliche Waffen eingesetzt werden, und bei hochriskanten automatisierten Entscheidungen muss ein Mensch eingebunden sein.“
  • OpenAI verfügt ebenfalls über einen separaten 200-Millionen-Dollar-Vertrag mit dem Verteidigungsministerium, dieser gilt jedoch für nicht geheime Aufgaben

Erklärung von Präsident Trump

  • Er ordnete auf Truth Social den „sofortigen Stopp der Nutzung von Anthropic-Technologie in allen Bundesbehörden“ an
  • Er erklärte, man brauche das Unternehmen nicht, wolle es nicht und werde nie wieder Geschäfte mit ihm machen
  • Er bezeichnete Anthropic als „linke Verrückte“ und nannte es einen „katastrophalen Fehler“, das Verteidigungsministerium zwingen zu wollen, statt den Nutzungsbedingungen der Verfassung zu folgen

Politische Reaktionen und Bedenken

  • Senator Mark Warner, stellvertretender Vorsitzender des Geheimdienstausschusses des Senats, kritisierte Trumps Maßnahme
  • Er äußerte ernste Bedenken, dass Entscheidungen zur nationalen Sicherheit nicht auf sorgfältiger Analyse, sondern auf politischen Erwägungen beruhen könnten
  • Er warnte, dass es enorme Risiken für das Land mit sich bringe, ein US-Unternehmen zu bedrohen und herabzusetzen, um Verträge in Richtung bevorzugter Anbieter zu lenken
  • Zudem wurden Bedenken geäußert, dass einige Bundesbehörden bereits zu Modellen wechseln könnten, die sie selbst als Risiko für Zuverlässigkeit, Sicherheit und Schutz identifiziert haben

Anthropics Position und Ausblick

  • Dario Amodei bezeichnete in einem Essay vom Januar als zentrale Sorge, dass es „zu wenige Finger am Knopf“ geben könnte, und warnte vor einer Situation, in der eine kleine Zahl von Menschen ohne die Kooperation anderer Menschen eine Armee von Drohnen steuern könnte
  • Anthropic plant in diesem Jahr einen Börsengang (IPO), und die Auswirkungen des Konflikts mit der Regierung auf Investoren sind unklar
  • Amodei erklärte, dass Bewertung und Umsatz von Anthropic seit der Konfrontation mit der Trump-Regierung sogar weiter gestiegen seien
  • Diese Einstufung als Lieferkettenrisiko galt bislang nur für Unternehmen aus feindlichen Staaten wie Russland oder China und wurde Berichten zufolge erstmals gegen ein US-Unternehmen angewandt
  • Auch Palantir hat Claude für geheime Aufgaben verwendet und muss daher auf Modelle von Wettbewerbern umstellen

3 Kommentare

 
cnaa97 2026-02-28

Vereinigte Staaten „China“

 
kimjoin2 2026-03-01

Mieses Gefühl, sorry

 
GN⁺ 2026-02-28
Hacker-News-Kommentare
  • Ich denke, DoW (Department of War) und Anthropic hatten bereits einen Vertrag, in dem klar festgelegt war, was erlaubt und was verboten ist.
    Jetzt versucht das DoW offenbar, diese Vertragsbedingungen nachträglich umzukehren. Wenn man Darios offizielle Stellungnahme noch einmal liest, waren die vom DoW behaupteten Anwendungsfälle von Anfang an nicht Teil des Vertrags.
    Am Ende hält sich Anthropic also an den ursprünglichen Vertrag, während es so aussieht, als würde das DoW böswillig versuchen, den Vertrag zu ändern.

    • Mit dem Beitrag von Astral Codex Ten wird das noch klarer.
      Die ursprünglichen Vertragsbedingungen wurden vom Pentagon akzeptiert, und jetzt versucht das Pentagon, sie einseitig zu ändern.
    • Dass ein Anbieter einem Kunden die Nutzung einschränkt, ist völlig normal.
      Das ist vergleichbar mit dem Hinweis, bleihaltige Rohre nicht für Trinkwasser zu verwenden.
    • Um den Namen in Department of War zu ändern, wäre die Zustimmung des Kongresses nötig. Offiziell heißt es weiterhin DoD.
    • Diese Regierung zeigt in allen Verhandlungen eine unzuverlässige Haltung — egal ob im internationalen Handel oder bei Unternehmensverträgen.
    • Die Trump-Regierung hat schon früher Auftragnehmer um ihr Geld gebracht. Es fällt schwer zu glauben, dass sie sich diesmal an Verträge halten wird.
  • Es wirkt widersprüchlich, ein Unternehmen als so gefährlich für die nationale Sicherheit einzustufen, dass es eine Bedrohung darstellt, es aber in den nächsten sechs Monaten weiter zu nutzen.

    • Dieses Verhalten lässt sich nicht vernünftig erklären. Es wirkt schlicht wie ein Schritt zur Druckausübung (shakedown).
    • Zur Einordnung: Anthropic ist derzeit das einzige AI-Unternehmen, das auf geheimen Systemen des Pentagons läuft (NYT-Artikel).
    • Es fühlt sich an wie eine mafiöse Drohung: „Nettes AI-System, wäre schade, wenn ihm etwas passieren würde.“
    • Diese Regierung handelt auf vorhersehbare Weise, indem sie spontan Notlagen ausruft.
    • Die typische Verhandlungsstrategie der Regierung besteht darin, extreme Forderungen zu stellen und sich dann auf einen für sie günstigen Mittelweg zu einigen.
  • Beeindruckend ist, wie Anthropic an seinen Prinzipien festhält. Mit so einer Firma würde man gerne zusammenarbeiten.

    • Natürlich können sich Unternehmen verändern, aber das heutige Anthropic verdient Respekt.
    • Im Unterschied zu Google, Facebook und OpenAI ist der ethische Anspruch als Alleinstellungsmerkmal deutlich erkennbar.
    • Das PR-Team hat in den letzten neun Monaten wirklich hervorragende Arbeit geleistet.
    • Man sollte aber auch nicht vergessen, dass es bereits Opfer durch US-Angriffe im Ausland gibt.
  • Ich unterstütze Anthropics Haltung, sich nicht an Tötung oder Überwachung zu beteiligen.
    Als patriotischer Veteran der USA denke ich sogar, dass es besser wäre, wenn Anthropic nach Europa umziehen würde.
    Wie Rutger Bregman sagte, kontrolliert Europa mit ASML den Flaschenhals bei AI-Hardware, und wenn Anthropic dazukäme, könnte das die Grundlage für eine AI-Supermacht sein (Tweet-Link).

    • Wenn Anthropic tatsächlich nach Europa umziehen würde, könnten Mitarbeitende allerdings wegen Sprache, Familie und Lebensumständen Probleme bekommen.
    • Wenn Europa Claude hätte bauen können, hätte es das wohl bereits getan.
    • Kanada ist ebenfalls eine gute Alternative. Dort gibt es mit dem Mila Institute eine starke AI-Forschungsbasis, und liberale Werte sind dort weiterhin verankert.
    • Trotzdem ist es unwahrscheinlich, dass das ganze Unternehmen umzieht. Das wäre wohl erst denkbar, wenn die Regierung versuchen würde, die Modelle zu verstaatlichen.
  • Diese Maßnahme könnte für Anthropic ein verheerender Schlag sein.
    Wenn allen Unternehmen mit DoD-Geschäften kommerzielle Aktivitäten mit Anthropic verboten würden, könnte Claude von Cloud-Plattformen wie AWS, Google und Microsoft verdrängt werden.

    • In der Praxis ist das aber kaum möglich. Die großen Cloud-Unternehmen sind wesentliche Investoren von Anthropic. Am Ende wird eher das DoD zurückrudern, um keinen Gesichtsverlust zu erleiden.
    • Tatsächlich gelten die Einschränkungen nur für regierungsbezogene Projekte. Claude für interne Arbeitszwecke zu nutzen, bleibt möglich.
    • Rechtlich verboten ist nur, es in einem DoD-Vertrag abzurechnen oder in eine Lösung für einen solchen Vertrag einzubauen.
    • Das heißt: AWS kann Claude in Bedrock weiter anbieten, nur eben nicht in speziellen DoD-Verträgen einbeziehen.
    • Letztlich entsteht Ineffizienz nur bei Regierungsprojekten; im privaten Bereich wird es weiter genutzt werden.
    • Trotzdem ist der Imageschaden erheblich, weil Anthropics zentrale Umsätze von Großkunden kommen.
  • Anthropic verlangt lediglich zwei Einschränkungen.
    (1) Verbot großflächiger inländischer Überwachung, (2) menschliche Beteiligung bei tödlichen Entscheidungen zwingend erforderlich.
    Das sind eher sogar zu moderate Bedingungen (offizielle Stellungnahme).

    • Einige Personen verbergen nicht einmal, dass sie diese Technologie gegen die eigene Bevölkerung einsetzen wollen.
  • Solche Themen sind auf HN schwer zu behandeln.
    Politische Diskussionen sollte man zwar vermeiden, aber in diesem Fall ist es ein Beispiel dafür, wie Ideologie und Politik Technologie direkt beeinflussen.

    • Ohne zu sagen, dass die Regierung böswillig handelt, ist eine Diskussion praktisch unmöglich.
      Aber in den HN-Richtlinien steht, man solle „in gutem Glauben interpretieren“, wodurch solche Themen grundsätzlich schwer behandelbar werden.
    • Meiner Erfahrung nach bedeutet das auf HN nicht, dass Politik verboten ist, sondern dass man bösartige Streiterei vermeiden soll.
      Diskussionen über das Verhältnis von Technologie und Politik waren immer willkommen.
    • Tatsächlich ist alles politisch. Technologie ist keine Ausnahme.
    • Trotzdem sollte man vermeiden, nur noch über Politik zu reden. Dafür tun das bereits genug andere.
    • Die Hacker-Kultur selbst war ursprünglich eine politische und ideologische Bewegung. Es ist Zeit, zu diesem Kern zurückzufinden.
  • Die Formulierung „Alle Unternehmen, die mit dem US-Militär Geschäfte machen, dürfen keine kommerziellen Aktivitäten mit Anthropic betreiben“ ist schockierend.
    Ich frage mich, ob AWS oder GCP Claude dann nicht mehr weiterverkaufen dürften.

    • Vermutlich ja, und besonders bei AWS könnte sogar die interne Nutzung verboten werden.
      Auch Universitäten mit staatlicher Forschungsförderung wie MIT, Stanford und Caltech müssten Claude womöglich einstellen.
    • Am Ende werden Juristen wohl um die Auslegung streiten, aber Systeme mit Bezug zu Supply-Chain-Risk-Software könnten dann nicht mehr an das DoD geliefert werden.
    • Das größere Problem ist, dass nach dieser Logik sogar Open-Source-Software unter ein Verbot fallen könnte.
    • Letztlich werden dann alle auf eine gerichtliche Untersagung (injunction) warten.
    • In der Praxis dürften nur Unternehmen mit DoD-Geschäften eingeschränkt sein; normale Kunden könnten es weiter nutzen.
  • Als Lateinamerikaner habe ich früher zu den USA gehalten, heute nicht mehr.
    Die USA neigen dazu, Lateinamerika mit Zwang zu behandeln, und eine von China geprägte Welt wirkt fast weniger aggressiv.

    • Man sollte auch nicht vergessen, dass die USA mitverantwortlich für die Entstehung des islamistischen Terrorismus sind.
    • Trotzdem wären Australien oder eine geeinte EU vielleicht die bessere Alternative als China.
  • Der McCarthyismus zur Zeit Trumans im Jahr 1947 begann mit Loyalitätsprüfungen und führte zu Blacklists und Inhaftierungen (Wiki-Link).
    Die aktuelle Lage wirkt wie eine Wiederholung dieser Ära. Wer der Regierung nicht folgt, landet auf einer Schwarzen Liste oder wird sanktioniert.

    • Es fühlt sich ähnlich an wie das, was Jack Ma und Alibaba in China erlebt haben.
    • Manche behaupten allerdings auch, „McCarthy hatte recht“.