1 Punkte von GN⁺ 2026-03-01 | 1 Kommentare | Auf WhatsApp teilen
  • Die US-Regierung hat die Nutzung von KI-Technologie von Anthropic vollständig eingestellt, und das Verteidigungsministerium stufte das Unternehmen als Risiko für die nationale Sicherheit ein
  • Unmittelbar nach der Ankündigung schloss OpenAI einen Vertrag mit dem Verteidigungsministerium über die Bereitstellung von KI für geheime Netzwerke und rückte damit als Ersatzanbieter in den Vordergrund
  • Anthropic verlor den Vertrag, weil das Unternehmen an Nutzungsbeschränkungen für autonome Waffen und umfassende inländische Überwachung festhielt, und kündigte rechtliche Schritte an
  • Die Trump-Regierung erklärte, sie wolle den Zugang zu KI für alle rechtmäßigen Zwecke sicherstellen, während Anthropic die Sicherheit der Technologie und Bedenken hinsichtlich Menschenrechtsverletzungen betonte
  • Die Maßnahme wird als Fall bewertet, in dem der Konflikt um die Befugnis von KI-Unternehmen, Grenzen für militärische Nutzung festzulegen, offen eskaliert ist

Das Verbot von Anthropic durch die Trump-Regierung

  • Präsident Trump ordnete an, dass alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen, und das Verteidigungsministerium stufte das Unternehmen als Risiko für die nationale Sicherheits-Lieferkette ein
    • Der Präsident schrieb auf Truth Social: „Anthropic hat seine eigenen Nutzungsbedingungen über die Verfassung gestellt“ und „Die US-Regierung macht keine Geschäfte mehr mit ihnen“
    • Es wurde ein schrittweiser Rückzug über einen Zeitraum von 6 Monaten festgelegt
  • Verteidigungsminister Pete Hegseth setzte Anthropic auf die Liste verbotener Geschäftspartner für das US-Militär und dessen Auftragnehmer und erklärte, man werde „zu patriotischeren Diensten wechseln“
    • Das Verteidigungsministerium verwendet die in „Department of War“ umbenannte Bezeichnung

Widerstand von Anthropic und rechtliche Schritte

  • Anthropic kündigte an, vor Gericht zu ziehen, da es an einer rechtlichen Grundlage für die Einstufung als Lieferkettenrisiko fehle
    • Das Unternehmen behauptet, die Einstufung gelte nur für den Einsatz des Claude-Modells in Militärverträgen und habe keine Auswirkungen auf Geschäfte mit anderen Kunden
  • Anthropic bekräftigte seine Ablehnung von inländischer Überwachung und vollständig autonomen Waffen
    • „Die heutigen KI-Modelle sind nicht zuverlässig genug für den Einsatz in vollständig autonomen Waffen, und umfassende Überwachung verletzt Grundrechte“, hieß es
    • Das Unternehmen erklärte, es habe monatelang mit dem Verteidigungsministerium verhandelt, aber an zwei Ausnahmen festgehalten

OpenAI schließt Vertrag mit dem Verteidigungsministerium

  • Unmittelbar nach Trumps Ankündigung schloss OpenAI einen KI-Vertrag mit dem Verteidigungsministerium für geheime Netzwerke
    • CEO Sam Altman erklärte, der Vertrag enthalte ein Verbot inländischer Überwachung sowie das Prinzip menschlicher Verantwortung für den Einsatz von Gewalt
    • Dies spiegelt die von Anthropic geforderten Schutzklauseln wider
  • OpenAI, Google, xAI und andere haben ebenfalls Verträge mit dem Verteidigungsministerium und akzeptieren die Bedingung, die Nutzung für „alle rechtmäßigen Zwecke“ zu erlauben

IPO-Pläne von Anthropic und Auswirkungen auf den Markt

  • Anthropic bereitet sich noch in diesem Jahr auf einen IPO vor, bei einer Bewertung von 380 Milliarden US-Dollar
    • Der Vertrag mit dem Verteidigungsministerium hat mit bis zu 200 Millionen US-Dollar zwar ein begrenztes Volumen im Vergleich zum Gesamtumsatz von 14 Milliarden US-Dollar, doch die Auswirkungen des politischen Konflikts auf das Vertrauen der Investoren bleiben unklar
  • CEO Dario Amodei sagte, Unternehmenswert und Umsatz seien weiter gewachsen, obwohl das Unternehmen an seiner Position zur Nutzung von KI auf dem Schlachtfeld festgehalten habe

Debatte über Grenzen für militärische KI-Nutzung

  • Das Verteidigungsministerium setzte Anthropic eine Frist zur Aufhebung der Modellbeschränkungen (Freitag, 17:01 Uhr ET) und warnte bei Nichtbefolgung vor einer Vertragskündigung
    • Das Ministerium erwähnte auch die Möglichkeit, den Defense Production Act aus der Zeit des Koreakriegs zu aktivieren
  • Minister Hegseth kritisierte, Anthropic habe „die operativen Entscheidungen des US-Militärs kontrollieren wollen“, und sagte: „Das US-Militär lässt sich nicht von den ideologischen Launen von Big Tech treiben“
  • Emil Michael, Unterstaatssekretär für Forschung und Technik im Verteidigungsministerium, betonte, dass inländische Überwachung und autonome Waffen nach Bundesrecht und geltender Politik bereits verboten seien
  • Unabhängige Experten bewerten den Vorgang als ungewöhnlich offenen Konflikt in der Geschichte von Pentagon-Verträgen
    • „KI ist noch immer eine nicht ausreichend erprobte Technologie, und dieser Vorfall spiegelt genau diese Eigenschaft wider“, lautet die Einschätzung

1 Kommentare

 
GN⁺ 2026-03-01
Hacker-News-Kommentare
  • Durch diese Sache könnte Anthropic bei Menschen, die die aktuelle US-Regierung nicht unterstützen, an Beliebtheit gewinnen

    • In den letzten Monaten lagen US-Modelle zwar vorn, aber ich denke, dieser Abstand wird allmählich kleiner
      Im Moment muss man für komplexe Anfragen noch US-Modelle nutzen, aber zum Glück gibt es darunter ein Unternehmen, das man mit gutem Gewissen unterstützen kann
      Ich möchte Unternehmen unterstützen, die nicht für Kriegsdrohnen oder Massenüberwachung eingesetzt werden
      Deshalb migriere ich gerade die Firmeninfrastruktur von MS 365 zu Nextcloud auf Hetzner
    • Auch andere AI-Unternehmen sollten sich an einer so klaren ethischen Grenze orientieren
      Keine Massenüberwachung oder Automatisierung des Tötens zuzulassen, sollte ein grundlegender Standard sein
    • Als ich das zuerst hörte, dachte ich, dass Anthropic einem als Erstes einfallen könnte, wenn Europa über AI-Infrastruktur diskutiert
      Ich frage mich, ob es schon einmal einen Fall gab, in dem ein US-Unternehmen auf diese Weise vollständig „umgezogen“ ist
    • Claude Code ist im Programmierbereich derzeit auf Spitzenniveau
      Wenn Anthropic diesen Vorsprung halten kann, dürfte die Zahl der Unternehmenskunden weiter wachsen
    • Diese Entscheidung wird den Ruf in einem Teil des Marktes verbessern, könnte das Unternehmen in einem anderen aber weniger attraktiv machen
  • So wie ich es verstehe, hängt die Sache damit zusammen, dass Anthropic eine Nutzung für autonome Waffen und inländische Überwachung verboten hat
    Ich halte es realistisch gesehen für unwahrscheinlich, dass ein vollständig kontrolliertes AI-System auf staatlicher Ebene umsetzbar ist

    • Tatsächlich heißt es, dass das Verteidigungsministerium nach Einführung dieser Einschränkungen durch Anthropic jede verteidigungsbezogene Nutzung untersagt habe
      (Später bearbeitet: ein Witz ergänzt, ob man zur Autowaschanlage laufen oder fahren soll)
    • Im Kern der Kontroverse steht, dass Anthropic inländische Überwachung und vollautonome Waffen verbieten wollte, während das Verteidigungsministerium sie für „rechtmäßige Zwecke“ erlauben wollte
  • Es fühlt sich seltsam an, dass die Regierung nach dem Scheitern der Verhandlungen privatwirtschaftliche Unternehmen öffentlich bedroht
    Ich frage mich, was aus so etwas wie Meinungsfreiheit geworden ist

    • Auf die Bemerkung „War das nicht Meinungsfreiheit?“ kam die zynische Antwort: „Du bist auf Werbung hereingefallen.“
  • Link zum zugehörigen Post des offiziellen Twitter-Accounts des Weißen Hauses
    Originaler WhiteHouse-Tweet
    Alternativer Link

  • Dieser Vorfall könnte der gesamten Branche ein negatives Signal senden
    Wenn sich die Wahrnehmung verbreitet, dass man bei Regierungsausschreibungen ausgeschlossen wird, sobald man klare ethische Grenzen setzt, entsteht für Unternehmen ein Anreiz, Sicherheitsstandards absichtlich vage zu halten

  • Es ist ironisch, dass eine Institution, die als „Department of War“ bezeichnet wird, auf technologische Fähigkeiten angewiesen ist
    Es wirkt lächerlich, wenn Leute, die selbst keine Technologie schaffen können, Big Tech kritisieren und gleichzeitig um Zugang zu dieser Technologie bitten
    Dass Anthropic nicht eingeknickt ist und an seinen Prinzipien festgehalten hat, ist respektabel
    Ich hoffe, OpenAI schafft auf andere Weise intern Veränderungen

  • Am Ende könnte Anthropic das einzige große Tech-Unternehmen sein, das seine Seele nicht verkauft hat

    • Allerdings ist es schwer zu sagen, ein AI-Labor mit Geld von Staat oder Großkonzernen habe „seine Seele nicht verkauft“
    • Das ist optimistisch, aber vielleicht bedeutet es am Ende nur, dass sie einen höheren Preis verlangen werden
  • Rund um Trumps Aussagen gibt es interessante Bewegungen
    Einige Berater im Weißen Haus weisen seine Aussagen offenbar einfach zurück und geben die Anweisung, sich auf Wirtschaftspolitik zu konzentrieren
    Der politische Stratege James Blair führt diese Linie an; er gilt als der Mann, der Trumps Kampagne zum Erfolg geführt hat
    Auch in der Vergangenheit gab es Fälle, in denen Präsidenten von ihrem Beraterstab teilweise kontrolliert wurden
    Man sollte beobachten, welche Drohungen tatsächlich in Handlungen münden
    Zugehörige Artikel: The-Atlantic-Artikel / James Blair bei Wikipedia

    • Dazu gab es den Witz: „Dann kann jetzt wohl der automatische Signierstift die Executive Orders ausspucken?“
  • Das wirkt wie die beste Empfehlung überhaupt für Anthropic

  • Es gab auch einen Kommentar, der fragte, ob das nicht so etwas wie die Fake News über ein „AI-generiertes Hospitalschiff auf dem Weg nach Grönland“ sei