1 Punkte von GN⁺ 2026-03-07 | 1 Kommentare | Auf WhatsApp teilen
  • Das US-Verteidigungsministerium hat Anthropic offiziell als Lieferkettenrisiko eingestuft und Maßnahmen ergriffen, die Geschäfte mit Auftragnehmern des Pentagons blockieren
  • Diese Einstufung wird normalerweise auf Unternehmen feindlicher Auslandsstaaten angewendet und ist einer der ersten Fälle, in denen sie gegen ein US-Unternehmen eingesetzt wird
  • Während das Verteidigungsministerium den Einsatz von KI für alle rechtmäßigen Verwendungszwecke erlauben lassen will, verlangt Anthropic eine ausdrückliche Zusicherung, dass die Technologie nicht für autonome Waffen und großflächige inländische Überwachung eingesetzt wird
  • Es besteht die Möglichkeit weitreichender Auswirkungen auch auf Partner und Investoren von Anthropic wie Lockheed Martin, Amazon und Google
  • Anthropic hat gegen diese Einstufung rechtliche Schritte angekündigt; Analysen zufolge könnte dies eine abschreckende Wirkung auf die Beziehungen zwischen der KI-Branche und der Regierung haben

Offizielle Einstufung und Hintergrund

  • Das Verteidigungsministerium informierte das Management von Anthropic am Donnerstag offiziell und kam zu dem Schluss, dass das Unternehmen und seine KI-Tools eine Sicherheitsbedrohung darstellen
  • Ein hochrangiger Beamter des Verteidigungsministeriums sagte: "Wir können nicht zulassen, dass ein Anbieter in die Befehlskette eingreift, die rechtmäßige Nutzung zentraler Fähigkeiten einschränkt und Militärpersonal gefährdet."
  • Verteidigungsminister Pete Hegseth hatte die Einstufung als Lieferkettenrisiko bereits in der vergangenen Woche angekündigt, doch beide Seiten führten weiter Verhandlungen, um eine Einigung zu erzielen

Gegensätzliche Positionen beider Seiten

  • Das Pentagon fordert von Anthropic, den Einsatz seiner KI für alle rechtmäßigen Verwendungszwecke zu erlauben
  • Anthropic verlangt eine ausdrückliche Zusicherung, dass seine Technologie nicht für autonome Waffen und großflächige inländische Überwachung verwendet wird
  • Anthropic hatte bereits vergangene Woche angekündigt, diese Einstufung gerichtlich anzufechten

Umfang der Einstufung und rechtliche Kontroverse

  • Die Einstufung als Lieferkettenrisiko kann sehr weitreichend oder sehr eng angewendet werden
  • Hegseths Ankündigung aus der vergangenen Woche wies alle mit dem Militär zusammenarbeitenden Unternehmen an, keine Geschäfte mit Anthropic zu machen; einige Analysten weisen darauf hin, dass dies über die rechtliche Befugnis des Pentagons hinausgeht
    • Diesen Analysten zufolge kann das Verteidigungsministerium Unternehmen lediglich anweisen, Claude nicht bei Pentagon-Aufträgen zu verwenden
  • Als einer der ersten Fälle, in denen diese Einstufung auf ein US-Unternehmen angewendet wird, wird gewarnt, dass dies eine abschreckende Wirkung auf andere Firmen haben könnte, die mit der Regierung Geschäfte machen wollen

Internes Memo des Anthropic-CEO

  • Laut einem Bericht von The Information schrieb CEO Dario Amodei in einem Memo an die Belegschaft in der vergangenen Woche, der Grund dafür, dass die Regierung Anthropic ins Visier nehme, sei, dass das Unternehmen "keine diktatorische Lobhudelei für Trump" gesendet habe und sich gegen die KI-Agenda der Regierung gestellt habe
  • In dem Memo wurde auch der Konkurrent OpenAI kritisiert; OpenAI hat mit dem Verteidigungsministerium einen Vertrag über den Einsatz in geheimen Systemen abgeschlossen
    • OpenAI hat nach internem Widerstand in dieser Woche dem Vertrag ausdrücklich eine Klausel zum Verbot von Überwachung hinzugefügt

Bestehender militärischer Einsatz

  • Anthropics Claude war bislang die einzige KI mit Zulassung für den Einsatz in geheimen Umgebungen; kürzlich erhielt auch Elon Musks xAI eine solche Genehmigung
  • Claude wird derzeit vom Militär bei Operationen gegen Iran eingesetzt und wurde in der Vergangenheit auch bei der Festnahmeoperation gegen den ehemaligen venezolanischen Staatschef Nicolás Maduro verwendet
  • Anthropic unterhält eine Partnerschaft mit dem Data-Mining-Unternehmen Palantir, das das Verteidigungsministerium mit Software beliefert

Auswirkungen auf Partner und Investoren

  • Die aktuelle Maßnahme könnte weitreichende Folgen für Partner und Investoren von Anthropic wie Lockheed Martin, Amazon und Google haben

1 Kommentare

 
GN⁺ 2026-03-07
Hacker-News-Kommentare
  • Diese Einstufung wird normalerweise auf ausländische feindliche Unternehmen angewendet; dass sie wegen eines bloßen Vertragsstreits gegen ein US-Unternehmen eingesetzt wurde, ist schockierend.
    Solche Maßnahmen werden US-Unternehmen künftig wohl Angst machen, Verträge mit der Regierung abzuschließen.
    Wenn die Regierung will, kann sie statt bestehende Verträge zu kündigen oder neu zu verhandeln, gleich auf ein Handelsverbot mit einer ganzen Branche hinauslaufen lassen.
    • Es hat etwas von einer Atmosphäre der Einschüchterung wie: „Nettes Geschäft, schade, wenn ihm etwas zustoßen würde …“
    • Faschismus ist im Kern die Verbindung von Staatsmacht und Industriekraft.
      Viele Techniker wollen politische Themen meiden, aber das ist ein Beispiel dafür, dass die Politik die Tech-Branche am Ende wie ein Bumerang wieder einholt.
  • Dass Unternehmen aus politischen Gründen zugrunde gehen können, ist furchtbar.
    Die Zivilgesellschaft sollte über solche Angriffe ernsthaft besorgt sein.
    • Ein solcher Präzedenzfall könnte einer demokratischen Regierung den Weg öffnen, aus ihren eigenen politischen Gründen Lieferanten zu sanktionieren.
      Wenn Macht einmal geschaffen ist, fällt sie am Ende auch der Gegenseite in die Hände.
    • „Besorgniserregend“ reicht als Ausdruck nicht aus.
      Die USA entwickeln sich bereits zu einer Kontrollgesellschaft auf dem Niveau Nazideutschlands, und mehr als die Hälfte der Bürger unterstützt das.
    • Wenn die Zivilgesellschaft bereits gegenüber einer Einladung Putins, Militäraktionen ohne Zustimmung des Kongresses, Drohungen mit der Aneignung des Territoriums von Verbündeten und der Tötung eigener Staatsbürger durch ICE abgestumpft ist,
      wird selbst diese Einstufung als „Lieferkettenrisiko“ keinerlei Alarm auslösen.
  • Diese Regierung scheint nicht in der Lage zu sein, Effekte zweiter und dritter Ordnung zu berücksichtigen.
    Da sie rote Linien, die frühere Regierungen nicht überschritten haben, ohne jede Sanktion überschreitet, scheint sie sich inzwischen nicht einmal mehr darum zu kümmern.
    • Dass diese Fähigkeit völlig fehlt, hat sich bereits mehrfach gezeigt.
      Die Schließung von USAID ist ein typisches Beispiel: Aus dem simplen Motiv „Keine Steuergelder ausgeben, um Ausländern zu helfen“ wurden sogar US-Interessen mit beschädigt.
    • Das Überschreiten von Tabus früherer Regierungen scheint inzwischen zum eigentlichen Ziel geworden zu sein.
  • Als Hintergrundinformationen dazu gibt es
    einen Tweet darüber, dass das Verteidigungsministerium Anthropic als Lieferkettenrisiko eingestuft hat und
    einen Reuters-Artikel darüber, dass Anthropic rechtliche Schritte angekündigt hat.
  • Anthropic hätte sich von Anfang an nicht mit Militär und Geheimdiensten einlassen sollen.
    Das Problem war, mit dem Teufel einen Pakt zu schließen und dabei die Bedingungen kontrollieren zu wollen.
    Trotzdem ist es anzuerkennen, dass das Unternehmen versucht hat, eigene rote Linien bei der Nutzung seiner Technologie einzuhalten.
    • Einer Legende nach hält sich der Teufel exakt an die Vertragsbedingungen.
      Das Problem ist die menschliche Seite, die die Details nicht gelesen hat.
    • Das Militär ist nicht einfach nur eine Organisation, die bombardiert.
      Es leistet auch in nicht kämpferischen Bereichen viel Arbeit, daher ist Zusammenarbeit in solchen Feldern nicht unbedingt schlecht.
  • Das Verteidigungsministerium hat so gehandelt, wie es angekündigt hatte, und OpenAI hat die Lücke genutzt.
    Ich frage mich, welche Entscheidung die Unterzeichner von notdivided.org jetzt treffen werden.
    • OpenAI hat nicht nur eine Gelegenheit genutzt; laut einem Beitrag von Gary Marcus
      könnte das Unternehmen die Situation auch direkt manipuliert haben.
    • Die Umbenennung des Verteidigungsministeriums bedarf der Zustimmung des Kongresses; ohne diese so zu handeln, ist unangemessen.
      Das steht auch im Wikipedia-Artikel eindeutig.
    • Es fällt mir schwer, die moralischen Maßstäbe solcher Entwickler ernst zu nehmen,
      weil sie bereits mit berüchtigten Unternehmen zusammengearbeitet haben.
  • Ich habe mein ChatGPT-Konto geschlossen und bin zu Claude gewechselt.
    Ich nutze es nur kostenlos für einfache Tests, bin bisher aber deutlich zufriedener.
    • Ich nutze aus ähnlichen Gründen seit einigen Monaten auch Le Chat.
      Für die Funktionen, die ich brauche, reicht es völlig aus, daher fiel es mir leicht, mein ChatGPT-Abo zu kündigen.
    • Persönlich finde ich die Claude-CLI-Oberfläche deutlich praktischer.
      Sie nutzt lokale Dateien wie einen Speicher, und man kann mit einem einzigen Befehl sofort darauf zugreifen.
    • Wenn Claude jedoch als Lieferkettenrisiko eingestuft würde, dann wären auch Clouds wie AWS, Azure oder GCP potenziell betroffen.
      Am Ende könnte das bedeuten, dass man in den USA kein Geschäft mehr betreiben kann und möglicherweise ins Ausland umziehen muss.
  • Ich frage mich, ob dieses Ereignis als der Tag festgehalten werden sollte, an dem die liberale Demokratie in eine illiberale Demokratie überging.
    Sollte noch einmal eine Entscheidung zur Beschlagnahmung von Unternehmensvermögen fallen, wäre das dann eindeutig ein Beleg.
    • Wenn man US-Amerikaner fragt: „Ab wann würdet ihr sagen, dass die USA keine Demokratie mehr sind?“,
      sind die Antworten wirklich sehr unterschiedlich, und die Bandbreite der Verneinung ist interessant.
    • Wenn sich solche Fälle nur noch ein paar Mal wiederholen, wird man wohl anerkennen müssen, dass etwas ernsthaft schiefläuft.
    • Hätte man das nicht schon merken müssen, als eine Geheimpolizei Menschen entführt hat?
  • Verwandter Artikel: archive.ph/IVDtq
  • Diese Art von machtgestütztem Mobbing lässt sich nur brechen, wenn sich alle mit einer Stimme dagegenstellen.
    Wenn sich aber einige beugen (zum Beispiel OpenAI), wird genau das zum neuen Standard und schafft das nächste Ziel.
    • Aber die Denkweise von Milliardären ist vermutlich nicht ganz so simpel.