2 Punkte von GN⁺ 2026-02-28 | 1 Kommentare | Auf WhatsApp teilen
  • Zu Pete Hegseths Bekanntgabe der Einstufung als Lieferkettenrisiko erklärt Anthropic, diese entbehre jeder rechtlichen Grundlage und werde vor Gericht angefochten.
  • In monatelangen Verhandlungen habe Anthropic nur zwei Ausnahmen gefordert: flächendeckende inländische Überwachung und vollautonome Waffen. Diese Ausnahmen hätten nach eigener Darstellung bislang keine einzige Regierungsmission beeinflusst.
  • Aktuelle Frontier-AI-Modelle seien derzeit nicht zuverlässig genug, um in vollautonomen Waffen eingesetzt zu werden; eine Zulassung würde vielmehr US-Soldaten und Zivilisten gefährden.
  • Die Einstufung als Lieferkettenrisiko sei historisch nur gegen Gegner der USA angewandt worden; eine öffentliche Anwendung auf ein US-Unternehmen sei beispiellos.
  • Anthropic informiert Kunden, dass der Zugang zu Claude für normale Kunden und kommerzielle Vertragspartner nicht betroffen ist und sich die Maßnahme auf Tätigkeiten im Rahmen von Verträgen mit dem Verteidigungsministerium beschränkt.

Hintergrund und Verlauf der Verhandlungen

  • Minister Hegseth erklärte auf X, er habe die Einstufung von Anthropic als Lieferkettenrisiko angeordnet.
  • Die Maßnahme folgte auf monatelange Verhandlungen über zwei von Anthropic geforderte Ausnahmen bei der militärischen Nutzung von Claude, die schließlich in einer Sackgasse endeten.
    • Ausnahme 1: flächendeckende inländische Überwachung von US-Bürgern
    • Ausnahme 2: vollautonome Waffen
  • Zum Zeitpunkt der Veröffentlichung der Stellungnahme hatte Anthropic nach eigener Aussage keine direkte offizielle Mitteilung über den Stand der Verhandlungen vom Verteidigungsministerium oder dem Weißen Haus erhalten.

Position von Anthropic

  • Gegenüber dem Verteidigungsministerium habe das Unternehmen klar gemacht, dass es alle rechtmäßigen KI-Anwendungen für die nationale Sicherheit unterstütze – mit Ausnahme der beiden oben genannten Punkte.
  • Man argumentiert, dass diese Ausnahmen bislang keine einzige Regierungsmission beeinflusst hätten.
  • Zwei Gründe, an diesen Ausnahmen festzuhalten:
    • Aktuelle Frontier-AI-Modelle seien für den Einsatz in vollautonomen Waffen nicht zuverlässig genug; eine Zulassung würde US-Soldaten und Zivilisten gefährden.
    • Flächendeckende inländische Überwachung verletzt Grundrechte.

Rechtliche Schritte und Sorge vor einem Präzedenzfall

  • Die Einstufung als Lieferkettenrisiko sei historisch nur gegen Gegner der USA eingesetzt worden; eine öffentliche Anwendung auf ein US-Unternehmen sei ohne Präzedenzfall.
  • Anthropic warnt, die Einstufung sei rechtlich nicht haltbar (legally unsound) und würde für alle US-Unternehmen, die mit der Regierung verhandeln, einen gefährlichen Präzedenzfall schaffen.
  • Das Unternehmen betont, seine Haltung zu flächendeckender inländischer Überwachung und vollautonomen Waffen trotz etwaiger Drohungen oder Strafen durch das Verteidigungsministerium nicht zu ändern.
  • Anthropic kündigt an, die Einstufung als Lieferkettenrisiko vor Gericht anzufechten.

Auswirkungen auf Kunden

  • Minister Hegseth habe angedeutet, dass die Geschäfte aller militärischen Auftragnehmer mit Anthropic eingeschränkt würden; Anthropic entgegnet jedoch, dem Minister fehle dafür die gesetzliche Befugnis.
  • Eine Einstufung als Lieferkettenrisiko nach 10 USC 3252 könne nur dann gelten, wenn Claude als Teil von Vertragsarbeit für das Verteidigungsministerium genutzt wird; andere Tätigkeiten eines Auftragnehmers für andere Kunden könnten davon nicht betroffen sein.
  • Konkreter Wirkungsbereich:
    • Für Einzelkunden oder Unternehmen mit kommerziellem Vertrag mit Anthropic: keinerlei Auswirkungen auf den Zugang zu Claude über API, claude.ai usw.
    • Für Auftragnehmer des Verteidigungsministeriums: selbst bei formeller Übernahme nur Auswirkungen auf die Nutzung von Claude bei Vertragsarbeit für das Verteidigungsministerium, nicht für andere Zwecke

Der weitere Kurs von Anthropic

  • Seit Juni 2024 unterstütze das Unternehmen US-Soldaten als erstes Frontier-AI-Unternehmen, das Modelle in geheimen Netzwerken der US-Regierung bereitgestellt hat, und wolle dies auch weiterhin tun.
  • Oberste Priorität sei es, Unterbrechungen im Kundendienst zu verhindern und für Militär und US-Einsätze einen reibungslosen Übergang zu unterstützen.
  • Abschließend dankt Anthropic Branchenkollegen, politischen Entscheidungsträgern, Veteranen und der breiten Öffentlichkeit für die jüngste Unterstützung.

1 Kommentare

 
GN⁺ 2026-02-28
Hacker-News-Kommentare
  • Anthropic nimmt hier wirklich eine respektable Haltung ein
    Ehrlich anzuerkennen, dass man nicht vorhersagen kann, wie mächtige Technologie missbraucht werden könnte, ist intellektuell und mutig

  • Es ist ironisch, dass Anthropic oder OpenAI Nutzerdaten einsammeln, als würden sie die ganze Welt überwachen, aber gleichzeitig sehr sensibel darauf reagieren, dass so etwas im eigenen Land passieren könnte
    Vor allem wenn man sieht, dass in Berichten zu China sogar Chatprotokolle analysiert werden, existiert Privatsphäre praktisch nicht

  • Ich hoffe, dass Anthropic auch in dieser Situation standhaft bleibt
    Gerade diese Haltung macht das Unternehmen für mich noch sympathischer

  • Hoffentlich helfen sie „Big Brother“ nicht dabei, noch mehr zu sehen
    Wenn das Ergebnis zu stärkerer Überwachung führt, ist es ernsthaft an der Zeit, sich zu fragen, ob man diese Arbeit weiter machen sollte
    Vielleicht sollte man inzwischen sogar darüber nachdenken, wie man ihre Trainingsdatensätze stören kann

  • Ich frage mich, ob Anthropic das erste Unternehmen ist, das sich der aktuellen Regierung offen entgegenstellt

    • Nein. Einige Kanzleien, die letztes Jahr durch Executive Orders (EOs) ins Visier geraten sind, haben vor Gericht gewonnen
    • Ein weiteres Beispiel: Mehrere kleine und mittlere Unternehmen haben gegen die IEEPA-Zollmaßnahmen der Regierung gekämpft und vor dem Supreme Court gewonnen
      Als einschlägiger Fall siehe Learning Resources, Inc. v. Trump
  • Das ist wahre Führung
    Etwas völlig anderes als das Schweigen und die Anpassung der großen Tech-Unternehmen

  • Diese Erklärung wirkt wie eine sehr höfliche Version von „Dann versuch’s doch
    Anthropic zeigt eine prinzipientreue Haltung, und wenn das Unternehmen bis zum Ende durchhält, hat es am Ende gute Chancen zu gewinnen

  • Hier eine Zusammenfassung der Erklärung
    Minister Hegseth sagte, Unternehmen, die mit dem Militär Geschäfte machen, könnten dann auch nicht mehr mit Anthropic Geschäfte machen, aber dafür gibt es keine rechtliche Grundlage
    Nach 10 USC 3252 gilt die „Supply-Chain-Risk-Designation“ nur für die Nutzung von Claude in Verträgen des Kriegsministeriums
    Das heißt, normale Nutzer oder kommerzielle Vertragspartner sind bei der Nutzung der Claude API oder von claude.ai überhaupt nicht betroffen

    • In der Praxis ist entscheidend, ob die Regierung Druck auf Auftragnehmer ausüben wird
      Davon könnten sogar Unternehmen betroffen sein, die Anthropic Rechenressourcen bereitstellen, etwa Google
      Wenn das Rechtssystem ordentlich funktioniert, dürfte der Schaden begrenzt sein, aber es hängt wohl davon ab, wie aggressiv die Regierung vorgeht
      Ich persönlich habe kaum Vertrauen in das Rechtssystem; letztlich scheint es eine Frage des politischen Willens zu sein
    • Eine weitere Möglichkeit wäre, diese Technologie wie Nuklearwaffentechnologie als „restricted data“ einzustufen
      Dann würde es zwar zu einem Rechtsstreit kommen, aber die meisten Unternehmen würden ein solches Risiko wohl nicht eingehen und am Ende nachgeben
  • Der Titel scheint falsch zu sein
    Eigentlich ist es eine „an Kunden gerichtete Erklärung zu den Äußerungen von Kriegsminister Pete Hegseth“
    So eine Reaktion könnte eher die Schwachstelle der Gegenseite treffen und zusätzlichen Konflikt auslösen

    • Korrigiert, danke