- Zu Pete Hegseths Bekanntgabe der Einstufung als Lieferkettenrisiko erklärt Anthropic, diese entbehre jeder rechtlichen Grundlage und werde vor Gericht angefochten.
- In monatelangen Verhandlungen habe Anthropic nur zwei Ausnahmen gefordert: flächendeckende inländische Überwachung und vollautonome Waffen. Diese Ausnahmen hätten nach eigener Darstellung bislang keine einzige Regierungsmission beeinflusst.
- Aktuelle Frontier-AI-Modelle seien derzeit nicht zuverlässig genug, um in vollautonomen Waffen eingesetzt zu werden; eine Zulassung würde vielmehr US-Soldaten und Zivilisten gefährden.
- Die Einstufung als Lieferkettenrisiko sei historisch nur gegen Gegner der USA angewandt worden; eine öffentliche Anwendung auf ein US-Unternehmen sei beispiellos.
- Anthropic informiert Kunden, dass der Zugang zu Claude für normale Kunden und kommerzielle Vertragspartner nicht betroffen ist und sich die Maßnahme auf Tätigkeiten im Rahmen von Verträgen mit dem Verteidigungsministerium beschränkt.
Hintergrund und Verlauf der Verhandlungen
- Minister Hegseth erklärte auf X, er habe die Einstufung von Anthropic als Lieferkettenrisiko angeordnet.
- Die Maßnahme folgte auf monatelange Verhandlungen über zwei von Anthropic geforderte Ausnahmen bei der militärischen Nutzung von Claude, die schließlich in einer Sackgasse endeten.
- Ausnahme 1: flächendeckende inländische Überwachung von US-Bürgern
- Ausnahme 2: vollautonome Waffen
- Zum Zeitpunkt der Veröffentlichung der Stellungnahme hatte Anthropic nach eigener Aussage keine direkte offizielle Mitteilung über den Stand der Verhandlungen vom Verteidigungsministerium oder dem Weißen Haus erhalten.
Position von Anthropic
- Gegenüber dem Verteidigungsministerium habe das Unternehmen klar gemacht, dass es alle rechtmäßigen KI-Anwendungen für die nationale Sicherheit unterstütze – mit Ausnahme der beiden oben genannten Punkte.
- Man argumentiert, dass diese Ausnahmen bislang keine einzige Regierungsmission beeinflusst hätten.
- Zwei Gründe, an diesen Ausnahmen festzuhalten:
- Aktuelle Frontier-AI-Modelle seien für den Einsatz in vollautonomen Waffen nicht zuverlässig genug; eine Zulassung würde US-Soldaten und Zivilisten gefährden.
- Flächendeckende inländische Überwachung verletzt Grundrechte.
Rechtliche Schritte und Sorge vor einem Präzedenzfall
- Die Einstufung als Lieferkettenrisiko sei historisch nur gegen Gegner der USA eingesetzt worden; eine öffentliche Anwendung auf ein US-Unternehmen sei ohne Präzedenzfall.
- Anthropic warnt, die Einstufung sei rechtlich nicht haltbar (legally unsound) und würde für alle US-Unternehmen, die mit der Regierung verhandeln, einen gefährlichen Präzedenzfall schaffen.
- Das Unternehmen betont, seine Haltung zu flächendeckender inländischer Überwachung und vollautonomen Waffen trotz etwaiger Drohungen oder Strafen durch das Verteidigungsministerium nicht zu ändern.
- Anthropic kündigt an, die Einstufung als Lieferkettenrisiko vor Gericht anzufechten.
Auswirkungen auf Kunden
- Minister Hegseth habe angedeutet, dass die Geschäfte aller militärischen Auftragnehmer mit Anthropic eingeschränkt würden; Anthropic entgegnet jedoch, dem Minister fehle dafür die gesetzliche Befugnis.
- Eine Einstufung als Lieferkettenrisiko nach 10 USC 3252 könne nur dann gelten, wenn Claude als Teil von Vertragsarbeit für das Verteidigungsministerium genutzt wird; andere Tätigkeiten eines Auftragnehmers für andere Kunden könnten davon nicht betroffen sein.
- Konkreter Wirkungsbereich:
- Für Einzelkunden oder Unternehmen mit kommerziellem Vertrag mit Anthropic: keinerlei Auswirkungen auf den Zugang zu Claude über API, claude.ai usw.
- Für Auftragnehmer des Verteidigungsministeriums: selbst bei formeller Übernahme nur Auswirkungen auf die Nutzung von Claude bei Vertragsarbeit für das Verteidigungsministerium, nicht für andere Zwecke
Der weitere Kurs von Anthropic
- Seit Juni 2024 unterstütze das Unternehmen US-Soldaten als erstes Frontier-AI-Unternehmen, das Modelle in geheimen Netzwerken der US-Regierung bereitgestellt hat, und wolle dies auch weiterhin tun.
- Oberste Priorität sei es, Unterbrechungen im Kundendienst zu verhindern und für Militär und US-Einsätze einen reibungslosen Übergang zu unterstützen.
- Abschließend dankt Anthropic Branchenkollegen, politischen Entscheidungsträgern, Veteranen und der breiten Öffentlichkeit für die jüngste Unterstützung.
1 Kommentare
Hacker-News-Kommentare
Anthropic nimmt hier wirklich eine respektable Haltung ein
Ehrlich anzuerkennen, dass man nicht vorhersagen kann, wie mächtige Technologie missbraucht werden könnte, ist intellektuell und mutig
Es ist ironisch, dass Anthropic oder OpenAI Nutzerdaten einsammeln, als würden sie die ganze Welt überwachen, aber gleichzeitig sehr sensibel darauf reagieren, dass so etwas im eigenen Land passieren könnte
Vor allem wenn man sieht, dass in Berichten zu China sogar Chatprotokolle analysiert werden, existiert Privatsphäre praktisch nicht
Ich hoffe, dass Anthropic auch in dieser Situation standhaft bleibt
Gerade diese Haltung macht das Unternehmen für mich noch sympathischer
Hoffentlich helfen sie „Big Brother“ nicht dabei, noch mehr zu sehen
Wenn das Ergebnis zu stärkerer Überwachung führt, ist es ernsthaft an der Zeit, sich zu fragen, ob man diese Arbeit weiter machen sollte
Vielleicht sollte man inzwischen sogar darüber nachdenken, wie man ihre Trainingsdatensätze stören kann
Ich frage mich, ob Anthropic das erste Unternehmen ist, das sich der aktuellen Regierung offen entgegenstellt
Als einschlägiger Fall siehe Learning Resources, Inc. v. Trump
Das ist wahre Führung
Etwas völlig anderes als das Schweigen und die Anpassung der großen Tech-Unternehmen
Diese Erklärung wirkt wie eine sehr höfliche Version von „Dann versuch’s doch“
Anthropic zeigt eine prinzipientreue Haltung, und wenn das Unternehmen bis zum Ende durchhält, hat es am Ende gute Chancen zu gewinnen
Hier eine Zusammenfassung der Erklärung
Minister Hegseth sagte, Unternehmen, die mit dem Militär Geschäfte machen, könnten dann auch nicht mehr mit Anthropic Geschäfte machen, aber dafür gibt es keine rechtliche Grundlage
Nach 10 USC 3252 gilt die „Supply-Chain-Risk-Designation“ nur für die Nutzung von Claude in Verträgen des Kriegsministeriums
Das heißt, normale Nutzer oder kommerzielle Vertragspartner sind bei der Nutzung der Claude API oder von claude.ai überhaupt nicht betroffen
Davon könnten sogar Unternehmen betroffen sein, die Anthropic Rechenressourcen bereitstellen, etwa Google
Wenn das Rechtssystem ordentlich funktioniert, dürfte der Schaden begrenzt sein, aber es hängt wohl davon ab, wie aggressiv die Regierung vorgeht
Ich persönlich habe kaum Vertrauen in das Rechtssystem; letztlich scheint es eine Frage des politischen Willens zu sein
Dann würde es zwar zu einem Rechtsstreit kommen, aber die meisten Unternehmen würden ein solches Risiko wohl nicht eingehen und am Ende nachgeben
Der Titel scheint falsch zu sein
Eigentlich ist es eine „an Kunden gerichtete Erklärung zu den Äußerungen von Kriegsminister Pete Hegseth“
So eine Reaktion könnte eher die Schwachstelle der Gegenseite treffen und zusätzlichen Konflikt auslösen