- Ein Bundesrichter in Kalifornien hat den Versuch des Verteidigungsministeriums, Anthropic als „Lieferkettenrisiko“ einzustufen, als verfassungswidrig bewertet und auf unbestimmte Zeit gestoppt
- In der Entscheidung heißt es, die Maßnahme habe die Meinungsfreiheit und das Recht auf ein ordnungsgemäßes Verfahren verletzt; ein US-Unternehmen als Feind abzustempeln, entbehre jeder rechtlichen Grundlage
- Die Entscheidung ist der dritte Fall, in dem ein Gericht Maßnahmen von Verteidigungsminister Pete Hegseth zur Einschränkung von Äußerungen ausgebremst hat, und setzt der vergeltenden Verwaltungspraxis der Regierung Grenzen
- Anthropic begrüßte das Urteil und betonte seine Bereitschaft zur Zusammenarbeit, um Sicherheit und Vertrauenswürdigkeit von KI zu gewährleisten
- Der Fall könnte künftige rechtliche Maßstäbe für Vertragsbeziehungen zwischen KI-Unternehmen und der Regierung sowie die Grenzen militärischer Nutzung beeinflussen
Richter stoppt Pentagon-Maßnahme, Anthropic als „Lieferkettenrisiko“ einzustufen
- Ein Bundesrichter in Kalifornien hat den Versuch des Verteidigungsministeriums, Anthropic als „Lieferkettenrisiko“ einzustufen und die Beziehungen der Regierung zu dem Unternehmen abzubrechen, auf unbestimmte Zeit gestoppt
- Laut Urteil verletzte die Maßnahme verfassungsmäßige Rechte
- Die Wirkung der Entscheidung wurde für eine Woche ausgesetzt, damit die Regierung Berufung einlegen kann
- Der Richter stellte fest, dass es „keine rechtliche Grundlage dafür gibt, ein US-Unternehmen wegen Meinungsverschiedenheiten mit der Regierung als potenziellen Feind oder Saboteur abzustempeln“
- Die Maßnahme wurde als Verstoß gegen die Meinungsfreiheit (First Amendment) und das Recht auf ein ordnungsgemäßes Verfahren (due process) gewertet
- Das 43-seitige Urteil bezeichnete das Vorgehen der Regierung als „orwellsche Vorstellung“
- Das Urteil ist der dritte Fall in den vergangenen Monaten, in dem Gerichte Maßnahmen von Verteidigungsminister Pete Hegseth gegenüber Journalisten und Politikern ausgebremst haben
- Zuvor hatten Bundesrichter in Washington, D.C. jeweils entschieden, dass Hegseth mit Medienrichtlinien und Einschränkungen von Äußerungen eines Senators die Meinungsfreiheit verletzt habe
- Anthropic erklärte unmittelbar nach dem Urteil, man sei „dankbar, dass das Gericht schnell gehandelt und die Stichhaltigkeit der Position des Unternehmens anerkannt hat“
- Das Unternehmen erklärte, die Klage habe dem Schutz des Unternehmens, seiner Kunden und Partner gedient, und man werde weiter mit der Regierung zusammenarbeiten, um sichere und vertrauenswürdige KI zu entwickeln
Bedeutung und Hintergrund der Einstufung als Lieferkettenrisiko
- Die Einstufung als „Lieferkettenrisiko“ bedeutet, dass jedes Unternehmen mit Geschäften mit dem Militär nachweisen muss, keine Produkte von Anthropic zu verwenden
- Diese Einstufung wurde ursprünglich nur auf Unternehmen mit Verbindungen zu ausländischen feindlichen Staaten angewandt
- Anthropic argumentierte, die Maßnahme habe die Meinungsfreiheit verletzt, Rufschädigung verursacht und Verträge im Wert von Hunderten Millionen Dollar gefährdet
- Der Konflikt mit dem Verteidigungsministerium begann, als Anthropic an seinen Beschränkungen für den Einsatz des Claude-KI-Modells in autonomen Waffen und für Massenüberwachung festhielt
- Hegseth stufte Anthropic im Februar als Lieferkettenrisiko ein und ordnete an, die Nutzung in Bundesbehörden einzustellen und Geschäftsbeziehungen mit verbundenen Unternehmen abzubrechen
Zentrale Begründung des Urteils
- Der Richter bewertete die Maßnahme des Verteidigungsministeriums als Vergeltungsakt ohne Bezug zu nationalen Sicherheitszielen
- In Unterlagen des Ministeriums heißt es, Anthropic sei eingestuft worden, weil das Unternehmen durch die Presse ein „feindseliges Verhalten“ gezeigt habe
- Der Richter stellte fest, dass die Bestrafung eines Unternehmens, das die Position der Regierung zu Verträgen öffentlich kritisiert, eine unzulässige Vergeltung gegen durch die Meinungsfreiheit geschützte Äußerungen sei
Position des Verteidigungsministeriums und weiteres Vorgehen
- Das Verteidigungsministerium verlangt für das Claude-Modell „vollständigen Zugang für alle rechtmäßigen Zwecke“
- Der CTO des Pentagons, Emil Michael, sagte in einem CNBC-Interview, ein Unternehmen, dessen Modell politische Präferenzen eingebaut habe, könne „die Lieferkette nicht kontaminieren und damit die Kampfeffizienz mindern“
- Anthropic hält an zwei Grundsätzen fest: dem Verbot autonomer Waffen und dem Verbot inländischer Überwachung
- Das Unternehmen argumentiert, diese Haltung sei verfassungsrechtlich geschützte Meinungsäußerung
- Michael bezeichnete das Urteil auf X (früher Twitter) als „beschämende Entscheidung“ und kündigte Berufung an
- Er behauptete, das Urteil enthalte „Dutzende sachliche Fehler“, nannte jedoch keine konkreten Beispiele
Weitere Klagen und Ausblick
- Anthropic führt vor einem Bundesgericht in Washington, D.C. auch eine separate Klage gegen andere Rechtsgrundlagen, die Hegseth für die Einstufung als Lieferkettenrisiko genutzt hat
- Das Urteil könnte die rechtlichen Maßstäbe für Vertragsbeziehungen zwischen KI-Unternehmen und der Regierung, insbesondere für die Grenzen militärischer Nutzung von KI, beeinflussen
1 Kommentare
Hacker-News-Kommentare
Es ist beruhigend zu sehen, dass das Justizsystem manchmal doch funktioniert
Aber weniger zynisch betrachtet: Der Präsident hat mehrfach öffentlich gesagt, dass er Xi Jinping bewundert, und sein Regierungsstil entwickelt sich ebenfalls in eine eher chinesische Richtung
Alle knien nieder wie die Tech-CEOs, und er versucht, jeden Aspekt der Exekutive mit eiserner Faust zu kontrollieren
Eher erinnert mich das an die Lage in der Türkei. Trump treibt diesen Prozess nur viel schneller voran
Eine Kakistokratie, aufgebaut aus Schmeichlern, die dem größten Narzissten seiner Generation loyal dienen
Sie ist zu einer Oligarchie geworden, in der Milliardäre, die nur Geld und Aufmerksamkeit wollen, freie Hand haben
China ist nicht so. Xi Jinping und die Kommunistische Partei handeln deutlich prinzipientreuer
Unabhängig davon, wie der Richter entscheidet: Solange der Präsident nicht will, dass ein bestimmtes Produkt genutzt wird, wird es innerhalb der Regierung niemand verwenden
Am Ende wird Anthropic bis zur nächsten Präsidentschaftswahl innerhalb der Regierung de facto tot sein
Durch diese Einstufung könnten jedoch alle Unternehmen, die mit der Regierung Geschäfte machen, Anthropic nirgendwo im Unternehmen mehr verwenden
Wenn der Richter die Überreaktion der Regierung glücklicherweise stoppt, können Firmen es intern weiter nutzen
Wenn es wirtschaftlich sinnvoll ist, werden die meisten Unternehmen es weiter einsetzen
Verwandter Artikel (CNBC)
Im Gegenteil scheint das Ereignis Anthropics Ruf als moralische und vernünftige Plattform eher gestärkt zu haben
Fast alle Tech-Unternehmen haben Regierungsverträge, daher ist das praktisch eine flächendeckende Sperre
Nach einem Gespräch mit einem Freund hatte ich das Gefühl, dass man hinsichtlich der institutionellen Robustheit der US-Demokratie optimistisch sein kann
Es gibt im Moment viel Pessimismus, aber die Institutionen funktionieren immer noch
Wenn eine Person, die durch die Wahl der Mehrheit an die Macht gekommen ist, zu weit geht, bremsen Gerichte und Behörden sie aus
Insgesamt funktioniert das System gut
Der Präsident ignoriert moralische und rechtliche Grenzen und handelt nach eigenem Gutdünken
Seine Umgebung wird versuchen, Anthropic aus der Regierung zu drängen, und CEOs werden ihm folgen, um Nachteile zu vermeiden
Wenn die Justiz Anordnungen erlässt, die größtenteils ignoriert werden, dann funktioniert das System nicht
Rechtlicher Optimismus blendet die Realität aus. Die Vollstrecker des Rechts sind durch Immunität geschützt und tragen keine Verantwortung
Das Justizsystem funktioniert nicht
Ich frage mich, ob diese Klage mit 10 U.S. Code § 3252 zusammenhängt
Zugehöriges Gerichtsdokument
Ich frage mich, wie viele Leute wegen des Pentagon-Befehls die Nutzung von Claude eingestellt haben
Inzwischen ist sie beendet, aber es gab keine offizielle Bekanntmachung. Da wir im Bereich Medicare/Medicaid arbeiten, hatte die Einstufung direkte Auswirkungen
Wird dieses Urteil in der Praxis tatsächlich helfen? Die aktuelle Regierung scheint sich nicht besonders für Rechtsbefolgung zu interessieren
Dieses Urteil ist nur auf Bezirksgerichtsebene, daher wird die Trump-Regierung wahrscheinlich Berufung einlegen
Die Entscheidung des Ninth Circuit Court of Appeals wird wichtiger sein
Tatsächlich ist Anthropic durchaus ein Lieferkettenrisiko, aber das gilt auch für andere proprietäre Softwareunternehmen mit schwacher Sicherheit
Es ist für die Regierung nun wirklich nicht so schwer, selbst GPUs einzubauen und FOSS-Tools zu nutzen
Dass eine Regierung mit unbegrenztem Budget nicht einmal diese grundlegenden Fähigkeiten besitzt, ist das eigentliche Risiko
Das tatsächliche Ergebnis wird sich vermutlich nicht stark unterscheiden
Sie werden die Verträge ohnehin nicht bekommen, also ist diese Einstufung nur eine Formsache
Die Regierung hat dem Ganzen lediglich einen institutionellen Anstrich gegeben, statt einfach zu sagen: „Wir blockieren es einfach“
Es geht darum, dass alle Unternehmen, die mit der Regierung Geschäfte machen, Anthropic nirgendwo mehr nutzen dürfen
Zum Beispiel ist auch unser Unternehmen Calaveras.ai betroffen, weil wir indirekt an das DoD liefern
Wenn Palantír Claude verwenden würde, wäre das dort ebenfalls verboten worden
Das hat faktisch Auswirkungen auf die gesamte Wirtschaft
Leider kann das Pentagon Berufung einlegen, und höhere Gerichte sind in Fragen der „nationalen Sicherheit“ oft übermäßig regierungsfreundlich