- Das US-Kriegsministerium hat Anthropic als Lieferketten-Risikofaktor für die nationale Sicherheit eingestuft, und das Unternehmen bereitet rechtliche Schritte vor, da es diese Maßnahme für rechtlich nicht gerechtfertigt hält
- Laut dem Schreiben des Kriegsministeriums ist der Geltungsbereich der Nutzungsbeschränkung für das Claude-Modell sehr eng und gilt nur für die Nutzung durch Kunden, die in direktem Zusammenhang mit Verträgen des Kriegsministeriums steht
- Das einschlägige Gesetz (10 USC 3252) dient dem Schutz der Regierung, und der Kriegsminister darf nur das am wenigsten einschränkende Mittel einsetzen
- Anthropic spricht mit dem Kriegsministerium über die Fortsetzung der Zusammenarbeit und einen reibungslosen Übergang und hält an seinen Ausnahmegrundsätzen zu autonomen Waffen und großflächiger inländischer Überwachung fest
- Das Unternehmen wird weiterhin dafür sorgen, dass US-Streitkräfte im Krieg und Sicherheitsexperten nicht die benötigten Werkzeuge verlieren, und betont das gemeinsame Ziel beim Einsatz von KI für die nationale Sicherheit
Einstufung als Lieferkettenrisiko durch das Kriegsministerium
- Das Kriegsministerium hat mitgeteilt, dass es Anthropic als Lieferkettenrisiko für die nationale Sicherheit der USA eingestuft hat
- Anthropic hält diese Maßnahme für rechtlich nicht haltbar und will sie vor Gericht anfechten
- Nach dem Wortlaut des Schreibens des Kriegsministeriums gilt diese Einstufung nur für Kunden, die das Claude-Modell als direkten Bestandteil eines Vertrags mit dem Kriegsministerium nutzen
- Selbst bei einem Vertrag mit dem Kriegsministerium gibt es keine Beschränkungen für die Nutzung von Claude außerhalb dieses Vertrags oder für Geschäfte mit Anthropic
Rechtsgrundlage und Geltungsbereich
- Die Maßnahme des Kriegsministeriums stützt sich auf Abschnitt 10 USC 3252, der vorschreibt, zur Sicherung der Lieferkette das am wenigsten einschränkende Mittel einzusetzen
- Ziel des Gesetzes ist nicht die Bestrafung von Lieferanten, sondern der Schutz der Regierung
- Daher ist der Umfang der Einstufung sehr begrenzt und hat keine Auswirkungen auf Kunden außerhalb der Auftragnehmer des Kriegsministeriums
Zusammenarbeit mit dem Kriegsministerium und Ausnahmegrundsätze
- Anthropic hat in den vergangenen Tagen mit dem Kriegsministerium über Möglichkeiten zur Fortsetzung der Zusammenarbeit und Übergangsverfahren gesprochen
- Das Unternehmen hat das Kriegsministerium in verschiedenen Bereichen unterstützt, darunter Informationsanalyse, Modellierung und Simulation, Einsatzplanung und Cyber-Operationen
- Anthropic hält an zwei Ausnahmegrundsätzen zu autonomen Waffen und großflächiger inländischer Überwachung fest
- Das Unternehmen macht klar, dass private Unternehmen nicht an Entscheidungen über militärische Operationen beteiligt sein sollten
Leak eines internen Beitrags
- Das Unternehmen entschuldigte sich für einen internen Firmenbeitrag, der am Vortag an die Medien durchgestochen wurde
- Der Beitrag wurde unmittelbar nach einem Truth Social-Post des Präsidenten, einem X-Post des Kriegsministers und der Bekanntgabe eines Vertrags zwischen OpenAI und dem Verteidigungsministerium verfasst
- Anthropic erklärte, den Beitrag nicht selbst geleakt zu haben und nicht die Absicht gehabt zu haben, die Situation zu verschärfen
- Der Beitrag wurde vor sechs Tagen verfasst und ist eine veraltete Einschätzung, die die aktuelle Lage nicht widerspiegelt
Weitere Unterstützung und gemeinsames Ziel
- Anthropic plant, US-Streitkräfte im Krieg und nationale Sicherheitsexperten weiter dabei zu unterstützen, die benötigten Werkzeuge zu nutzen
- Den Sicherheitsbehörden und dem Kriegsministerium sollen Modelle und technischer Support weiterhin zu Selbstkosten bereitgestellt werden
- Das Unternehmen teilt mit dem Kriegsministerium das gemeinsame Ziel, die Sicherheit der USA zu stärken und den KI-Einsatz in der Regierung auszuweiten
- Alle künftigen Entscheidungen sollen auf dieser gemeinsamen Grundlage beruhen
1 Kommentare
Hacker-News-Kommentare
Es ist erstaunlich, wie weit sich in dieser Frage das Overton-Fenster verschoben hat
Als ich 2007 meinen Abschluss gemacht habe, war es üblich, dass Tech-Unternehmen sich weigerten, ihre Systeme für Krieg einzusetzen, und viele Kommilitonen wollten aus moralischen Gründen nicht bei solchen Firmen arbeiten
Jetzt versucht Anthropic, nur zwei Ausnahmen zuzulassen, und das nicht aus moralischen, sondern aus pragmatischen Gründen. Selbst das wird noch in eine Sprache verpackt, die so klingt, als wolle man eigentlich den Krieg unterstützen, könne aber nicht anders. Die Welt hat sich wirklich stark verändert
Ein Film gegen Napalm, der satirisch zeigt, wie Arbeiter nicht wissen, dass die Produkte, die sie herstellen, in Wirklichkeit Waffen sind
Der Schlusssatz, dass es von Arbeitern, Studierenden und Ingenieuren abhängt, was wir produzieren, gilt auch heute noch
Früher waren solche Geschichten Teil der Ethikbildung, aber heute scheinen selbst solche Lehrveranstaltungen verschwunden zu sein
Abgelehnt wird autonome Waffentechnologie nur deshalb, weil sie noch nicht weit genug entwickelt ist, mit dem Vorbehalt „noch nicht“
Das mag besser sein als bei OpenAI, ist am Ende aber nur die „weniger schlechte Option“
Einerseits gibt es die Realität, dass Verteidigungsforschung nötig sein kann, andererseits sind automatisierte Entscheidungssysteme gefährlich, wenn sie sich der menschlichen Kontrolle entziehen
Ich denke, eine gesetzliche Pflicht zu human-in-the-loop ist nötig
2007 bedeutete „Krieg“ den Irak, heute umfasst „Krieg“ Gaza, Iran, Venezuela und auch die Möglichkeit einer Invasion der Ukraine oder Taiwans
Ich denke, auch intern bei Anthropic wird man diesen Kontext im Blick haben
Ich hatte an der Universität einen Freund, der bei DARPA arbeiten wollte, und als ich ihn nach seiner ethischen Sicht fragte, antwortete er: „Das ist nicht mein Problem“
Mein Eindruck aus dem Studium in den USA ist, dass weder Führungskräfte in der Industrie noch Universitäten Interesse an kritischem Denken und Ethikbildung haben, sondern Menschen nur zu technischen Werkzeugen machen wollen
Selbst bei einer VR Innovation Week in Harvard waren bei der Session zu „Ethik und Recht“ kaum Gründer oder Entwickler anwesend. Diskussionen über gesellschaftliche Auswirkungen wurden konsequent ausgeblendet
Am Ende habe ich das Gefühl, dass ein wahnhafter Geldtrieb die Denkfähigkeit der Gesellschaft zersetzt hat
Wenn dadurch am Ende jemand stirbt, trage auch ich Verantwortung
Das Problem ist aber, dass es in der Realität schwer ist, aus Gründen des Lebensunterhalts die moralische Linie einzuhalten. Am Ende sitzen wir alle im selben Boot
Auch in einem Text von George Orwell (Link) heißt es, dass naturwissenschaftliche Bildung allein keine menschliche Perspektive garantiert
Ich war schockiert, den Satz zu lesen: „Anthropic hat mit dem Verteidigungsministerium mehr Gemeinsamkeiten als Unterschiede“
Aber heute AI Alignment im gleichen Zusammenhang wie eine „Ausrichtung auf das Kriegsministerium“ zu diskutieren, ist intellektuell unangemessen
Unter den Ländern, die in diesem Jahr angegriffen wurden, ist keines, das eine existentielle Bedrohung für die Menschheit darstellt. Solche Kriege vergrößern vielmehr das zentrale Risiko
Ich frage mich, warum es unter Forschern nicht mehr Gegenstimmen gibt
Es ist sehr wahrscheinlich, dass AI für militärische Zwecke verstaatlicht wird, und es ist widersprüchlich, dass Anthropic seine eigene Technologie für gefährlicher als die Atombombe hält und zugleich mit Palantir militärisch kooperiert
Die Aussage von Anthropic über den „Warfighter“ wirft für mich Fragen auf
Kann man mit wirklich nur diesen zwei Ausnahmen die ethische Grenze wahren?
Anthropic wirkt durch diesen Vorfall wie die „bessere Seite“, verdient aber trotzdem Geld mit der Kriegsindustrie
Es gibt kaum etwas, das die orwellsche Realität Amerikas im Jahr 2026 besser zeigt als das Wort „Warfighter“
Es wird ein Techdirt-Artikel von Mike Masnick zitiert
Unter früheren Regierungen wäre die Position, „Wir wollen nicht, dass AI ohne menschliches Eingreifen Tötungsentscheidungen trifft“, eine ganz normale Verhandlungsbedingung gewesen
Jetzt ist die Situation so, dass der Verteidigungsminister das Unternehmen öffentlich als „Verräter“ beschimpft, der Präsident allen Regierungsbehörden anordnet, die Nutzung einzustellen, und der CEO eine Entschuldigung schreiben muss, die wie ein Geiselbrief klingt
Wenn Macht und Korruption der Regierung nicht kontrolliert werden, gehen Unternehmen am Ende solche Geschäfte ein
Am Anfang beginnt es mit Geld und Patriotismus, doch nach und nach werden sie in irreversible Dinge verwickelt und können sich nur noch schwer daraus lösen
Dann kommt ein neuer CEO und sagt: „Mein Vorgänger war schwach, ich bin anders“, und derselbe Teufelskreis wiederholt sich
Den Menschen, die Technologie für die Kriegsindustrie liefern wollen, würde ich Folgendes sagen
„Alles kann einem genommen werden, aber das Gewissen verliert man nur, wenn man selbst darauf verzichtet“
Viele arbeiten dort schlicht aus der Überzeugung, der Regierung helfen zu wollen
Ich finde es sehr interessant, wie dieser Fall vor Gericht und im Gericht der öffentlichen Meinung ausgehen wird
Ich halte ihn für einen wichtigen Präzedenzfall und hoffe auf das richtige Ergebnis
Der stellvertretende Kriegsminister Emil Michael hat offiziell erklärt, dass es „keine Verhandlungen mit Anthropic“ gebe
Im Interview bei a16z news wird das ausführlich behandelt