5 Punkte von GN⁺ 2026-03-07 | 1 Kommentare | Auf WhatsApp teilen
  • Das US-Kriegsministerium hat Anthropic als Lieferketten-Risikofaktor für die nationale Sicherheit eingestuft, und das Unternehmen bereitet rechtliche Schritte vor, da es diese Maßnahme für rechtlich nicht gerechtfertigt hält
  • Laut dem Schreiben des Kriegsministeriums ist der Geltungsbereich der Nutzungsbeschränkung für das Claude-Modell sehr eng und gilt nur für die Nutzung durch Kunden, die in direktem Zusammenhang mit Verträgen des Kriegsministeriums steht
  • Das einschlägige Gesetz (10 USC 3252) dient dem Schutz der Regierung, und der Kriegsminister darf nur das am wenigsten einschränkende Mittel einsetzen
  • Anthropic spricht mit dem Kriegsministerium über die Fortsetzung der Zusammenarbeit und einen reibungslosen Übergang und hält an seinen Ausnahmegrundsätzen zu autonomen Waffen und großflächiger inländischer Überwachung fest
  • Das Unternehmen wird weiterhin dafür sorgen, dass US-Streitkräfte im Krieg und Sicherheitsexperten nicht die benötigten Werkzeuge verlieren, und betont das gemeinsame Ziel beim Einsatz von KI für die nationale Sicherheit

Einstufung als Lieferkettenrisiko durch das Kriegsministerium

  • Das Kriegsministerium hat mitgeteilt, dass es Anthropic als Lieferkettenrisiko für die nationale Sicherheit der USA eingestuft hat
    • Anthropic hält diese Maßnahme für rechtlich nicht haltbar und will sie vor Gericht anfechten
  • Nach dem Wortlaut des Schreibens des Kriegsministeriums gilt diese Einstufung nur für Kunden, die das Claude-Modell als direkten Bestandteil eines Vertrags mit dem Kriegsministerium nutzen
    • Selbst bei einem Vertrag mit dem Kriegsministerium gibt es keine Beschränkungen für die Nutzung von Claude außerhalb dieses Vertrags oder für Geschäfte mit Anthropic

Rechtsgrundlage und Geltungsbereich

  • Die Maßnahme des Kriegsministeriums stützt sich auf Abschnitt 10 USC 3252, der vorschreibt, zur Sicherung der Lieferkette das am wenigsten einschränkende Mittel einzusetzen
    • Ziel des Gesetzes ist nicht die Bestrafung von Lieferanten, sondern der Schutz der Regierung
  • Daher ist der Umfang der Einstufung sehr begrenzt und hat keine Auswirkungen auf Kunden außerhalb der Auftragnehmer des Kriegsministeriums

Zusammenarbeit mit dem Kriegsministerium und Ausnahmegrundsätze

  • Anthropic hat in den vergangenen Tagen mit dem Kriegsministerium über Möglichkeiten zur Fortsetzung der Zusammenarbeit und Übergangsverfahren gesprochen
    • Das Unternehmen hat das Kriegsministerium in verschiedenen Bereichen unterstützt, darunter Informationsanalyse, Modellierung und Simulation, Einsatzplanung und Cyber-Operationen
  • Anthropic hält an zwei Ausnahmegrundsätzen zu autonomen Waffen und großflächiger inländischer Überwachung fest
    • Das Unternehmen macht klar, dass private Unternehmen nicht an Entscheidungen über militärische Operationen beteiligt sein sollten

Leak eines internen Beitrags

  • Das Unternehmen entschuldigte sich für einen internen Firmenbeitrag, der am Vortag an die Medien durchgestochen wurde
    • Der Beitrag wurde unmittelbar nach einem Truth Social-Post des Präsidenten, einem X-Post des Kriegsministers und der Bekanntgabe eines Vertrags zwischen OpenAI und dem Verteidigungsministerium verfasst
    • Anthropic erklärte, den Beitrag nicht selbst geleakt zu haben und nicht die Absicht gehabt zu haben, die Situation zu verschärfen
    • Der Beitrag wurde vor sechs Tagen verfasst und ist eine veraltete Einschätzung, die die aktuelle Lage nicht widerspiegelt

Weitere Unterstützung und gemeinsames Ziel

  • Anthropic plant, US-Streitkräfte im Krieg und nationale Sicherheitsexperten weiter dabei zu unterstützen, die benötigten Werkzeuge zu nutzen
    • Den Sicherheitsbehörden und dem Kriegsministerium sollen Modelle und technischer Support weiterhin zu Selbstkosten bereitgestellt werden
  • Das Unternehmen teilt mit dem Kriegsministerium das gemeinsame Ziel, die Sicherheit der USA zu stärken und den KI-Einsatz in der Regierung auszuweiten
    • Alle künftigen Entscheidungen sollen auf dieser gemeinsamen Grundlage beruhen

1 Kommentare

 
GN⁺ 2026-03-07
Hacker-News-Kommentare
  • Es ist erstaunlich, wie weit sich in dieser Frage das Overton-Fenster verschoben hat
    Als ich 2007 meinen Abschluss gemacht habe, war es üblich, dass Tech-Unternehmen sich weigerten, ihre Systeme für Krieg einzusetzen, und viele Kommilitonen wollten aus moralischen Gründen nicht bei solchen Firmen arbeiten
    Jetzt versucht Anthropic, nur zwei Ausnahmen zuzulassen, und das nicht aus moralischen, sondern aus pragmatischen Gründen. Selbst das wird noch in eine Sprache verpackt, die so klingt, als wolle man eigentlich den Krieg unterstützen, könne aber nicht anders. Die Welt hat sich wirklich stark verändert

    • Das erinnert mich an den deutschen Kurzfilm von 1969 Nicht löschbares Feuer (Inextinguishable Fire)
      Ein Film gegen Napalm, der satirisch zeigt, wie Arbeiter nicht wissen, dass die Produkte, die sie herstellen, in Wirklichkeit Waffen sind
      Der Schlusssatz, dass es von Arbeitern, Studierenden und Ingenieuren abhängt, was wir produzieren, gilt auch heute noch
    • Auch im Film Real Genius gibt es die Handlung, dass Studierende unwissentlich eine Waffe bauen
      Früher waren solche Geschichten Teil der Ethikbildung, aber heute scheinen selbst solche Lehrveranstaltungen verschwunden zu sein
    • Nur eine der beiden Ausnahmen von Anthropic beruht auf moralischen Gründen
      Abgelehnt wird autonome Waffentechnologie nur deshalb, weil sie noch nicht weit genug entwickelt ist, mit dem Vorbehalt „noch nicht“
      Das mag besser sein als bei OpenAI, ist am Ende aber nur die „weniger schlechte Option“
    • Nachdem ich die Trauer gesehen habe, die der MH17-Vorfall bei Oberschülern ausgelöst hat, ist mein Verhältnis zu kriegsbezogener Forschung und Entwicklung komplizierter geworden
      Einerseits gibt es die Realität, dass Verteidigungsforschung nötig sein kann, andererseits sind automatisierte Entscheidungssysteme gefährlich, wenn sie sich der menschlichen Kontrolle entziehen
      Ich denke, eine gesetzliche Pflicht zu human-in-the-loop ist nötig
    • Die Haltung zum Krieg verändert sich je nach historischem Kontext
      2007 bedeutete „Krieg“ den Irak, heute umfasst „Krieg“ Gaza, Iran, Venezuela und auch die Möglichkeit einer Invasion der Ukraine oder Taiwans
      Ich denke, auch intern bei Anthropic wird man diesen Kontext im Blick haben
  • Ich hatte an der Universität einen Freund, der bei DARPA arbeiten wollte, und als ich ihn nach seiner ethischen Sicht fragte, antwortete er: „Das ist nicht mein Problem“
    Mein Eindruck aus dem Studium in den USA ist, dass weder Führungskräfte in der Industrie noch Universitäten Interesse an kritischem Denken und Ethikbildung haben, sondern Menschen nur zu technischen Werkzeugen machen wollen
    Selbst bei einer VR Innovation Week in Harvard waren bei der Session zu „Ethik und Recht“ kaum Gründer oder Entwickler anwesend. Diskussionen über gesellschaftliche Auswirkungen wurden konsequent ausgeblendet
    Am Ende habe ich das Gefühl, dass ein wahnhafter Geldtrieb die Denkfähigkeit der Gesellschaft zersetzt hat

    • Aus meiner Arbeit in der AdTech-Branche habe ich mitgenommen, dass der Werbecode, den ich schreibe, auch für Wahlmanipulation, Impfgegner-Kampagnen oder Betrugsanzeigen eingesetzt werden kann
      Wenn dadurch am Ende jemand stirbt, trage auch ich Verantwortung
      Das Problem ist aber, dass es in der Realität schwer ist, aus Gründen des Lebensunterhalts die moralische Linie einzuhalten. Am Ende sitzen wir alle im selben Boot
    • Ich denke, diese ethische Abstumpfung hängt mit dem Niedergang der Geisteswissenschaften zusammen
      Auch in einem Text von George Orwell (Link) heißt es, dass naturwissenschaftliche Bildung allein keine menschliche Perspektive garantiert
    • Die Aussage, „Gründer oder CEOs seien nicht qualifiziert, an Ethikdebatten teilzunehmen“, klingt für mich nach meritokratischer Arroganz
    • Das erinnert an den Satz von von Braun: „Wo die Rakete landet, ist nicht die Sache meiner Abteilung“
    • Der AI-Hype der letzten Jahre hat mein Vertrauen in die Menschlichkeit vollständig zerstört. Gier liegt überall in der Luft
  • Ich war schockiert, den Satz zu lesen: „Anthropic hat mit dem Verteidigungsministerium mehr Gemeinsamkeiten als Unterschiede“

    • Dass nach der Atombombe aus dem „War Department“ das „Defense Department“ wurde, hatte damit zu tun, dass die Menschheit das Gewicht ihrer eigenen Schöpfungen erkannt hatte
      Aber heute AI Alignment im gleichen Zusammenhang wie eine „Ausrichtung auf das Kriegsministerium“ zu diskutieren, ist intellektuell unangemessen
      Unter den Ländern, die in diesem Jahr angegriffen wurden, ist keines, das eine existentielle Bedrohung für die Menschheit darstellt. Solche Kriege vergrößern vielmehr das zentrale Risiko
      Ich frage mich, warum es unter Forschern nicht mehr Gegenstimmen gibt
    • Wenn man den Satz eher als „Wir wollen eine gehorsame Masse“ liest, wird er viel klarer
    • Als ich den ganzen Text gelesen habe, war ich so schockiert, dass mir fast die Augenbrauen ausgefallen wären
    • Von außerhalb der USA wirkt dieser gesamte Prozess beängstigend
      Es ist sehr wahrscheinlich, dass AI für militärische Zwecke verstaatlicht wird, und es ist widersprüchlich, dass Anthropic seine eigene Technologie für gefährlicher als die Atombombe hält und zugleich mit Palantir militärisch kooperiert
    • Wenn man die Aktivitäten in Venezuela und Iran betrachtet, ist das Wort „Defense“ vielleicht noch der am wenigsten orwellsche Ausdruck
  • Die Aussage von Anthropic über den „Warfighter“ wirft für mich Fragen auf
    Kann man mit wirklich nur diesen zwei Ausnahmen die ethische Grenze wahren?

    • Schon das Wort „Warfighter“ wirkt seltsam. Früher sagte man „servicemen“, heute scheint man eher ein aggressives Bild betonen zu wollen
    • Auch wenn es nicht perfekt ist, halte ich es für sinnvoll, Geld wenigstens zu einer etwas ethischeren Option zu verschieben
    • In Wahrheit gibt es in dieser Geschichte keine „gute Seite“. Beide Unternehmen wollen Gewinn erzielen und verpacken ihr Image nur mit PR
      Anthropic wirkt durch diesen Vorfall wie die „bessere Seite“, verdient aber trotzdem Geld mit der Kriegsindustrie
    • Am Ende ist es nur eine Marketingstrategie, und ich denke, sie hat funktioniert
    • Es war ein gutes PR-Manöver
  • Es gibt kaum etwas, das die orwellsche Realität Amerikas im Jahr 2026 besser zeigt als das Wort „Warfighter“

    • Dieser Begriff wird allerdings schon seit mehr als 20 Jahren verwendet. Eigentlich ist der newspeakartige Name „Department of Defense (DoD)“ noch orwellscher
    • Das erinnert mich an eine Passage aus Kapitel 46 des Daodejing: „Wenn der Weg herrscht, pflügen Kriegspferde die Felder; wenn der Weg nicht herrscht, vermehren sich Kriegspferde an den Grenzen“
    • Die Aussage von Politikern, „Wir befinden uns nicht im Krieg mit Iran“, klingt hohl
    • Dass Trump neue Ernennungen als „MAGA-Krieger“ bezeichnet hat, gehört in denselben Zusammenhang
  • Es wird ein Techdirt-Artikel von Mike Masnick zitiert
    Unter früheren Regierungen wäre die Position, „Wir wollen nicht, dass AI ohne menschliches Eingreifen Tötungsentscheidungen trifft“, eine ganz normale Verhandlungsbedingung gewesen
    Jetzt ist die Situation so, dass der Verteidigungsminister das Unternehmen öffentlich als „Verräter“ beschimpft, der Präsident allen Regierungsbehörden anordnet, die Nutzung einzustellen, und der CEO eine Entschuldigung schreiben muss, die wie ein Geiselbrief klingt

  • Wenn Macht und Korruption der Regierung nicht kontrolliert werden, gehen Unternehmen am Ende solche Geschäfte ein
    Am Anfang beginnt es mit Geld und Patriotismus, doch nach und nach werden sie in irreversible Dinge verwickelt und können sich nur noch schwer daraus lösen
    Dann kommt ein neuer CEO und sagt: „Mein Vorgänger war schwach, ich bin anders“, und derselbe Teufelskreis wiederholt sich

  • Den Menschen, die Technologie für die Kriegsindustrie liefern wollen, würde ich Folgendes sagen
    „Alles kann einem genommen werden, aber das Gewissen verliert man nur, wenn man selbst darauf verzichtet“

    • In der Rüstungsindustrie sind die Gehälter nicht höher als in der allgemeinen Tech-Branche
      Viele arbeiten dort schlicht aus der Überzeugung, der Regierung helfen zu wollen
  • Ich finde es sehr interessant, wie dieser Fall vor Gericht und im Gericht der öffentlichen Meinung ausgehen wird
    Ich halte ihn für einen wichtigen Präzedenzfall und hoffe auf das richtige Ergebnis

  • Der stellvertretende Kriegsminister Emil Michael hat offiziell erklärt, dass es „keine Verhandlungen mit Anthropic“ gebe

    • Auch seine kürzlich geäußerte Position ist lesenswert
      Im Interview bei a16z news wird das ausführlich behandelt