3 Punkte von GN⁺ 2026-02-28 | 3 Kommentare | Auf WhatsApp teilen
  • OpenAI-CEO Sam Altman gab bekannt, dass mit dem US-Verteidigungsministerium (DoD) eine Einigung über den Einsatz von Modellen in geheimen Netzwerken erzielt wurde
  • Die Vereinbarung enthält die Grundsätze kein großflächiger Inlandsüberwachung und menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme; auch das Verteidigungsministerium stimmt diesen Prinzipien zu
  • Bedingungen sind der Aufbau technischer Schutzmechanismen, damit die Modelle wie beabsichtigt funktionieren, der Einsatz ausschließlich in Cloud-Netzwerken sowie der Einsatz von Field Deployment Engineers (FDEs)
  • OpenAI fordert, dass das Verteidigungsministerium dieselben Bedingungen allen AI-Unternehmen anbieten soll, und vertritt die Auffassung, dass es Bedingungen sind, die alle Unternehmen akzeptieren können
  • Zudem wurde der starke Wunsch geäußert, statt rechtlicher oder staatlicher Maßnahmen die Lage durch vernünftige Einigungen zu entschärfen

Inhalt der Vereinbarung

  • OpenAI schließt eine Vereinbarung über den Einsatz von Modellen in geheimen Netzwerken des Verteidigungsministeriums
  • Im Verlauf der Verhandlungen habe das Verteidigungsministerium großen Respekt für Sicherheit gezeigt und die Bereitschaft, für das bestmögliche Ergebnis partnerschaftlich zusammenzuarbeiten

Sicherheitsprinzipien

  • AI-Sicherheit und die breite Verteilung ihres Nutzens sind zentral für die Mission von OpenAI
  • Zwei zentrale Sicherheitsprinzipien in der Vereinbarung:
    • Verbot großflächiger Inlandsüberwachung
    • Menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme
  • Auch das Verteidigungsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetzen und Richtlinien und hält sie in der Vereinbarung fest

Technische Schutzmechanismen und Einsatzbedingungen

  • Es werden technische Schutzmechanismen (technical safeguards) aufgebaut, damit die Modelle wie beabsichtigt funktionieren; dies war auch ein Wunsch des Verteidigungsministeriums
  • Zur Unterstützung der Modelle und zur Gewährleistung der Sicherheit werden Field Deployment Engineers (FDE) eingesetzt
  • Bedingung ist ein Einsatz ausschließlich in Cloud-Netzwerken

Forderung nach Ausweitung auf die gesamte Branche

  • OpenAI fordert das Verteidigungsministerium auf, dieselben Bedingungen allen AI-Unternehmen anzubieten
  • OpenAI vertritt die Auffassung, dass es Bedingungen sind, die alle Unternehmen akzeptieren können (willing to accept)
  • Zudem wurde der starke Wunsch geäußert, sich von rechtlichen oder staatlichen Maßnahmen zu lösen und die Lage durch vernünftige Einigungen zu entschärfen

3 Kommentare

 
xguru 2026-02-28

Letztlich hat sich das US-Verteidigungsministerium also gegen Anthropic und für OpenAI entschieden, auch wenn es dabei den üblichen Unterschied im Wording gibt.

OpenAI hat gemeinsam konkrete Umsetzungsmechanismen vorgeschlagen, etwa den Aufbau technischer Sicherheitsvorkehrungen, den Einsatz von FDEs (Field Engineers) und eine dedizierte Cloud-Bereitstellung.
Anthropic verlangte dagegen Ausnahmeklauseln auf Ebene der Nutzungsbedingungen.

Aus Sicht des US-Verteidigungsministeriums wirkte das offenbar so, als würde „ein privates Unternehmen bei einzelnen Anwendungsfällen ein Vetorecht ausüben“, und die Erklärung klang fast wie eine demonstrative Zurückweisung.

Diese Vereinbarung wurde kurz nachdem Anthropic als Lieferkettenrisiko eingestuft worden war veröffentlicht.
Wenn man den Axios-Artikel liest, hat das Verteidigungsministerium den Konflikt mit Anthropic offenbar genutzt, um in Verhandlungen mit anderen KI-Unternehmen den Ton zu setzen.
OpenAI hat unter diesem Druck dann gewissermaßen eine Einigung in einer Form herbeigeführt, die das Verteidigungsministerium akzeptieren konnte.

Auch der Unterschied in den offiziellen Formulierungen ist groß.

Sam Altman sagte, „das Verteidigungsministerium habe der Sicherheit großen Respekt entgegengebracht“,
während die Seite von Anthropic bis zuletzt den Ton beibehielt, „den Forderungen des Verteidigungsministeriums aus Gewissensgründen nicht zustimmen zu können“.

Es wirkt, als sei selbst bei denselben Grundsätzen entscheidend gewesen, ob man dem Verteidigungsministerium sein Gesicht wahrt oder nicht.
Letztlich hat OpenAI zugestimmt, wodurch das Gesamtbild etwas schief wurde,
und deshalb scheint Sam Altman am Ende noch den Satz eingefügt zu haben, man solle „diese Bedingungen allen KI-Unternehmen gleichermaßen anbieten“,
als indirekte Botschaft, die Maßnahmen gegen Anthropic abzumildern.

 
lamanus 2026-03-01

Selbst bei Verträgen auf demselben Niveau wirken Vertrauen und Image doch ganz unterschiedlich.
Dann sollte ich wohl mein GPT-Abo kündigen.

 
GN⁺ 2026-02-28
Hacker-News-Kommentare
  • Ich verstehe nicht, wie OpenAI-Mitarbeiter die Erklärung „We Will Not Be Divided“ unterzeichnen konnten und nach diesem Vorfall trotzdem weiter dort arbeiten
    Wenn OpenAI auf denselben Bedingungen bestanden hätte wie Anthropic, hätte die Regierung diesen Vertrag nicht genehmigt
    Am Ende kann man das nur als stillschweigende Einigung darauf sehen, dass OpenAI die roten Linien in der Praxis nicht durchsetzen wird
    • Als Sam Altman entlassen und dann zurückgeholt wurde, sind die sicherheitsorientierten Mitarbeiter meiner Meinung nach bereits gegangen
      Die meisten der jetzt Verbliebenen sind wohl wegen ihrer Aktien noch da
    • Allerdings soll OpenAI dieselben Grundsätze wie Anthropic in den Vertrag aufgenommen haben
      Genannt wurden ein „Verbot inländischer Massenüberwachung“ und „menschliche Verantwortung für den Einsatz von Gewalt“, und auch das DoW (Department of War) habe dem zugestimmt
    • Dieser Vorfall deutet letztlich darauf hin, dass alle großen AI-Unternehmen am Ende den intransparenten militärischen Einsatz der Technologie absegnen werden
    • Wenn man sich das letzte Jahr der Trump-Regierung ansieht, ist diese Art irrationaler Verhandlung überhaupt nicht überraschend
      Es ist genau ihre Art, politisches Kapital sinnlos zu verbrennen und noch schlechtere Deals abzuschließen
    • Ich denke, dahinter steckt die politische Absicht der Regierung, Unternehmen zu kontrollieren
      OpenAI könnte dieselben Bedingungen wie Anthropic angeboten haben, und die Regierung hat womöglich wegen Lobbygeld oder PR-Effekt ein Auge zugedrückt
  • Wenn einen dieser Vorfall stört, sollte man mit dem Geldbeutel abstimmen
    Ich habe ChatGPT gelöscht, mein Abo gekündigt und beschlossen, mehr in Anthropic zu investieren
    • Ich hatte mein Claude-Abo ungefähr zur selben Zeit ebenfalls gekündigt, habe es wegen dieser Sache aber wieder abonniert
      Eine prinzipientreue Haltung ist wichtig, und ich vertraue OpenAI jetzt nicht mehr
    • Ich habe mein Abo auch gerade gekündigt
      Der Rest an Respekt, den ich noch für Sam Altman hatte, ist verschwunden, und die Realität, dass AI von menschlicher Gier verdorben wird, widert mich an
      Von den Idealen aus der Zeit, als OpenAI als Non-Profit begann, ist nichts mehr übrig
      Alle sollten kündigen, und solche Unternehmen und CEOs sollten hart besteuert werden
    • Ich bin tatsächlich schon vor vier Monaten zu Claude und Gemini gewechselt
      Schon an der Produktqualität hat man gemerkt, dass OpenAI nicht mehr das ist, was es einmal war
    • Ich habe alle Gespräche gelöscht und mein Konto vollständig entfernt
    • Ich sehe das genauso. Ich werde OpenAI jetzt keinen einzigen Cent mehr geben
      Ich werde beobachten, welche Entscheidung Google trifft
  • Sam Altman ist meiner Meinung nach eine der am wenigsten vertrauenswürdigen Personen in der AI-Branche
    Formulierungen wie „menschliche Verantwortung für den Einsatz von Gewalt“ klingen für mich nach ausweichenden Aussagen
    • „Menschliche Verantwortung“ ist nicht dasselbe wie „menschliche Entscheidung“
      Das heißt am Ende, dass autonome tödliche Waffen trotzdem möglich wären
      Selbst wenn der Präsident oder das Verteidigungsministerium als „verantwortlich“ genannt würden, wäre eine tatsächliche Rechenschaft praktisch unmöglich
  • Schon daran, dass man die Behörde „Department of War“ nennt, erkennt man eigentlich alles
  • Es gibt eine Erklärung zu den Unterschieden zwischen den Verträgen von OpenAI und Anthropic durch den stellvertretenden Außenminister
    Im ersten Beitrag heißt es, der OpenAI-Vertrag enthalte Schutzmechanismen auf Basis rechtlicher Beschränkungen
    Im zweiten Beitrag wird behauptet, der Vertrag sei auf Grundlage von „allen legalen Verwendungen“ geschlossen worden, was ein Ansatz sei, der die demokratischen Institutionen ermächtige
    Anthropic habe einen solchen Kompromiss abgelehnt
    • Aber das Versprechen der Regierung, „nur legale Dinge“ zu tun, beruhigt mich überhaupt nicht
      In der Vergangenheit gab es viele Fälle, in denen illegales Handeln als legal dargestellt wurde, und auch Fälle, in denen man das Gesetz selbst einfach geändert hat
      Letztlich kann das Gesetz allein Machtmissbrauch der Regierung nicht verhindern
    • Die Aussage dieses Staatssekretärs ist letztlich nur eine PR-Aussage aus der Exekutive, keine objektive Analyse
    • Außerdem hat er an den eigentlichen Verhandlungen gar nicht teilgenommen
      Selbst wenn seine Erklärung stimmt, ist ihr schwer zu trauen, solange kein glaubwürdiges Medium den vollständigen Vertrag veröffentlicht
      Falls es stimmt, wäre ein Boykott von OpenAI und dem US-Militär wohl eine angemessene Reaktion
  • Laut CNN habe OpenAI dieselben roten Linien (redlines) wie Anthropic
    Zugehöriger Artikel
    • Von der Trump-Regierung logische Konsistenz zu erwarten, ist allerdings zu viel verlangt
      Vielleicht lag das Problem gar nicht an den roten Linien, sondern daran, dass die Regierung Anthropic als politischen Gegner betrachtete
  • Zuerst wirkte das auf mich wie Sam Altmans typischer Opportunismus, und ich überlegte ebenfalls, mein Abo zu kündigen
    Wenn man es aber etwas objektiver betrachtet, ist die entscheidende Frage, ob die Regierung oder das AI-Unternehmen darüber entscheidet, was als „legale Nutzung“ gilt
    Laut diesem Tweet wollte Anthropic diesen Maßstab direkt in Claudes Verfassung verankern
    Ich habe mein Abo gekündigt, bis OpenAI dazu klar Stellung bezieht
    • Tatsächlich hatte das DoW den Bedingungen von Anthropic über ein Jahr lang zugestimmt
      Dann verlangte es plötzlich Neuverhandlungen und drohte mit einer SCR-Einstufung und erzwungenen Übernahme per DPA
      Wenn der Vertrag von OpenAI dem von Anthropic ähnelt, dann ist das wirklich doppelmoralisch und unfair
  • Es ist merkwürdig, dass der Vertrag zustande kam, obwohl OpenAI dieselben roten Linien wie Anthropic haben soll
    • Wahrscheinlich hat Sam dem Verteidigungsministerium versprochen, dass es sich nur um vorübergehende rote Linien handelt
      Mit der Zeit werde man Modelle für autonome Waffen zulassen, und Überwachungsfunktionen könnte man über Palantir umgehen
    • Es wirkt so, als habe Sam seine Nähe zur Regierung genutzt, um Anthropic auszubremsen
    • Sams Aussagen sind nicht vertrauenswürdig
      Es könnte gut eine strategische Lüge sein, um Anthropic schlecht aussehen zu lassen
    • Das wirkt wie eine doppelte Haltung nach dem Motto: „Den Prinzipien stimmen wir zu, aber selbst einhalten werden wir sie nicht“
    • Das eigentliche Ziel war am Ende wohl, „die AI-Verträge Sam zuzuschieben“, und die Debatte über rote Linien war nur ein Vorwand
  • Ich habe die App ebenfalls gelöscht und mein Abo gekündigt
    OpenAI kann seine derzeit überhöhte Bewertung ohne Nutzerbasis nicht aufrechterhalten
    Andere Modelle sind inzwischen durchaus konkurrenzfähig
  • Inzwischen braucht es eine Gruppe, in der sich moralisch handelnde Technolog:innen sammeln können
    Ich habe diese korrupte Art gründlich satt
    • Wir brauchen eine neue Flagge, mit der man leicht ausdrücken kann, dass man ein „ethischer Technologe“ ist, und über die man sich gegenseitig vernetzen kann