1 Punkte von GN⁺ 2026-03-01 | 5 Kommentare | Auf WhatsApp teilen
  • OpenAI hat einen Vertrag mit dem Department of War zur Bereitstellung fortschrittlicher KI-Systeme in geheimen Umgebungen abgeschlossen und fordert, dass dies für alle KI-Unternehmen gleichermaßen gilt
  • OpenAI erklärt, dass dieser Vertrag mehr Sicherheitsleitplanken enthält als bisherige Bereitstellungen von KI in geheimen Umgebungen
  • Es werden rote Linien festgelegt, nach denen OpenAI-Technologie nicht für großangelegte inländische Überwachung, die Steuerung autonomer Waffen oder risikoreiche automatisierte Entscheidungsfindung eingesetzt wird
  • Beibehaltung des vollen Ermessens über den Safety-Stack, Cloud-basierte Bereitstellung, Einbindung sicherheitsüberprüften Personals sowie starke vertragliche Schutzmechanismen
  • OpenAI hat dem Department of War klar mitgeteilt, dass Anthropic nicht als Lieferkettenrisiko eingestuft werden sollte

Vertragsabschluss mit dem Department of War

  • OpenAI hat einen Vertrag mit dem Department of War zur Bereitstellung fortschrittlicher KI-Systeme in geheimen Umgebungen abgeschlossen
    • OpenAI fordert, dass diese Bereitstellung allen KI-Unternehmen gleichermaßen ermöglicht wird
  • Dieser Vertrag enthält mehr Sicherheitsvorkehrungen als frühere Verträge zur Bereitstellung von KI in geheimen Umgebungen

Beibehaltung roter Linien

  • OpenAI-Technologie wird nicht für großangelegte inländische Überwachung verwendet
  • OpenAI-Technologie wird nicht für die Steuerung autonomer Waffensysteme verwendet
  • OpenAI-Technologie wird nicht für risikoreiche automatisierte Entscheidungssysteme (z. B. social credit) verwendet

Mehrschichtige Sicherheitsarchitektur

  • Im Gegensatz zu einigen KI-Laboren, die bei Einsätzen im Bereich der nationalen Sicherheit den Schutz auf nutzungspolitikzentrierte Maßnahmen reduziert oder ganz entfernt haben
  • OpenAI setzt einen erweiterten mehrschichtigen Ansatz um
    • Beibehaltung des vollen Ermessens über den Safety-Stack
    • Beibehaltung eines Cloud-basierten Bereitstellungsmodells
    • Struktur mit Einbindung von sicherheitsüberprüftem OpenAI-Personal
    • Einschließlich starker vertraglicher Schutzmechanismen
    • Parallel zu den bestehenden Schutzvorkehrungen des US-Rechts

Position zu Anthropic

  • OpenAI spricht sich gegen eine Einstufung von Anthropic als Lieferkettenrisiko aus
  • OpenAI hat diese Position dem Department of War klar mitgeteilt

5 Kommentare

 
kayws426 2026-03-01

Ich glaube, dazu wäre eine zeitliche Einordnung der relevanten Entwicklungen nötig. Es heißt auch, OpenAI habe sich mitten in Vertragsverhandlungen befunden, oder?

 
kentakang 2026-03-01

Ein Fehler in der Zusammenfassung, dass es keinen Inhalt gibt, ist mir auch zum ersten Mal passiert..

 
xguru 2026-03-01

Es scheint Fälle zu geben, in denen das passiert, weil x etwas schwierig zu crawlen geworden ist. Wir werden versuchen, das zu verbessern.

 
kentakang 2026-03-01

Ich lese Ihre Beiträge immer sehr gerne, vielen Dank.

 
GN⁺ 2026-03-01
Hacker-News-Kommentare
  • Der Kern ist der Unterschied zwischen dem tatsächlichen Wortlaut von OpenAIs Vertrag und dem, was Altman sagt.
    Im Vertrag steht, dass es nicht für den Betrieb autonomer Waffen genutzt wird, "wenn Gesetze oder Richtlinien menschliche Kontrolle verlangen".
    Das heißt: Wenn das Verteidigungsministerium festlegt, dass „menschliche Kontrolle nicht erforderlich“ ist, wäre es trotzdem möglich.
    Anthropic hat mit „großflächige Überwachung ist absolut unzulässig“ eine absolute rote Linie gezogen, während OpenAI das zu „wenn das Gesetz es erlaubt, ist es möglich“ aufgeweicht hat.
    Erst so einen Vertrag abzuschließen und dann so zu tun, als verteidige man Anthropic, wirkt wie eine in der Branche seltene PR-Show.

    • Ich halte Altmans Verhalten hier für ein typisches Muster, das man schon bei seiner früheren Entlassungsaffäre gesehen hat.
    • Formulierungen wie „großflächige Überwachung von US-Bürgern ist verboten“ lassen am Ende viel zu viel Interpretationsspielraum.
  • Im X-Thread behauptete OpenAI, der Vertrag mit dem Verteidigungsministerium wahre unsere redlines.
    Laut dem NPR-Artikel wurde Anthropic aber gerade deshalb vom Vertrag ausgeschlossen, weil es denselben Maßstab einhalten wollte, während OpenAI das Geld mitnahm.

    • Anthropic traf eine ethische Entscheidung nach dem Motto „diese Linie überschreiten wir nicht“, während OpenAI eher nach dem Prinzip handelte: „Das soll das Verteidigungsministerium selbst regeln.“
      Deshalb hat OpenAI den Zuschlag bekommen.
    • Anthropic wollte Einschränkungen in den Vertrag aufnehmen, OpenAI behauptete dagegen, die eigenen Guardrails seien ausreichend.
      Ob diese Guardrails zivile Überwachung verhindern können, ist jedoch fraglich.
    • Liest man OpenAIs offiziellen Beitrag, stimmen die redlines nicht mit denen von Anthropic überein.
    • Es ist auch möglich, dass die Regierung Anthropic schlicht aus vergeltenden Gründen ausgeschlossen hat.
    • Altman ist meiner Ansicht nach ein Mann ohne Gewissen, und ich sehe keinen Grund, ihm zu glauben.
  • Das Problem mit der Klausel „Any Lawful Use“ ist, dass das Verteidigungsministerium die Definition von „rechtmäßig“ nach Belieben festlegen kann.
    Wenn ein interner Jurist ein Memo schreibt, gilt es damit praktisch als legal.

    • Wer dachte, die rechtlichen Probleme nach 9/11 hätten sich mit dem Aufkommen von LLMs erledigt, war naiv.
      Machtmissbrauch des Staates muss durch Wahlen und institutionelle Reformen korrigiert werden.
    • Tatsächlich ist so etwas oft passiert (z. B. John Yoos Memos zur Legalisierung von Folter).
      Das System wurde nicht so entworfen, aber die Realität sieht anders aus.
    • So etwas geschieht meist im Geheimen, und selbst wenn es später bekannt wird, folgt oft Straffreiheit unter dem Etikett „Patrioten“.
    • Am Ende erscheint Jahre später nur wieder ein Untersuchungsbericht, und dann wird alles vergessen — ein ständig wiederholtes Szenario.
    • Selbst wenn es juristisch angefochten wird, kann man sich hinter Gesetzen wie dem Patriot Act verstecken.
  • Letztlich wird das neu benannte „Department of War“ nur Steuergeld verschwenden und nutzlose Technologie teuer einkaufen.
    Ich empfinde Mitleid mit den Bürgern.

  • Der Unterschied zwischen Anthropic und OpenAI ist letztlich, dass Anthropic versucht hat, Einschränkungen technisch durchzusetzen, während OpenAI nur mündlich versprach, darauf zu hoffen, dass die Regierung sie nicht überschreitet.
    Dass die Regierung Letzteres gewählt hat, ist kaum überraschend.

    • Liest man OpenAIs vollständigen Vertragstext, ist die Formulierung „für alle rechtmäßigen Zwecke“ der entscheidende Punkt.
      Das lässt die Tür offen für „wenn es legal ist, dann auch großflächige Überwachung oder autonome Tötungswaffen“.
    • Während OpenAI Beschränkungen nur innerhalb des von der Regierung gesetzten Rechtsrahmens will, wollte Anthropic anhand eigener Standards eine Grenze ziehen.
    • In der Praxis hat OpenAI überhaupt keine substanziellen Garantien verlangt, und Altman wirkt wie jemand, der allein von Gier getrieben ist.
  • KI, die autonome Tötungsentscheidungen trifft, ist ein äußerst gefährlicher Gedanke.
    Nicht nur wegen Superintelligenz, sondern weil mit kleinen Modellen jeder nicht zurückverfolgbare Waffen bauen könnte.
    Die aktuellen Modelle wurden auf eine positive Haltung gegenüber menschlichem Leben trainiert, aber wenn man das entfernt, entsteht ein monsterhaftes System.

    • LLMs können menschliches Leben jedoch weder „verstehen“ noch „wertschätzen“.
      Sie sind nur probabilistische Token-Prädiktoren.
    • Tatsächlich ist KI schon seit 20 Jahren an Tötungsentscheidungen beteiligt.
      Zum Beispiel erstellte Software Ziellisten, während Menschen die Drohnen steuerten.
    • Es ist außerdem leicht möglich, ein Modell so zu täuschen, dass es Tötungsbefehle ausgibt.
    • Die Vorstellung, LLMs würden Leben respektieren, ist nichts weiter als eine Illusion.
  • Die Leute scheinen vergessen zu haben, dass Anthropic mit Palantir kooperiert hat.
    Als das bekannt wurde, wurde es nur mit PR überdeckt.

    • Solche Behauptungen wirken wie propagandistische Texte und sind daher schwer glaubwürdig.
    • Soweit ich es verstehe, wurden Anthropics Modelle bei Palantir in nicht öffentlichen Systemen für militärische Einsätze verwendet.
    • Offenbar wissen manche nicht besonders gut, was Palantir tatsächlich macht.
  • Es wirkt, als habe OpenAI diesen Imagepflege-Beitrag veröffentlicht, weil das Unternehmen wegen dieser Kontroverse bereits Kunden verliert.

  • Anthropic wollte eine Verschärfung staatlicher KI-Regulierung, und nun bekommt es gewissermaßen selbst die Folgen davon zu spüren.

  • Diese Sache wirkt wie eine PR-Reaktion von OpenAI auf die Kritik an seinen schwachen ethischen Standards.

    • Das Problem bei beiden Unternehmen ist, dass ihre ethischen Standards nur innerhalb nationaler Grenzen gelten.
      Im Ausland bleiben unethische Anwendungen weiterhin möglich.