- OpenAI-CEO Sam Altman gab bekannt, dass mit dem US-Verteidigungsministerium (DoD) eine Einigung über den Einsatz von Modellen in geheimen Netzwerken erzielt wurde
- Die Vereinbarung enthält die Grundsätze kein großflächiger Inlandsüberwachung und menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme; auch das Verteidigungsministerium stimmt diesen Prinzipien zu
- Bedingungen sind der Aufbau technischer Schutzmechanismen, damit die Modelle wie beabsichtigt funktionieren, der Einsatz ausschließlich in Cloud-Netzwerken sowie der Einsatz von Field Deployment Engineers (FDEs)
- OpenAI fordert, dass das Verteidigungsministerium dieselben Bedingungen allen AI-Unternehmen anbieten soll, und vertritt die Auffassung, dass es Bedingungen sind, die alle Unternehmen akzeptieren können
- Zudem wurde der starke Wunsch geäußert, statt rechtlicher oder staatlicher Maßnahmen die Lage durch vernünftige Einigungen zu entschärfen
Inhalt der Vereinbarung
- OpenAI schließt eine Vereinbarung über den Einsatz von Modellen in geheimen Netzwerken des Verteidigungsministeriums
- Im Verlauf der Verhandlungen habe das Verteidigungsministerium großen Respekt für Sicherheit gezeigt und die Bereitschaft, für das bestmögliche Ergebnis partnerschaftlich zusammenzuarbeiten
Sicherheitsprinzipien
- AI-Sicherheit und die breite Verteilung ihres Nutzens sind zentral für die Mission von OpenAI
- Zwei zentrale Sicherheitsprinzipien in der Vereinbarung:
- Verbot großflächiger Inlandsüberwachung
- Menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme
- Auch das Verteidigungsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetzen und Richtlinien und hält sie in der Vereinbarung fest
Technische Schutzmechanismen und Einsatzbedingungen
- Es werden technische Schutzmechanismen (technical safeguards) aufgebaut, damit die Modelle wie beabsichtigt funktionieren; dies war auch ein Wunsch des Verteidigungsministeriums
- Zur Unterstützung der Modelle und zur Gewährleistung der Sicherheit werden Field Deployment Engineers (FDE) eingesetzt
- Bedingung ist ein Einsatz ausschließlich in Cloud-Netzwerken
Forderung nach Ausweitung auf die gesamte Branche
- OpenAI fordert das Verteidigungsministerium auf, dieselben Bedingungen allen AI-Unternehmen anzubieten
- OpenAI vertritt die Auffassung, dass es Bedingungen sind, die alle Unternehmen akzeptieren können (
willing to accept)
- Zudem wurde der starke Wunsch geäußert, sich von rechtlichen oder staatlichen Maßnahmen zu lösen und die Lage durch vernünftige Einigungen zu entschärfen
3 Kommentare
Letztlich hat sich das US-Verteidigungsministerium also gegen Anthropic und für OpenAI entschieden, auch wenn es dabei den üblichen Unterschied im Wording gibt.
OpenAI hat gemeinsam konkrete Umsetzungsmechanismen vorgeschlagen, etwa den Aufbau technischer Sicherheitsvorkehrungen, den Einsatz von FDEs (Field Engineers) und eine dedizierte Cloud-Bereitstellung.
Anthropic verlangte dagegen Ausnahmeklauseln auf Ebene der Nutzungsbedingungen.
Aus Sicht des US-Verteidigungsministeriums wirkte das offenbar so, als würde „ein privates Unternehmen bei einzelnen Anwendungsfällen ein Vetorecht ausüben“, und die Erklärung klang fast wie eine demonstrative Zurückweisung.
Diese Vereinbarung wurde kurz nachdem Anthropic als Lieferkettenrisiko eingestuft worden war veröffentlicht.
Wenn man den Axios-Artikel liest, hat das Verteidigungsministerium den Konflikt mit Anthropic offenbar genutzt, um in Verhandlungen mit anderen KI-Unternehmen den Ton zu setzen.
OpenAI hat unter diesem Druck dann gewissermaßen eine Einigung in einer Form herbeigeführt, die das Verteidigungsministerium akzeptieren konnte.
Auch der Unterschied in den offiziellen Formulierungen ist groß.
Sam Altman sagte, „das Verteidigungsministerium habe der Sicherheit großen Respekt entgegengebracht“,
während die Seite von Anthropic bis zuletzt den Ton beibehielt, „den Forderungen des Verteidigungsministeriums aus Gewissensgründen nicht zustimmen zu können“.
Es wirkt, als sei selbst bei denselben Grundsätzen entscheidend gewesen, ob man dem Verteidigungsministerium sein Gesicht wahrt oder nicht.
Letztlich hat OpenAI zugestimmt, wodurch das Gesamtbild etwas schief wurde,
und deshalb scheint Sam Altman am Ende noch den Satz eingefügt zu haben, man solle „diese Bedingungen allen KI-Unternehmen gleichermaßen anbieten“,
als indirekte Botschaft, die Maßnahmen gegen Anthropic abzumildern.
Selbst bei Verträgen auf demselben Niveau wirken Vertrauen und Image doch ganz unterschiedlich.
Dann sollte ich wohl mein GPT-Abo kündigen.
Hacker-News-Kommentare
Wenn OpenAI auf denselben Bedingungen bestanden hätte wie Anthropic, hätte die Regierung diesen Vertrag nicht genehmigt
Am Ende kann man das nur als stillschweigende Einigung darauf sehen, dass OpenAI die roten Linien in der Praxis nicht durchsetzen wird
Die meisten der jetzt Verbliebenen sind wohl wegen ihrer Aktien noch da
Genannt wurden ein „Verbot inländischer Massenüberwachung“ und „menschliche Verantwortung für den Einsatz von Gewalt“, und auch das DoW (Department of War) habe dem zugestimmt
Es ist genau ihre Art, politisches Kapital sinnlos zu verbrennen und noch schlechtere Deals abzuschließen
OpenAI könnte dieselben Bedingungen wie Anthropic angeboten haben, und die Regierung hat womöglich wegen Lobbygeld oder PR-Effekt ein Auge zugedrückt
Ich habe ChatGPT gelöscht, mein Abo gekündigt und beschlossen, mehr in Anthropic zu investieren
Eine prinzipientreue Haltung ist wichtig, und ich vertraue OpenAI jetzt nicht mehr
Der Rest an Respekt, den ich noch für Sam Altman hatte, ist verschwunden, und die Realität, dass AI von menschlicher Gier verdorben wird, widert mich an
Von den Idealen aus der Zeit, als OpenAI als Non-Profit begann, ist nichts mehr übrig
Alle sollten kündigen, und solche Unternehmen und CEOs sollten hart besteuert werden
Schon an der Produktqualität hat man gemerkt, dass OpenAI nicht mehr das ist, was es einmal war
Ich werde beobachten, welche Entscheidung Google trifft
Formulierungen wie „menschliche Verantwortung für den Einsatz von Gewalt“ klingen für mich nach ausweichenden Aussagen
Das heißt am Ende, dass autonome tödliche Waffen trotzdem möglich wären
Selbst wenn der Präsident oder das Verteidigungsministerium als „verantwortlich“ genannt würden, wäre eine tatsächliche Rechenschaft praktisch unmöglich
Im ersten Beitrag heißt es, der OpenAI-Vertrag enthalte Schutzmechanismen auf Basis rechtlicher Beschränkungen
Im zweiten Beitrag wird behauptet, der Vertrag sei auf Grundlage von „allen legalen Verwendungen“ geschlossen worden, was ein Ansatz sei, der die demokratischen Institutionen ermächtige
Anthropic habe einen solchen Kompromiss abgelehnt
In der Vergangenheit gab es viele Fälle, in denen illegales Handeln als legal dargestellt wurde, und auch Fälle, in denen man das Gesetz selbst einfach geändert hat
Letztlich kann das Gesetz allein Machtmissbrauch der Regierung nicht verhindern
Selbst wenn seine Erklärung stimmt, ist ihr schwer zu trauen, solange kein glaubwürdiges Medium den vollständigen Vertrag veröffentlicht
Falls es stimmt, wäre ein Boykott von OpenAI und dem US-Militär wohl eine angemessene Reaktion
Zugehöriger Artikel
Vielleicht lag das Problem gar nicht an den roten Linien, sondern daran, dass die Regierung Anthropic als politischen Gegner betrachtete
Wenn man es aber etwas objektiver betrachtet, ist die entscheidende Frage, ob die Regierung oder das AI-Unternehmen darüber entscheidet, was als „legale Nutzung“ gilt
Laut diesem Tweet wollte Anthropic diesen Maßstab direkt in Claudes Verfassung verankern
Ich habe mein Abo gekündigt, bis OpenAI dazu klar Stellung bezieht
Dann verlangte es plötzlich Neuverhandlungen und drohte mit einer SCR-Einstufung und erzwungenen Übernahme per DPA
Wenn der Vertrag von OpenAI dem von Anthropic ähnelt, dann ist das wirklich doppelmoralisch und unfair
Mit der Zeit werde man Modelle für autonome Waffen zulassen, und Überwachungsfunktionen könnte man über Palantir umgehen
Es könnte gut eine strategische Lüge sein, um Anthropic schlecht aussehen zu lassen
OpenAI kann seine derzeit überhöhte Bewertung ohne Nutzerbasis nicht aufrechterhalten
Andere Modelle sind inzwischen durchaus konkurrenzfähig
Ich habe diese korrupte Art gründlich satt