- OpenAI hat einen Vertrag mit dem Department of War zur Bereitstellung fortschrittlicher KI-Systeme in geheimen Umgebungen abgeschlossen und fordert, dass dies für alle KI-Unternehmen gleichermaßen gilt
- OpenAI erklärt, dass dieser Vertrag mehr Sicherheitsleitplanken enthält als bisherige Bereitstellungen von KI in geheimen Umgebungen
- Es werden rote Linien festgelegt, nach denen OpenAI-Technologie nicht für großangelegte inländische Überwachung, die Steuerung autonomer Waffen oder risikoreiche automatisierte Entscheidungsfindung eingesetzt wird
- Beibehaltung des vollen Ermessens über den Safety-Stack, Cloud-basierte Bereitstellung, Einbindung sicherheitsüberprüften Personals sowie starke vertragliche Schutzmechanismen
- OpenAI hat dem Department of War klar mitgeteilt, dass Anthropic nicht als Lieferkettenrisiko eingestuft werden sollte
Vertragsabschluss mit dem Department of War
- OpenAI hat einen Vertrag mit dem Department of War zur Bereitstellung fortschrittlicher KI-Systeme in geheimen Umgebungen abgeschlossen
- OpenAI fordert, dass diese Bereitstellung allen KI-Unternehmen gleichermaßen ermöglicht wird
- Dieser Vertrag enthält mehr Sicherheitsvorkehrungen als frühere Verträge zur Bereitstellung von KI in geheimen Umgebungen
Beibehaltung roter Linien
- OpenAI-Technologie wird nicht für großangelegte inländische Überwachung verwendet
- OpenAI-Technologie wird nicht für die Steuerung autonomer Waffensysteme verwendet
- OpenAI-Technologie wird nicht für risikoreiche automatisierte Entscheidungssysteme (z. B. social credit) verwendet
Mehrschichtige Sicherheitsarchitektur
- Im Gegensatz zu einigen KI-Laboren, die bei Einsätzen im Bereich der nationalen Sicherheit den Schutz auf nutzungspolitikzentrierte Maßnahmen reduziert oder ganz entfernt haben
- OpenAI setzt einen erweiterten mehrschichtigen Ansatz um
- Beibehaltung des vollen Ermessens über den Safety-Stack
- Beibehaltung eines Cloud-basierten Bereitstellungsmodells
- Struktur mit Einbindung von sicherheitsüberprüftem OpenAI-Personal
- Einschließlich starker vertraglicher Schutzmechanismen
- Parallel zu den bestehenden Schutzvorkehrungen des US-Rechts
Position zu Anthropic
- OpenAI spricht sich gegen eine Einstufung von Anthropic als Lieferkettenrisiko aus
- OpenAI hat diese Position dem Department of War klar mitgeteilt
5 Kommentare
Ich glaube, dazu wäre eine zeitliche Einordnung der relevanten Entwicklungen nötig. Es heißt auch, OpenAI habe sich mitten in Vertragsverhandlungen befunden, oder?
Ein Fehler in der Zusammenfassung, dass es keinen Inhalt gibt, ist mir auch zum ersten Mal passiert..
Es scheint Fälle zu geben, in denen das passiert, weil
xetwas schwierig zu crawlen geworden ist. Wir werden versuchen, das zu verbessern.Ich lese Ihre Beiträge immer sehr gerne, vielen Dank.
Hacker-News-Kommentare
Der Kern ist der Unterschied zwischen dem tatsächlichen Wortlaut von OpenAIs Vertrag und dem, was Altman sagt.
Im Vertrag steht, dass es nicht für den Betrieb autonomer Waffen genutzt wird, "wenn Gesetze oder Richtlinien menschliche Kontrolle verlangen".
Das heißt: Wenn das Verteidigungsministerium festlegt, dass „menschliche Kontrolle nicht erforderlich“ ist, wäre es trotzdem möglich.
Anthropic hat mit „großflächige Überwachung ist absolut unzulässig“ eine absolute rote Linie gezogen, während OpenAI das zu „wenn das Gesetz es erlaubt, ist es möglich“ aufgeweicht hat.
Erst so einen Vertrag abzuschließen und dann so zu tun, als verteidige man Anthropic, wirkt wie eine in der Branche seltene PR-Show.
Im X-Thread behauptete OpenAI, der Vertrag mit dem Verteidigungsministerium wahre unsere redlines.
Laut dem NPR-Artikel wurde Anthropic aber gerade deshalb vom Vertrag ausgeschlossen, weil es denselben Maßstab einhalten wollte, während OpenAI das Geld mitnahm.
Deshalb hat OpenAI den Zuschlag bekommen.
Ob diese Guardrails zivile Überwachung verhindern können, ist jedoch fraglich.
Das Problem mit der Klausel „Any Lawful Use“ ist, dass das Verteidigungsministerium die Definition von „rechtmäßig“ nach Belieben festlegen kann.
Wenn ein interner Jurist ein Memo schreibt, gilt es damit praktisch als legal.
Machtmissbrauch des Staates muss durch Wahlen und institutionelle Reformen korrigiert werden.
Das System wurde nicht so entworfen, aber die Realität sieht anders aus.
Letztlich wird das neu benannte „Department of War“ nur Steuergeld verschwenden und nutzlose Technologie teuer einkaufen.
Ich empfinde Mitleid mit den Bürgern.
Der Unterschied zwischen Anthropic und OpenAI ist letztlich, dass Anthropic versucht hat, Einschränkungen technisch durchzusetzen, während OpenAI nur mündlich versprach, darauf zu hoffen, dass die Regierung sie nicht überschreitet.
Dass die Regierung Letzteres gewählt hat, ist kaum überraschend.
Das lässt die Tür offen für „wenn es legal ist, dann auch großflächige Überwachung oder autonome Tötungswaffen“.
KI, die autonome Tötungsentscheidungen trifft, ist ein äußerst gefährlicher Gedanke.
Nicht nur wegen Superintelligenz, sondern weil mit kleinen Modellen jeder nicht zurückverfolgbare Waffen bauen könnte.
Die aktuellen Modelle wurden auf eine positive Haltung gegenüber menschlichem Leben trainiert, aber wenn man das entfernt, entsteht ein monsterhaftes System.
Sie sind nur probabilistische Token-Prädiktoren.
Zum Beispiel erstellte Software Ziellisten, während Menschen die Drohnen steuerten.
Die Leute scheinen vergessen zu haben, dass Anthropic mit Palantir kooperiert hat.
Als das bekannt wurde, wurde es nur mit PR überdeckt.
Es wirkt, als habe OpenAI diesen Imagepflege-Beitrag veröffentlicht, weil das Unternehmen wegen dieser Kontroverse bereits Kunden verliert.
Anthropic wollte eine Verschärfung staatlicher KI-Regulierung, und nun bekommt es gewissermaßen selbst die Folgen davon zu spüren.
Diese Sache wirkt wie eine PR-Reaktion von OpenAI auf die Kritik an seinen schwachen ethischen Standards.
Im Ausland bleiben unethische Anwendungen weiterhin möglich.