- OpenAI definierte KI seit seiner Gründung als die mächtigste und potenziell gefährlichste Technologie der Menschheitsgeschichte, startete als Non-Profit-Organisation und wählte eine Struktur, in der die Sicherheit der Menschheit Vorrang vor dem Fortbestand des Unternehmens hat; mit dem späteren Wechsel zu einer gewinnorientierten Struktur wurde dieses Prinzip jedoch zunehmend ausgehöhlt
- Der „Blip“-Vorfall im November 2023, bei dem der Vorstand unter Führung des Mitgründers Ilya Sutskever Altman abrupt entließ und ihn fünf Tage später zurückholte, ist ein Beispiel dafür, wie grundlegende Zweifel an Altmans Vertrauenswürdigkeit und Transparenz in einem realen Machtkampf innerhalb der Organisation explodierten
- Hunderte Seiten an Aufzeichnungen ehemaliger Kollegen enthalten konkrete Vorwürfe, dass Altman dem Vorstand, Führungskräften und Investoren wiederholt Tatsachen verschwieg oder unterschiedliche Aussagen machte; ein Vorstandsmitglied beschrieb ihn als „einen Menschen, der sich nicht an die Wahrheit gebunden fühlt“
- OpenAI bereitet derzeit einen IPO mit einer Unternehmensbewertung von 1 Billion US-Dollar vor, und Altman treibt mit Kapital aus den Golfstaaten den Aufbau einer riesigen KI-Infrastruktur sowie den Abschluss von Verträgen mit dem US-Militär voran und übernimmt damit die Rolle eines zentralen Brokers im Wettbewerb um KI-Vorherrschaft
- Während KI-Sicherheitsforschungsteams nacheinander aufgelöst werden und sich eine Kultur etabliert hat, die Produkte und Umsatz vor Sicherheit stellt, entfernt sich OpenAIs System für existenzielle Sicherheit immer weiter von den Versprechen seiner Gründung
Auslöser der Entlassung — Ilyas Memo und die Entscheidung des Vorstands
- Im Herbst 2023 verschickte OpenAIs Chief Scientist Ilya Sutskever ein 70-seitiges vertrauliches Memo an drei andere Vorstandsmitglieder, in dem er die Eignung von CEO Sam Altman und Präsident Greg Brockman infrage stellte
- Es bestand aus bearbeiteten Slack-Nachrichten und HR-Dokumenten und enthielt Bilder, die mit privaten Geräten aufgenommen worden waren, um eine Entdeckung zu vermeiden
- Es wurde als selbstlöschende Nachricht versendet, um ein externes Durchsickern zu verhindern
- Das Memo behauptete, Altman habe gegenüber Führungskräften und dem Vorstand Tatsachen verzerrt und über interne Sicherheitsprotokolle getäuscht
- Der Titel des ersten Punkts im Memo lautete: "Sam exhibits a consistent pattern of… Lying"
- Die Vorstandsmitglieder Helen Toner (KI-Politikexpertin) und Tasha McCauley (Unternehmerin) nahmen das Memo als „Bestätigung dessen, was sie ohnehin schon glaubten“ auf
- Während Altman das F1-Rennen in Las Vegas verfolgte, teilte Sutskever ihm in einem Videoanruf seine Entlassung mit
- In der öffentlichen Mitteilung hieß es lediglich, er sei „in der Kommunikation nicht durchgehend offen“ gewesen
„Blip“ — Fünf Tage Machtkampf nach der Entlassung
- Microsoft wurde erst unmittelbar vor der Entlassung informiert; Satya Nadella sagte, er habe „überhaupt nicht verstanden, was los war“
- Thrive Capital, das eine Investition in OpenAI bei einer Bewertung von 8,6 Milliarden US-Dollar vorbereitete, stellte die Investition bis zu Altmans Rückkehr zurück
- Nach seiner Rückkehr nach Hause richtete Altman in seinem Wohnhaus einen Strategieraum für Krisenreaktion ein
- Beteiligt waren unter anderem Investor Ron Conway, Airbnb-Mitgründer Brian Chesky und Krisenmanagement-Experte Chris Lehane
- Anwälte arbeiteten in einem Büro neben dem Schlafzimmer, und Altman lief im Pyjama umher
- Laut Zeugenaussagen warnte Altmans Seite, man suche nach „Informationen, die dem Ruf“ von Personen der Gegenseite wie Mira Murati „schaden könnten“ (Altman bestritt dies und sagte, er könne sich nicht erinnern)
- Microsoft erhöhte den Druck, indem es die Gründung eines separaten Teams für Altman und abwandernde Mitarbeiter ankündigte
- Die meisten OpenAI-Mitarbeiter unterzeichneten einen offenen Brief, in dem sie Altmans Rückkehr forderten, woraufhin der Vorstand die Entlassung zurücknahm
- Auch Sutskever unterzeichnete schließlich den Brief; der Vorstand entschied sich zur Rückkehr, nachdem er mit dem Argument unter Druck gesetzt worden war, „das Unternehmen werde zusammenbrechen“
Nach der Rückkehr — Entmachtung der Untersuchung und Umbau der Governance
- Altman verlangte den Rücktritt der Direktoren, die ihn entlassen hatten; Helen Toner, Tasha McCauley und Sutskever, die für seine Entlassung gestimmt hatten, wurden aus dem Vorstand gedrängt
- Als Bedingung für ihren Rückzug forderten sie eine unabhängige externe Untersuchung; bei der Auswahl neuer Direktoren wurden Personen gewählt, die eng mit Altman abgestimmt waren
- Lawrence Summers und Bret Taylor traten als neue Direktoren bei
- Die Kanzlei WilmerHale übernahm die Untersuchung, doch mehr als sechs Personen behaupteten, es habe sich um eine „so angelegte Untersuchung gehandelt, dass Transparenz begrenzt wird“
- Kritisiert wurden unter anderem das Auslassen wichtiger Interviews und unzureichende Zusicherung von Anonymität
- Im März 2024 kam OpenAI zu dem Schluss, dass Altman kein Fehlverhalten vorzuwerfen sei, verfasste jedoch überhaupt keinen Bericht
- Es gab nur mündliche Briefings; die Entscheidung, keinen Bericht zu schreiben, soll auf den Rat der persönlichen Anwälte von Summers und Taylor zurückgegangen sein
- Laut Aussagen von Beteiligten „trug das Fehlen eines Berichts dazu bei, die Vorwürfe zu minimieren“
- Summers trat später nach der Veröffentlichung von E-Mails im Zusammenhang mit Jeffrey Epstein von seinem Direktorenposten zurück
- Seitdem ist OpenAI mit den Vorbereitungen auf einen IPO im Volumen von 1 Billion US-Dollar zu einem der wertvollsten Unternehmen der Welt gewachsen
- Altman ist auch an der Ausweitung der KI-Infrastruktur, Regierungsverträgen und der Standardisierung von Überwachungs- und Waffensystemen beteiligt
- Intern hält jedoch die Kritik an, dass sich Altmans täuschendes Verhalten wiederhole
Altmans Persönlichkeit und frühe Karriere — Übertreibung, Überzeugungskraft, Machtstreben
- Er stammt aus Clayton im Bundesstaat Missouri, wuchs in einer wohlhabenden Familie auf und machte als Jugendlicher die Erfahrung eines homophoben Angriffs
- Während seines Studiums in Stanford entwickelte er durch Pokerspiele ein Gespür für Geschäfte, brach das Studium ab und nahm als Gründer der ersten Y Combinator (YC)-Klasse an dem Programm teil, wo er Loopt gründete
- Loopt war ein standortbasiertes soziales Netzwerk, scheiterte jedoch am Wachstum und wurde 2012 verkauft
- Schon zu Loopt-Zeiten wurde auf seine Neigung zur Übertreibung hingewiesen: Er prahlte damit, Tischtennis-Champion zu sein, gehörte in Wirklichkeit aber zu den schlechtesten im Büro
- Der frühere Mitarbeiter Mark Jacobstein sagte: „Wenn die Grenze zwischen dem, was ich denke, und dem, was ich bereits erreicht habe, im schlimmsten Sinne verschwimmt, landet man bei Theranos“
- Eine Mitarbeitergruppe bat den Vorstand zweimal um seine Entlassung, scheiterte jedoch
- Loopt wurde 2012 an ein Fintech-Unternehmen verkauft; laut Aussagen von Beteiligten war dies „ein Deal, der vor allem dazu diente, Altman das Gesicht zu wahren“
- Paul Graham ernannte Altman 2014 zu seinem Nachfolger als Leiter von Y Combinator
- Als Graham es ihm mitteilte, soll Altman ein unkontrolliertes Lächeln gezeigt und gesagt haben: „it worked“
Zeit bei Y Combinator — Interessenkonflikte und die Umstände seines Abgangs
- Als YC-Leiter wurde kritisiert, dass er andere Investoren von Beteiligungen abhielt und selbst selektiv private Investments tätigte (Altman bestreitet dies)
- Laut Aussagen von Beteiligten forderte er bei einem Investment in Stripe einen größeren Anteil als in der Vereinbarung mit Sequoia Capital vorgesehen und brachte damit Partner in Verlegenheit
- Altmans Erstinvestment: 15.000 US-Dollar (2 %) → heutige Bewertung von Stripe: mehr als 150 Milliarden US-Dollar
- 2018 beschwerten sich mehrere YC-Partner bei Graham über Altmans Verhalten
- Mehrere Beteiligte sagten aus, Graham habe privat erklärt: „Sam had been lying to us all the time“
- Altman behauptete, er sei nie entlassen worden, und auch Graham bestritt dies in öffentlichen Erklärungen, interne Aufzeichnungen deuten jedoch darauf hin, dass es „keine vollständig einvernehmliche Trennung“ war
- In einer SEC-Meldung von 2021 wurde Altman als YC-Chairman aufgeführt, woraufhin er behauptete, er habe „erst später davon erfahren“
Die Gründung von OpenAI — die Doppelgesichtigkeit von Sicherheitsargument und Kapitalbeschaffung
- 2015 kontaktierte er Elon Musk per E-Mail mit dem Argument, „KI könnte gefährlicher sein als Atomwaffen“, und schlug OpenAI als „Manhattan-Projekt für KI“ vor
- Die beiden gründeten gemeinsam OpenAI, Musk sagte eine Finanzierung von 1 Milliarde Dollar zu
- OpenAI verfolgte das Ziel, „AGI zum Nutzen der gesamten Menschheit zu entwickeln“, und machte die Verhinderung einer AGI-Diktatur zu einem Kernprinzip
- Gründungsprinzipien: „Sicherheit ist die oberste Voraussetzung“, „alle Regulierung wird aktiv unterstützt“
- 2017 verlangte Musk, OpenAI in ein gewinnorientiertes Unternehmen umzuwandeln und die Kontrolle zu übernehmen, doch Altman lehnte ab
- Danach stieg Musk aus, gründete 2023 den Konkurrenten xAI und reichte Klage wegen Betrugs und Verletzung eines gemeinnützigen Treuhandverhältnisses gegen Altman und OpenAI ein (laufendes Verfahren)
- Frühen Mitarbeitern wurde versprochen, rein gemeinnützig zu bleiben, woraufhin sie Gehaltskürzungen in Kauf nahmen; interne Dokumente zeigen jedoch, dass bereits seit 2017 über eine Umwandlung in ein gewinnorientiertes Modell diskutiert wurde
- Sutskever las 2017 Googles Paper zur Transformer-Architektur, rief „Das ist es“ und drängte das Team zu einem vollständigen Kurswechsel; daraus entstand später der Keim von GPT
- Einige Ingenieure stellten die Führung infrage und fragten: „Sind wir am Ende die Bösen geworden?“
Dario Amodei und die Gründung von Anthropic — Risse in den Sicherheitsprinzipien
- Amodei verfasste über Jahre hinweg persönliche Notizen von mehr als 200 Seiten mit dem Titel „My Experience with OpenAI“
- 2018 kritisierte Dario Amodei die unklare Mission und den finanzierungsgetriebenen Betrieb von OpenAI
- Er schlug die „Merge and Assist“-Klausel vor: „Wenn ein anderes Projekt zuerst sichere AGI entwickelt, arbeiten wir mit ihm zusammen“
- 2019 wurde im Zuge des Investmentvertrags mit Microsoft heimlich eine Klausel eingefügt, die diese Bestimmung faktisch außer Kraft setzte
- Altman bestritt zunächst die Existenz dieser Klausel; erst als Amodei sie selbst vorlas, nahm er das Dementi zurück
- Fälle nach dem Muster „Er hat das nicht gesagt. Das haben gerade Sie gesagt“ wiederholten sich (Altman bestreitet, sich daran zu erinnern)
- Amodei behauptet, Altman habe ihm und seiner Schwester Daniela eine „Putschplanung“ vorgeworfen; als Daniela die beteiligte Führungskraft zur Klärung kontaktierte, sagte Altman: „So etwas habe ich nicht gesagt“
- 2020 verließen die Geschwister Amodei und Kollegen das Unternehmen und gründeten Anthropic
Auflösung des Sicherheitsteams und nicht eingehaltene Ressourcenzusagen
- Bei der Ankündigung des „Superalignment-Teams“ im Jahr 2023 wurde versprochen, „20 % der gesicherten Rechenleistung“ bereitzustellen
- Tatsächlich lagen die zugewiesenen Ressourcen laut internen Aussagen des Teams nur bei 1 bis 2 %, zudem seien veraltete Cluster und leistungsschwache Chips zugeteilt worden
- Forscher behaupteten, „die neuesten Chips wurden nur für das gewinnbringende Geschäft verwendet“, was OpenAI bestritt
- Teamleiter Jan Leike sagte, „dieses Versprechen diente dazu, Talente zu halten“
- Auf seine Beschwerde bei Murati habe er die Antwort erhalten, es sei „ein unrealistisches Versprechen“ gewesen
- Jan Leike warnte den Vorstand per E-Mail: „OpenAI entfernt sich von seiner Mission; Produkte, Erlöse und KI-Fähigkeiten haben Vorrang, Sicherheit kommt erst an dritter Stelle“
- Carroll Wainwright: „Seit dem Start von GPT-4 wurde Produktpriorität dauerhaft über Sicherheit gestellt“
- Bei der Einführung des Modells GPT-4 Turbo sagte Altman unter Verweis auf den Chefjuristen, eine Sicherheitsfreigabe sei nicht nötig; der Chefjurist antwortete jedoch auf Slack: „Ich weiß nicht, warum Sam diesen Eindruck hat“
- Sutskever war zunehmend überzeugt, dass AGI kurz bevorsteht, und fixierte sich auf Sicherheitsfragen; er warnte: „Wenn sich nicht alle Mitarbeiter auf Sicherheit konzentrieren, gehen wir unter“
- Das Superalignment-Team wurde jedoch letztlich aufgelöst, bevor es seine Mission erfüllen konnte, und erreichte seine Ziele nicht
- Sutskever und Leike traten gleichzeitig zurück
- In den IRS-Offenlegungen wurde das Konzept „Sicherheit“ aus dem Punkt „wichtigste Aktivitäten“ gestrichen
- In der jüngsten Bewertung existenzieller KI-Sicherheit von Unternehmen durch das Future of Life Institute erhielt OpenAI die Note F
- Altman sagte, einige Funktionen von GPT-4 seien vom Sicherheitspanel genehmigt worden, doch die Funktionen „fine-tuning“ und „personal assistant“ wurden nicht genehmigt
- Auch die Tatsache, dass Microsoft in Indien eine frühe Version von ChatGPT ohne Sicherheitsprüfung eingeführt hatte, wurde nicht gemeldet
- Forscher bewerteten OpenAI als Unternehmen, das sich auf „Produkte zuerst, Sicherheit nachrangig“ umgestellt habe
Umwandlung in ein gewinnorientiertes Unternehmen, Vermögensstruktur und persönliche Interessenkonflikte
- Die ursprüngliche Struktur als „capped profit“-Gesellschaft wurde im Oktober 2024 in eine vollständig gewinnorientierte Rechtsform umgewandelt
- Die gemeinnützige Stiftung (OpenAI Foundation) hält nur 26 % der Anteile, und die Mehrheit der Vorstandsmitglieder überschneidet sich mit dem Board der gewinnorientierten Gesellschaft
- Das Vorstandsmitglied Holden Karnofsky stimmte gegen eine zu niedrige Bewertung des Werts der gemeinnützigen Gesellschaft, doch im Protokoll wurde dies als Enthaltung vermerkt (Hinweise auf eine Änderung ohne Zustimmung)
- Bei einer Kongressanhörung sagte er: „Ich habe keine Anteile an OpenAI, ich mache das aus Liebe“ — eine indirekte Beteiligung über den YC-Fonds erwähnte er nicht
- Der Anteil von Brockman wird auf einen Wert von rund 20 Milliarden Dollar geschätzt; Altmans Anteil dürfte noch größer sein
- Aussage eines ehemaligen Mitarbeiters: Altman habe gesagt, er interessiere sich mehr für Macht als für Geld
Kapitalbeschaffung im Nahen Osten und geopolitische Risiken
- 2016 traf er erstmals den saudischen Kronprinzen Mohammed bin Salman und lotete danach Investitionen in Milliardenhöhe aus
- Eine Woche nach der Ermordung Khashoggis trat er dem Beirat der saudischen Zukunftsstadt Neom bei und legte das Amt später nach Kritik nieder
- Ein Politikberater sagte jedoch aus, dass er sich auch nach dem Rücktritt weiter fragte, „wie sich saudisches Geld irgendwie doch beschaffen ließe“
- Er pflegte enge Beziehungen zu Sheikh Tahnoon bin Zayed, dem Geheimdienstchef der VAE, und bezeichnete ihn auf X als „engen persönlichen Freund“
- Aus den VAE erhielt er einen Koenigsegg Regera im Wert von etwa 2 Millionen Dollar und einen McLaren F1 im Wert von etwa 20 Millionen Dollar (er behauptet, dies sei gemäß Unternehmensrichtlinien offengelegt worden)
- 2024 besuchte er Tahnoons 250 Millionen Dollar teure Superyacht Maryah
- ChipCo-Konzept: Mit Kapital aus den Golfstaaten sollten riesige Halbleiter-Foundries und Datencenter gebaut werden, teils im Nahen Osten
- Ein Vorstandsmitglied sagte aus, das Projekt sei ohne vorherige Information des Boards vorangetrieben worden
- US-Sicherheitsbehörden äußerten Bedenken wegen der Huawei-Abhängigkeit der Telekommunikationsnetze der VAE, möglicher Abflüsse fortschrittlicher US-Chips nach China und der Verwundbarkeit gegenüber militärischen Angriffen
- Die Biden-Regierung verweigerte die Genehmigung mit der Begründung: „Wir werden keine fortschrittlichen Chips in den VAE bauen“
- Ein Mitarbeiter der RAND Corporation äußerte im Rahmen einer Sicherheitsfreigabeprüfung Bedenken über „eine Person, die Dutzende Milliarden Dollar von ausländischen Regierungen beschafft“; Altman zog sich daraufhin freiwillig aus dem Verfahren zurück
- Zwei Tage nach Trumps Amtsantritt kündigte Altman im Roosevelt Room Stargate an — ein Joint Venture für KI-Infrastruktur im Umfang von 500 Milliarden Dollar
- Danach wurde die Ausweitung von Stargate auf Saudi-Arabien und die VAE angekündigt, einschließlich eines geplanten Datencenter-Campus in Abu Dhabi, der siebenmal so groß wie der Central Park sein soll
Politische Wandlung und Lobbying bei Regulierung
- Bei einer Senatsanhörung 2023 gewann er Sympathien mit Äußerungen, die wie eine direkte Forderung nach KI-Regulierung wirkten, betrieb jedoch gleichzeitig hinter den Kulissen Lobbyarbeit zur Abschwächung der EU-KI-Regulierung
- Er sprach sich öffentlich gegen das kalifornische KI-Sicherheitsgesetz (SB 1047) aus und übte hinter den Kulissen Druck mit drohendem Unterton aus
- Ron Conway lobbyierte bei Pelosi und Newsom, woraufhin Newsom ein vom Parlament beschlossenes Gesetz per Veto stoppte
- Die offizielle Position von OpenAI lautet, man spende nicht an Super PACs, doch Brockman spendete 50 Millionen Dollar an den PAC Leading the Future (im selben Jahr zudem 25 Millionen Dollar an MAGA Inc.)
- Gegen Nathan Calvin, einen Unterstützer des KI-Sicherheitsgesetzes, wurde eine Vorladung erlassen, ebenso gegen Kritiker des Gesetzentwurfs
- Ein Beteiligter sagte: „Im Grunde versucht man, sie zum Schweigen zu bringen“
- Altman, der Trump 2016 als „beispiellose Bedrohung“ bezeichnet hatte, spendete 2024 1 Million Dollar an Trumps Amtseinführungsfonds und stieg zu einer Person aus Trumps Umfeld auf
- Während Musk sich von Trump entfernte, den er mit 250 Millionen Dollar unterstützt hatte, begleitete Altman Trump auf dessen Saudi-Arabien-Reise
Anthropic vs. US-Verteidigungsministerium — OpenAIs Chance
- Anthropic hält am Grundsatz des Verbots vollständig autonomer Waffenunterstützung und inländischer Massenüberwachung fest
- Verteidigungsminister Pete Hegseth setzte eine Frist und forderte die Rücknahme des Grundsatzes, Anthropic lehnte ab
- Hegseth stufte Anthropic als „Lieferkettenrisiko“ ein (eine Blacklist-Maßnahme, die bisher gegen chinesische Unternehmen wie Huawei angewandt wurde)
- Mitarbeiter von OpenAI, Google und anderen unterstützten Anthropic mit dem offenen Brief „We Will Not Be Divided“
- Altman führte bereits Verhandlungen mit dem Verteidigungsministerium, bevor der Konflikt zwischen Anthropic und dem Ministerium öffentlich wurde
- Emil Michael, stellvertretender Staatssekretär für Verteidigung, kontaktierte Altman und sagte: „Er war sofort dabei, ich halte ihn für einen Patrioten“
- Bekanntgabe eines AWS-Integrationsvertrags im Wert von 50 Milliarden Dollar, das US-Militär beginnt mit der Nutzung von OpenAI-Modellen
- Am Tag der Vertragsbekanntgabe stieg die Unternehmensbewertung von OpenAI um 110 Milliarden Dollar, gleichzeitig wechselten mindestens zwei Senior-Mitarbeiter zu Anthropic
- Auf Sorgen von Mitarbeitern antwortete Altman: „Ob ihr denkt, dass Luftangriffe auf Iran gut sind oder eine Invasion Venezuelas schlecht ist, ihr dürft euch nicht einmischen“
Kontroverse um Altmans Glaubwürdigkeit — verschiedene Aussagen
- Altman wird als der beste Verkäufer seiner Generation bezeichnet und mit Steve Jobs’ Reality Distortion Field verglichen
- Kollegen kritisieren seine täuschende Art und seinen Machtwillen
- Einige beschrieben ihn als „soziopathische Figur“, und Aaron Swartz (Mitgründer der ersten YC-Kohorte) soll zu Lebzeiten gewarnt haben: „Sam darf man niemals vertrauen, ein Soziopath“
- Altman hat zwar wenig Expertise in Coding oder Machine Learning, ließ OpenAI aber durch seine Fähigkeit wachsen, das technische Können und Kapital anderer zu bündeln
- Er handelt, indem er begrenzende Strukturen schafft und sie bei Bedarf außer Kraft setzt
- Beteiligte verglichen seine Überzeugungskraft mit einem „Jedi mind trick“
- Microsoft-Manager behaupten, Altman habe Vereinbarungen verzerrt oder gebrochen
- OpenAI bestimmte Microsoft zwar zum exklusiven Cloud-Anbieter, schloss aber zugleich einen Reseller-Vertrag über 50 Milliarden Dollar mit Amazon
- Microsoft problematisierte einen Vertragskonflikt, OpenAI bestritt jedoch einen Verstoß
- Ein Manager meinte, Altman könnte als „Betrüger auf dem Niveau von Sam Bankman-Fried“ in Erinnerung bleiben
- Altman beteiligte sich an Gesprächen mit der Biden-Regierung über Richtlinien zur Genehmigung sensibler Technologieexporte, einige Beamte sorgten sich jedoch um seine Ambitionen im Nahen Osten
- Kurz vor Trumps Amtsantritt telefonierte Altman mit Trump, nachdem Tahnoon 500 Millionen Dollar in ein Unternehmen der Trump-Familie investiert hatte
- Danach wurde im Weißen Haus das 500-Milliarden-Dollar-KI-Infrastrukturprojekt „Stargate“ angekündigt
- Die Trump-Regierung hob Beschränkungen für den Export von KI-Technologie auf, Altman und Trump besuchten das saudische Königshaus
- Die frühere Direktorin Yoon: „Kein machiavellistischer Bösewicht, sondern jemand, der zu sehr von sich selbst überzeugt ist, jemand, der nicht in der realen Welt lebt“
- Altmans Schwester Annie reichte Klage wegen Vorwürfen sexuellen Missbrauchs ein, Altman weist alles zurück, auch Familienmitglieder widersprachen als „völlig haltlos“ (Originalquelle nicht überprüfbar)
- Altman: „Alle Behauptungen über widerliches Verhalten von Konkurrenten, Beteiligung an Minderjährigen oder Mord sind völlig haltlos“
Der aktuelle Stand der AI-Sicherheit — die Lücke zwischen Versprechen und Realität
- Anthropic lockerte nach einer Investition von 30 Milliarden Dollar seine Sicherheitsversprechen, der Wettlauf um Geschwindigkeit verschärfte sich
- Anthropic arbeitete mit Palantir zusammen, um Claude-Modelle in militärische Systeme zu integrieren, eingesetzt bei Pentagon-Operationen
- Danach wurde das Unternehmen als Lieferkettenrisiko eingestuft und auf eine Blacklist gesetzt
- OpenAI führte Verhandlungen mit dem Verteidigungsministerium und schloss einen Integrationsvertrag für verteidigungsbezogene Infrastruktur auf AWS-Basis (50 Milliarden Dollar)
- Am selben Tag stieg die Unternehmensbewertung von OpenAI um 110 Milliarden Dollar, einige Mitarbeiter kündigten
- Einige Führungskräfte sehen in Altmans Führung schwere Governance-Probleme
- Fidji Simo wird als mögliche Nachfolgerin genannt
- OpenAI löste das Superalignment-Team und das AGI-Readiness-Team auf
- Sutskever und Leike verließen das Unternehmen und kritisierten, dass „glänzende Produkte Vorrang vor Sicherheit haben“
- Im IRS-Bericht wurde der Punkt „Sicherheit“ gestrichen, beim Existential Safety Rating des Future of Life Institute erhielt das Unternehmen die Note F
- Die Bewaffnung von A.I. und gesellschaftliche Schäden werden real
- Im libyschen Bürgerkrieg 2020 griffen A.I.-Drohnen ohne menschliche Kontrolle an, 2022 erzeugte eine Studie eines Pharmaunternehmens 40.000 potenzielle chemische Waffenstoffe
- Schäden durch Deepfake-Stimmen zur Wahlbeeinflussung sowie Klagen im Zusammenhang mit Suizid- und Tötungsfällen traten auf
- OpenAI sieht sich mit 7 Klagen wegen widerrechtlich verursachten Todes konfrontiert, darunter Vorwürfe, ChatGPT habe Gewalt durch Opfer angeheizt
- Altman betont weiterhin die „Hoffnung für die Zukunft der Menschheit“ und sagte, er wolle eine „verrückte, sci-fi-hafte Zukunft verwirklichen“
- Menschen in seinem Umfeld bewerten die Grenze zwischen seinen Idealen und seinem Machtstreben als unscharf
- Er warnt vor dem Zerstörungspotenzial von A.G.I., behauptet aber zugleich, dass er es selbst direkt entwickeln müsse
- Die Probleme großer Sprachmodelle mit Schmeichelei (sycophancy) und Halluzinationen (hallucination) sind weiterhin ungelöst
- Altman vertritt die Ansicht, dass „einige falsche Aussagen die Attraktivität des Modells erhöhen“, und gewichtet Nutzerzufriedenheit höher als vollständige Faktentreue
- Altman: „Mein Gefühl passt nicht zu vielem im traditionellen Bereich der AI-Sicherheit“ — auf Fragen nach konkreten Sicherheitsplänen antwortete er vage, man werde „sicherheitsbezogene Projekte weiterführen“
Fazit
- Sam Altman ist die Person, die OpenAI zu einem globalen Unternehmen gemacht hat, doch die Kontroversen um Lügen, Machtkonzentration und Geringschätzung von Sicherheit reißen nicht ab
- Whistleblower und Kollegen bewerten ihn als „nicht vertrauenswürdigen Anführer“ und warnen vor den Risiken einer Konzentration der Kontrolle über AGI
- OpenAI bleibt eine Organisation, die eine Technologie kontrolliert, welche die Zukunft der Menschheit prägen kann, und Altmans Vertrauenswürdigkeit und Verantwortlichkeit bleiben der zentrale Streitpunkt
1 Kommentare
Hacker-News-Kommentare
Hier ist Ronan Farrow. Ich habe zusammen mit Andrew Marantz 18 Monate lang recherchiert. Wenn es Fragen zur Berichterstattung gibt, beantworte ich sie gern
Es heißt, die schwindende Wettbewerbsfähigkeit von OpenAI sei ernster als gedacht. Auch ein Artikel der LA Times führt Belege dafür an, dass Anthropic vorne liegt.
Auch auf HN gibt es viele Entwickler, die Claude bevorzugen. Ein Suchvergleich zeigt doppelt so viele Ergebnisse wie für ChatGPT.
Mich würde interessieren, ob OpenAI aus Ronans Sicht derzeit ähnlich dasteht
Mich würde interessieren, ob Annies Behauptungen gesondert untersucht wurden. Der Artikel vermittelt den Unterton, „wiedererlangte Erinnerungen seien nicht vertrauenswürdig“, aber das ist bereits ein durch die False Memory Syndrome Foundation verbreitetes Fehlverständnis.
Ich selbst lebe mit einer dissoziativen Störung und habe Erinnerungen zurückgewonnen, die später von Dritten bestätigt wurden. Vor diesem Hintergrund halte ich es für gefährlich, wiedererlangten Erinnerungen pauschal zu misstrauen
Der im Artikel zitierte Tagebucheintrag von Brockman war schockierend. Dass dort tatsächlich Sätze standen wie „Geld und Macht“ und „100 Millionen Dollar sind das Ziel“, zeigt eine Armut an Vorstellungskraft.
Man fragt sich, wie solche Leute in solche Positionen kommen, aber die Antwort scheint schon in seinem Tagebuch zu stehen. Es ist frustrierend, dass genau solche Figuren immer wieder an die Spitze der Macht gelangen
Die Hälfte von uns hat sich entschieden, in moralisch grauen Unternehmen zu arbeiten, um Vermögen zu maximieren. Die meisten denken nur, dass sie selbst keine Chance haben, „Milliardär“ zu werden
Wirklich ein sehr sorgfältiger Artikel. Es sollte mehr von solcher tiefgehenden Berichterstattung geben.
Allerdings hatte ich beim Lesen der Formulierung „Blip“ als Anspielung auf einen Marvel-Film instinktiv eine leichte Abwehrreaktion. Ich weiß selbst nicht genau, warum
Dass Leute, die solche Werke zitieren, über die Richtung zukünftiger Technologien entscheiden, ist unerquicklich. Letztlich ist Armut im Geschmack das Problem
Wir neigen dazu, unsere Kritik auf Personen zu richten. Aber das eigentliche Problem ist die Struktur des Systems.
Sam Altmans Verhalten ist zwar umstritten, doch die Bedrohung, die AI für Gesellschaft und Freiheit darstellt, bleibt mit oder ohne ihn bestehen
Ich fand es interessant, dass Altman und die Leute um ihn herum sich über AI-Superintelligenz oder die Militarisierung von AI durch China sorgten, aber gegenüber dem Verlust menschlicher Arbeitsplätze gleichgültig blieben.
Vielleicht war es weniger Sorge als vielmehr die Hoffnung, den gesamten Reichtum der Welt für sich allein beanspruchen zu können
Wegen des Artikels habe ich noch einmal nachgeschlagen, wie das Trema (diaeresis) im Englischen verwendet wird. Zum Beispiel in Wörtern wie coördination, wenn Vokale getrennt ausgesprochen werden
Archivlink zum Artikel
Als gute Anschlusslektüre empfehle ich auch Harper’s „Child’s Play“. Der Kontrast in den Persönlichkeiten ist interessant
Die Detaildarstellung von Altmans Y-Combinator-Zeit war bemerkenswert. Wirklich hervorragende Berichterstattung
Tatsächlich soll auch dieser Artikel Satz für Satz über jeweils mehr als 8 Stunden geprüft worden sein. Es dürfte noch viel mehr Material geben, das es nicht in den Artikel geschafft hat
Ihre Sicht auf LLMs war interessant. Natürlich sind sie transformativ, aber es wirkt nicht so, als würden wir bald in einer Cyberpunk-artigen Zukunft leben. Das Wort AGI kommt im Artikel viel zu oft vor
Für das Schreiben von Dokumenten oder Präsentationen sind sie nützlich, aber bei komplexen Problemen zeigen sich ihre Grenzen sehr deutlich