1 Punkte von GN⁺ 2026-03-09 | 1 Kommentare | Auf WhatsApp teilen
  • OpenAI hielt in seiner Charta (Charter) von 2018 eine „Selbstaufopferungsklausel“ fest, wonach das Unternehmen den Wettbewerb einstellen und kooperieren werde, wenn sich ein anderes sicherheitsorientiertes Projekt AGI nähert
  • Einer Tabelle mit zusammengefassten Aussagen von Sam Altman zufolge wurde der erwartete Zeitpunkt für das Erreichen von AGI drastisch von 2033 auf 2025 vorgezogen; zuletzt tauchten sogar Aussagen auf, man habe „AGI bereits geschaffen“
  • In der Arena.ai-Modellrangliste belegen Anthropic mit Claude und Google mit Gemini Spitzenplätze, während OpenAIs GPT-5.4 auf Rang 6 zurückliegt
  • Der Beitrag weist darauf hin, dass diese Lage die in der Charta genannte Bedingung erfüllt, bei Auftreten eines Wettbewerbers mit mehr als 50 % Erfolgschance innerhalb von zwei Jahren zu kooperieren
  • Im Ergebnis müsse OpenAI gemäß seiner Charta den Wettbewerb einstellen und kooperieren; zugleich wird der Fall als Beispiel für den Konflikt zwischen Idealismus und ökonomischen Anreizen dargestellt

Die Selbstaufopferungsklausel in OpenAIs Charta

  • Die OpenAI-Charta von 2018 enthält die Sorge, dass der Wettlauf um AGI die Sicherheit beeinträchtigen könnte
    • Enthalten ist die Formulierung, man werde den Wettbewerb einstellen und Unterstützung leisten, wenn sich ein Projekt, das Wertausrichtung und Sicherheit priorisiert, AGI nähert
    • Als typischer Auslösefall wird genannt, dass die Erfolgschance innerhalb von zwei Jahren bei mehr als 50 % liegt
  • Diese Klausel ist weiterhin auf der offiziellen Website (openai.com/charter) veröffentlicht und gilt nach wie vor als offizielle Unternehmenspolitik

Veränderungen in Sam Altmans AGI-Prognosen

  • Der Tabelle zufolge hat Altman von 2023 bis 2026 den Zeitpunkt für das Erreichen von AGI kontinuierlich nach vorn verlegt
    • Im Mai 2023 sagte er noch, man werde „innerhalb von 10 Jahren das Expertenniveau übertreffen“,
    • in den Jahren 2024 bis 2025 folgten dann Aussagen wie „AGI im Jahr 2025“ und sogar „wir haben AGI bereits geschaffen“
  • Der Median der Prognosen nach 2025 liegt bei etwa innerhalb von zwei Jahren und entspricht damit den Auslösebedingungen der Charta
  • In einigen Interviews tauchte auch die Formulierung auf, man bewege sich über AGI hinaus in Richtung ASI (Superintelligenz)

Vergleich der Arena.ai-Modellrangliste

  • Unter den Top-10-Modellen im Arena.ai-Leaderboard steht Anthropics Claude-opus-4-6 auf Platz 1, Googles Gemini 3.1 auf Platz 3
  • OpenAIs GPT-5.4-high liegt auf Platz 6 und wird damit schlechter bewertet als Modelle der Konkurrenz
  • Der Beitrag bezeichnet die Modelle von Anthropic und Google als „sicherheitsorientiert und auf Wertausrichtung bedacht“ und betrachtet sie als kompatible Alternativen zu GPT

Sind die Bedingungen für einen Wettbewerbsstopp erfüllt?

  • Da sich der Zeitpunkt für AGI auf innerhalb von zwei Jahren verengt hat und konkurrierende Modelle vorne liegen, wird die Bedingung der Charta für „Wettbewerbsstopp und Kooperation“ als erfüllt angesehen
  • Ob Arena.ai geeignet ist, AGI zu messen, ist umstritten; der Geist der Charta ziele jedoch darauf ab, ein Wettrüsten zu vermeiden
  • Daraus folgt die Schlussfolgerung, dass OpenAI mit Anthropic und Google kooperieren sollte

Die Kluft zwischen Idealismus und Realität

  • Der Beitrag stellt klar, dass OpenAI den Wettbewerb in der Praxis kaum einstellen dürfte
  • Der Fall zeige die Realität, dass idealistische Prinzipien vor ökonomischen Anreizen wirkungslos werden
  • Zudem wird darauf hingewiesen, dass sich Definition und Zielzeitpunkt von AGI ständig verschieben und sich der Fokus zuletzt auf Diskussionen über ASI verlagert hat

1 Kommentare

 
GN⁺ 2026-03-09
Hacker-News-Kommentare
  • In diesem Thread liefern sich alle nur Definitionskämpfe.
    Die wirklich wichtige Frage ist der ökonomische Zeitpunkt — wann der Übergang von Automatisierung mit menschlicher Unterstützung zu vollständig autonomer Wertschöpfung stattfindet.
    Wenn man sich die heutige AI-Produktionsumgebung ansieht, übernehmen Menschen weiterhin Prüfung, Korrektur und Aufsicht. AI erledigt die Menge, Menschen übernehmen das Urteilsvermögen. Am Ende ist Urteilsvermögen der Engpass.
    Arbeit wurde nicht ersetzt, sondern nur verlagert. Die weltweite Vergütung von Arbeit liegt bei etwa 50 Billionen Dollar pro Jahr, und die Kapitalmärkte wetten darauf, ob AI davon einen Teil tatsächlich absorbieren kann. Der Begriff AGI ist dabei unwichtig — Kapital interessiert sich nicht für Definitionen, sondern dafür, ob Arbeit und Output voneinander entkoppelt werden.

  • Jedes Mal, wenn ich Begriffe wie „AGI“ oder „ASI“ sehe, ersetze ich sie im Kopf durch „irgendetwas, das niemand sauber definieren kann“.
    Also durch ein Konzept, das so unvollständig definiert ist, dass man daraus keine Schlussfolgerungen ziehen kann. Deshalb ersetze ich es einfach durch ein Wort wie „Skiptibup“.

    • Ich benutze inzwischen sogar das Wort „AI“ selbst kaum noch. Die heutigen LLMs oder generativen Technologien so zu nennen, halte ich für einen zu vagen Begriff, der das eigentliche Problem verdeckt.
    • In der OpenAI-Charta wird AGI als „hochautonome Systeme, die Menschen bei den meisten ökonomisch wertvollen Aufgaben übertreffen“ definiert.
    • Das Problem ist, dass kaum jemand Begriffe überhaupt definiert.
      Wenn man AGI als „allgemeine AI statt AI für eine einzelne Aufgabe“ definiert, dann existiert sie bereits.
      Wenn man damit „Intelligenz auf menschlichem Niveau bei allen Aufgaben“ meint, dann wären manche Menschen kein AGI.
      Wenn damit „ein magischer Algorithmus, der alles perfekt erledigt“ gemeint ist, dann existiert so etwas vermutlich nicht.
      Als der Begriff AGI ursprünglich aufkam, meinte man wohl etwas wie HAL 9000, aber heute ist es zu einem Spiel mit ständig verschobenen Zielpfosten geworden.
    • Ich nenne so etwas eine romantische Definition oder ein „gestisches Konzept“. Für den persönlichen Gebrauch oder intern im Team ist das okay, aber letztlich ist es nur ein provisorischer Ausdruck, bis man sein Vokabular präzisiert.
    • Man könnte es auch als die „enskibidification“ von „AI“ zusammenfassen — also dass das Konzept zunehmend zur Karikatur wird.
  • In dem Moment, in dem man bei der Kommerzialisierung all-in gegangen ist, war das Ergebnis eigentlich schon festgelegt.
    Die heutigen LLMs werden bereits gefährlich eingesetzt, und wenn solche Meldungen weiter Aufmerksamkeit bekommen, wird OpenAI die Charta still und leise von der Website entfernen.

  • Aktuelle Modelle sind noch weit von AGI entfernt.
    Next-Token-Prediction hat erstaunliche Fortschritte gemacht, aber es fehlt weiterhin an einem Modell der realen Welt oder echter Lernfähigkeit.
    Ohne menschliche Aufsicht sind die Grenzen klar erkennbar.

    • Ich weiß nicht einmal mehr, wie viele Monate es her ist, seit behauptet wurde, „in 12 Monaten wird es keine Softwareentwickler mehr geben“.
    • Wenn man sich die Forschung zur mechanistischen Interpretierbarkeit (mechanistic interpretability) ansieht, finde ich die Behauptung, es gebe „kein Weltmodell“, inzwischen wenig überzeugend.
  • Es fiel der Ausdruck „die Ohnmacht naiven Idealismus“, aber ich würde eher sagen, dass idealistische Sprache als Marketinginstrument vereinnahmt wurde.
    In Wirklichkeit war es immer stärker eine profitorientierte Organisation, deren wahres Gesicht nach und nach sichtbar wurde.

    • Ich glaube, am Anfang war es ernst gemeint. Aber dann wurde Altman von Gier mitgerissen und hat dieses Ideal verraten.
  • AGI wird in den nächsten 30 Jahren nicht kommen.
    Das sagen auch Forscher.
    Echte AGI braucht kontinuierliches Lernen und tiefes Gedächtnis, und genau das können LLMs nicht.
    Die heutige „Memory“-Funktion ist nur Suche und Zusammenfassung — als würde eine Person eine Physikvorlesung hören, alles auf Post-its mitschreiben und dann eine andere Person diese Zettel überfliegen und daraus Antworten formulieren lassen.
    RL und Retraining wären nötig, aber das ist zu teuer, zu langsam und zu komplex.
    LLMs schreiben zwar beeindruckenden Code, löschen aber am Ende trotzdem Dateien, obwohl man ihnen sagt, „lösche die Dateien im Ordner X nicht“.
    Sie folgen auch Befehlen, die ein Angreifer in Dokumente eingebettet hat.
    Ohne echtes Gedächtnis und RL in Echtzeit lassen sich diese Probleme nicht lösen.

    • Diese Post-it-Analogie erklärt das Wesen von LLMs am besten. Selbst wenn die zweite Person hervorragende Notizen bekommt, fehlt es weiterhin an tiefem Verständnis.
    • Bei der Behauptung „in 30 Jahren unmöglich“ würde mich interessieren, auf welche Forscher man sich dabei stützt.
      Wenn man Daniel Kokotajlos Tweet, Karpathys Aussage und diese Umfrage unter AI-Forschern ansieht, gibt es auch viele deutlich kürzere Prognosen.
    • Als Psychiater vergleiche ich LLMs mit Patienten mit anterograder Amnesie.
      Während eines Gesprächs wirken sie klug, aber sobald die Sitzung endet, ist alles vergessen.
      Sogar innerhalb einer Sitzung nimmt die Leistung ab — ein langer Kontext kann eher schaden.
      Letztlich ist das Fehlen einer Gedächtnisstruktur die Grenze. Menschen haben das durch Langzeitgedächtnis und Schlaf gelöst, LLMs jedoch nicht.
      Egal wie intelligent sie sind: Ein Genie ohne Gedächtnis ist nur ein kurzfristiger Savant.
    • Ich halte die „Post-it-Analogie“ für falsch.
      LLMs können tausende Seiten sofort kopieren und neu zusammensetzen.
      RL zur Testzeit und kontinuierliches Lernen auf LoRA-Basis laufen bereits, und nach manchen Definitionen ist AGI damit schon erreicht.
      Nur wirtschaftlich ist es noch nicht sinnvoll.
      Und statt dass Programmiererjobs verschwinden, werden eher noch mehr Menschen mit computational thinking gebraucht.
    • Ich stimme der Aussage „in 30 Jahren unmöglich“ zu, würde aber die Begründung gern ausführlicher hören.
  • Nur als persönliche Erfahrung: Kürzlich fand ich GPT 5.4 besser als Opus 4.6.
    Interessant ist nur, dass es im Chatbot-Arena-Ranking niedriger liegt.

    • Chatbot Arena ist schwer vertrauenswürdig.
      Es basiert auf Abstimmungen normaler Nutzer, daher fehlt es an fachlicher Validierung, und große Unternehmen manipulieren die Rangliste teils auch.
      Für Vergleiche zwischen den neuesten Modellen hat das kaum Aussagekraft.
    • Meine Erfahrung ist genau umgekehrt.
      Beim gleichen Prompt erzeugte GPT 5.4 unnötiges Refactoring und Bugs, während Opus 4.6 bereits implementierte Funktionen erkannte und Tests sowie Dokumentations-Updates vorschlug.
      Ich halte Opus 4.6 immer noch für den besten Coding-Agenten.
  • Die Prognose „im September 2026 automatisierte AI-Forschungspraktikanten, im März 2028 vollständige AI-Forscher“ finde ich interessant.
    Das passt auch zeitlich dazu, dass Karpathys Autoresearch-Projekt bei HN auf der Startseite stand.
    Wahrscheinlich testen große Forschungslabore bereits Versionen in deutlich größerem Maßstab.

  • Ich kann sowohl mit „der Ohnmacht naiven Idealismus“ als auch mit den verschobenen Zielpfosten bei AGI viel anfangen.
    In letzter Zeit sprechen viele eher über ASI statt AGI, was den Unterton hat, dass AGI vielleicht schon erreicht wurde.

  • Es klingt wie ein Witz, aber niemand ist echtem AGI wirklich nahe gekommen.
    Selbst Altman räumt ein, dass es für AGI mehrere Durchbrüche in Zwischenstufen braucht.
    Er prognostizierte, dass AI etwa 2026 über das bloße Rekombinieren bestehender Informationen hinausgehen und neue Einsichten erzeugen werde; ich sehe darin die Schwelle zu AGI.

    • Ich habe jedoch das Gefühl, dass wir AGI bereits hinter uns gelassen haben.
      Ich halte die heutigen LLMs im Durchschnitt für durchschnittlich kompetenter als durchschnittliche Menschen.