- OpenAI hielt in seiner Charta (Charter) von 2018 eine „Selbstaufopferungsklausel“ fest, wonach das Unternehmen den Wettbewerb einstellen und kooperieren werde, wenn sich ein anderes sicherheitsorientiertes Projekt AGI nähert
- Einer Tabelle mit zusammengefassten Aussagen von Sam Altman zufolge wurde der erwartete Zeitpunkt für das Erreichen von AGI drastisch von 2033 auf 2025 vorgezogen; zuletzt tauchten sogar Aussagen auf, man habe „AGI bereits geschaffen“
- In der Arena.ai-Modellrangliste belegen Anthropic mit Claude und Google mit Gemini Spitzenplätze, während OpenAIs GPT-5.4 auf Rang 6 zurückliegt
- Der Beitrag weist darauf hin, dass diese Lage die in der Charta genannte Bedingung erfüllt, bei Auftreten eines Wettbewerbers mit mehr als 50 % Erfolgschance innerhalb von zwei Jahren zu kooperieren
- Im Ergebnis müsse OpenAI gemäß seiner Charta den Wettbewerb einstellen und kooperieren; zugleich wird der Fall als Beispiel für den Konflikt zwischen Idealismus und ökonomischen Anreizen dargestellt
Die Selbstaufopferungsklausel in OpenAIs Charta
- Die OpenAI-Charta von 2018 enthält die Sorge, dass der Wettlauf um AGI die Sicherheit beeinträchtigen könnte
- Enthalten ist die Formulierung, man werde den Wettbewerb einstellen und Unterstützung leisten, wenn sich ein Projekt, das Wertausrichtung und Sicherheit priorisiert, AGI nähert
- Als typischer Auslösefall wird genannt, dass die Erfolgschance innerhalb von zwei Jahren bei mehr als 50 % liegt
- Diese Klausel ist weiterhin auf der offiziellen Website (openai.com/charter) veröffentlicht und gilt nach wie vor als offizielle Unternehmenspolitik
Veränderungen in Sam Altmans AGI-Prognosen
- Der Tabelle zufolge hat Altman von 2023 bis 2026 den Zeitpunkt für das Erreichen von AGI kontinuierlich nach vorn verlegt
- Im Mai 2023 sagte er noch, man werde „innerhalb von 10 Jahren das Expertenniveau übertreffen“,
- in den Jahren 2024 bis 2025 folgten dann Aussagen wie „AGI im Jahr 2025“ und sogar „wir haben AGI bereits geschaffen“
- Der Median der Prognosen nach 2025 liegt bei etwa innerhalb von zwei Jahren und entspricht damit den Auslösebedingungen der Charta
- In einigen Interviews tauchte auch die Formulierung auf, man bewege sich über AGI hinaus in Richtung ASI (Superintelligenz)
Vergleich der Arena.ai-Modellrangliste
- Unter den Top-10-Modellen im Arena.ai-Leaderboard steht Anthropics Claude-opus-4-6 auf Platz 1, Googles Gemini 3.1 auf Platz 3
- OpenAIs GPT-5.4-high liegt auf Platz 6 und wird damit schlechter bewertet als Modelle der Konkurrenz
- Der Beitrag bezeichnet die Modelle von Anthropic und Google als „sicherheitsorientiert und auf Wertausrichtung bedacht“ und betrachtet sie als kompatible Alternativen zu GPT
Sind die Bedingungen für einen Wettbewerbsstopp erfüllt?
- Da sich der Zeitpunkt für AGI auf innerhalb von zwei Jahren verengt hat und konkurrierende Modelle vorne liegen, wird die Bedingung der Charta für „Wettbewerbsstopp und Kooperation“ als erfüllt angesehen
- Ob Arena.ai geeignet ist, AGI zu messen, ist umstritten; der Geist der Charta ziele jedoch darauf ab, ein Wettrüsten zu vermeiden
- Daraus folgt die Schlussfolgerung, dass OpenAI mit Anthropic und Google kooperieren sollte
Die Kluft zwischen Idealismus und Realität
- Der Beitrag stellt klar, dass OpenAI den Wettbewerb in der Praxis kaum einstellen dürfte
- Der Fall zeige die Realität, dass idealistische Prinzipien vor ökonomischen Anreizen wirkungslos werden
- Zudem wird darauf hingewiesen, dass sich Definition und Zielzeitpunkt von AGI ständig verschieben und sich der Fokus zuletzt auf Diskussionen über ASI verlagert hat
1 Kommentare
Hacker-News-Kommentare
In diesem Thread liefern sich alle nur Definitionskämpfe.
Die wirklich wichtige Frage ist der ökonomische Zeitpunkt — wann der Übergang von Automatisierung mit menschlicher Unterstützung zu vollständig autonomer Wertschöpfung stattfindet.
Wenn man sich die heutige AI-Produktionsumgebung ansieht, übernehmen Menschen weiterhin Prüfung, Korrektur und Aufsicht. AI erledigt die Menge, Menschen übernehmen das Urteilsvermögen. Am Ende ist Urteilsvermögen der Engpass.
Arbeit wurde nicht ersetzt, sondern nur verlagert. Die weltweite Vergütung von Arbeit liegt bei etwa 50 Billionen Dollar pro Jahr, und die Kapitalmärkte wetten darauf, ob AI davon einen Teil tatsächlich absorbieren kann. Der Begriff AGI ist dabei unwichtig — Kapital interessiert sich nicht für Definitionen, sondern dafür, ob Arbeit und Output voneinander entkoppelt werden.
Jedes Mal, wenn ich Begriffe wie „AGI“ oder „ASI“ sehe, ersetze ich sie im Kopf durch „irgendetwas, das niemand sauber definieren kann“.
Also durch ein Konzept, das so unvollständig definiert ist, dass man daraus keine Schlussfolgerungen ziehen kann. Deshalb ersetze ich es einfach durch ein Wort wie „Skiptibup“.
Wenn man AGI als „allgemeine AI statt AI für eine einzelne Aufgabe“ definiert, dann existiert sie bereits.
Wenn man damit „Intelligenz auf menschlichem Niveau bei allen Aufgaben“ meint, dann wären manche Menschen kein AGI.
Wenn damit „ein magischer Algorithmus, der alles perfekt erledigt“ gemeint ist, dann existiert so etwas vermutlich nicht.
Als der Begriff AGI ursprünglich aufkam, meinte man wohl etwas wie HAL 9000, aber heute ist es zu einem Spiel mit ständig verschobenen Zielpfosten geworden.
In dem Moment, in dem man bei der Kommerzialisierung all-in gegangen ist, war das Ergebnis eigentlich schon festgelegt.
Die heutigen LLMs werden bereits gefährlich eingesetzt, und wenn solche Meldungen weiter Aufmerksamkeit bekommen, wird OpenAI die Charta still und leise von der Website entfernen.
Aktuelle Modelle sind noch weit von AGI entfernt.
Next-Token-Prediction hat erstaunliche Fortschritte gemacht, aber es fehlt weiterhin an einem Modell der realen Welt oder echter Lernfähigkeit.
Ohne menschliche Aufsicht sind die Grenzen klar erkennbar.
Es fiel der Ausdruck „die Ohnmacht naiven Idealismus“, aber ich würde eher sagen, dass idealistische Sprache als Marketinginstrument vereinnahmt wurde.
In Wirklichkeit war es immer stärker eine profitorientierte Organisation, deren wahres Gesicht nach und nach sichtbar wurde.
AGI wird in den nächsten 30 Jahren nicht kommen.
Das sagen auch Forscher.
Echte AGI braucht kontinuierliches Lernen und tiefes Gedächtnis, und genau das können LLMs nicht.
Die heutige „Memory“-Funktion ist nur Suche und Zusammenfassung — als würde eine Person eine Physikvorlesung hören, alles auf Post-its mitschreiben und dann eine andere Person diese Zettel überfliegen und daraus Antworten formulieren lassen.
RL und Retraining wären nötig, aber das ist zu teuer, zu langsam und zu komplex.
LLMs schreiben zwar beeindruckenden Code, löschen aber am Ende trotzdem Dateien, obwohl man ihnen sagt, „lösche die Dateien im Ordner X nicht“.
Sie folgen auch Befehlen, die ein Angreifer in Dokumente eingebettet hat.
Ohne echtes Gedächtnis und RL in Echtzeit lassen sich diese Probleme nicht lösen.
Wenn man Daniel Kokotajlos Tweet, Karpathys Aussage und diese Umfrage unter AI-Forschern ansieht, gibt es auch viele deutlich kürzere Prognosen.
Während eines Gesprächs wirken sie klug, aber sobald die Sitzung endet, ist alles vergessen.
Sogar innerhalb einer Sitzung nimmt die Leistung ab — ein langer Kontext kann eher schaden.
Letztlich ist das Fehlen einer Gedächtnisstruktur die Grenze. Menschen haben das durch Langzeitgedächtnis und Schlaf gelöst, LLMs jedoch nicht.
Egal wie intelligent sie sind: Ein Genie ohne Gedächtnis ist nur ein kurzfristiger Savant.
LLMs können tausende Seiten sofort kopieren und neu zusammensetzen.
RL zur Testzeit und kontinuierliches Lernen auf LoRA-Basis laufen bereits, und nach manchen Definitionen ist AGI damit schon erreicht.
Nur wirtschaftlich ist es noch nicht sinnvoll.
Und statt dass Programmiererjobs verschwinden, werden eher noch mehr Menschen mit computational thinking gebraucht.
Nur als persönliche Erfahrung: Kürzlich fand ich GPT 5.4 besser als Opus 4.6.
Interessant ist nur, dass es im Chatbot-Arena-Ranking niedriger liegt.
Es basiert auf Abstimmungen normaler Nutzer, daher fehlt es an fachlicher Validierung, und große Unternehmen manipulieren die Rangliste teils auch.
Für Vergleiche zwischen den neuesten Modellen hat das kaum Aussagekraft.
Beim gleichen Prompt erzeugte GPT 5.4 unnötiges Refactoring und Bugs, während Opus 4.6 bereits implementierte Funktionen erkannte und Tests sowie Dokumentations-Updates vorschlug.
Ich halte Opus 4.6 immer noch für den besten Coding-Agenten.
Die Prognose „im September 2026 automatisierte AI-Forschungspraktikanten, im März 2028 vollständige AI-Forscher“ finde ich interessant.
Das passt auch zeitlich dazu, dass Karpathys Autoresearch-Projekt bei HN auf der Startseite stand.
Wahrscheinlich testen große Forschungslabore bereits Versionen in deutlich größerem Maßstab.
Ich kann sowohl mit „der Ohnmacht naiven Idealismus“ als auch mit den verschobenen Zielpfosten bei AGI viel anfangen.
In letzter Zeit sprechen viele eher über ASI statt AGI, was den Unterton hat, dass AGI vielleicht schon erreicht wurde.
Es klingt wie ein Witz, aber niemand ist echtem AGI wirklich nahe gekommen.
Selbst Altman räumt ein, dass es für AGI mehrere Durchbrüche in Zwischenstufen braucht.
Er prognostizierte, dass AI etwa 2026 über das bloße Rekombinieren bestehender Informationen hinausgehen und neue Einsichten erzeugen werde; ich sehe darin die Schwelle zu AGI.
Ich halte die heutigen LLMs im Durchschnitt für durchschnittlich kompetenter als durchschnittliche Menschen.