- Eine Analyse anhand von fünf realen Indikatoren für den KI-Fortschritt berechnete den Zeitpunkt des Erreichens der Singularität bis auf die Millisekunde und kam auf Dienstag, den 18. Juli 2034
- Bei einer unabhängigen Anpassung von fünf Indikatoren wie MMLU-Score, Token pro Dollar, Veröffentlichungsabstand von Frontier-Modellen, Zahl der arXiv-"emergent"-Papers und Copilot-Code-Anteil zeigte nur die Zahl der arXiv-"emergent"-Papers tatsächlich eine hyperbolische Krümmung
- Alle Indikatoren für Maschinenfähigkeiten folgen einem linearen Trend und zeigen kein Singularitätssignal; das Einzige, was sich beschleunigt, ist menschliches Interesse sowie Aufregung/Angst rund um emergente KI-Phänomene
- Schon im Jahr 2026 gehen große Entlassungswellen, institutionelle Verzögerung, Kapitalballung, sinkendes Vertrauen und politische Neuordnung der technischen Singularität voraus – eine soziale Singularität ist ihr bereits vorangestellt
- Das Wesen der Singularität ist nicht der Moment, in dem Maschinen Superintelligenz erreichen, sondern der Zeitpunkt, an dem Menschen die Fähigkeit zu konsistenter kollektiver Entscheidungsfindung über Maschinen verlieren
Daten: Fünf Indikatoren für den KI-Fortschritt
- Verwendet werden fünf Indikatoren, ausgewählt nach ihrer „anthropischen Bedeutung“ (anthropic significance) im griechischen Wortsinn (nicht im Sinne des Unternehmens Anthropic)
- MMLU-Score: ein Benchmark als SAT-Pendant für Sprachmodelle, mit Daten von GPT-3 (Juni 2020, 43,9 %) bis Claude Opus 4.5 (November 2025, 90,8 %)
- Ausgabe-Token pro Dollar: misst den Kostenkollaps von Intelligenz und wird logarithmisch transformiert; reicht von GPT-3 davinci (16.667 Token/$) bis Gemini 2.0 Flash (2.500.000 Token/$) über fünf Größenordnungen
- Veröffentlichungsabstand von Frontier-Modellen: die schrumpfenden Abstände zwischen „schockierenden“ Momenten, stark gefallen von GPT-3→ChatGPT (902 Tage) auf Gemini 2.5 Pro→GPT-4.1 (20 Tage)
- Zahl der arXiv-"emergent"-Papers: auf Basis der letzten 12 Monate, als memetisches Maß für akademische Aufregung
- Copilot-Code-Anteil: der Anteil von Code, der von KI geschrieben wird
- Jeder Indikator wird auf [0,1] normalisiert; Veröffentlichungsabstände werden invertiert (je kürzer, desto höher), Token/$ nach Log-Transformation normalisiert, und jede Reihe behält ihre eigene Skala
Warum ein hyperbolisches Modell?
- Die in den meisten KI-Extrapolationen verwendete Exponentialfunktion f(t) = ae^(bt) erreicht Unendlichkeit nur für t→∞ und kann daher keine Singularität in endlicher Zeit darstellen
- Auch polynomiales Wachstum (t^n) kann in endlicher Zeit keine Unendlichkeit erreichen
- Die hyperbolische Funktion x(t) = k/(t_s − t) + c hat die Eigenschaft, dass der Nenner für t→t_s zu 0 wird und damit zu einem endlichen Zeitpunkt divergiert
- Hyperbolisches Wachstum entsteht, wenn wachsendes System sein eigenes Wachstum beschleunigt: bessere KI → bessere Werkzeuge für KI-Forschung → bessere KI → überlinearer positiver Rückkopplungskreislauf
Fitting-Methodik
- Für jeden Indikator j wird unabhängig eine Hyperbel y_i^(j) = k_j/(t_s − t_i) + c_j angepasst, wobei der Singularitätszeitpunkt t_s geteilt wird
- Jede Reihe hat ihre eigene Skala k_j und ihren eigenen Offset c_j; damit können selbst Indikatoren mit unterschiedlichen y-Achsen wie MMLU und Token/$ beim t_s übereinstimmen
- Bei Minimierung des gesamten RSS tritt das Problem auf, dass das optimale t_s immer gegen Unendlich geht: eine ferne Hyperbel degeneriert zu einer Geraden und passt dadurch gut zu verrauschten Daten
- Als Alternative wird für jede Reihe unabhängig eine Grid Search nach dem R²-Peak durchgeführt
- Wenn R² bei endlichem t_s ein Maximum hat, ist das ein echtes hyperbolisches Signal
- Wenn R² weiter steigt, während t_s→∞, ist die Reihe in Wirklichkeit linear und zeigt kein Singularitätssignal
- Ergebnis: Nur arXiv-"emergent" hat einen klaren R²-Peak; für die übrigen vier passt ein lineares Modell besser
Das abgeleitete Datum
- Vorhergesagter Singularitätszeitpunkt: Dienstag, 18. Juli 2034, 02:52:52.170 UTC
- n = 52 (5 Reihen), 95-%-Konfidenzintervall: Januar 2030 bis Januar 2041 (Breite 132,4 Monate)
- R² je Reihe (bei gemeinsamem t_s): MMLU 0,747, Token/$ 0,020, Veröffentlichungsabstand 0,291, arXiv-"emergent" 0,926, Copilot-Code-Anteil 1,000
- Das 95-%-Konfidenzintervall wird aus der Profile Likelihood für t_s nach einem F-Schwellenwert abgeleitet
Sensitivitätsanalyse
- Drop-One-Out-Analyse: misst, wie stark sich t_s verschiebt, wenn ein Indikator entfernt wird
- Selbst wenn MMLU, Token/$, Veröffentlichungsabstand oder Copilot-Code-Anteil jeweils entfernt werden, bleibt t_s unverändert (+0,0 Monate)
- Wird arXiv-"emergent" entfernt, verschiebt sich t_s um 18,6 Monate auf Februar 2036 (an die Suchgrenze gedrückt)
- Fazit: arXiv leistet die gesamte Arbeit, die anderen Reihen liefern nur Kontextkurven beim gemeinsamen t_s
- Copilot hat bei zwei Datenpunkten und zwei Parametern 0 Freiheitsgrade, passt also perfekt auf jede Hyperbel und beeinflusst t_s nicht
Was t_s tatsächlich bedeutet
- Dass die Zahl der arXiv-Papers gegen Unendlich geht, bedeutet nicht, dass an diesem Dienstag im Jahr 2034 unendlich viele Papers veröffentlicht werden
- t_s ist der Marker eines Phasenübergangs: der Punkt, an dem die Krümmung der aktuellen Trajektorie nicht länger aufrechterhalten werden kann und entweder qualitativ etwas Neues durchbricht oder Sättigung zeigt, womit die Hyperbel widerlegt wäre
- Die zentral unbequeme Tatsache: Der einzige Indikator, der tatsächlich einer Hyperbel folgt, ist nicht Maschinenfähigkeit, sondern menschliches Interesse
- MMLU, Token/$, Veröffentlichungsabstände und andere reale Fähigkeits- und Infrastrukturindikatoren sind alle linear und haben keinen Pol
- Die einzige Kurve, die auf ein endliches Datum zeigt, ist die Häufigkeit, mit der Forschende neue Verhaltensweisen entdecken und benennen – also „memetisch gemessene akademische Aufregung“
- Die Schlussfolgerung aus den Daten: Maschinen verbessern sich mit konstantem Tempo, während Menschen sich dazu mit beschleunigter Geschwindigkeit beschleunigen und aufregen
Soziale Singularität: ein bereits laufendes Phänomen
- Wenn t_s der Zeitpunkt ist, an dem die Geschwindigkeit von KI-Überraschungen die menschliche Verarbeitungskapazität übersteigt, dann lautet die interessante Frage nicht, was mit Maschinen geschieht, sondern was mit Menschen passiert
- Umbruch am Arbeitsmarkt: 2025 wurden 1,1 Millionen Entlassungen angekündigt (das sechste Mal seit 1993, dass dieser Schwellenwert überschritten wurde), davon erwähnten mehr als 55.000 explizit KI als Ursache
- Laut HBR bauen Unternehmen Stellen nicht wegen der tatsächlichen Leistung von KI ab, sondern aufgrund ihres Potenzials
- Die Kurve muss ihren Pol nicht erreichen; es reicht, so auszusehen, als würde sie ihn erreichen, damit vorgezogene Restrukturierungen beginnen
- Scheitern institutioneller Reaktionen: Die Regeln des EU AI Act für Hochrisikoanwendungen wurden auf 2027 verschoben; die USA hoben die KI-Executive-Order von 2023 im Januar 2025 auf und erließen im Dezember eine neue Anordnung zur Vorwegnahme von Landesgesetzen, während California und Colorado eigene Wege gehen
- Die heute geschriebenen Gesetze regulieren die Probleme von 2023; wenn das Recht GPT-4 eingeholt hat, ist GPT-7 schon da
- Die sichtbare Unfähigkeit von Regierungen führt nicht zu schleichender Erosion, sondern zu Kollaps des Vertrauens; das globale Vertrauen in KI sank auf 56 %
- Kapitalballung auf Dotcom-Niveau: Die Top 10 des S&P 500 (größtenteils KI-bezogen) erreichten 2025 einen Indexanteil von 40,7 % und übertrafen damit den Dotcom-Höhepunkt
- Seit dem Start von ChatGPT entfielen auf KI-bezogene Aktien 75 % der S&P-500-Rendite, 80 % des Gewinnwachstums und 90 % des Wachstums bei Investitionsausgaben
- Das Shiller-CAPE liegt bei 39,4, ein Niveau, das zuletzt 1999 erreicht wurde
- Psychologische Auswirkungen: Therapeut:innen berichten von einem starken Anstieg von FOBO (Fear of Becoming Obsolete); Patient:innen sagen, das Universum teile ihnen mit: „Du wirst nicht mehr gebraucht.“
- 60 % der US-Beschäftigten erwarten, dass KI mehr Jobs vernichten als schaffen wird
- Die KI-Nutzung stieg im Jahresvergleich um 13 %, während das Vertrauen in KI um 18 % sank: Je mehr Nutzung, desto weniger Vertrauen
- Epistemische Risse: Weniger als ein Drittel der KI-Forschung ist reproduzierbar, weniger als 5 % der Forschenden teilen ihren Code, und Veröffentlichungen aus Unternehmenslaboren gehen zurück
- Die Wissenslücke zwischen Frontier-Labs und Öffentlichkeit wächst; politische Entscheidungsträger arbeiten mit bereits veralteten Informationen
- Sachverständige, die im Parlament aussagen, widersprechen einander, weil sich das Feld schneller bewegt, als sich Expertise stabilisieren kann
- Politische Neuordnung: TIME berichtete über einen populistischen KI-Backlash, Foreign Affairs darüber, dass eine „Ökonomie des Zorns“ den Populismus stärken werde, und HuffPost schrieb, KI werde die Midterm-Wahlen 2026 prägen
- MAGA ist darüber gespalten, ob KI unternehmensfreundlich oder arbeiterfeindlich ist; Sanders schlug ein Moratorium für Rechenzentren vor
- Die bestehenden Links-Rechts-Achsen brechen zusammen, weil sie das Gewicht dieser Frage nicht mehr tragen können
- All das geschieht acht Jahre vor t_s: Die soziale Singularität geht der technischen voraus, und institutionelle wie psychologische Verwerfungen beginnen nicht erst bei vertikal steigenden Fähigkeiten, sondern sobald die Trajektorie als solche erkannt wird
Hinweise (Caveats)
- Das Datum wird aus einer einzigen Reihe abgeleitet: Nur arXiv-"emergent" zeigt echte hyperbolische Krümmung, für die übrigen vier passt eine Gerade besser
- Die praktische Bedeutung des Singularitätsdatums ist also „der Zeitpunkt, an dem die Forschung zu emergenter KI senkrecht nach oben geht“, und die entscheidende Frage ist, ob akademische Aufregung ein vorlaufender oder nachlaufender Indikator ist
- Das Modell nimmt Stationarität an: Die Kurven werden irgendwann entweder logistischer (Sättigung des Hypes) oder an einer Form kippen, die das Modell nicht ausdrücken kann (echter Phasenübergang); t_s markiert einen nicht tragfähigen Punkt des aktuellen Regimes, sagt aber nichts über danach aus
- MMLU-Decken-Effekt: Ein Artefakt der Spitzenstauchung durch Benchmark-Sättigung; das niedrige R² spiegelt dies wider
- Token/$ ist logarithmisch transformiert und nicht monoton: GPT-4 war teurer als 3.5, und Opus 4.5 kostet mehr als DeepSeek-R1; die Kostenkurve ist nicht glatt, sondern eine Mischung aus Pareto-Fortschritten und teuren Modellen
- Fünf Indikatoren sind nicht genug: SWE-bench, ARC, GPQA, Compute-Einkäufe oder Gehälter für Talente könnten die Abhängigkeit von arXiv verringern; fünf wurden verwendet, weil sie „auf den Tisch passen“
- Copilot hat nur zwei Datenpunkte: Mit 0 Freiheitsgraden trägt er nicht zu t_s bei
Fazit
- Durch reale Daten und ein mathematisches Modell wird ein klarer Singularitätszeitpunkt abgeleitet
- Diese Singularität bedeutet nicht die Superintelligenz der Maschinen, sondern den Zusammenbruch menschlicher Aufmerksamkeit in der Gesellschaft
- Was die Mathematik findet: genau ein Indikator, der zu einer bestimmten Millisekunde auf einen Pol zuläuft – nämlich die Geschwindigkeit, mit der Menschen emergentes KI-Verhalten entdecken
- Die übrigen vier Indikatoren sind linear: Maschinen verbessern sich stetig; was sich beschleunigt, sind die Menschen
- In Arbeit, Institutionen, Kapital, Erkenntnis und Politik ist bereits überall eine soziale Singularität im Gang
- Noch bevor eine technische Singularität eintritt, wird zuerst ein kollektiver Kipppunkt erreicht, an dem Menschen das Tempo der KI-Veränderung nicht mehr bewältigen können
- Die Singularität in den Daten ist eine Singularität menschlicher Aufmerksamkeit und übt bereits Gravitationskraft auf alles aus, was sie berührt
- Die Menschheit ist bereits in diesen Countdown eingetreten
3 Kommentare
Interessant ist, dass große Ankündigungen wie neue Modelle von OpenAI, Google und Anthropic meist dienstags oder donnerstags kommen.
Nach koreanischer Zeit werden sie etwa mittwochs und freitags zwischen 2 und 3 Uhr morgens (10 Uhr kalifornischer Zeit) angekündigt. Wenn ihr nachts nicht schlafen könnt, schaut in dieser Zeit mal in die Nachrichten.
Hacker-News-Kommentare
Dieser Beitrag war wirklich interessant. Der Autor erklärt erst ausführlich sein Modell und seine Methodologie und kommt dann schließlich zum Kern — wichtiger als die Frage, ob die Singularität tatsächlich kommt, ist, wie viele Menschen daran glauben und danach handeln
Deshalb habe ich den Fokus von der technischen Debatte auf die gesellschaftliche Diskussion verlagert. Die Position „Es ist sehr schlecht, menschliche Arbeit ersetzen zu wollen, ohne die gesellschaftliche Struktur zu verändern, die das Überleben von Lohnarbeit abhängig macht“ findet viel mehr Zustimmung
Die einfache Form ist: „alle glauben machen, dass man bereits gewonnen hat“, die raffinierte Form ist: „alle glauben machen, dass auch alle anderen das glauben“. Am Ende handeln die Menschen dann entsprechend diesem Glauben
LLMs sind zwar nur statistische Vorhersagemaschinen, aber dabei kann emergent behavior, also intelligentes Verhalten, auftreten. Sicher wissen wir das noch nicht
Wenn die Singularität nicht kommt, sind die Überzeugungen der Menschen sehr wichtig; wenn sie aber tatsächlich kommt, werden diese Überzeugungen fast bedeutungslos
Unter Berufung auf eine Passage aus Frank Herberts Dune heißt es, dass Menschen ihr Denken Maschinen überließen und dadurch andere Menschen mittels Maschinen über Menschen herrschen konnten
Nun wird gewarnt, dass wir weder lesen noch schreiben noch denken werden. Wenn LLMs alles übernehmen, werde das Ende der Menschheit kommen
Außerdem wird das Poison-Fountain-Projekt erwähnt, eine Anti-AI-Waffe, die Web-Crawler täglich mit „vergifteten Daten“ füttert. Zur Teilnahme wird aufgerufen
R.A. Laffertys Kurzgeschichte von 1965, „Slow Tuesday Night", wird vorgestellt.
Es ist eine 2600 Wörter lange SF-Geschichte über eine ultraschnelle Gesellschaft, in der ein Tag in wenigen Minuten vergeht
Mit Bewunderung wird der Satz zitiert, dass die Singularität nicht der Moment sei, in dem Maschinen superintelligent werden, sondern der Moment, in dem Menschen keine kohärenten kollektiven Entscheidungen über Maschinen mehr treffen können
Der Artikel war interessant. 2025 wurden 1,1 Millionen Entlassungen angekündigt, davon nannten 55.000 KI als Grund. Aber das waren Entlassungen, die nicht auf der tatsächlichen Leistung von KI, sondern auf ihrem „Potenzial“ beruhten
Letztlich hat KI nur offengelegt, was wir schon wussten: dass es viel zu viele sinnlose Bürojobs gibt
Vorgestellt wird eine Differentialgleichung, die eine „Intelligenzexplosion“ als einfaches Modell ausdrückt
dx/dt = x²hat die Lösungx = 1/(C - t)und wächst damit noch schneller als exponentielles Wachstum, bei dem die Wachstumsrate proportional zu x ist.Berücksichtigt man jedoch reale Beschränkungen wie Strom und Ressourcen, konvergiert es letztlich zu einer Form, die eher logistischem Wachstum ähnelt
Es wird daran erinnert, dass all das wegen Videospielen möglich wurde. Ohne die Fortschritte bei GPU-Hardware gäbe es auch keine LLMs
Tatsächlich ist KI das Ergebnis jahrzehntelanger technologischer Akkumulation — Chips, Internet, Open Source, Cloud, Rechenzentren, Mathematik und Physik waren allesamt ein Prozess, der unausweichlich auf die Singularität zusteuerte
Mit scherzhafter Erleichterung wird gesagt: „Gut zu wissen, dass bis 2034 alles in Ordnung ist“
Es wird gefragt, warum die Singularität nicht mehr über das Konzept der Verdopplung von Wissen (knowledge doubling) diskutiert wird
Unter Verweis auf Buckminster Fullers „Knowledge Doubling Curve“ und Ray Kurzweils „Law of Accelerating Returns“ heißt es, früher habe sich das menschliche Wissen einmal in 100 Jahren, später einmal in 25 Jahren verdoppelt — sollte man dann nicht den Punkt, an dem sich dieses Tempo gegen unendlich annähert, als Singularität betrachten?
Es wird Erleichterung darüber geäußert, dass man das Unix-Timestamp-Problem von 2038 wohl nicht mehr erleben muss
Selbst bei einer optimistischen Prognose sind es noch 8 Jahre, also gibt es viel Zeit und viel zu tun. Man kann schließlich nicht einfach nichts tun, während aus einem Neugeborenen in dieser Zeit ein Grundschulkind wird.