18 Punkte von GN⁺ 2026-02-11 | 3 Kommentare | Auf WhatsApp teilen
  • Eine Analyse anhand von fünf realen Indikatoren für den KI-Fortschritt berechnete den Zeitpunkt des Erreichens der Singularität bis auf die Millisekunde und kam auf Dienstag, den 18. Juli 2034
  • Bei einer unabhängigen Anpassung von fünf Indikatoren wie MMLU-Score, Token pro Dollar, Veröffentlichungsabstand von Frontier-Modellen, Zahl der arXiv-"emergent"-Papers und Copilot-Code-Anteil zeigte nur die Zahl der arXiv-"emergent"-Papers tatsächlich eine hyperbolische Krümmung
  • Alle Indikatoren für Maschinenfähigkeiten folgen einem linearen Trend und zeigen kein Singularitätssignal; das Einzige, was sich beschleunigt, ist menschliches Interesse sowie Aufregung/Angst rund um emergente KI-Phänomene
  • Schon im Jahr 2026 gehen große Entlassungswellen, institutionelle Verzögerung, Kapitalballung, sinkendes Vertrauen und politische Neuordnung der technischen Singularität voraus – eine soziale Singularität ist ihr bereits vorangestellt
  • Das Wesen der Singularität ist nicht der Moment, in dem Maschinen Superintelligenz erreichen, sondern der Zeitpunkt, an dem Menschen die Fähigkeit zu konsistenter kollektiver Entscheidungsfindung über Maschinen verlieren

Daten: Fünf Indikatoren für den KI-Fortschritt

  • Verwendet werden fünf Indikatoren, ausgewählt nach ihrer „anthropischen Bedeutung“ (anthropic significance) im griechischen Wortsinn (nicht im Sinne des Unternehmens Anthropic)
  • MMLU-Score: ein Benchmark als SAT-Pendant für Sprachmodelle, mit Daten von GPT-3 (Juni 2020, 43,9 %) bis Claude Opus 4.5 (November 2025, 90,8 %)
  • Ausgabe-Token pro Dollar: misst den Kostenkollaps von Intelligenz und wird logarithmisch transformiert; reicht von GPT-3 davinci (16.667 Token/$) bis Gemini 2.0 Flash (2.500.000 Token/$) über fünf Größenordnungen
  • Veröffentlichungsabstand von Frontier-Modellen: die schrumpfenden Abstände zwischen „schockierenden“ Momenten, stark gefallen von GPT-3→ChatGPT (902 Tage) auf Gemini 2.5 Pro→GPT-4.1 (20 Tage)
  • Zahl der arXiv-"emergent"-Papers: auf Basis der letzten 12 Monate, als memetisches Maß für akademische Aufregung
  • Copilot-Code-Anteil: der Anteil von Code, der von KI geschrieben wird
  • Jeder Indikator wird auf [0,1] normalisiert; Veröffentlichungsabstände werden invertiert (je kürzer, desto höher), Token/$ nach Log-Transformation normalisiert, und jede Reihe behält ihre eigene Skala

Warum ein hyperbolisches Modell?

  • Die in den meisten KI-Extrapolationen verwendete Exponentialfunktion f(t) = ae^(bt) erreicht Unendlichkeit nur für t→∞ und kann daher keine Singularität in endlicher Zeit darstellen
  • Auch polynomiales Wachstum (t^n) kann in endlicher Zeit keine Unendlichkeit erreichen
  • Die hyperbolische Funktion x(t) = k/(t_s − t) + c hat die Eigenschaft, dass der Nenner für t→t_s zu 0 wird und damit zu einem endlichen Zeitpunkt divergiert
  • Hyperbolisches Wachstum entsteht, wenn wachsendes System sein eigenes Wachstum beschleunigt: bessere KI → bessere Werkzeuge für KI-Forschung → bessere KI → überlinearer positiver Rückkopplungskreislauf

Fitting-Methodik

  • Für jeden Indikator j wird unabhängig eine Hyperbel y_i^(j) = k_j/(t_s − t_i) + c_j angepasst, wobei der Singularitätszeitpunkt t_s geteilt wird
  • Jede Reihe hat ihre eigene Skala k_j und ihren eigenen Offset c_j; damit können selbst Indikatoren mit unterschiedlichen y-Achsen wie MMLU und Token/$ beim t_s übereinstimmen
  • Bei Minimierung des gesamten RSS tritt das Problem auf, dass das optimale t_s immer gegen Unendlich geht: eine ferne Hyperbel degeneriert zu einer Geraden und passt dadurch gut zu verrauschten Daten
  • Als Alternative wird für jede Reihe unabhängig eine Grid Search nach dem R²-Peak durchgeführt
    • Wenn R² bei endlichem t_s ein Maximum hat, ist das ein echtes hyperbolisches Signal
    • Wenn R² weiter steigt, während t_s→∞, ist die Reihe in Wirklichkeit linear und zeigt kein Singularitätssignal
  • Ergebnis: Nur arXiv-"emergent" hat einen klaren R²-Peak; für die übrigen vier passt ein lineares Modell besser

Das abgeleitete Datum

  • Vorhergesagter Singularitätszeitpunkt: Dienstag, 18. Juli 2034, 02:52:52.170 UTC
  • n = 52 (5 Reihen), 95-%-Konfidenzintervall: Januar 2030 bis Januar 2041 (Breite 132,4 Monate)
  • R² je Reihe (bei gemeinsamem t_s): MMLU 0,747, Token/$ 0,020, Veröffentlichungsabstand 0,291, arXiv-"emergent" 0,926, Copilot-Code-Anteil 1,000
  • Das 95-%-Konfidenzintervall wird aus der Profile Likelihood für t_s nach einem F-Schwellenwert abgeleitet

Sensitivitätsanalyse

  • Drop-One-Out-Analyse: misst, wie stark sich t_s verschiebt, wenn ein Indikator entfernt wird
  • Selbst wenn MMLU, Token/$, Veröffentlichungsabstand oder Copilot-Code-Anteil jeweils entfernt werden, bleibt t_s unverändert (+0,0 Monate)
  • Wird arXiv-"emergent" entfernt, verschiebt sich t_s um 18,6 Monate auf Februar 2036 (an die Suchgrenze gedrückt)
  • Fazit: arXiv leistet die gesamte Arbeit, die anderen Reihen liefern nur Kontextkurven beim gemeinsamen t_s
  • Copilot hat bei zwei Datenpunkten und zwei Parametern 0 Freiheitsgrade, passt also perfekt auf jede Hyperbel und beeinflusst t_s nicht

Was t_s tatsächlich bedeutet

  • Dass die Zahl der arXiv-Papers gegen Unendlich geht, bedeutet nicht, dass an diesem Dienstag im Jahr 2034 unendlich viele Papers veröffentlicht werden
  • t_s ist der Marker eines Phasenübergangs: der Punkt, an dem die Krümmung der aktuellen Trajektorie nicht länger aufrechterhalten werden kann und entweder qualitativ etwas Neues durchbricht oder Sättigung zeigt, womit die Hyperbel widerlegt wäre
  • Die zentral unbequeme Tatsache: Der einzige Indikator, der tatsächlich einer Hyperbel folgt, ist nicht Maschinenfähigkeit, sondern menschliches Interesse
  • MMLU, Token/$, Veröffentlichungsabstände und andere reale Fähigkeits- und Infrastrukturindikatoren sind alle linear und haben keinen Pol
  • Die einzige Kurve, die auf ein endliches Datum zeigt, ist die Häufigkeit, mit der Forschende neue Verhaltensweisen entdecken und benennen – also „memetisch gemessene akademische Aufregung“
  • Die Schlussfolgerung aus den Daten: Maschinen verbessern sich mit konstantem Tempo, während Menschen sich dazu mit beschleunigter Geschwindigkeit beschleunigen und aufregen

Soziale Singularität: ein bereits laufendes Phänomen

  • Wenn t_s der Zeitpunkt ist, an dem die Geschwindigkeit von KI-Überraschungen die menschliche Verarbeitungskapazität übersteigt, dann lautet die interessante Frage nicht, was mit Maschinen geschieht, sondern was mit Menschen passiert
  • Umbruch am Arbeitsmarkt: 2025 wurden 1,1 Millionen Entlassungen angekündigt (das sechste Mal seit 1993, dass dieser Schwellenwert überschritten wurde), davon erwähnten mehr als 55.000 explizit KI als Ursache
    • Laut HBR bauen Unternehmen Stellen nicht wegen der tatsächlichen Leistung von KI ab, sondern aufgrund ihres Potenzials
    • Die Kurve muss ihren Pol nicht erreichen; es reicht, so auszusehen, als würde sie ihn erreichen, damit vorgezogene Restrukturierungen beginnen
  • Scheitern institutioneller Reaktionen: Die Regeln des EU AI Act für Hochrisikoanwendungen wurden auf 2027 verschoben; die USA hoben die KI-Executive-Order von 2023 im Januar 2025 auf und erließen im Dezember eine neue Anordnung zur Vorwegnahme von Landesgesetzen, während California und Colorado eigene Wege gehen
    • Die heute geschriebenen Gesetze regulieren die Probleme von 2023; wenn das Recht GPT-4 eingeholt hat, ist GPT-7 schon da
    • Die sichtbare Unfähigkeit von Regierungen führt nicht zu schleichender Erosion, sondern zu Kollaps des Vertrauens; das globale Vertrauen in KI sank auf 56 %
  • Kapitalballung auf Dotcom-Niveau: Die Top 10 des S&P 500 (größtenteils KI-bezogen) erreichten 2025 einen Indexanteil von 40,7 % und übertrafen damit den Dotcom-Höhepunkt
    • Seit dem Start von ChatGPT entfielen auf KI-bezogene Aktien 75 % der S&P-500-Rendite, 80 % des Gewinnwachstums und 90 % des Wachstums bei Investitionsausgaben
    • Das Shiller-CAPE liegt bei 39,4, ein Niveau, das zuletzt 1999 erreicht wurde
  • Psychologische Auswirkungen: Therapeut:innen berichten von einem starken Anstieg von FOBO (Fear of Becoming Obsolete); Patient:innen sagen, das Universum teile ihnen mit: „Du wirst nicht mehr gebraucht.“
    • 60 % der US-Beschäftigten erwarten, dass KI mehr Jobs vernichten als schaffen wird
    • Die KI-Nutzung stieg im Jahresvergleich um 13 %, während das Vertrauen in KI um 18 % sank: Je mehr Nutzung, desto weniger Vertrauen
  • Epistemische Risse: Weniger als ein Drittel der KI-Forschung ist reproduzierbar, weniger als 5 % der Forschenden teilen ihren Code, und Veröffentlichungen aus Unternehmenslaboren gehen zurück
    • Die Wissenslücke zwischen Frontier-Labs und Öffentlichkeit wächst; politische Entscheidungsträger arbeiten mit bereits veralteten Informationen
    • Sachverständige, die im Parlament aussagen, widersprechen einander, weil sich das Feld schneller bewegt, als sich Expertise stabilisieren kann
  • Politische Neuordnung: TIME berichtete über einen populistischen KI-Backlash, Foreign Affairs darüber, dass eine „Ökonomie des Zorns“ den Populismus stärken werde, und HuffPost schrieb, KI werde die Midterm-Wahlen 2026 prägen
    • MAGA ist darüber gespalten, ob KI unternehmensfreundlich oder arbeiterfeindlich ist; Sanders schlug ein Moratorium für Rechenzentren vor
    • Die bestehenden Links-Rechts-Achsen brechen zusammen, weil sie das Gewicht dieser Frage nicht mehr tragen können
  • All das geschieht acht Jahre vor t_s: Die soziale Singularität geht der technischen voraus, und institutionelle wie psychologische Verwerfungen beginnen nicht erst bei vertikal steigenden Fähigkeiten, sondern sobald die Trajektorie als solche erkannt wird

Hinweise (Caveats)

  • Das Datum wird aus einer einzigen Reihe abgeleitet: Nur arXiv-"emergent" zeigt echte hyperbolische Krümmung, für die übrigen vier passt eine Gerade besser
    • Die praktische Bedeutung des Singularitätsdatums ist also „der Zeitpunkt, an dem die Forschung zu emergenter KI senkrecht nach oben geht“, und die entscheidende Frage ist, ob akademische Aufregung ein vorlaufender oder nachlaufender Indikator ist
  • Das Modell nimmt Stationarität an: Die Kurven werden irgendwann entweder logistischer (Sättigung des Hypes) oder an einer Form kippen, die das Modell nicht ausdrücken kann (echter Phasenübergang); t_s markiert einen nicht tragfähigen Punkt des aktuellen Regimes, sagt aber nichts über danach aus
  • MMLU-Decken-Effekt: Ein Artefakt der Spitzenstauchung durch Benchmark-Sättigung; das niedrige R² spiegelt dies wider
  • Token/$ ist logarithmisch transformiert und nicht monoton: GPT-4 war teurer als 3.5, und Opus 4.5 kostet mehr als DeepSeek-R1; die Kostenkurve ist nicht glatt, sondern eine Mischung aus Pareto-Fortschritten und teuren Modellen
  • Fünf Indikatoren sind nicht genug: SWE-bench, ARC, GPQA, Compute-Einkäufe oder Gehälter für Talente könnten die Abhängigkeit von arXiv verringern; fünf wurden verwendet, weil sie „auf den Tisch passen“
  • Copilot hat nur zwei Datenpunkte: Mit 0 Freiheitsgraden trägt er nicht zu t_s bei

Fazit

  • Durch reale Daten und ein mathematisches Modell wird ein klarer Singularitätszeitpunkt abgeleitet
    • Diese Singularität bedeutet nicht die Superintelligenz der Maschinen, sondern den Zusammenbruch menschlicher Aufmerksamkeit in der Gesellschaft
  • Was die Mathematik findet: genau ein Indikator, der zu einer bestimmten Millisekunde auf einen Pol zuläuft – nämlich die Geschwindigkeit, mit der Menschen emergentes KI-Verhalten entdecken
    • Die übrigen vier Indikatoren sind linear: Maschinen verbessern sich stetig; was sich beschleunigt, sind die Menschen
  • In Arbeit, Institutionen, Kapital, Erkenntnis und Politik ist bereits überall eine soziale Singularität im Gang
  • Noch bevor eine technische Singularität eintritt, wird zuerst ein kollektiver Kipppunkt erreicht, an dem Menschen das Tempo der KI-Veränderung nicht mehr bewältigen können
  • Die Singularität in den Daten ist eine Singularität menschlicher Aufmerksamkeit und übt bereits Gravitationskraft auf alles aus, was sie berührt
    • Die Menschheit ist bereits in diesen Countdown eingetreten

3 Kommentare

 
mammal 2026-02-11

Interessant ist, dass große Ankündigungen wie neue Modelle von OpenAI, Google und Anthropic meist dienstags oder donnerstags kommen.

Nach koreanischer Zeit werden sie etwa mittwochs und freitags zwischen 2 und 3 Uhr morgens (10 Uhr kalifornischer Zeit) angekündigt. Wenn ihr nachts nicht schlafen könnt, schaut in dieser Zeit mal in die Nachrichten.

 
GN⁺ 2026-02-11
Hacker-News-Kommentare
  • Dieser Beitrag war wirklich interessant. Der Autor erklärt erst ausführlich sein Modell und seine Methodologie und kommt dann schließlich zum Kern — wichtiger als die Frage, ob die Singularität tatsächlich kommt, ist, wie viele Menschen daran glauben und danach handeln
    Deshalb habe ich den Fokus von der technischen Debatte auf die gesellschaftliche Diskussion verlagert. Die Position „Es ist sehr schlecht, menschliche Arbeit ersetzen zu wollen, ohne die gesellschaftliche Struktur zu verändern, die das Überleben von Lohnarbeit abhängig macht“ findet viel mehr Zustimmung

    • Das erinnert mich an ein Konzept, das ich mag: „epistemic takeover“.
      Die einfache Form ist: „alle glauben machen, dass man bereits gewonnen hat“, die raffinierte Form ist: „alle glauben machen, dass auch alle anderen das glauben“. Am Ende handeln die Menschen dann entsprechend diesem Glauben
    • Zu erklären, „wie LLMs tatsächlich funktionieren“, ist meiner Meinung nach ähnlich wie zu sagen: „Menschen sind nur eine Ansammlung von Molekülen und Neuronen, also bedeutungslos.“
      LLMs sind zwar nur statistische Vorhersagemaschinen, aber dabei kann emergent behavior, also intelligentes Verhalten, auftreten. Sicher wissen wir das noch nicht
    • Auch der Aussage „Es ist schlecht, wenn die Verdrängung von Arbeit vor gesellschaftlichen Reformen stattfindet“ widersprechen viele. Das Problem ist, dass sie den Preis nicht zahlen, sondern stattdessen Stock Options bekommen
    • Der Aussage „Es ist nicht wichtig, ob die Singularität wirklich eintritt“ stimme ich nicht zu.
      Wenn die Singularität nicht kommt, sind die Überzeugungen der Menschen sehr wichtig; wenn sie aber tatsächlich kommt, werden diese Überzeugungen fast bedeutungslos
    • Solche Diskussionen gab es auch schon in den 1980er Jahren. Die Tech-Industrie sollte Menschen fördern, die sich für reale Fähigkeiten und ihre Nuancen interessieren, und jene selbstoptimierungsartigen Anhänger hinauswerfen, die glauben, man könne „auch ohne Produkt erfolgreich sein“
  • Unter Berufung auf eine Passage aus Frank Herberts Dune heißt es, dass Menschen ihr Denken Maschinen überließen und dadurch andere Menschen mittels Maschinen über Menschen herrschen konnten
    Nun wird gewarnt, dass wir weder lesen noch schreiben noch denken werden. Wenn LLMs alles übernehmen, werde das Ende der Menschheit kommen
    Außerdem wird das Poison-Fountain-Projekt erwähnt, eine Anti-AI-Waffe, die Web-Crawler täglich mit „vergifteten Daten“ füttert. Zur Teilnahme wird aufgerufen

    • Auf mich haben LLMs diese Wirkung nicht. Ich nutze sie vielmehr nützlich wie ein verstärktes Suchwerkzeug
    • Statt Herberts Dystopie stelle ich mir eine Utopie im Stil von Iain Banks vor
    • Man sollte die Worte eines SF-Autors nicht wie eine Prophezeiung behandeln. Herbert hat lediglich ein Mittel geschaffen, um zu erklären, warum in seiner Welt keine Singularität eingetreten ist
    • Das „Ende der Menschheit“ wurde schon oft vorhergesagt, aber die Menschheit verändert sich immer und überlebt. Wenn man ein Problem beseitigt, entsteht eben ein neues
  • R.A. Laffertys Kurzgeschichte von 1965, „Slow Tuesday Night", wird vorgestellt.
    Es ist eine 2600 Wörter lange SF-Geschichte über eine ultraschnelle Gesellschaft, in der ein Tag in wenigen Minuten vergeht

    • Es gibt eine Szene, in der ein Philosoph in nur sieben Minuten ein philosophisches Werk vollendet, und das wirkt fast wie LLM-Prompt-Tuning. Das Mischen von Wörtern und das Einfügen einer „Persönlichkeitssignatur“ ähnelt dem heutigen KI-Schreiben
  • Mit Bewunderung wird der Satz zitiert, dass die Singularität nicht der Moment sei, in dem Maschinen superintelligent werden, sondern der Moment, in dem Menschen keine kohärenten kollektiven Entscheidungen über Maschinen mehr treffen können

    • Es fühlt sich an, als lägen wir bereits weit hinter diesem Punkt
    • Außerdem verschärft die Haltung der Big-Tech-Unternehmen, Regulierung zu umgehen und sich schneller als Bürokratien zu bewegen, die Lage
  • Der Artikel war interessant. 2025 wurden 1,1 Millionen Entlassungen angekündigt, davon nannten 55.000 KI als Grund. Aber das waren Entlassungen, die nicht auf der tatsächlichen Leistung von KI, sondern auf ihrem „Potenzial“ beruhten
    Letztlich hat KI nur offengelegt, was wir schon wussten: dass es viel zu viele sinnlose Bürojobs gibt

    • Seit 1993 gab es in 32 Jahren sechs Entlassungswellen dieser Größenordnung. Also etwa alle fünf Jahre — nicht so historisch außergewöhnlich
    • Es ist nur eine Fortsetzung des „next quarter problem“ im Dienst kurzfristiger Ergebnisse. Monopolunternehmen verlieren selbst dann keine Kunden, wenn sie die Hälfte ihrer Belegschaft abbauen
    • Dass es mehr mittlere Managementposten gibt, liegt auch daran, dass andere Jobs verschwunden sind. Menschen nehmen selbst sinnlose Bürokratiejobs an, um nicht zu verhungern
    • Man dachte, DevOps würde DBA- und SysAdmin-Rollen abschaffen, aber stattdessen ist eine neue Industrie entstanden. „Sinnlose Jobs“ gibt es immer noch
    • Dass es dreimal so viele Verwaltungsstellen gibt wie in den 1960er Jahren, liegt auch daran, dass die Bevölkerung dreimal so groß ist. Man kann also nicht einfach behaupten, sie seien bedeutungslos
  • Vorgestellt wird eine Differentialgleichung, die eine „Intelligenzexplosion“ als einfaches Modell ausdrückt
    dx/dt = x² hat die Lösung x = 1/(C - t) und wächst damit noch schneller als exponentielles Wachstum, bei dem die Wachstumsrate proportional zu x ist.
    Berücksichtigt man jedoch reale Beschränkungen wie Strom und Ressourcen, konvergiert es letztlich zu einer Form, die eher logistischem Wachstum ähnelt

    • Wegen des Lichtkegels (light cone) kann großskaliges Wachstum nicht schneller als x³ sein, und tatsächlich gilt eher x² als Obergrenze
    • Mit einem scherzhaften Unterton heißt es: „Du bringst Logik und Realität in eine Diskussion über die Singularität ein!“
  • Es wird daran erinnert, dass all das wegen Videospielen möglich wurde. Ohne die Fortschritte bei GPU-Hardware gäbe es auch keine LLMs
    Tatsächlich ist KI das Ergebnis jahrzehntelanger technologischer Akkumulation — Chips, Internet, Open Source, Cloud, Rechenzentren, Mathematik und Physik waren allesamt ein Prozess, der unausweichlich auf die Singularität zusteuerte

    • Manche sind jedoch skeptisch und sagen: „Auch ohne NVIDIA hätte eine andere Branche Hardware für lineare Algebra weiterentwickelt“
    • Ein anderer tut das schlicht als „völligen Unsinn“ ab
  • Mit scherzhafter Erleichterung wird gesagt: „Gut zu wissen, dass bis 2034 alles in Ordnung ist“

  • Es wird gefragt, warum die Singularität nicht mehr über das Konzept der Verdopplung von Wissen (knowledge doubling) diskutiert wird
    Unter Verweis auf Buckminster Fullers „Knowledge Doubling Curve“ und Ray Kurzweils „Law of Accelerating Returns“ heißt es, früher habe sich das menschliche Wissen einmal in 100 Jahren, später einmal in 25 Jahren verdoppelt — sollte man dann nicht den Punkt, an dem sich dieses Tempo gegen unendlich annähert, als Singularität betrachten?

  • Es wird Erleichterung darüber geäußert, dass man das Unix-Timestamp-Problem von 2038 wohl nicht mehr erleben muss

    • Vorgestellt wird eine apokalyptische Kurzgeschichte, in der am 20. Januar 2038 Drohnenschwärme vom Himmel fallen und die Menschheit überlebt
    • Vielleicht ist genau diese apokalyptische Sehnsucht die psychologische Triebkraft in Richtung Apokalypse
    • Es wird gewitzelt, dass man dann keine Wartung von vibecoded Software aus den 2020ern mehr machen müsse
    • Es werden Erinnerungen daran wach, 1998 ein „Y2038“-T-Shirt gekauft zu haben. Damals schien das eine extrem ferne Zukunft zu sein, jetzt sind es nur noch 12 Jahre
    • „Puh, die Maschinen werden das schon regeln“, heißt es mit einem Gefühl der Befreiung
 
pencil6962 2026-02-11

Selbst bei einer optimistischen Prognose sind es noch 8 Jahre, also gibt es viel Zeit und viel zu tun. Man kann schließlich nicht einfach nichts tun, während aus einem Neugeborenen in dieser Zeit ein Grundschulkind wird.