- Der Autor des Textes geht nicht davon aus, dass AGI (Artificial General Intelligence) in naher Zukunft erscheint
- LLMs (Large Language Models) zeigen zwar beeindruckende Fähigkeiten, aber ihnen fehlt die Fähigkeit, wie Menschen kontinuierlich zu lernen und sich schrittweise zu verbessern
- Aktuelle LLMs haben Grenzen dabei, sich durch Nutzerfeedback anzupassen oder Kontext aufzubauen; das ist eine große Hürde für die tatsächliche Automatisierung von Büroarbeit
- Bei realen Herausforderungen wie Computer Use und multimodalen Daten ist wegen Datenmangel, langer Aufgabendauer und technischer Schwierigkeit mit langsamem Fortschritt zu rechnen
- Langfristig erwartet der Autor, dass mit Online-Lernen sehr abrupte Veränderungen möglich werden, hält eine einfache Umsetzung innerhalb der nächsten zehn Jahre jedoch nicht für wahrscheinlich
Einleitung und Diskussion über den erwarteten Zeitpunkt von AGI
- Der Autor stellt seine Sicht auf Basis von Gesprächen mit verschiedenen Experten über den Zeitpunkt von AGI vor
- Manche sagen AGI in zwei Jahren voraus, andere erst in zwanzig Jahren; der Autor selbst glaubt mit Stand Juni 2025 nicht, dass AGI unmittelbar bevorsteht
Grenzen des kontinuierlichen Lernens (Continual Learning)
- Viele halten die aktuelle KI bereits jetzt für ökonomisch transformierender als das Internet, der Autor stimmt dem jedoch nicht zu
- Dass Fortune-500-Unternehmen LLMs nicht zur grundlegenden Transformation ihrer Arbeit einsetzen, liegt aus Sicht des Autors nicht an konservativen Führungskräften, sondern am fehlenden kontinuierlichen Lernen heutiger KI
- Beim eigenen Aufbau und Einsatz verschiedener LLM-basierter Tools hat der Autor festgestellt, dass LLMs bei wiederkehrender Arbeit etwa 5/10 leisten, aber kaum zu schrittweiser Verbesserung fähig sind
- Menschen steigern ihre Produktivität durch Kontextaufbau, Analyse eigener Fehler und das Erlernen kleiner Verbesserungen durch Wiederholung; LLMs fehlt dagegen ein Kanal für hochrangiges Feedback, und durch bloßes Prompt-Tuning ist menschliches „Lernen“ nicht möglich
- Es gibt zwar RL-(RLHF-)Finetuning, doch das ist weit entfernt von adaptivem und organischem Lernen wie beim Menschen; genau das ist ein entscheidender Engpass bei der Automatisierung realer Arbeit
- Es gibt bislang keinen überzeugenden Weg, wie ein KI-Modell wie ein menschlicher Mitarbeiter während der Arbeit reichhaltigen Kontext aufbauen, behalten und daran wachsen kann
- Innerhalb einer Sitzung kann zwar etwas Kontextlernen stattfinden, aber nach Ende der Sitzung geht der gesamte gelernte Kontext verloren
- Ansätze wie Langzeitgedächtnis oder ein
rolling context window werden ausprobiert, doch die Zusammenfassung reichhaltigen Erfahrungswissens ist fragil und funktioniert außerhalb textbasierter Domänen noch schlechter
- Selbst wenn sich die KI-Entwicklung auf dem heutigen Niveau stabilisieren würde, wären viele Bürojobs mit dieser Technik nur schwer ersetzbar, weil Menschen durch ihre Fähigkeit zum Kontextlernen im Vorteil bleiben
- Mit anderen Worten: Erst wenn kontinuierliches Lernen tatsächlich umgesetzt wird, steigt der Wert von KI sprunghaft an; langfristig könnte diese Technik durch geteiltes Lernen über mehrere Instanzen hinweg sogar zu einer schnelleren Entwicklung in Richtung Superintelligenz als beim Menschen führen
- Der Autor erwartet allerdings, dass Labore schon vor der vollständigen Ausreifung einer solchen Innovation unvollständige Versionen veröffentlichen würden; daher werde es Anzeichen vor dem eigentlichen großen Durchbruch beim kontinuierlichen Lernen geben
Praktische Schwierigkeiten bei Computer Use und Automatisierung
- In Gesprächen mit Forschern von Anthropic hörte der Autor die Prognose, dass bis Ende 2026 zuverlässige Computer-Use-Agenten entstehen könnten, bleibt aber skeptisch
- Schon heute gibt es Computer-Use-Agenten, aber in der Praxis sind sie noch ineffizient
- Um reale Aufgaben wie Steuererklärungen zu automatisieren, braucht es mehrere Systeme, lange Agentenlaufzeiten und die Verarbeitung vielfältiger multimodaler Daten; das macht Training und Validierung sehr langsam
- Anders als bei vorhandenen Text-Pretraining-Daten für Sprachmodelle gibt es zu wenig multimodale Datensätze für Computer Use, weshalb die Entwicklung verlässlicher Agenten Zeit brauchen dürfte
- Selbst neu vorgeschlagene innovative Algorithmen brauchen bis zum realen Einsatz vor Ort oft jahrelange technische Anpassung, daher dürfte der Fortschritt bei Computer-Use-Aufgaben recht langsam sein
Fortschritte und Grenzen der Schlussfolgerungsfähigkeit
- Neueste Modelle wie Gemini 2.5 zeigen tatsächlich Fähigkeiten beim Interpretieren von Sprecherintentionen, logischer Selbstüberprüfung und kontextabhängiger Reaktion
- Dass Claude Code allein aus einer gegebenen Spezifikation schnell funktionierenden Code erzeugen kann, deutet klar auf erste Anzeichen einer rudimentären „allgemeinen Intelligenz“ in breiten Domänen hin
- In den Domänen, in denen Spitzen-LLMs ihre Fähigkeiten entfalten, liefern sie durchaus beeindruckende Ergebnisse
Kurz- und langfristige Vorhersagen zu KI/AGI
- Der Autor betont, dass er seine Prognosen probabilistisch versteht; deshalb seien Vorbereitungsmaßnahmen weiterhin sinnvoll
- Auf die folgenden Punkte würde er mit 50% Wahrscheinlichkeit wetten
- Bis 2028: KI könnte das komplette Verfahren der Steuererklärung für kleine Unternehmen vollständig abwickeln
- Die aktuellen Computer-Use-Fähigkeiten liegen auf dem Niveau von GPT-2, und wegen Datenmangel sowie langer Zeithorizonte ist die Optimierung schwierig
- Beeindruckende Demos wird es wohl 2026–2027 geben, aber vollständig autonome, langfristige Ausführung komplexer Aufgaben hält er weiterhin für schwer erreichbar
- Bis 2032: KI könnte wie ein Mensch während der Arbeit natürlich und schrittweise lernen und nach einigen Monaten Einarbeitung ähnlich viel Kontext, Präferenzen und Know-how verinnerlicht haben wie ein Mensch
- Auch wenn eine Umsetzung von Online-Continual-Learning derzeit nicht unmittelbar sichtbar ist, könnte es in sieben Jahren zu einem grundlegenden Durchbruch kommen
Begrenzende Faktoren der KI-Entwicklung und Ausblick
- Der Zeitpunkt von AGI ist über eine sehr breite Wahrscheinlichkeitsverteilung (lognormal) verteilt, und der Fortschritt der KI hing in den letzten zehn Jahren eng mit dem Wachstum der Rechenleistung (Training Compute) zusammen
- Das Wachstum der Rechenleistung dürfte nach 2030 an Grenzen stoßen, wodurch algorithmische Innovationen zum Engpass werden
- Ohne einen wirklich innovativen Paradigmenwechsel könnte die jährliche Wahrscheinlichkeit für das Eintreten von AGI mit der Zeit sogar sinken
- Wenn sich die „lange“ Wette bewahrheitet, könnte sich die Alltagswelt bis 2030–2040 gar nicht so stark verändern; wenn die heutigen Grenzen der KI jedoch überwunden werden, wären sehr radikale Veränderungen möglich
4 Kommentare
Ich denke, dass AGI nicht verwirklicht wird, weil es physische Grenzen bei Persistenz und Lernen gibt.
Es gibt im wahrsten Sinne des Wortes physische Beschränkungen, nicht etwa mangelnde technische Fähigkeiten.
Wenn man solche Beschränkungen nicht setzt und damit als AGI einen Schritt weitergeht, wäre es dann schwer, wieder zurückzukehren, und ich denke, auch AI-Entwickler wissen das, weshalb sie es nur dienstspezifisch weiterentwickeln und nicht versuchen, diese Beschränkungen aufzuheben.
Ich stimme dir vollkommen zu!
Hacker-News-Meinungen
Bis jetzt schon wieder dieselbe Leier.