5 Punkte von GN⁺ 2025-07-07 | 4 Kommentare | Auf WhatsApp teilen
  • Der Autor des Textes geht nicht davon aus, dass AGI (Artificial General Intelligence) in naher Zukunft erscheint
  • LLMs (Large Language Models) zeigen zwar beeindruckende Fähigkeiten, aber ihnen fehlt die Fähigkeit, wie Menschen kontinuierlich zu lernen und sich schrittweise zu verbessern
  • Aktuelle LLMs haben Grenzen dabei, sich durch Nutzerfeedback anzupassen oder Kontext aufzubauen; das ist eine große Hürde für die tatsächliche Automatisierung von Büroarbeit
  • Bei realen Herausforderungen wie Computer Use und multimodalen Daten ist wegen Datenmangel, langer Aufgabendauer und technischer Schwierigkeit mit langsamem Fortschritt zu rechnen
  • Langfristig erwartet der Autor, dass mit Online-Lernen sehr abrupte Veränderungen möglich werden, hält eine einfache Umsetzung innerhalb der nächsten zehn Jahre jedoch nicht für wahrscheinlich

Einleitung und Diskussion über den erwarteten Zeitpunkt von AGI

  • Der Autor stellt seine Sicht auf Basis von Gesprächen mit verschiedenen Experten über den Zeitpunkt von AGI vor
  • Manche sagen AGI in zwei Jahren voraus, andere erst in zwanzig Jahren; der Autor selbst glaubt mit Stand Juni 2025 nicht, dass AGI unmittelbar bevorsteht

Grenzen des kontinuierlichen Lernens (Continual Learning)

  • Viele halten die aktuelle KI bereits jetzt für ökonomisch transformierender als das Internet, der Autor stimmt dem jedoch nicht zu
  • Dass Fortune-500-Unternehmen LLMs nicht zur grundlegenden Transformation ihrer Arbeit einsetzen, liegt aus Sicht des Autors nicht an konservativen Führungskräften, sondern am fehlenden kontinuierlichen Lernen heutiger KI
  • Beim eigenen Aufbau und Einsatz verschiedener LLM-basierter Tools hat der Autor festgestellt, dass LLMs bei wiederkehrender Arbeit etwa 5/10 leisten, aber kaum zu schrittweiser Verbesserung fähig sind
  • Menschen steigern ihre Produktivität durch Kontextaufbau, Analyse eigener Fehler und das Erlernen kleiner Verbesserungen durch Wiederholung; LLMs fehlt dagegen ein Kanal für hochrangiges Feedback, und durch bloßes Prompt-Tuning ist menschliches „Lernen“ nicht möglich
  • Es gibt zwar RL-(RLHF-)Finetuning, doch das ist weit entfernt von adaptivem und organischem Lernen wie beim Menschen; genau das ist ein entscheidender Engpass bei der Automatisierung realer Arbeit
  • Es gibt bislang keinen überzeugenden Weg, wie ein KI-Modell wie ein menschlicher Mitarbeiter während der Arbeit reichhaltigen Kontext aufbauen, behalten und daran wachsen kann
  • Innerhalb einer Sitzung kann zwar etwas Kontextlernen stattfinden, aber nach Ende der Sitzung geht der gesamte gelernte Kontext verloren
  • Ansätze wie Langzeitgedächtnis oder ein rolling context window werden ausprobiert, doch die Zusammenfassung reichhaltigen Erfahrungswissens ist fragil und funktioniert außerhalb textbasierter Domänen noch schlechter
  • Selbst wenn sich die KI-Entwicklung auf dem heutigen Niveau stabilisieren würde, wären viele Bürojobs mit dieser Technik nur schwer ersetzbar, weil Menschen durch ihre Fähigkeit zum Kontextlernen im Vorteil bleiben
  • Mit anderen Worten: Erst wenn kontinuierliches Lernen tatsächlich umgesetzt wird, steigt der Wert von KI sprunghaft an; langfristig könnte diese Technik durch geteiltes Lernen über mehrere Instanzen hinweg sogar zu einer schnelleren Entwicklung in Richtung Superintelligenz als beim Menschen führen
  • Der Autor erwartet allerdings, dass Labore schon vor der vollständigen Ausreifung einer solchen Innovation unvollständige Versionen veröffentlichen würden; daher werde es Anzeichen vor dem eigentlichen großen Durchbruch beim kontinuierlichen Lernen geben

Praktische Schwierigkeiten bei Computer Use und Automatisierung

  • In Gesprächen mit Forschern von Anthropic hörte der Autor die Prognose, dass bis Ende 2026 zuverlässige Computer-Use-Agenten entstehen könnten, bleibt aber skeptisch
  • Schon heute gibt es Computer-Use-Agenten, aber in der Praxis sind sie noch ineffizient
  • Um reale Aufgaben wie Steuererklärungen zu automatisieren, braucht es mehrere Systeme, lange Agentenlaufzeiten und die Verarbeitung vielfältiger multimodaler Daten; das macht Training und Validierung sehr langsam
  • Anders als bei vorhandenen Text-Pretraining-Daten für Sprachmodelle gibt es zu wenig multimodale Datensätze für Computer Use, weshalb die Entwicklung verlässlicher Agenten Zeit brauchen dürfte
  • Selbst neu vorgeschlagene innovative Algorithmen brauchen bis zum realen Einsatz vor Ort oft jahrelange technische Anpassung, daher dürfte der Fortschritt bei Computer-Use-Aufgaben recht langsam sein

Fortschritte und Grenzen der Schlussfolgerungsfähigkeit

  • Neueste Modelle wie Gemini 2.5 zeigen tatsächlich Fähigkeiten beim Interpretieren von Sprecherintentionen, logischer Selbstüberprüfung und kontextabhängiger Reaktion
  • Dass Claude Code allein aus einer gegebenen Spezifikation schnell funktionierenden Code erzeugen kann, deutet klar auf erste Anzeichen einer rudimentären „allgemeinen Intelligenz“ in breiten Domänen hin
  • In den Domänen, in denen Spitzen-LLMs ihre Fähigkeiten entfalten, liefern sie durchaus beeindruckende Ergebnisse

Kurz- und langfristige Vorhersagen zu KI/AGI

  • Der Autor betont, dass er seine Prognosen probabilistisch versteht; deshalb seien Vorbereitungsmaßnahmen weiterhin sinnvoll
  • Auf die folgenden Punkte würde er mit 50% Wahrscheinlichkeit wetten
    • Bis 2028: KI könnte das komplette Verfahren der Steuererklärung für kleine Unternehmen vollständig abwickeln
      • Die aktuellen Computer-Use-Fähigkeiten liegen auf dem Niveau von GPT-2, und wegen Datenmangel sowie langer Zeithorizonte ist die Optimierung schwierig
      • Beeindruckende Demos wird es wohl 2026–2027 geben, aber vollständig autonome, langfristige Ausführung komplexer Aufgaben hält er weiterhin für schwer erreichbar
    • Bis 2032: KI könnte wie ein Mensch während der Arbeit natürlich und schrittweise lernen und nach einigen Monaten Einarbeitung ähnlich viel Kontext, Präferenzen und Know-how verinnerlicht haben wie ein Mensch
      • Auch wenn eine Umsetzung von Online-Continual-Learning derzeit nicht unmittelbar sichtbar ist, könnte es in sieben Jahren zu einem grundlegenden Durchbruch kommen

Begrenzende Faktoren der KI-Entwicklung und Ausblick

  • Der Zeitpunkt von AGI ist über eine sehr breite Wahrscheinlichkeitsverteilung (lognormal) verteilt, und der Fortschritt der KI hing in den letzten zehn Jahren eng mit dem Wachstum der Rechenleistung (Training Compute) zusammen
  • Das Wachstum der Rechenleistung dürfte nach 2030 an Grenzen stoßen, wodurch algorithmische Innovationen zum Engpass werden
  • Ohne einen wirklich innovativen Paradigmenwechsel könnte die jährliche Wahrscheinlichkeit für das Eintreten von AGI mit der Zeit sogar sinken
  • Wenn sich die „lange“ Wette bewahrheitet, könnte sich die Alltagswelt bis 2030–2040 gar nicht so stark verändern; wenn die heutigen Grenzen der KI jedoch überwunden werden, wären sehr radikale Veränderungen möglich

4 Kommentare

 
mirea0 2025-07-08

Ich denke, dass AGI nicht verwirklicht wird, weil es physische Grenzen bei Persistenz und Lernen gibt.
Es gibt im wahrsten Sinne des Wortes physische Beschränkungen, nicht etwa mangelnde technische Fähigkeiten.
Wenn man solche Beschränkungen nicht setzt und damit als AGI einen Schritt weitergeht, wäre es dann schwer, wieder zurückzukehren, und ich denke, auch AI-Entwickler wissen das, weshalb sie es nur dienstspezifisch weiterentwickeln und nicht versuchen, diese Beschränkungen aufzuheben.

 
iolothebard 2025-07-08

Ich stimme dir vollkommen zu!

 
GN⁺ 2025-07-07
Hacker-News-Meinungen
  • „Ich denke, ein wirklich wichtiger Punkt ist, dass LLMs das grundlegende Problem haben, mit der Zeit nicht schrittweise besser zu werden wie Menschen. Die Grundperformance von LLMs kann bei vielen Aufgaben über dem menschlichen Durchschnitt liegen, aber es gibt keinerlei Möglichkeit, dem Modell höherdimensionales Feedback zu geben, sodass es sich über den Zustand direkt nach dem Auspacken hinaus nicht verbessern kann. Ich halte das für eine typische Grenze neuronaler Netze. Systeme wie der Driver von Waymo umgehen dieses Problem. Wenn bei Waymo während des Fahrens zum Beispiel ein Problem auftritt, werden verschiedene Simulationen ausgeführt, die die Problemsituation in unterschiedlichen Varianten abwandeln, und anschließend wird der Driver erneut darauf trainiert. Die genaue Methode ist nicht öffentlich, aber es wurde erwähnt, dass es sich um eine andere Struktur als ein End-to-End-Neuronales-Netz handelt. Intern hat Waymo zwar End-to-End-Neuronale-Netze ausprobiert, diese waren aber schlechter als das aktuelle System, daher nutzt man jetzt etwas anderes, und nur sehr wenige Menschen wissen konkret, was das ist.“
    • „Auch wenn LLMs sich nicht schrittweise wie Menschen weiterentwickeln, ist wichtig, dass man ihre Fähigkeiten mit Werkzeugen wie Prolog erweitern kann. Ich denke, die nächste Phase der AI besteht darin, LLMs in die Lage zu versetzen, bessere Werkzeuge oder Strategien zu verwenden. Zum Beispiel könnte eine Architektur reifen, die logische Regeln, heuristische Algorithmen und feinabgestimmte LLM-Agenten integriert und sie als Tools für das LLM nutzbar macht. Man sollte auch beachten, dass wirtschaftlicher Druck insbesondere die Entwicklung militärischer AI beschleunigt. Mit einem Prolog-System könnte ein LLM Fakten in eine Datenbank eintragen, neue Beziehungen schlussfolgern und dabei kontinuierlich lernen. Man könnte auch Heuristiken einführen, die neue Modelle oder Verfahren für die Suche vorschlagen.“
    • „Soweit ich weiß, ist Waymo ein von Menschen zusammengesetztes System aus Heuristiken, Regeln, neuronalen Netzen und anderen Techniken. Es ist kein vollständiges End-to-End-Neuronales-Netz. Der Ausdruck AIish passt gut, aber es ist vom Design her weit von AGI entfernt.“
    • „Ich wundere mich, warum so wenige Menschen fast nie die folgende Frage stellen: Macht der aktuelle Stand der AI den Menschen nicht schon jetzt deutlich leistungsfähiger? Eine geometrisch beschleunigte Selbstverbesserung wäre eher beängstigend. Selbst wenn alles optimal läuft, werden Menschen ihren Spitzenplatz im intellektuellen Wettbewerb kaum halten können, und das wäre ein schwer zu akzeptierender Wendepunkt. Wenn man wirklich Selbstverbesserung will, muss man sich daran gewöhnen, dass Menschen selbst nutzlos werden könnten.“
    • „Wenn dich die Grenzen neuronaler Netze interessieren, schau dir den jüngsten Vortrag von John Carmack an. YouTube-Link Um die 30-Minuten-Marke geht er direkt auf dieses Problem ein.“
    • „Die Begrenzung besteht darin, dass die meisten AIs mit riesigen Datenmengen trainiert werden, sodass es lange dauert, bis das nächste große Dataset bereitsteht.“
  • „Wer sagt, AGI (Artificial General Intelligence) komme bald, ist in der Regel entweder 1. jemand, der etwas verkaufen will, 2. von seiner eigenen Geschichte berauscht, 3. aus anderen Gründen aufgedreht oder 4. sehr wahrscheinlich alles zusammen. LLMs sind vom Design her stark bei Sprache, und Textzusammenfassungen funktionieren ordentlich, aber sie sind schwach in Logik und sehr schlecht in räumlichem Schlussfolgern. Deshalb können sie Konzepte auch nicht gut miteinander verknüpfen. Wenn man ein bekanntes LLM fragt, was die schwierigste ungelöste Aufgabe über alle Fachgebiete hinweg sei, bekommt man vielleicht einen wissenschaftsmagazinartigen Artikel, aber voller subtiler und zugleich entscheidender Fehler, und die Antwort wirkt plausibel, ist in Wirklichkeit jedoch Müll.“
    • „LLMs sind letztlich nur Tools, die Trainingsdatensätze komprimieren und dann eine textbasierte Interaktions- und Suchfunktion bereitstellen.“
    • „Ich denke, der Ausdruck ‚unklar‘ ist der Kernpunkt. LLMs sind insgesamt intelligent genug, dass ich persönlich das Gefühl habe, wir seien bereits im AGI-Zeitalter angekommen, aber viele Menschen scheinen AGI wohl als ‚übermenschliche AI‘ zu verstehen. Nach diesem Maßstab haben wir es noch nicht erreicht, und wahrscheinlich wird es auch nicht leicht. Für mich ist jetzt bereits das AGI-Zeitalter.“
    • „LLMs funktionieren hervorragend in der Textwelt, die wir geschaffen haben, aber sie sind keine Wesen, die Wahrheit anstreben. Lebewesen sterben an fatalen Fehlern, AI produziert im Irrtum einfach nur Tausende Tokens weiter.“
    • „Ich stimme zu, dass fehlendes Wahrheitsstreben ein Problem von LLMs ist, aber beim Menschen sieht man das auch oft, daher klingt das für mich nicht wie eine besonders starke Kritik. Nach der ursprünglichen AGI-Definition — fast alle Aufgaben mindestens auf dem Niveau des menschlichen Medians ausführen — sind wir schon ziemlich nah dran, und innerhalb der nächsten fünf Jahre dürfte bei nicht-physischen Aufgaben Konkurrenzfähigkeit auf Expertenniveau möglich sein (für physische Aufgaben wohl eher 5–10 Jahre). Dass LLMs stark in Sprache sind, stimmt, aber ich denke, das spiegelt eben auch das Intelligenzniveau wider. Die Einschätzung, sie seien schwach im räumlichen Denken, halte ich zudem teilweise für übertrieben; sie sind schon jetzt viel besser als frühere Spezialmodelle für räumliches Schlussfolgern. Auch wenn sie dem Menschen unterlegen sind, zeigt allein die Tatsache, dass aktuelle Modelle auf Robotern real funktionieren, dass AI nach ihren eigenen Maßstäben rasant Fortschritte macht.“
    • „Meine AGI-Definition ist: Wenn eine AI bei fast allen Aufgaben besser ist als mindestens 5 % der Fachkräfte in dem jeweiligen Bereich, dann hat sie AGI erreicht. Ich halte auch die intellektuellen Fähigkeiten des unteren 5. Perzentils von Menschen noch für etwas, das man ‚Intelligenz‘ nennen kann. Wenn eine AI also über fast alle Bereiche hinweg besser ist als ein erheblicher Teil der Menschheit, sollte man sie AGI nennen. Sie müsste dabei in allen intellektuellen Aufgaben überlegen sein, nicht nur in einem einzelnen Bereich.“
  • „Ich hoffe nur, dass AGI nicht so bald kommt. Gesellschaftlich und politisch sind wir überhaupt nicht darauf vorbereitet, und im schlimmsten Fall droht der Zukunft der Menschheit eine Dystopie. Gleichzeitig wäre AI schon mit etwas geringerem Stromverbrauch und kleinen Verbesserungen in vielen Bereichen extrem nützlich, und selbst darauf ist die menschliche Gesellschaft noch nicht ausreichend vorbereitet. Das Problem ist, dass die Unternehmen, die Foundation-Modelle bauen, bisher nur wenige klare Wege haben, das hineingesteckte Geld wieder hereinzuholen; daher scheint entweder ein großer Durchbruch oder ein erzwungenes Hineindrücken von AI in viele Bereiche fast unvermeidlich.“
    • „Ich sehe das genauso und hoffe aufrichtig, dass diese Blase bald platzt. Es heißt, Meta habe 100 Milliarden Dollar in Augmented Reality investiert; der Typ da im Board wirkt wie jemand, der statt vernünftig Werbekosten zu senken immer wieder waghalsige Wetten eingeht. Jemand wie Altman hat inzwischen ebenfalls einen Weg gewählt, von dem es kein Zurück mehr gibt, und wird bei jeder Gelegenheit versuchen, so viel Geld wie möglich mitzunehmen. Uns bleibt nur zu hoffen, dass solche Leute scheitern wie damals in der Dotcom-Blase.“
    • „Viele übersehen, dass allein die Abschreibungskosten bei den Investitionen in AI schon größer sein könnten als die Summe aller Umsätze von AI-Unternehmen, und dass es sehr schwer wird, diese Fixkosten wieder hereinzuholen.“
    • „Wenn man mit einer einzigen AI eine Branche nahezu ohne Mitarbeitende vollständig ersetzen könnte, wäre die Kostendeckung aus meiner Sicht sehr einfach. Das könnte enorme Gewinne bringen.“
    • „Wenn man den Geburtenrückgang wirklich für ein ernstes Problem hält, könnte eine baldige Ankunft von AGI sogar eine Lösung sein. Wir sollten das Paradigma überdenken, wirtschaftliche Probleme nur unter der Annahme ewigen Bevölkerungswachstums lösen zu wollen.“
    • „Muss AGI der menschlichen Intelligenz genau entsprechen? Kann etwas in manchen Fähigkeiten überlegen und in anderen schwächer sein und trotzdem als AGI gelten?“
  • „Ich bin nicht einmal sicher, ob AGI überhaupt realisierbar ist, geschweige denn bald kommt. Zumindest auf traditioneller Computerhardware halte ich es für schwierig. Die Fähigkeit, Informationen schön aufbereitet zu wiederholen, reicht aus meiner Sicht nicht aus, um Intelligenz zu definieren oder zu messen. Wenn man echte künstliche Intelligenz wirklich umsetzen würde, könnte sie bei ihrer ersten Vorstellung nach menschlichen Maßstäben sehr geringe Intelligenz zeigen, aber dennoch eine echte AI sein, die ohne externe Hilfe selbst lernen kann.“
    • „Solange man nicht glaubt, dass menschliche allgemeine Intelligenz auf irgendeinem übernatürlichen, nicht messbaren Faktor beruht, halte ich die Unmöglichkeitsthese zu AGI für widerlegt. Menschen sind letztlich auch Maschinen, also sollte das Gehirn auch auf nichtbiologische Weise reproduzierbar sein. Vielleicht ist die erste AGI ein in einer Petrischale gewachsenes Gehirn mit einer Python-API, oder vielleicht ist sie siliziumbasiert.“
    • „Man sollte auch die andere Seite bedenken. Wenn Werkzeuge intelligenter werden als ich selbst, wie soll ich dann damit umgehen? Online sieht man schon Fälle, in denen ein Kollege Antworten mit chatgpt verfasst, und selbst die ursprüngliche Frage wurde womöglich ebenfalls von chatgpt erzeugt. So entsteht eine Situation, in der niemand mehr weiß, wer eigentlich was gemacht hat.“
    • „Ich denke, die Grenze der Erweiterbarkeit von Intelligenz liegt in den Rechenressourcen. Der Rechenaufwand, um ein System gut zu modellieren, steigt bei zunehmender Komplexität oder Chaos nahezu exponentiell. Daher kann die Wirkung von Intelligenz im Kern nur in einfachen und geordneten Systemen zum Tragen kommen. Die praktischste und robusteste Methode besteht darin, möglichst viele Variablen auszuschalten. Genau darin liegt letztlich die wahre Grenze von Intelligenz, ganz gleich, ob man von Superintelligenz spricht oder nicht.“
    • „Warum genau hältst du es für unmöglich?“
    • „Es gibt keine klare Definition oder Einigkeit darüber, was AGI eigentlich ist. Ich denke, wir werden auch künftig nur schrittweise Verbesserungen in den Bereichen sehen, in denen AI bereits gut ist — Text- und Bildgenerierung, Codegenerierung usw. Die Fantasie, AI werde alle Probleme aller Menschen lösen und die Menschheit werde am Strand utopischen Wohlstand genießen, hat für mich keinerlei Realitätsbasis.“
  • „Ich finde die Perspektive von Dwarkesh beeindruckend. Ich höre ihm immer gern zu, wenn er darüber spricht, wie weit die Entwicklung schon ist. Sein Kernargument lautet, dass adaptives Lernen notwendig ist, dafür aber keine Anzeichen sichtbar sind. Meine Vermutung ist, dass Frontier-Labs hoffen, das Problem mit langem Kontext zu lösen. Mit einem langen Kontext von 10 Millionen Tokens könnte man einen stabilen internen Zustand halten und viele verschiedene Aufgaben bewältigen, wobei aktuelle Modelle mit langem Kontext noch das Problem haben, dass die Qualität je nach Fenster stark schwankt. Anders gefragt: Können wir innerhalb von zwei Jahren ein nützliches Kontextfenster von mehr als 10 Millionen Tokens haben? Ich halte das für wahrscheinlich.“
    • „Es gab ein Unternehmen, das behauptete, dieses Problem gelöst zu haben, aber inzwischen hört man davon nur noch Stille.“
    • „Bei ‚langem Kontext‘ bleibt die Frage, wie lang lang genug ist. Beim Menschen umfasst der Kontext schließlich multimodale Eingaben über Jahrzehnte hinweg.“
    • „Ich glaube Demmis, wenn er sagt, dass AGI innerhalb von zehn Jahren erreicht wird. Er hat das Feld über lange Zeit geprägt, und sogar OpenAI wurde auch aus der Sorge heraus gegründet, Demmis’ Forschungstempo nicht hinterherzukommen. Ich vertraue seiner Prognose, dass um 2035 herum eine AGI auftauchen wird, die Menschen bei fast allen Aufgaben ebenbürtig oder überlegen ist.“
    • „Ich bin überzeugt, dass wir bald (<5 Jahre) echtes Test-Time-Learning einführen werden. Bei Alphaproof (Deepminds IMO-Challenge) wird diese Technik bereits eingesetzt.“
  • „Es gibt eine Statistik, wonach 54 % der US-Erwachsenen landesweit nur eine Lesekompetenz auf dem Niveau der 6. Klasse oder darunter haben. Vielleicht haben wir AGI also schon erreicht. Wikipedia-Link
    • „Ich frage mich, was das Scheitern eines Bildungssystems eines Landes mit AGI zu tun haben soll.“
    • „Guter Punkt. Dann würde ich aber auch gern sehen, wie ein LLM Wäsche wäscht und Geschirr spült. Selbst mit einem Roboterkörper wäre das nicht leicht.“
    • „Man fragt sich dann, ob lesen zu können wirklich schon die ganze Bedingung für AGI sein soll.“
    • „Aus wirtschaftlicher Sicht ist der Vergleich zwischen AGI und gewöhnlichen Arbeitskräften, die für bestimmte Aufgaben eingesetzt werden — etwa Copyediting — realistischer. Statt auf nationale Durchschnittswerte zu schauen, die faktisch kaum eingestellt werden, sollte man sich auf die Eignung für konkrete Tätigkeiten konzentrieren.“
    • „Auch Analphabeten können enorme Herausforderungen lösen, an denen LLMs scheitern.“
  • „In der Debatte über den Fortschritt von AI liegt das Problem in der Annahme, dass zukünftige AI Probleme auf dieselbe Weise lösen werde wie Menschen. Unter dieser Annahme wirkt das Fehlen kontinuierlichen Lernens wie ein fataler Mangel. Tatsächlich hat kontinuierliches Lernen in der Geschichte des Deep Learning aber nie die führende Rolle gespielt; große Datensätze und Skalierung waren der erfolgreichste Ansatz. Damit die Behauptung überzeugt, kontinuierliches Lernen sei unverzichtbar, müsste man die Grenzen taskübergreifenden Lernens und die Bereiche, die AI niemals erreichen kann, konkret benennen. Der Autor erwähnt zwar die Unsicherheit beim RL flywheel — dem Beschleunigungseffekt, wenn gute Programmier-AI wiederholt auf RL angewandt wird —, aber insgesamt wirkt der Text auf mich zu selbstsicher.“
    • „Alphaproof nutzte für jede Aufgabe AlphaZero-artiges Test-Time-Training, um ähnliche Probleme zu erzeugen.“
    • „Dass kontinuierliches Lernen in der Geschichte des Deep Learning keine wichtige Rolle gespielt hat, könnte auch daran liegen, dass die Branche ein anderes Ziel verfolgt hat. Wenn das Ziel nicht die intelligenteste AI, sondern die nützlichste und produktivste AI ist, dann kann ein Wesen, das vielleicht dümmer ist, aber aus Fehlern lernt, oft wertvoller sein als ein sturer Genius.“
  • „Aus meiner Sicht sind heutige LLMs so aufgebaut, dass sie vorhersagen, was ein Mensch wahrscheinlich sagen würde, daher bleiben auch Intelligenz und Schlussfolgerungsfähigkeit auf menschlichem Niveau. In der Breite des Wissens können sie Menschen übertreffen, aber bei Intelligenz oder Kreativität könnten sie bestenfalls gleichziehen oder darunter bleiben. AI-Unternehmen prognostizieren, dass die nächste Generation von LLMs neue Einsichten liefern und ungelöste Probleme lösen wird, aber echte Einsicht erfordert meiner Meinung nach eine interne Struktur, die Konzepte aus tieferliegenden Prinzipien frei neu erzeugen kann. LLMs können keine neue Verständnisebene aufbauen, deshalb haben sie eine Grenze. Ein System, das wie das menschliche Gehirn von Eingaben ausgehend bis zu abstraktem Verständnis Schicht für Schicht aufbaut, könnte diese Grenze vielleicht überwinden. Vielleicht taucht eines Tages ein neues AI-Paradigma auf, das LLMs übertrifft — ehrlich gesagt hoffe ich fast, dass meine Vorhersage falsch liegt, denn ASI (Artificial Superintelligence) macht mir etwas Angst.“
    • „Selbst wenn AI menschliches Leistungsniveau erreicht, könnte eine Maschine im Unterschied zum Menschen allein durch stärkere GPUs sofort zehnmal schnellere Intelligenz liefern. Schon die Geschwindigkeit selbst wäre übermenschlich, und man könnte dasselbe System mehrfach parallel laufen lassen, verschiedene Ansätze gleichzeitig erkunden und dann die beste Lösung auswählen. Bei verifizierbaren Aufgaben ist das ein gewaltiger Vorteil.“
    • „Aktuelle LLMs entwickeln sich bereits weg vom bloßen Vorhersagen menschlicher Sätze hin zum Vorhersagen von Tokens, die mit richtigen Antworten auf Mathematik- und Programmierprobleme verknüpft sind.“
  • „Die meisten Diskussionen hier sind pessimistisch gegenüber AI, dabei sagt der Autor selbst, die Wahrscheinlichkeit für AGI bis Anfang der 2030er liege bei 50 %, und man müsse sich auch darauf vorbereiten, dass ASI bis 2028 in eine falsche Richtung laufen könnte. Mit anderen Worten: Der Autor ist in Bezug auf AI eigentlich eher optimistisch.“
    • „Wenn ASI innerhalb von drei Jahren fehlgeht, wären aus meiner Sicht ohnehin alle Gegenmaßnahmen bedeutungslos.“
  • „Ich glaube, man kann aus dem jüngsten Trend, dass niemand mehr die Modellgröße offenlegt, bereits ein Signal lesen, dass das Modelltraining an eine Grenze gestoßen ist.“
 
kandk 2026-02-17

Bis jetzt schon wieder dieselbe Leier.