5 Punkte von GN⁺ 2026-03-11 | 1 Kommentare | Auf WhatsApp teilen
  • Das von dem früheren Meta-Chef-KI-Wissenschaftler Yann LeCun mitgegründete Startup Advanced Machine Intelligence (AMI) hat mehr als 1 Milliarde US-Dollar an Finanzierung eingeworben
  • AMI will ein Weltmodell (world model) entwickeln, um die physische Welt zu verstehen, und eine neue Art von KI-System aufbauen, das über Schlussfolgerungs-, Planungs- und Gedächtnisfunktionen verfügt
  • LeCun kritisiert, dass Large Language Models (LLMs) kein Intelligenzniveau auf menschlicher Ebene erreichen könnten, und argumentiert, dass Lernen auf Basis der physischen Welt der Schlüssel zu echter Intelligenz sei
  • An der Finanzierung beteiligten sich namhafte Investoren wie Bezos Expeditions, Eric Schmidt und Mark Cuban; LeCun erwähnte zudem eine mögliche Zusammenarbeit mit Meta
  • AMI setzt auf die Entwicklung von Open-Source-Technologien und plant, künftig ein universelles Weltmodell aufzubauen, das branchenübergreifend eingesetzt werden kann

Gründung von AMI und Finanzierung

  • Advanced Machine Intelligence (AMI) ist ein in Paris ansässiges Startup, das Yann LeCun nach seinem Ausscheiden bei Meta mitgegründet hat
    • LeCun leitete das Fundamental AI Research (FAIR)-Labor von Meta und verließ das Unternehmen im November 2025
  • In dieser Finanzierungsrunde sicherte sich das Unternehmen mehr als 1 Milliarde US-Dollar; die Bewertung liegt bei 3,5 Milliarden US-Dollar
    • Zu den wichtigsten Investoren zählen Cathay Innovation, Greycroft, Hiro Capital, HV Capital und Bezos Expeditions
    • Auch Mark Cuban, Eric Schmidt und Xavier Niel beteiligten sich
  • Neben Paris will AMI weltweit operieren und Büros in Montreal, Singapur und New York unterhalten

LeCuns KI-Philosophie und Kritik an LLMs

  • LeCun betont, dass menschliches Denken auf Erfahrungen in der physischen Welt und nicht auf Sprache basiert
    • Er sagte, die Vorstellung, dass man durch Skalierung von LLMs Intelligenz auf menschlichem Niveau erreichen könne, sei „eine völlige Illusion“
  • Er erkennt zwar die Fähigkeit von LLMs zur Code-Generierung an, weist jedoch darauf hin, dass dies nicht zu menschenähnlicher Intelligenz führe
  • LeCun betrieb bei Meta Forschung an Weltmodellen wie der Joint-Embedding Predictive Architecture (JEPA),
    entschied sich jedoch zur Unabhängigkeit, als Meta auf eine LLM-zentrierte Strategie umschwenkte
    • Er erklärte, man könne dies „von außen schneller, günstiger und effizienter entwickeln“

Technische Ziele von AMI und industrielle Anwendung

  • AMI will KI-Systeme mit kontinuierlichem Gedächtnis, Schlussfolgerungs- und Planungsfähigkeit entwickeln
    • Ziel ist eine „kontrollierbare und sichere KI“
  • Als erste Partnerunternehmen werden Toyota und Samsung genannt
    • Als Beispiel wurde genannt, ein Weltmodell für Flugzeugtriebwerke aufzubauen, um Effizienz und Zuverlässigkeit zu verbessern
  • Langfristig plant AMI die Entwicklung eines universellen Weltmodells (universal world model) für den branchenweiten Einsatz

Das Gründerteam

  • Zu den Mitgründern neben LeCun gehören mehrere ehemalige Meta-Führungskräfte
    • Michael Rabbat (ehemaliger Director of Research Science), Laurent Solly (ehemaliger Europa-Vizepräsident), Pascale Fung (ehemalige Director of AI Research)
    • Alexandre LeBrun (ehemaliger CEO von Nabla) ist CEO von AMI, Saining Xie (ehemaliger Forscher bei Google DeepMind) übernimmt die Rolle des Chief Scientific Officer (CSO)

Open Source und die Debatte über KI-Kontrolle

  • LeCun betonte, dass KI nicht von einzelnen Unternehmen monopolisiert werden dürfe, und hob daher den Fokus auf Open-Source-Entwicklung hervor
    • Er verwies auf einen jüngsten Vorfall, bei dem das US-Verteidigungsministerium Anthropic auf eine Blacklist gesetzt habe, und sprach damit die Debatte um die Kontrolle über KI an
  • Er sagte, dass über „gut“ und „böse“ bei KI nicht Einzelne, sondern demokratische Verfahren entscheiden sollten
    • Er erwähnte, dass Convolutional Neural Networks (CNNs), zu deren Entwicklung er beigetragen hatte, in der Vergangenheit in Überwachungssystemen einiger Staaten eingesetzt wurden
  • Zur militärischen Nutzung von KI erklärte er, dass es früher zwar Bewegungen zum Verbot autonomer Waffen gegeben habe, sich die Technik heute aber auch zu defensiven Zwecken weiterentwickelt habe, etwa beim Einsatz autonomer Drohnen in der Ukraine

Ausblick

  • AMI will sein erstes KI-Modell so bald wie möglich veröffentlichen, rechnet anfangs jedoch nicht mit großer öffentlicher Aufmerksamkeit
  • Durch die Zusammenarbeit mit Industriepartnern soll der Anwendungsbereich der Technologie erweitert und langfristig ein System allgemeiner Intelligenz entwickelt werden
  • LeCun schloss mit einem Lächeln und nannte dies „einen sehr ehrgeizigen Plan“

1 Kommentare

 
GN⁺ 2026-03-11
Hacker-News-Kommentare
  • Weltmodelle haben deutlich mehr Freiheitsgrade.
    LLMs lernen im Kern nur aus statischem Text, also aus Sprachdaten, mit denen Menschen die Welt beschrieben haben, und lernen daher nicht direkt aus der realen Welt.
    Deshalb können sie bestehende Ideen zwar neu kombinieren, aber echte kreative Entdeckungen oder Erfindungen sind nahezu unmöglich.
    Wenn ein Startup auftaucht, das ein raumzeitliches Verständnis auf Grundlage der physischen Welt lernt, wäre das ein Versuch, den echten Flaschenhals auf dem Weg zu AGI zu lösen.
    Selbst wenn es nur teilweise erfolgreich ist, könnte es Generalisierung und Kreativität eröffnen, die heutige LLMs strukturell nicht erreichen können.

    • Ich kann diese Sichtweise nicht nachvollziehen.
      Der Flaschenhals für AGI liegt meiner Ansicht nach bei kontinuierlichem Lernen und Backpropagation.
      Das menschliche Gehirn lernt nicht per Backpropagation, und auch Weltmodelle unterscheiden sich letztlich nicht grundlegend von den Deep-Learning-Strukturen, die wir bereits kennen.
      Wenn „aus der Welt zu lernen“ der Flaschenhals ist, dann kann man visuell-handlungsfähige LLMs einfach in einer Reinforcement-Learning-Schleife mit Robotern oder Simulationsumgebungen laufen lassen.
    • Ich denke, dass allein das angesammelte Wissen der Menschheit ausreicht, um genügend innovative Ideen hervorzubringen.
      Nicht jedes Feld interagiert direkt mit der physischen Welt, und selbst nur mit Informationen aus der bereits aufgezeichneten Geschichte lassen sich virtuelle Simulationen bauen, in denen 3D-Physikgesetze gelten.
      Was heutigen LLMs fehlt, ist intrinsische Motivation — die Fähigkeit, selbst zu denken, zu reflektieren und sich selbst zu korrigieren.
      Auch ich erschaffe unter den Grenzen von Gedächtnis und Aufmerksamkeit, aber wenn ich mich mit einer KI austausche, komme ich auf neue Ideen.
      Letztlich ist auch menschliches Denken nur eine Kombination des Gelernten, und KI ist dessen Fortsetzung.
    • LLMs operieren im Bereich von Sprache und Symbolen, aber Menschen lernen viel auch aus unmittelbarer Erfahrung, die nicht versprachlicht ist.
      Nach einem Vortrag von Yann LeCun erleben menschliche Babys in ihren ersten Lebensjahren weit mehr sensorische Daten als die Datenmenge, auf der LLMs trainieren.
      Ich halte das für eine grundlegende Grenze sprachbasierter Modelle.
    • Zynisch betrachtet wirkt das einfach wie ein Fall von Geld, das Geld hinterherläuft.
      LeCun ist ein hervorragender Verkäufer, aber selbst wenn er scheitert, wird ihn die Gesellschaft auffangen.
      Ehrlich gesagt empfinde ich deshalb keinen besonderen Respekt.
    • LeCun hat sich die letzten zehn Jahre über Gary Marcus lustig gemacht und scheint nun bei dessen Position angekommen zu sein.
      Tenenbaum erforscht Weltmodelle schon seit Langem, aber Menschen aus der Venture-Szene kennen solche Forschungsströmungen oft nicht gut.
      Deshalb lassen sie sich leicht als Investmentstory nutzen.
  • Als ich im vergangenen August mit Yann zu Mittag gegessen habe, sagte er, dass er darüber nachdenkt, Meta zu verlassen.
    Ich habe ihm geraten, nicht länger die Träume anderer zu unterstützen, sondern seine eigene Firma zu gründen.
    Ich stimme seiner Ansicht zu, dass LLMs nicht zu Intelligenz auf menschlichem Niveau führen, bin mir aber nicht sicher, ob die Weltmodell-Strategie die richtige Antwort ist.

    • Mich würde konkret interessieren, welche Strategie du für den besseren Weg hältst.
  • Am Ende kommt es also doch in Form eines Startups.
    Persönlich hätte ich ein Institutsmodell wie Mila für passender gehalten.
    Trotzdem sprechen LeCuns Karriere und seine Antwort auf X für sich.
    Ich frage mich, wie damit Geld verdient werden soll, wünsche ihm aber Erfolg.
    Historisch bedeutende Forschung kam immer aus stabilen Forschungslaboren großer Unternehmen — Bell Labs, IBM Research, Xerox PARC, MSR usw.

  • An Yanns Einfluss besteht kein Zweifel, aber selbst mit enormen Ressourcen bei Meta gab es keine besonders auffälligen Ergebnisse.
    Der Ansatz, die Welt über Video zu verstehen, wird bereits von Seedance, Kling, Sora und ähnlichen Videomodellen verfolgt.
    Deshalb ist mir nicht klar, wie anders dieser Versuch wirklich ist.

    • Die Einschätzung „Von Meta kam nichts“ ist unfair.
      Meta hat viel Forschung auf Weltklasseniveau veröffentlicht und auch große Open-Source-Beiträge geleistet.
      Zum Beispiel enthält das Paper Beyond Language Modeling: An Exploration of Multimodal Pretraining Einsichten auf Basis groß angelegter Experimente.
      Ich denke, LeCun hat seine Rolle als Forschungsleiter hervorragend erfüllt, nicht als Produktverantwortlicher.
    • Die meisten Wissenschaftler liefern keine Forschung, die die Welt erschüttert; deshalb ihre Meinung zu ignorieren, wäre falsch.
      Wissenschaft ist kein Wettbewerbsmarkt.
      Und das Wort „verstehen“ trägt viel zu viele Bedeutungen in sich — die Modelle wiederholen weiterhin dieselben Fehler.
    • Viele Ressourcen führen nicht immer zu den besten Ergebnissen.
      Manchmal sind Leidenschaft und Freiheit die wichtigeren Antriebe.
    • Einer der Gründe, warum LeCun Meta verlassen hat, soll gewesen sein, dass sich das Unternehmen nur noch auf LLMs konzentrierte.
      Er glaubt, dass LLMs nicht der Weg zu AGI sind.
    • Vielleicht ist es einfach ein zu schwieriges Problem.
  • Yann LeCun gründet das Weltmodell-Startup AMI (Amilabs) und strebt eine Unternehmensbewertung von über 5 Milliarden Dollar an.
    Als CEO soll LeBrun geholt worden sein, als CFO LeFunde und für Post-Processing LeTune.
    Siehe TechCrunch-Artikel

    • LeFunde für den Fonds und LeTune fürs Fine-Tuning — die Namen sind schon fast zu perfekt.
    • Man hätte es einfach LeLabs nennen sollen.
    • Es wirkt, als würden die Namen-Schicksalsgläubigen (nominative determinists) inzwischen die Welt beherrschen.
    • Die Hiring-Policy klingt so konsequent, dass sie schon wie ein Witz wirkt.
  • Auch zeitlich passt das gut.
    Die Welt ist zu stark auf LLMs fixiert, daher sollte die Forschung an anderen Modellformen weitergehen.
    Außerdem hoffe ich, dass dies dazu beiträgt, Europa als attraktives Umfeld für KI-Forschung zu etablieren.

  • Ob man LeCuns Sicht teilt oder nicht, ich halte das für eine gute Sache für Europa.
    Es braucht ein forschungsstarkes Institut mit ausreichend Kapital als Gegengewicht zu den von den USA und China dominierten KI-Ökosystemen.
    Mistral hat sich in Richtung Integration und Consulting bewegt, wodurch an der Forschungsfront eine Lücke entstanden ist.

    • Der technische Ansatz von AMI wird wahrscheinlich auf JEPA basieren.
      Wenn man LeCuns Vision Paper A Path Towards Autonomous Machine Intelligence liest, wird seine Vorstellung recht klar.
      JEPA ist auch für Startups eine durchaus machbare Struktur, und selbst unser Dreier-Startup hat JEPA mit medizinischen Zeitreihendaten trainiert.
      Europa braucht auch eine solche unabhängige Forschungslinie.
    • Laut einigen Berichten soll der Hauptsitz in Singapur entstehen.
      Straits-Times-Artikel
    • Ich persönlich mag Mistral nach wie vor.
      Preis-Leistungs-Verhältnis und Performance sind stark, und für sprachbezogene Aufgaben ist es hervorragend.
    • Ich habe als Investor einen kleinen Betrag hineingesteckt, denke aber, dass LeCun wohl an seiner eigenen Philosophie festhalten wird.
      Falls seine Sicht stimmt, wäre das ein großer Gewinn für Europa; falls nicht, wäre es einfach ein Nullsummen-Investment.
      Trotzdem gibt es mit Videodaten viele unerschlossene Ressourcen, daher hoffe ich auf gute Ergebnisse.
    • Ob man glaubt, dass LeCun recht hat, hängt direkt damit zusammen, ob man dieses Vorhaben für gut für Europa hält.
      Wenn man meint, dass LLMs bereits ausreichen und RSI (Recursive Self-Improvement) kurz bevorsteht, dann ist das hier eher nur Ablenkung.
  • FT-Artikel-Link

    • Der Link funktioniert nicht. Die Original-URL ist doppelt enthalten, wodurch eine Redirect-Schleife entsteht.
  • Ehrlich gesagt verstehe ich den Weltmodell-Boom noch immer nicht.
    Seit Jahrzehnten gibt es dazu nur Theorie, während LLMs die Industrie tatsächlich verändert haben.
    Und trotzdem sagen die Leute weiter: „LLMs sind es nicht, das Eigentliche sind Weltmodelle.“

    • Ich denke letztlich, dass LLMs und Weltmodelle zusammenwachsen werden.
      Weltmodelle sagen die Zukunft voraus, und LLMs können auch darauf trainiert werden, Bild-Token vorherzusagen.
      Das kann ein sehr starkes Trainingssignal sein.
    • Der Begriff „Weltmodell“ wird viel zu unterschiedlich verwendet.
      Auch die internen Repräsentationen, die ein LLM beim Training bildet, kann man in gewissem Sinn als Weltmodell betrachten.
      LLMs ähneln jedoch eher einer Reproduktionstechnik und es fehlt ihnen an echtem Lernen oder Kreativität.
      Der Ansatz tierischer Intelligenz dagegen sagt Veränderungen in der realen Welt voraus und korrigiert sich anhand von Feedback selbst.
      Das ist also eine realitätsbasierte Lernstruktur, die Halluzinationen verringern und zielgerichtetes Verhalten planen kann.
      In diesem Sinn ist ein „Weltmodell“ nicht nur eine einfache interne Repräsentation, sondern ein verhaltensbasiertes Modell, das durch Interaktion mit der Welt lernt.
  • In der von den USA dominierten KI-Konkurrenz wirkt eine solche neue europäische Herausforderung erfrischend.
    Die bestehenden Modelle haben im Wettbewerb meist nur einander kopiert; echte Innovation war eher selten.