7 Punkte von GN⁺ 2025-09-15 | Noch keine Kommentare. | Auf WhatsApp teilen
  • In diesem Jahr geben die vier globalen Big-Tech-Unternehmen 344 Milliarden US-Dollar für KI aus und investieren den Großteil davon in Rechenzentren zum Training und Betrieb von Large Language Models (LLMs)
  • LLMs haben sich bereits durchgesetzt – mehr als 700 Millionen Menschen nutzen ChatGPT jede Woche –, doch das Entwicklungstempo verlangsamt sich und Grenzen wie Halluzinationen, hohe Kosten und nur geringe Leistungsverbesserungen werden sichtbar
  • Das chinesische Unternehmen DeepSeek überraschte den Markt mit einem kleineren und effizienteren Modell, während Firmen wie Covariant (Robotik) und Atman Labs (nicht auf Deep Learning basierender Ansatz) auf die physische Welt reagierende KI erforschen
  • Jüngste Forschung zeigt, dass die soziale Schlussfolgerungsfähigkeit von LLMs von wenigen Merkmalen abhängt und schon bei kleinen Änderungen anfällig ist; auch OpenAI räumte die Möglichkeit eines Versagens von Schutzmechanismen für vulnerable Gruppen ein
  • Experten kritisieren LLMs als bloße „Token-Generatoren“ und warnen, dass die Fixierung auf eine einzige Technologie die Marktinstabilität erhöhen kann, weshalb man sich auf das Aufkommen neuer Ansätze vorbereiten sollte

Riesige KI-Investitionen und der Fokus auf LLMs

  • Jeder Investor weiß, dass man nicht „alle Eier in einen Korb legen“ sollte – warum setzt das Silicon Valley also nur auf einen einzigen Weg, künstliche Intelligenz (KI) zu entwickeln?
  • Die vier größten Technologieunternehmen der Welt investieren 2025 344 Milliarden US-Dollar in KI und konzentrieren sich dabei vor allem auf den Bau von Rechenzentren für das Training und den Betrieb von Large Language Models (LLMs)
  • LLMs verarbeiten multimodale Eingaben wie Text, Audio und visuelle Inhalte und basieren auf der Technik der Vorhersage des nächsten Tokens in einer Sequenz
  • Persönliche Chatbots wachsen schnell, einige KI-Startups erzielen bereits Gewinne und Unternehmen steigern mit generativer KI erste Produktivitätswerte
  • LLMs sind die erste KI-Technologie, die den Mainstream erreicht hat; ChatGPT hat wöchentlich mehr als 700 Millionen Nutzer
  • Einige Startups haben den Break-even erreicht, doch in sensiblen Bereichen wie Medizin und Rechtswesen bleibt die Vertrauenswürdigkeit wegen Halluzinationen begrenzt

Das Risiko der Fixierung auf eine einzige Technologie

  • Sich auf eine einzige Technologie zu konzentrieren, ist jedoch riskant; frühere Fehlschläge zeigen das, etwa BlackBerry, das an physischen Tastaturen festhielt und von Apples Touchscreen verdrängt wurde, oder Yahoo, dessen Wette auf das Portalmodell von Googles Suchdominanz überholt wurde
  • Auch LLMs könnten denselben Weg gehen; falls neue KI-Ansätze auftauchen, droht den massiven Investitionen das Risiko zu stranden
  • Das chinesische Unternehmen DeepSeek bewies im Januar mit einem kleineren, effizienteren LLM und einer offenen Architektur die Möglichkeit unkonventioneller Ansätze und überraschte damit den Markt

Die Suche nach alternativen Ansätzen

  • KI-Fortschritt entsteht durch die Verbindung früherer Einsichten mit neuen Ideen, und auch das Streben nach superintelligenten Maschinen erfordert einen vielfältigen Ansatz
  • Startups wie Covariant entwickeln Software für räumliche Wahrnehmung, statt nur Datenmuster zu analysieren, und entfernen sich damit vom LLM-Zentrum
  • Unternehmen aus Robotik, Drohnen, Wirkstoffforschung und Klimamodellierung benötigen physische Reaktionen in Echtzeit und entfernen sich daher vom LLM-Fokus
  • Das britische Unternehmen Atman Labs gräbt vergessene Ideen aus der Zeit vor dem Deep Learning wieder aus und spiegelt damit den frühen Multi-Track-Ansatz von Google DeepMind wider (z. B. AlphaGo, Reinforcement Learning)

Grenzen von LLMs und Vertrauensprobleme

  • Inzwischen zeigen sich Risse in der Logik der Large Language Models: von extrem hohen Kosten bis hin zur Aussicht auf sinkende Erträge
  • Die neuesten Modelle von OpenAI oder Google sind nur geringfügig besser als ihre Vorgänger – selbst dann, wenn noch mehr Geld hineingesteckt wird
  • Dennoch verschwinden Halluzinationen nicht und bleiben ein Hindernis für den Einsatz in Unternehmen etwa bei medizinischen oder juristischen Analysen
  • Eine aktuelle Nature-Studie zeigt, dass die soziale Schlussfolgerungsfähigkeit von Sprachmodellen von einer sehr kleinen Zahl von Merkmalen abhängt und schon bei kleinen Veränderungen zusammenbrechen kann, was grundlegende Fragen zur Zuverlässigkeit aufwirft
  • OpenAI räumte ein, dass bei langen Gesprächen Schutzmechanismen für vulnerable Gruppen zusammenbrechen könnten; tatsächlich kam es zu einem Vorfall, bei dem einem Jugendlichen Anweisungen zur Selbstverletzung gegeben wurden

Kritik aus der Branche und Ausblick

  • Fei-Fei Li: „In der Natur gibt es keine Sprache, und die Welt folgt physikalischen Gesetzen“ – ein Hinweis auf die Grenzen eines sprachzentrierten Ansatzes
  • Alex Karp (Palantir-CEO): „Das Silicon Valley hat LLMs überhypt“
  • Yann LeCun: LLMs seien eine „Sackgasse“ auf dem Weg zu intelligenteren Maschinen, nicht mehr als „Token-Generatoren“, die weder ihre physische Umgebung verstehen noch vorausplanen können
  • Fazit: LLMs werden bleiben, doch an einer einzigen Lösung festzuhalten, ist riskant; Investoren und Unternehmen sollten sich auf die Möglichkeit eines neuen technologischen Paradigmenwechsels vorbereiten

Noch keine Kommentare.

Noch keine Kommentare.