10 Punkte von GN⁺ 2025-02-19 | 12 Kommentare | Auf WhatsApp teilen
  • Es ist mehr als zwei Jahre her, seit ChatGPT veröffentlicht wurde, und Large Language Models (LLMs) haben sich von einem innovativen Konzept zu einem der größten Betrugsfälle des 21. Jahrhunderts entwickelt
  • Sam Altman, CEO von OpenAI, hat diese Blase aufgepumpt, um LLMs an eine Wirtschaft zu verkaufen, die Arbeit ausbeuten oder ersetzen will
  • LLMs haben zwar Anwendungsfälle etwa beim Coden oder bei der Suche, aber nur weil einige Menschen LLM-basierte Software nutzen, ist das noch kein Beleg dafür, dass Generative AI nachhaltig ist oder eine echte Billionen-Dollar-Industrie darstellt
  • Diese Gespräche sind inzwischen so ermüdend, dass ich ein paar Erwiderungen aufschreibe, damit ich sie nicht noch einmal führen muss
  • „Ed“ bezieht sich auf den Autor selbst, Edward Zitron

„Ed, es gibt viele Arten von künstlicher Intelligenz“

  • „Das weiß ich bereits“ Ich spreche gerade über „Generative AI“

„Ed, ChatGPT hat 300 Millionen Nutzer. Beweist das nicht ausreichend, dass die Industrie real ist?“

  • „Viele Nutzer garantieren nicht die Nachhaltigkeit eines realen Marktes“ Durch die Berichterstattung zahlloser Medien wurde ChatGPT übermäßig hervorgehoben, und es gibt offene Fragen, die mit den tatsächlichen Statistiken kollidieren
  • „Ob 3 Millionen oder 300 Millionen, diese Zahl allein beweist gar nichts“ 300 Millionen Nutzer sind lediglich das, was passieren kann, wenn das meistdiskutierte Produkt kostenlos offen zugänglich ist
  • „Wenn man konkrete Kennzahlen wie die Conversion von monatlichen Nutzern zu zahlenden Kunden betrachtet, ist die Wahrscheinlichkeit sogar hoch, dass die Wirtschaftlichkeit schwach ist“ Deshalb ist es schwer, reinen Nutzerzahlen blind zu vertrauen

„Ed, ChatGPT ist noch ganz am Anfang. Wird es nicht besser, wenn man wartet?“

  • „Es sind bereits über zwei Jahre vergangen, in denen enorme Investitionen und Aufmerksamkeit hineingeflossen sind“ Auch die Forschung auf Basis von Transformern läuft seit 2017, und es wurden bereits Milliarden Dollar hineingepumpt
  • „Trotzdem gibt es noch immer keine wirkliche Killer-App“ Es gibt noch keinen unmittelbaren und breit einsetzbaren Anwendungsfall wie bei Cloud Computing oder Smartphones
  • „Obwohl kaum ein Startup jemals so viel öffentliche Aufmerksamkeit bekommen hat, fehlt es an klaren Ergebnissen“ Mehr als zwei Jahre lang konzentrierten sich Investitionen und PR darauf, aber ein Produkt, das wirklich alle nutzen müssen, ist noch nicht zu sehen

„Ed, ChatGPT ist der iPhone-Moment der Generativen KI. Ist das nicht vielleicht der größte Software-Launch der Geschichte?“

  • „Das iPhone hat die Konzepte von Mobiltelefon und Computer umgekrempelt, ChatGPT aber nicht“ Anders als die weitreichende neue Industrie, die das iPhone hervorgebracht hat, sind keine unverzichtbaren Services zu erkennen, die durch Generative AI entstanden wären
  • „Wenn ChatGPT morgen verschwinden würde, hätte das große Auswirkungen auf den Alltag?“ Der Autor meint, dass die Folgen für „die meisten Menschen“ gering wären
  • „Auch Microsofts ‚AI-Umsatz‘ ist keine tatsächliche Gewinnzahl, sondern eine umfassende und vage Zusammenrechnung“ Die großen Tech-Konzerne stellen zwar AI in den Vordergrund, aber das führt bislang weder zu klaren Gewinnen noch zu einer branchenweiten Innovation

„Ed, wird dieses Problem am Ende nicht irgendwann gelöst werden?“

  • „Ich würde gern wissen, wann genau es gelöst werden soll“ Sowohl OpenAI als auch Anthropic verbrennen jedes Jahr zig Milliarden Dollar, ohne ein klares Modell zur Erwirtschaftung von Gewinnen zu haben
  • „Ihre Behauptungen (‚Die Kosten werden bald sinken‘, ‚In ein paar Jahren schreiben wir schwarze Zahlen‘) sind letztlich nur interne Unternehmensprognosen“ Ein konkreter Lösungsweg ist praktisch nicht erkennbar
  • „Es ist fraglich, ob Anthropic und OpenAI weiterhin in dieser Form Geld verbrennen und dabei ihre Zukunft verpfänden können“

„Ed, was genau tun wir hier eigentlich?“

  • „OpenAI und Anthropic melden gleichzeitig gewaltige Verluste und sagen trotzdem, sie würden etwa 2027 profitabel werden“ Dafür fehlt jedoch eine belastbare Grundlage
  • „Dario Amodei (Anthropic) behauptet, 2027 werde alles möglich sein, aber der konkrete Weg dorthin bleibt unklar“ Der Autor hält das für übermäßigen Optimismus
  • „Unterlagen der Unternehmen legen nahe, dass Bereiche wie API-Umsatz der Kern seien, aber es ist fraglich, ob sich damit zig Milliarden Dollar decken lassen“
  • Kurz gesagt wird die grundlegende Frage gestellt, „ob die Generative-AI-Industrie wirklich nachhaltig und bedeutsam ist“

„Ed, was machen diese Idioten da eigentlich wirklich?“

  • „Alle klammern sich an fortgeschrittene Funktionen wie Reasoning-Modelle und Chain-of-thought, aber ob das zu einem echten Umbruch führt, ist fraglich“ Mit Open-Source-Modellen wie DeepSeek wird der Wettbewerb noch härter
  • „OpenAIs neue Funktion ‚Deep Research‘ durchsucht das Web und erstellt Berichte, doch die Vertrauenswürdigkeit der Quellen ist gering, und es wird oft nur wiederholt zitiert, sodass der praktische Nutzen schwach ist“ Insgesamt ist es schwer, das als echte ‚Forschung‘ zu betrachten
  • „Diese Generative-AI-Produkte sind insgesamt schwergewichtig und teuer und erzeugen letztlich nur lange, geschniegelt wirkende ‚Ergebnisse‘“ Als echte ‚Forschung‘ taugt das kaum

„Ed, ich habe das Gefühl, ich werde verrückt“

  • „Zahlreiche Medien und Investoren sprechen so, als würde Generative AI bald alles umkrempeln, aber das Produktniveau ist in Wirklichkeit flach und die Umsätze minimal“
  • „CEOs von Unternehmen machen Angst damit, dass AI Arbeitsplätze ersetzen werde, aber belastbare Belege dafür sind schwach“ Es wirkt eher wie Übertreibung zur Stützung des Aktienkurses
  • „Wenn diese Blase platzt, wird der Schock größer sein als bei der Dotcom-Blase“ Die Behauptung lautet, dass nur Nebenwirkungen wie gigantische Investitionen, die Verschwendung von Umwelt- und Infrastrukturressourcen und die Unsicherheit von Arbeitsplätzen wachsen
  • „Man fragt sich wirklich, ob das die Zukunft ist oder ein gewaltiges Täuschungsmanöver“
    • Eine tatsächliche und bedeutsame „Killer-App“ ist noch immer nicht in Sicht, und auch die Unternehmen tragen enorme Kosten und schreiben Verluste
    • Im Vergleich zu Medienberichten und Unternehmenswerbung ist der tatsächlich spürbare Wert nicht besonders groß, und auch an der langfristigen Nachhaltigkeit werden Zweifel geäußert
    • Insgesamt bewertet der Autor den aktuellen Markt für Generative AI eher als einen „Con“ als als etwas Tragfähiges

12 Kommentare

 
ifmkl 2025-02-20

Wenn man Inferenzmodelle richtig einsetzt, sind sie enorm leistungsfähig … Sie erstellen selbstständig Testfälle, führen sie aus und schlagen Optimierungsmethoden vor, die man dann einbaut — wirklich unglaublich.

 
dicebattle 2025-02-20

In meinem Fall hat das die Art und Weise, wie ich nach Unbekanntem suche und lerne, komplett auf den Kopf gestellt, und ich arbeite nicht nur beim Programmieren, sondern auch dabei, die technische Richtung eines Projekts festzulegen, in einer völlig anderen Geschwindigkeit und auf eine völlig andere Weise als noch vor sechs Monaten. Von der Produktivitätssteigerung ganz zu schweigen.

Selbst ich, der noch vor kaum einem Jahr beim Anblick von Menschen in meinem Umfeld, die blind an von KI erzeugten Code glaubten, innerlich ungefähr 200 Fragezeichen hatte, bin von den jüngsten Veränderungen wirklich schockiert.
Andersherum gesagt: Im Vergleich zu KI ist eher das Smartphone bloß ein Telefon mit angeheftetem Webbrowser, oder was ist schon dabei?

 
hhcrux 2025-02-20

Wenn man es selbst ausprobiert, fühlt es sich tatsächlich manchmal ein bisschen wie bei einer Wahrsagerin an.
Wer zufällig ein gutes Ergebnis bekommt, ist begeistert und wirbt überall dafür, und die vielen, die unbefriedigende oder sogar komplett falsche Antworten erhalten haben, gehen dann einfach darüber hinweg nach dem Motto: Na ja, so weit ist es eben noch nicht …

 
savvykang 2025-02-19

Selbst wenn man Gefühle und Reaktionen beiseitelässt, die von Hype und FOMO ermüdet zu sein scheinen, denke ich, dass es durchaus genügend Denkanstöße dafür gibt, wie man mit neuen Technologien umgehen sollte.

  1. AI unterscheiden: Algorithmus/Logik, Machine Learning, Natural Language Processing, Generierung von Text/Bild/Video/Sprache
  2. Nachhaltigkeit der AI-Branche
  3. Kosteneffizienz und erwarteter Nutzen aus Sicht der AI-Nutzer
 
savvykang 2025-02-19

Ich musste an einen Artikel denken, der das Zeitbild der 1980er bis 1990er Jahre dokumentiert, als Automatisierungstechnik beim Waschen eingeführt wurde, und zitiere ihn ergänzend.

> Heutzutage, wo man selbst Smartphones voller vollautomatischer Funktionen nicht mehr mit dem Zusatz „Computer“ bezeichnet, hätte man wohl einfach von einem vollautomatischen Waschautomaten gesprochen. Damals jedoch gab es offenbar kein anderes Wort als „Computer“, um die Automatisierung des Waschens anschaulich auszudrücken. Dieses Verständnis teilten Wäschereibesitzer, Verbraucher und auch die Werbung.

> Über dieses Phänomen hieß es in einer Kolumne der Zeitung Hankyoreh vom 27. November 1991 mit dem Titel „Patienten des Alleskönners Computer“ auch: „Mit dem Computer-Boom in unserem Land ist inzwischen sogar eine Zeit gekommen, in der selbst Wäschereien ‚Computerwäsche‘ anschreiben müssen, damit das Geschäft läuft.“

https://m.imaeil.com/page/view/2019101522053521827

 
gooksangom6394 2025-02-19

Ach so, deshalb gab es also Läden mit Namen wie „Computerwäsche-Reinigung“. Lustig.

 
dbs0829 2025-02-19

Einigen Punkten stimme ich zu, und ich denke auch, dass manches übertrieben ist, aber der Text wirkt viel zu aggressiv. Es fühlt sich an, als stünde die Antwort schon fest und die Argumentation werde nur noch darauf aufgebaut.

 
xguru 2025-02-19

> Ed spricht manchmal gute Punkte an, aber er ist sehr wütend auf Big Tech, und seine Wut stört oft die Botschaft

Behaltet diesen Satz im Hinterkopf, wenn ihr euch den Kommentar unten auf Hacker News anschaut. Haha.
Wenn ich mir die heutigen Entwicklungstools ansehe, denke ich aus Entwicklersicht, dass es bereits genug Killer-Apps gibt. Aus der Sicht von Nicht-Entwicklern kann ich aber auch verstehen, dass man das anders wahrnimmt.

 
youknowone 2025-02-19

Es ist bedauerlich, ausgerechnet jetzt, wo die Sonne aufgeht und die Dämmerung hereinbricht, einen Text zu lesen, der fragt, was daran besser sei als eine Lampe.

Wenn ich dem Autor in einem Punkt zustimmen würde, dann darin: Ich würde weder auf einen Sieg von OpenAI noch von Anthropic noch von xAI noch von Google oder MS wetten. Ob irgendein Unternehmen Geld verdienen wird oder nicht, ist äußerst ungewiss.

Aber dass die Produktivität aller geistigen Arbeit in den kommenden Jahren sprunghaft steigen wird, lässt sich offensichtlich nicht aufhalten. Ob das auf lokalen Geräten laufen wird oder auf entfernten Servern, ob es kostenlos funktioniert oder kostenpflichtig ist, wissen wir nicht. Doch selbst wenn alle heutigen AI-Unternehmen daran scheitern sollten, Gewinne zu erzielen, und zu Verlierern werden, verschwindet die Veränderung der Welt durch das von ihnen investierte Kapital nicht. Ob sie 2027 schwarze Zahlen schreiben oder insolvent gehen, die Welt verändert sich.

 
ethanhur 2025-02-19

Das ist ein Kommentar, dem ich sehr zustimme. Ich bin inzwischen an einem Punkt, an dem ich ohne Cursor nicht mehr entwickeln kann.

Trotzdem halte ich das Problem der Kosteneffizienz bei KI nach wie vor für erheblich, daher wette auch ich nicht auf den Sieg irgendeines Unternehmens.

 
huiya 2025-02-19

Puh, ich bin inzwischen an dem Punkt, an dem ich ohne AI nicht mehr entwickeln kann....

 
GN⁺ 2025-02-19
Hacker-News-Kommentare
  • Wenn mein Android oder iPhone verschwinden würde, hätte ich das Gefühl, als würde ich ein Jahrhundert in die Vergangenheit reisen. Wenn die Google-Suche verschwinden würde, könnte ich nicht mehr arbeiten. Wenn die Cloud verschwinden würde, könnte ich keine Apps mehr bauen. Außer in die Bibliothek zu gehen, gäbe es keine Lösung.

    • Wenn Ableger wie ChatGPT oder Copilot verschwinden würden, wäre das leicht unbequem. Ich würde die Dokumentation lesen, den Code etwas langsamer schreiben und weitermachen. Tatsächlich habe ich das schon mehrfach so gemacht (Copilot with GPT-3.5, Cursor, Copilot with GPT-4, Zed with Claude usw.).
    • Wenn man lange genug im Silicon Valley war, hat man mehrere Hype-Zyklen erlebt. AI ist der jüngste Zyklus. Das heißt nicht, dass AI Betrug ist, aber es gibt die Tendenz, für den Verkauf zu übertreiben und zu große Versprechen zu machen.
    • AI wird hauptsächlich zum Schreiben von Text und Code verwendet. Es wird tatsächlich Zeit brauchen, sie über den gesamten Markt hinweg in Workflows zu integrieren.
    • Ein großartiger Artikel, der weder übermäßig pessimistisch noch optimistisch ist, ist Benedict Evans’ The AI Summer. Darin wird argumentiert, dass Großunternehmen zwar viel Begeisterung zeigen, die tatsächliche Adoption aber noch gering ist.
    • "LLMs an sich sind kein Produkt – sie sind eine Technologie, die Tools oder Funktionen ermöglicht, und sie müssen in neue Frameworks, UX und Tools zerlegt oder neu zusammengesetzt werden, um nützlich zu sein. Das braucht mehr Zeit."
  • Ich bin etwas schockiert darüber, wie viele negative Reaktionen es unter Entwicklern auf LLMs gibt. Als neues Werkzeug erfordern sie Lernaufwand und sind manchmal nicht besonders gut, aber wer eine IDE mit integrierter echter Coding-Unterstützung verwendet hat (z. B. den Copilot-Modus in VS Code – nicht den Chat-Modus, mit Claude 3.5), weiß ehrlich gesagt, dass das nicht viel schlechter ist als ein Junior-Entwickler und 100-mal schneller. Wenn der Code schlecht ist, kann man ihn verwerfen und 10 Sekunden später erneut versuchen. Als sehr erfahrener Entwickler ist der Geschwindigkeitsgewinn enorm. Vor 6 Monaten war es noch schrecklich. Ich frage mich, wie gut es in einem oder zwei Jahren sein wird. Es kann noch keine Unit-Tests ausführen, keine Konsolenfehler lesen und nicht auf IDE-Hinweise zugreifen, erzeugt aber trotzdem meistens korrekten Code. Mit tieferer Integration wird es immer besser werden.

  • Wenn man Hype und Anekdoten beiseitelässt, steckt generative AI seit einigen Monaten an derselben Stelle fest. Das „große Ding“, das sie geschafft haben, ist, große Sprachmodelle mithilfe von „Reasoning“ zum „Denken“ zu bringen.

    • Die interessantesten Veränderungen im Bereich generative AI der letzten 18 Monate fehlen.
    • Multimodalität: LLMs können jetzt Bilder, Audio und (bis zu einem gewissen Grad) Videos verarbeiten. Das ist eine große Verbesserung gegenüber den reinen Textmodellen von 2023 und eröffnet viele neue Anwendungen für diese Technologie. Ich nutze täglich Bild- und Audiomodelle (ChatGPT Advanced Voice).
    • Kontextlänge. GPT-4 konnte 8.000 Token verarbeiten. Heute liegen fast alle führenden Modelle bei 100.000+ und die größten Modelle bei 1 oder 2 Millionen Token. Das macht sie deutlich nützlicher.
    • Kosten. Gute Modelle von heute sind 100-mal günstiger als Modelle aus der GPT-3-Ära und zugleich viel leistungsfähiger.
  • Die Richtung stimmt.

    • GenAI ist meiner Meinung nach ein Assistent. Copilot erstellt effektiv Templates.
    • Mit ChatGPT kann ich E-Mails lesen und den Tonfall prüfen.
    • Claude kann Kommentare zu Kameraausrüstung abgeben.
    • Claude ist sehr gut bei Bilderkennung für seltene Dinge.
    • Ich bin zu der Überzeugung gelangt, dass die /completions API einfach nur +10 % oder ein ruckeliger Helfer ist.
    • Ich brauche keinen Agenten, der weniger klug ist als ein Praktikant, der mit hoher Geschwindigkeit Chaos in meiner Codebasis anrichtet – und genau das machen Codegenerierungs-Tools ungefähr.
    • Ich habe ein Startup für autonome Fahrzeuge gesehen, das GPT-Neuronale Netze zur Erkennung von Bildern während der Fahrt verwendet. Diesen Anwendungsfall würde ich als sehr vielversprechend bewerten.
    • Ich würde sogar sagen, dass Shirky's BS-Job-Papier bestätigt wird, denn wenn halluzinierende AI das kann …
    • Wie dem auch sei.
    • Ich glaube nicht, dass die grundlegenden Dinge die Ausgaben rechtfertigen. Es gibt zu viel Gift, aber auch zu viel Hype.
  • Das ist einer der tendenziösesten Texte, die ich gelesen habe. Seit Monaten sagt Ed voraus, dass die AI-Blase „jederzeit“ platzen werde, und zitiert oft die Umsätze von AI-Unternehmen als Zeichen dafür, dass die Produkte nicht tragfähig seien. Die Bewertungen basieren aber in erster Linie auf dem Fortschritt der Forschung und Entwicklung und nicht auf der Theorie, dass die breite Adoption bestehender Produkte zunehmen wird. Ich denke, die aktuelle Situation sollte als ein R&D-Wettbewerb zwischen einzelnen Akteuren betrachtet werden.

  • Zur Frage, was generative AI tatsächlich geleistet hat und wo die Produkte sind:

    • Das Produkt ist tatsächlich ChatGPT.
    • Wenn LLMs eine Blase wären, müsste man erwarten, dass der Großteil des Umsatzes von OpenAI aus der API kommt (die von Startups genutzt wird, die Geld eingesammelt haben, um „magische AI-Sachen“ zu machen, und wenn Investoren aufhören, Geld zu geben, würde die Blase platzen). Laut https://futuresearch.ai/openai-revenue-report stammen jedoch nur 15 % der Umsätze aus der API, die restlichen 85 % aus verschiedenen Abonnementangeboten, insbesondere macht das ChatGTP-Plus-Abo 55 % aus – also direkt von Verbrauchern.
    • Das beweist nicht, dass es keine Blase ist (Verbraucher könnten später merken, dass es nutzlos ist, und abspringen), aber es macht es weniger wahrscheinlich.
  • Ed bringt manchmal gute Punkte vor, aber er ist sehr wütend auf Big Tech, und diese Wut steht seiner Botschaft oft im Weg.

    • Wenn ich seine jüngsten Aussagen lese, erinnert mich das an Karl Denninger zum Zeitpunkt von Googles IPO, als er Google angriff und behauptete, das Unternehmen werde nie genug Geld verdienen, um einen Aktienkurs von 85 $ zu rechtfertigen (eine Investition von 1000 $ damals wäre heute etwa 375.000 $ wert).
  • Ein großer Teil unseres Problems rührt daher, dass es möglich ist, ein „Unternehmen“ mit einem Geschäftsmodell zu gründen, das Geld verliert, bis allen eingeredet wurde, das „Produkt“ sei gut. In einer normalen Welt würden solche Unternehmen scheitern, und AI würde sich über Jahre oder Jahrzehnte hinweg durch kleine Misserfolge und kleine Erfolge weiterentwickeln. Stattdessen bekommen wir absurde Auswüchse, weil einige wenige reiche Menschen bereit sind zu wetten.

  • Und es gibt immer noch keine Killer-App! Kein Produkt, das alle lieben, keinen iPhone-Moment.

    • Ich würde nachdrücklich argumentieren, dass Coding-Assistenten die erste Killer-App von AI sind. Copilot, Cursor, Windsurf usw.