- Die Überschätzung von AI-Technologien und ihre Blasenstruktur beherrschen den gesamten Markt; Investitionen und Erwartungen sind weit stärker aufgebläht als ihr tatsächlicher Nutzen
- Der Einsatz von AI in Design- und Arbeitsumgebungen ist für kleine Aufgaben nützlich, führt bei großflächiger Automatisierung oder vollständigem Ersatz jedoch zu steigenden Kosten und höherer Komplexität
- Die gegenseitigen Investitionsstrukturen großer Tech-Unternehmen konzentrieren den AI-Markt übermäßig; bei fehlenden realen Erlösmodellen besteht das Risiko eines Platzens der Blase
- Der Bau von Rechenzentren sowie die Sicherung von Energie, Land und Wasserressourcen bilden die zentrale Grundlage der AI-Industrie und führen zu mehr politischem Einfluss und stärkerer Kontrolle über Ressourcen
- Unabhängig vom tatsächlichen Erfolg oder Scheitern von AI markiert die Veränderung der Eigentumsstrukturen bei Infrastruktur und Ressourcen einen entscheidenden Wendepunkt, der das gesellschaftliche Machtgleichgewicht neu ordnet
AI-Blase und Überbewertung
- AI ist eine nützliche Technologie, wird aber als überbewertete Blase beschrieben, deren angenommener Wert höher ist als der tatsächliche Wert, an den Investoren und Unternehmen glauben
- Im besten Fall eine gewöhnliche Marktblase, im schlimmsten Fall eine Struktur, in der bewusste Übertreibung und betrügerische Motive zusammenkommen
- Der Einsatz von AI im Designbereich wird als ineffizient im realen Arbeitsumfeld beschrieben; zudem wird die schwierige Integration in bestehende Systeme anhand von Beispielen gezeigt
- Bei der Kombination von Bild und Text, bei individuellen Stilen, Layouts usw. werden die Grenzen der Reproduzierbarkeit durch AI deutlich
- Selbst nach dem Export in Tools wie Figma ist weiterhin manuelle Rekonstruktion nötig
- Je kleiner die Nutzungseinheit, desto höher die Effizienz; bei großflächigen Anwendungen wie der Automatisierung kompletter Workflows heben die Kosten die Einsparungen wieder auf
- Laut einer MIT-Studie ist die pauschale Einführung von AI mit hohen Ausfallraten verbunden; erfolgreiche Beispiele zeigen sich nur bei begrenzten Einsätzen mit klar definierten Zielen
Wirtschaftsstruktur der AI-Industrie und Marktkonzentration
- Die sieben größten Unternehmen bilden gegenseitige Investitionsbeziehungen rund um AI, wodurch ihre Marktwerte eng miteinander verflochten sind
- Allerdings fehlt ein tragfähiges Monetarisierungsmodell für AI, sodass keine realen Gewinne in Höhe der Marktkapitalisierung vorhanden sind
- Die Struktur ähnelt der Dotcom-Blase: Die Technologie ist nützlich, aber keine „magische Gelddruckmaschine“
- Unter Verweis auf das Beispiel Segway wird die Lücke zwischen technologischem Hype und Realität als Unterschied zwischen „einem Roller und der Neugestaltung von Städten“ beschrieben
- Im Fall von AI wird diese Lücke als „eine Billion Dollar große Kluft“ bezeichnet
- Sogar Sam Altman räumt die Möglichkeit einer AI-Blase ein; die übermäßige Abhängigkeit des Marktes führt zu einem gefährlichen Ungleichgewicht
Gesellschaftliches Vertrauen und Informationsverzerrung
- AI kann die Aushöhlung von Wahrhaftigkeit und die Fähigkeit zur Informationsmanipulation verstärken
- Es wird daran erinnert, dass bereits mit bisherigen Internettechnologien Filterblasen, Fake News und manipulierte öffentliche Meinung entstanden sind
- AI kann dies schneller und präziser leisten
- Der Zusammenbruch gesellschaftlichen Vertrauens führt zum Verlust gemeinsamer Maßstäbe für Faktenprüfung; dies wird als „ein Risiko wie das Testen einer Atombombe auf dem Stadtplatz“ beschrieben
Der AGI-Mythos und die Logik der Investoren
- Normale Nutzer kaufen das Produktivitätsversprechen, dass „AI Arbeit schneller und effizienter erledigen wird“
- Investoren hingegen kaufen die große Erzählung von AGI (Artificial General Intelligence) und das Versprechen künftiger Monopole
- AGI wird als abstraktes Konzept mit ständig wechselnder Definition kritisiert und sei letztlich nur ein nicht messbares Ziel
- Der Glaube, man könne „mit genügend Rechenleistung Bewusstsein programmieren“, wird als unrealistische Fantasie dargestellt
Struktur der Konzentration von Ressourcen, Land und Macht
- Die reale Grundlage der AI-Industrie sind Energie, Land und Wasserressourcen; der Bau von Rechenzentren ist zentral
- Rechenzentren erfordern einen Energieverbrauch im Umfang ganzer Städte und bringen politischen Einfluss mit sich
- AI-Unternehmen behaupten einerseits AGI, verlangen andererseits immer mehr Rechenzentren und offenbaren damit einen logischen Widerspruch
- Dies wird als umfassendes Mittel zur Konzentration von Ressourcen und Macht interpretiert
- Rechenzentren verbrauchen Infrastruktur auf Stadtniveau, geben aber nichts an die lokale Gemeinschaft zurück
- Dadurch entsteht letztlich eine Struktur wie ein „privater Staat im Staat“
- Private Unternehmen errichten wiederholt energiebasierte Städte ohne Bevölkerung
- Dabei werden staatliche Energiepolitik und das Machtgleichgewicht abrupt verändert
Fazit: Das Zeitalter, in dem Infrastruktur zu Macht wird
- Unabhängig davon, ob AI erfolgreich ist oder nicht, verändern sich die Eigentumsstrukturen von Infrastruktur, Land und Energie bereits jetzt
- Es wird die Möglichkeit aufgezeigt, dass die physischen Vermögenswerte, die AI tragen, wertvoller werden als AI selbst
- Marktkonzentration, Investitionskreisläufe, Grundstücksgeschäfte und Machtverschiebungen werden ausdrücklich als reale Phänomene benannt
- Letztlich wird auf die Gefahr hingewiesen, dass Bürger in einer „neuen Form von Staat leben, die sich nicht mehr wie Heimat anfühlt“
- Selbst wenn AI scheitert, werden die zugrunde liegende Infrastruktur und die Machtstrukturen fortbestehen
1 Kommentare
Hacker-News-Meinungen
Wenn AI Softwareingenieure teilweise ersetzt, könnte dieser Beruf von einem Ticket in die Oberschicht zu einem bloß „ordentlich bezahlten Job“ herabsinken.
Nur weil ein Ingenieur 100.000 $ im Jahr verdient, ist eine Maschine, die die Arbeit von 100 Millionen Menschen erledigt, nicht automatisch 10 Billionen $ pro Jahr wert.
Das Angebot wird steigen, und die Nachfrage wohl auch, aber nur bis zu einem gewissen Punkt; am Ende dürfte die Produktivität der Gesamtwirtschaft wohl bei etwa dem Doppelten des heutigen Niveaus stehen bleiben.
Der technische Fortschritt ist bereits in eine Phase abnehmender Erträge eingetreten und wirkt zunehmend unheilvoll.
Entscheidend ist die Fähigkeit, Dinge präzise zu beschreiben, unabhängig von der Sprache.
Solange diese Fähigkeit existiert, wird der Ingenieurberuf meiner Meinung nach nicht verschwinden.
Wenn die organische Zusammensetzung des Kapitals steigt, sinkt die Profitrate, und daraus entsteht eine Struktur, die zu Imperialismus und Krieg führt.
Das gemeinsame Muster allgemeiner Basistechnologien ist: ① Anfangs sind sie bestehenden Methoden unterlegen, ② dann verbessern sie sich rapide und ③ schaffen je nach Bereich zu unterschiedlichen Zeitpunkten den Durchbruch.
Wichtig ist nicht, ein Feld mit „null Punkten“ zu finden, sondern sich an der Schwelle der Tragfähigkeit (cusp of viability) entlangzuarbeiten und schrittweise schwierigere Probleme zu lösen.
Dass Tesla den Preisverfall bei Lithium-Ionen-Batterien nutzte, um sich von Sportwagen zu Limousinen bis hin zu Massenmodellen auszudehnen, ist ein gutes Beispiel.
Viele Technologien bleiben in Phase 1 stecken und verschwinden als Fußnote der Geschichte.
Sobald dieses „gut genug“ in mehreren Branchen erreicht ist, ersetzen sie Fachkompetenz und der Marktanteil steigt sprunghaft.
Das Tesla-Beispiel ist aber noch kein eindeutiger Erfolg — BEVs sind weiterhin teuer und stark von Subventionen abhängig.
Nur weil etwas jetzt nutzlos ist, heißt das nicht, dass es das in Zukunft auch bleibt.
Es gibt kaum Technologien, die bisher nicht zu Werkzeugen der Konzentration von Ressourcen und Macht geworden sind.
Die Menschen sind nicht klüger als früher, aber der Zugang zu Wissen hat sich verändert.
Heute verschwenden wir trotz unbegrenzten Potenzials unsere Zeit damit, uns im Internet zu beschweren.
Vielleicht ist gerade diese ewige Unzufriedenheit die treibende Kraft hinter dem Fortschritt der Menschheit.
Aus meiner Sicht als Designer ist Software Engineering der Bereich, in dem LLMs am besten funktionieren.
Individuelle Agenten, die in interne Tools integriert sind, steigern die Produktivität erheblich.
Menschen aus anderen Bereichen spüren den Nutzen von AI weniger, aber ich denke, das liegt bisher nur am Reifegrad der Werkzeuge.
Viele Funktionen von Claude Code entwickeln sich zwar weiter, aber es braucht immer noch viel Context Engineering und Erfahrung.
Um LLM-basierte Entwicklung wirklich gut zu beherrschen, muss man letztlich sowohl in Software Engineering als auch bei LLMs Experte sein.
Ich warte, bis sich der Staub gelegt hat.
Im Moment halte ich das für eine frühe Phase der Überhitzung.
Im Moment ist die Produktivität zwar gestiegen, aber die Geschwindigkeit der „Wertschöpfung“ hat sich noch nicht verändert.
Das ist ähnlich wie bei dem Grund, warum Google bei der Suche in Programmierdokumentation so stark war.
Von AI erzeugte Dokumentation ist qualitativ miserabel.
Die Behauptung „AI ist vielleicht nicht so wertvoll, wie man denkt“ ist interessant,
aber meiner Erfahrung nach ist AI eine Technologie, die die Produktivität explosionsartig steigert.
Hochschulbildung, VC, Startups und Big Tech gehen alle voll auf AI.
Nur weil Bildgenerierung nicht perfekt ist, lässt sich das Potenzial von AI kaum unterschätzen.
Die eigentliche Frage ist, wie man das Ausmaß der Überbewertung misst.
Wenn man wirklich an eine Überbewertung glaubt, ist das vielleicht eine Chance, mit „The Big Short 2: The AI Boogaloo“ Geld zu verdienen.
Sie haben nicht die Absicht, damit aufzuhören, sondern wollen nur vermeiden, erwischt zu werden.
Schon vor der AI-Revolution war eine Re-Zentralisierung aufgrund der ökonomischen Logik der Content-Auslieferung unvermeidlich.
Dass wir letztlich zu einer Struktur aus „dicken Servern, dünnen Clients“ zurückkehren, war ohnehin vorgezeichnet.
Der entscheidende Punkt ist: Je kleiner der Anwendungsfall, desto größer der Nutzen von AI.
Übergibt man ihr ein ganzes Modul, ist man enttäuscht, aber für Code-Autovervollständigung, Dokumentenerstellung und die Automatisierung kleiner Aufgaben ist sie hervorragend.
Wenn AI dabei hilft, ist das an sich schon wertvoll.
Halluzinationen könnten ein Problem sein, aber da man zurückrollen kann, wäre das wohl in Ordnung.
Mit besseren Modellen werden nach und nach auch größere Arbeitseinheiten möglich.
Selbst wenn die Antwort der AI falsch ist, erkennt man dabei oft das eigentliche Wesen des Problems.
Früher brauchte ich für eine
nvim-Konfiguration eine Woche, heute reicht dafür ein einziger Prompt.Die Sicherheitsregulierung jeder neuen Technologie wird mit Blut geschrieben.
Bei AI wird das keine Ausnahme sein. Man wird so lange weitergehen, bis das Maß an Leid erreicht ist, das die Menschheit gerade noch erträgt.
In dem Moment, als man Kindern Smartphones in die Hand drückte, war die Sache schon zur Hälfte entschieden.
AI ist nur noch die Totenglocke dieses Endes.
Diese aktuelle AI-Welle ist nicht einfach nur ein Werkzeug der Machtkonzentration, sondern bereits das Ergebnis einer schon zuvor bestehenden Konzentrationsstruktur.
Wäre die Gesellschaft gesünder gewesen, hätte sie diesen Schock vielleicht ausgehalten, aber im Moment bin ich mir da nicht sicher.
Die Kommentarspalten wirken derzeit fast wie ein Turmbau zu Babel.
Es fühlt sich an, als spräche jeder eine andere Sprache.
Das Gefühl von Kommunikationsunfähigkeit ist größer als früher.
Das fühlt sich irgendwie beängstigend an.