5 Punkte von GN⁺ 2025-07-19 | 2 Kommentare | Auf WhatsApp teilen
  • Die Kapitalausgaben für KI-Rechenzentren machen in den USA und der Weltwirtschaft inzwischen einen beispiellos großen Anteil aus
  • Die US-Investitionen in KI-bezogene Rechenzentren im Jahr 2025 entsprechen rund 2 % des BIP; ihr Beitrag zum BIP-Wachstum wird auf 0,7 % geschätzt
  • Diese gewaltigen Investitionssummen werden aus bestehender Fertigung, Infrastruktur und anderen Venture-Investitionen abgezogen und auf KI konzentriert
  • Dieses Phänomen breitet sich so schnell aus, dass es mit dem Investitionsboom in Eisenbahnen und Telekommunikationsinfrastruktur vergleichbar ist, und hat den früheren Höchststand der Telekommunikationsinfrastruktur-Investitionen bereits überschritten
  • Dadurch mildern Investitionen in KI-Rechenzentren zwar den konjunkturellen Abschwung, verursachen aber zugleich Kapitalauszehrung in anderen Branchen, groß angelegte Umstrukturierungen und Arbeitsplatzabbau

Updates & Erasures

  • Während die Kontroverse um die Renovierung des US-Notenbankgebäudes anhält, nimmt auch die Kritik an öffentlichen Ausgaben zu
  • In aktuellen Artikeln äußern Regierungsvertreter Unmut über die Renovierung des Zentralbankgebäudes
  • Rund um die Führung von Fed-Chef Powell und die Gebäuderenovierung wechseln sich Spott und Unzufriedenheit ab

Honey, AI Capex Ate the Economy

Lage der Kapitalausgaben für KI-Rechenzentren

  • Das Volumen der Investitionen in KI-Rechenzentren ist inzwischen so groß, dass sogar Chinas Xi Jinping lokale Regierungen davor gewarnt hat, zu stark in KI, Computing und neue Energien zu investieren
  • Allein in China wurden mehr als 250 neue Rechenzentren gebaut; weltweit greift die Investitionswelle in KI-Infrastruktur weiter um sich
  • Für die USA ergibt eine Schätzung auf Basis des Rechenzentrumsumsatzes von Nvidia, dass die KI-Kapitalausgaben (Capex) im Jahr 2025 bei etwa 2 % des US-BIP liegen werden und der KI-bedingte Beitrag zum BIP-Wachstum 0,7 % erreichen dürfte

Untergrenze der Größenordnung von KI-Investitionen

  • Das erwartete US-BIP für 2025 wird auf $25T geschätzt
  • Nvidias jährlicher Umsatz mit Rechenzentren: rund $156.4B, davon entfallen 99 % auf KI
  • Anteil von Nvidia an den gesamten Kapitalausgaben für Rechenzentren: 25–35 %
  • Bei Anwendung eines wirtschaftlichen Multiplikators von 1,5 bis 2 ergibt sich für die gesamten jährlichen Rechenzentrums-Capex ein hochgerechneter Wert von rund $520B
  • Vor 2022 lagen die KI-Capex bei weniger als 0,1 % des BIP, sind aber binnen drei Jahren um mehr als das Zehnfache gewachsen
  • Selbst im Vergleich zu früheren großen Infrastrukturinvestitionen wie Eisenbahn und Telekommunikation wächst das Volumen deutlich weiter
  • Insbesondere wurde der Höchststand der Telekom-Investitionen aus der Dotcom-Blase bereits überschritten, und der Trend zeigt weiter nach oben
  • Das Investitionsvolumen in Rechenzentren liegt bei 20 % des Niveaus der Eisenbahnhochphase im 19. Jahrhundert, ist jedoch in kurzer Zeit stark angestiegen

Woher kommt das KI-Kapital?

  • Die Mittel für Rechenzentren und KI-Infrastruktur stammen aus folgenden Quellen
    • Interne Cashflows (Microsoft, Google, Amazon, Meta und andere große Tech-Unternehmen)
    • Schuldenaufnahme (Anleihen usw., mit wachsendem Anteil)
    • Aktien und Folgeemissionen
    • Venture Capital/Private Equity (KI-Infrastruktur-Startups wie CoreWeave und Lambda)
    • SPVs (Special Purpose Vehicles), Leasing und asset-backed alternative Finanzierung (z. B. bei Meta)
    • Verbindliche Cloud-Nutzungszusagen (vor allem von Hyperscalern)
  • Durch die KI-zentrierte Investitionswelle wird der Kapitalzufluss in andere Branchen ausgebremst
    • Venture-Capital-Gelder fließen außerhalb von KI kaum noch in andere Bereiche
    • VC außerhalb der Life Sciences wird derzeit faktisch fast nur noch auf KI-Investitionen ausgerichtet
    • Cloud-Compute-Unternehmen konzentrieren ihre Investitionen statt auf das bestehende Cloud-Geschäft auf GPU-zentrierte IDCs
    • Bei großen Unternehmen wie Amazon und Microsoft führen steigende Kosten für KI-Rechenzentren zu Personaleinschnitten und Umstrukturierungen
    • Die Kurs-Gewinn-Verhältnisse börsennotierter KI-Unternehmen sind stark gestiegen, während Firmen aus anderen Bereichen Kapital nur schwer beschaffen können
    • Weil Investitionsgelder in KI-Unternehmen konzentriert werden, fehlt es Fertigung und anderer Infrastruktur relativ gesehen an Kapital

Strukturwandel der Wirtschaft durch KI-Investitionen

  • Der KI-Investitionsboom fördert einen Rückgang der Investitionen in andere Infrastrukturbereiche und eine Neuordnung der Industriestruktur
  • Das ähnelt dem früheren Fall, in dem die Blase bei Telekom-Infrastruktur zu einem starken Rückgang anderer Infrastrukturinvestitionen führte
  • Auch die aktuelle Welle von Investitionen in KI-Rechenzentren lässt negative Spillover-Effekte befürchten, darunter Kapitalauszehrung in Nicht-KI-Bereichen, groß angelegte Umstrukturierungen und Arbeitsplatzverluste

Auflösung eines wirtschaftlichen Rätsels

  • In der jüngsten Wirtschaftslage galt es als Rätsel, dass trotz Unsicherheitsfaktoren wie Handelskonflikten, politischer Unsicherheit und bürokratischen Risiken die Sorge vor einer Rezession vergleichsweise gering blieb
  • Der Grund ist ein groß angelegtes, vom Privatsektor getragenes Investitionsprogramm in KI-Rechenzentren, also ein massives „privates Konjunkturpaket“
  • Es hat bereits den Telekom-Investitionshöhepunkt der Dotcom-Blase übertroffen und nähert sich dem Höchststand der Eisenbahninvestitionen des 19. Jahrhunderts
  • Rückgerechnet hätte das US-BIP-Wachstum im 1. Quartal 2025 ohne Investitionen in KI-Rechenzentren wahrscheinlich bis auf –2,1 % fallen können
  • Damit gleichen die KI-Kapitalausgaben den konjunkturellen Rückgang aus und verdecken faktisch die wirtschaftliche Verwundbarkeit

Fazit

  • Der sprunghafte Anstieg der Investitionen in KI und Rechenzentren innerhalb kurzer Zeit ist auch wirtschaftshistorisch ein ungewöhnlicher Ausnahmefall
  • Unabhängig davon, wie man die explosive Entwicklung von KI und Rechenzentren bewertet, ist die Geschwindigkeit von technischem Fortschritt und Kapitaleinsatz außergewöhnlich hoch
  • KI-Rechenzentren sind keine Infrastruktur wie Eisenbahnen oder Straßen, die über Jahrzehnte oder Jahrhunderte genutzt wird, sondern zeichnen sich durch kurze Lebensdauer und schnelle Abschreibung aus
  • Weil solche Großinvestitionen auf kurze Technologiezyklen ausgerichtet sind, gehen sie parallel mit schwächeren Investitionen in andere Branchen, Massenentlassungen und einer Verlangsamung des Wachstums außerhalb von KI einher
  • Kapital wird derzeit rasch aus Venture-Finanzierung und internen Budgets in Richtung IT umgeschichtet, sodass einige Bereiche von langfristiger Investitionsaustrocknung und groß angelegten Umstrukturierungen betroffen sind
  • Obwohl KI in der Breite noch gar nicht umfassend praktisch genutzt wird, schreiten Arbeitsplatzabbau und Neuordnung der Industrie bereits rasant voran – eine ironische Situation

Rougher Notes

2 Kommentare

 
youknowone 2025-07-20

Wenn ich die Zusammenfassung der Kommentare sehe, scheint man zu denken, dass 2 % derzeit nicht viel sind. Aber ich glaube, man sollte bedenken, wie hoch der Wert 2026 bei diesem Wachstumstempo sein wird. Falls AGI nicht schon in allernächster Zukunft möglich ist, dürfte es 2026 und vielleicht sogar bis 2027 wegen des Gegensatzes zwischen Optimisten und Pessimisten wirklich ziemlich chaotisch werden.

 
GN⁺ 2025-07-19
Hacker-News-Kommentare
  • Xi Jinpings Aussage scheint aus einem übertriebenen FT-Artikel zu stammen. Der chinesische Originalartikel ist deutlich gemäßigter im Ton. AI und EV waren in der Sitzung oder im Bericht keine Hauptthemen, sondern wurden nur erwähnt. Xi Jinpings Warnung richtet sich gegen den erneut in der AI- und EV-Industrie zu beobachtenden „Wettbewerb um politische Verdienste“. Wenn die Zentralregierung industriepolitische Ziele setzt, verbünden sich Lokalregierungen mit Unternehmen und treiben vorzeigbare „Projekte“ voran, die am Ende typischerweise nur Fabriken bauen und dann zum Stillstand kommen. Das ist für die Zentralregierung schon lange ein großes Ärgernis, und Xi Jinpings Kernwarnung lautet, dass es im AI- und EV-Bereich dasselbe Problem gibt. Originalartikel: https://paper.people.com.cn/rmrb/pc/content/202507/17/content_30088242.html

  • 1,2 % des BIP wirken nicht so extrem. Im Vergleich zu anderen innovativen Projekten ist das deutlich weniger. Beispiele: das Apollo-Programm 4 %, Eisenbahnen 6 %, die Corona-Konjunkturpakete 27 %, Verteidigungsausgaben im Zweiten Weltkrieg bis zu 40 %

    • Meine erste Reaktion war ähnlich. 1,2 % klingt nicht nach besonders viel. Es wirkt einfach so, als hätte die Presse eine reißerische Überschrift daraus gemacht. Wenn man stattdessen Kennzahlen wie Wasser- und Energieverbrauch betrachten würde, wäre das vielleicht besorgniserregender. Etwas am Thema vorbei, aber etwa 9 % des US-BIP stammen aus Finanzdienstleistungen, und das ist für mich persönlich die alarmierendere Zahl

    • Im Verhältnis zum gesamten BIP wirkt es klein, aber unser BIP ist eben enorm groß. Diese 1,2 % entsprechen auch schon in etwa dem gesamten BIP Norwegens. Es wirkt wie nichts, ist aber auch im Vergleich zu den diesjährigen Militärausgaben von 3,4 % eine große Summe

    • Ich denke, man sollte jetzt nicht nur auf die absolute Zahl schauen, sondern auf die Veränderung, den Trend und darauf, was die Steigung bedeutet. Kapital wandert aus vielen Bereichen in AI, und die Lebensdauer der Vermögenswerte ist ebenfalls unterschiedlich (Eisenbahnen halten Jahrzehnte bis Jahrhunderte, bei AI sind es vielleicht nur wenige Jahre). Ein Punkt des Autors ist auch: „Ohne Investitionen in AI-Rechenzentren wäre der Rückgang des BIP im ersten Quartal auf –2,1 % gestiegen.“

    • Das Ganze hat gerade erst vor zwei Jahren begonnen! 1,2 % sind eine riesige Zahl. Schon dass solche Vergleiche überhaupt möglich sind, ist erstaunlich

    • Der Kern des Artikels ist die Frage, ob eine derart riesige Investition gerechtfertigt werden kann. Einfach mit „es sind doch nur x % des BIP“ zu kontern, geht am eigentlichen Punkt vorbei

  • Eisenbahnen verteilten Kapital auf die gesamte Gesellschaft und führten langfristig zu Wohlstandsgewinnen für viele. AI hingegen könnte Kapital bei bereits Reichen konzentrieren und der Mittelschicht langfristig Wohlstandsverluste bringen. Wenn die Kaufkraft der Bevölkerung sinkt, hilft das dem Wirtschaftswachstum nicht, deshalb bin ich gegenüber diesem AI-Investitionsboom skeptisch

    • Ich frage mich bei „Eisenbahnen verteilen Kapital“, ob das wirklich stimmt. Auch damals waren Eisenbahnen große Monopole wie Vanderbilt. Preisabsprachen und steigende Transportkosten für Bauern waren so verbreitet, dass staatliche Kartellregeln entstanden. Dass „AI die Kapitalballung verschärft“, stimmt zwar, aber das gilt eigentlich für jede kapitalintensive Industrie. Es gibt keinen besonderen Grund, nur AI herauszugreifen, und AI ist auch kein natürliches Monopol; Wettbewerb ist möglich
  • Hoffentlich kann man die Kapazität von AI und Rechenzentren nach dem Ende dieses Bandwagon-Effekts für nützlichere Dinge einsetzen, zum Beispiel für die Entwicklung neuer Medikamente

    • Auch im Dotcom-Boom der 1990er wurden Glasfasernetze massiv überbaut, und nach dem Platzen der Dotcom-Blase wurden diese Assets zu Schleuderpreisen verkauft, worauf neue Startups günstig landesweite Netze aufbauen konnten. Solche „Relikte“ einer Blase waren immer wieder günstiger Treibstoff für die nächste Generation von Unternehmen. Rechenzentren werden wohl demselben Muster folgen: Selbst wenn es jetzt Überkapazitäten gibt, werden sie später sicher neue Verwendungszwecke finden

    • In Bezug auf den Hype verstehe ich nicht, warum so viele Leute davon besessen sind, dass AI Entwickler- und andere White-Collar-Jobs zu 100 % ersetzen werde. Das wirkt auf seltsame Weise apokalyptisch und nihilistisch, und ich teile diesen Hype nicht. Vielleicht sehe das nur ich so

    • Global betrachtet sind selbst die aktuellen Fähigkeiten von LLMs noch nicht ausreichend eingeführt. Selbst wenn wir auf dem heutigen Stand nichts Intelligenteres mehr bauen könnten, würden sich in den nächsten Jahren in vielen Branchen wohl weiterhin repetitive Aufgaben automatisieren lassen

    • Es überrascht mich, dass hier immer wieder Leute auftauchen, die AI und ihren unaufhaltsamen Fortschritt auf die leichte Schulter nehmen. Wenn man nur auf das schaut, was bereits passiert ist — Schach, Go, Strategiespiele, Vorhersage von Proteinstrukturen usw. —, dann ist doch klar, dass AI letztlich fast jedes Problem lösen kann, das sich formalisieren und verifizieren lässt. Bereichsspezifische ASI (Artificial Superintelligence) ist meiner Meinung nach ebenfalls nur eine Frage der Zeit. Ich empfehle allen dringend, The Bitter Lesson und Verifier’s Law zu lesen

    • Das können wir nicht. Am Ende wird man Ingenieure gemäß den Kennzahlen entlassen und auch die übrigen Anlagen abbauen

  • Ich wünschte, man würde vorschreiben, dass neue Rechenzentren ausnahmslos mit erneuerbaren Energien gebaut werden müssen. Die Zusatzkosten dürften im Verhältnis zu den Gesamtkosten auch nicht so hoch sein, und Konzerne dieser Größe könnten das problemlos tragen. Vielleicht würde so eine Politik sogar Fortschritte bei der nächsten Generation kleiner modularer Reaktoren auslösen

    • Viele Großunternehmen interessieren sich bereits für kleine Nukleartechnologien als Energiequelle für Rechenzentren. Das größte Problem ist die Standortwahl im Stromnetz, um solche Anlagen betreiben zu können. Wenn man nur 30 Minuten mit jemandem aus der Branche spricht, landet man am Ende immer beim Thema Kernenergie. Hoffentlich hält dieser Hype mit seinen reichlich verfügbaren Investitionsmitteln lange genug an, damit tatsächlich Uranreaktoren vor Ort aufgebaut werden; das wäre ein großer positiver Effekt. Wie bei Eisenbahnen und Glasfaser könnte so physische Infrastruktur zurückbleiben. Die früheren „robber barons“ haben wenigstens physische Infrastruktur hinterlassen, während von den jüngeren Booms fast nichts bleibt

    • In Europa gilt für alle neuen Rechenzentren bereits eine Pflicht zu erneuerbaren Energien. Auch in den USA haben Google, Microsoft, Meta und AWS weltweit die meisten Stromabnahmeverträge für erneuerbare Energien abgeschlossen. Allein Microsoft investiert rund 20 Milliarden Dollar. In den USA liegt das Problem nicht auf der Nachfrageseite, sondern bei Genehmigungen, Flächennutzung und ähnlichen Engpässen beim Ausbau. Allein die Leistung, die auf einen Netzanschluss wartet, beträgt 100 GW, also etwa 10 % der gesamten US-Stromerzeugung. Viel zu bestellen löst den Engpass nicht, wenn genau dieser Engpass Zeit kostet. Eine Ausnahme sind Orte wie xAI/Grok, die große Cluster zu 100 % mit Gas betreiben. Dort kommen 35 mobile Gasturbinen und über 50 Kühl-Lkw zum Einsatz, an Standorten mit schlechter Strom- und Kühlversorgung. Das ist ineffizient und ökologisch extrem schädlich, und ich finde, so etwas sollte verboten werden

    • In den USA verändert sich der Markt bereits auch ohne Zwang. 94 % der neuen Erzeugungskapazität 2024 und 93 % 2025 entfallen auf erneuerbare Energien oder Batteriespeicher, und dieser Trend dürfte anhalten. Bei neuen fossilen Kraftwerken kommt höchstens noch etwas Erdgas hinzu, oft durch Umrüstung alter Kohlekraftwerke. Selbst die geplanten Zubauten bei Erdgas liegen auf dem niedrigsten Stand seit dem Schiefergasboom. Erneuerbare haben bereits gewonnen

    • Rechenzentren bevorzugen „gesicherte“ Stromversorgung, damit teure Anlagen nicht stillstehen. Solar- und Windenergie sind intermittierend. Neue Gaskraftwerke benötigen Jahre in der Planung. Und auch Batteriespeicher für mehr als 12 Stunden Wintersonne sind nicht völlig kostenlos

    • Schön wäre auch, wenn schon die Hardware selbst erneuerbar wäre

  • Es ist widersprüchlich zu behaupten, dass viel Geld für AI-CapEx aus anderen Branchen abgezogen wird und diese deshalb investitionsseitig „ausgehungert“ werden, und gleichzeitig zu sagen, dass dieses Geld das gesamte BIP multipliziert. Wenn das Geld nur verlagert wurde, müsste derselbe Multiplikatoreffekt auf beide Seiten angewendet werden

    • Deshalb lautet der Titel des Artikels ja „Honey, AI Capex is Eating the Economy.“
  • Die Hauptthese des Textes basiert auf der Annahme, dass die Wirtschaft ein Nullsummenspiel sei. Das ist sie aber eindeutig nicht. Wenn Investitionen in AI fließen, heißt das nicht, dass man sie genauso leicht sofort in andere Bereiche umlenken könnte. In AI wird derzeit investiert, weil man dort entsprechenden Wert erwartet. Persönlich denke ich, dass dieser Wert viel größer sein wird als bei Eisenbahnen. Es mag bei bestimmter Hardware oder in einzelnen Regionen Übertreibungen und Überinvestitionen geben, aber noch scheint die im Text beschriebene Lage eines „kurz vor dem Kollaps“ nicht erreicht zu sein

    • Da die Wirtschaft immer komplex zusammenwirkt, sollte man nicht zu optimistisch sein. Wie der Autor anmerkt, stimmt es kurzfristig durchaus, dass AI-Investitionen andere Investitionen verdrängen

    • Selbst wenn große Investitionen überzogen sind, werden sie langfristig wahrscheinlich doch nützlich. Für pets.com wurde anfangs Internet-Infrastruktur im Übermaß aufgebaut, aber später entstanden mit Amazon, YouTube und Zoom echte „Killer-Apps“, sodass die damaligen Fehlallokationen zur Grundlage der späteren Gesellschaft wurden. Die heutigen AI-Investitionen könnten historisch ähnlich bedeutsam werden. Dazu empfehle ich Carlota Perez’ Technological Revolutions and Financial Capital

  • Deshalb wird auch der Fortschritt bei Transistoren, also Moore’s Law, wohl noch zehn Jahre weitergehen. Er hat die Wachstumsphase der Smartphones (2008–2023) getragen, und die aktuellen Investitionen fließen bereits in die Halbleiterproduktion der nächsten 2–3 Jahre (2nm, A20, danach bald A18/14). Für 2030–2032 ist damit ausreichend Momentum bis A10, A8 vorhanden. Selbst bei einer Verlangsamung reicht die Dynamik wohl bis 2035. Falls man 2035 bei A5 ankommt, entspräche das etwa einer 12-fachen Steigerung der Integrationsdichte. Selbst mit Packaging, Chiplets und Interconnect-Verbesserungen kommt man vielleicht auf das 30- bis 40-Fache. Für die 1000- bis 10000-fache Rechenleistung, die viele AI-Unternehmen verlangen, reicht das noch lange nicht. Auch die Speicherbandbreite müsste entsprechend mitwachsen

  • Der paradoxe Aspekt von Automatisierung ist, dass sie nicht nur die Wirtschaftsleistung erhöht, sondern bestimmte Industrien auch verschwinden lässt. Es mag mehr Güter geben, aber wenn diese den sozialen Status nicht mehr erhöhen, sinkt ihr Wert eher. Früher machte ein Nagel vielleicht 0,5 % der Wirtschaft aus, heute arbeitet selbst ein Nagelfabrikbesitzer mit geringen Margen und ohne großes gesellschaftliches Ansehen; ähnlich würde Frontend-Entwicklung in Software durch Automatisierung sowohl wirtschaftlich als auch gesellschaftlich an Gewicht verlieren. Sozialer Status ist letztlich ein Nullsummenspiel, daher suchen Menschen ihn dann anderswo

    • Ich habe das Argument gehört, dass „Automatisierung einen Teil der Wirtschaft beseitigt“, sehe es aber eher so, dass neue Fähigkeiten latente Nachfrage wecken und den gesamten Kuchen vergrößern. Bedürfnisse sind nicht begrenzt, und selbst AI-Automatisierung kann diese Nachfrage kaum vollständig einholen
  • Ich freue mich auf den Moment, in dem jemand rekonfigurierbares Computing mit FPGA so optimiert, dass sich die Rechenkosten für LLMs um mehr als 90 % senken lassen

    • Ich wünschte, es gäbe in diesem Bereich mehr Forschung in theoretischer Informatik. Wenn man anerkennt, dass alle Machine-Learning-Verfahren letztlich Formen der „Kompression“ sind, dann müsste man anhand der Informationsmenge, die sich bei gegebener Parametergröße kodieren lässt, der Beziehung zwischen Informationsverlust und Leistung sowie der Informationsmenge des ursprünglichen Datensatzes auch die Mindestgröße eines LLM abschätzen können. Ich halte die Größe von LLMs für übertrieben, glaube aber gleichzeitig, dass sie wegen der enormen Datenmenge, die sie enthalten sollen, in der Praxis größer sein müssen, als man denkt. Da verlustbehaftete Kompression das Prinzip hinter der „Generalisierung“ von LLMs ist, braucht es zur vollständigen Aufnahme von Information sehr große Kapazitäten

    • Ich frage mich, woher dieser Leistungssprung kommen soll. Die Hardware ist bereits auf einem Niveau, auf dem sie GEMM (General Matrix-Matrix Multiplication) so schnell wie möglich ausführt

    • Freunde aus der Chip-Ecke klagen oft, dass Qualcom viele FPGA-bezogene Patente hält und dadurch wirklich sinnvolle FPGA-Innovationen blockiert werden

    • Du musst nicht darauf warten. FPGA ist für solche Architekturen nicht gedacht. Die Energieeffizienz ist zwar hoch, aber Place-and-Route-Overhead, begrenzter Speicher (die meisten verfügbaren FPGAs haben kein HBM), niedrige Taktfrequenzen und eine unbequeme Entwicklererfahrung machen es unwahrscheinlich, dass das zur Hauptlösung wird

    • ASICs sind bereits auf dem Markt. Als Beispiel kann man sich Google TPU ansehen, um ein Gefühl für die Kosten zu bekommen. Auch HBM (High Bandwidth Memory) selbst ist sehr teuer