1 Punkte von GN⁺ 2025-10-06 | 1 Kommentare | Auf WhatsApp teilen
  • Da Nvidia mit einer Investition von 110 Milliarden US-Dollar massiv Kapital in KI-Infrastruktur wie OpenAI lenkt, wird die Sorge diskutiert, dass sich eine zirkuläre Vendor-Financing-Struktur ähnlich der früheren Telekom-Blase wiederholt
  • Führende US-IT-Unternehmen kündigen für 2025 300 bis 400 Milliarden US-Dollar an Investitionen in KI-Infrastruktur an, wodurch Risiken wie Kundenzentration und GPU-besicherte Kredite zunehmen
  • Anders als Lucent weist Nvidia Unterschiede bei Cashflow, Kundenbonität und Bilanztransparenz auf, doch Kundenkonzentration, Asset-Bewertung und die Ausbreitung kundenspezifischer Siliziumchips werden als Warnsignale genannt
  • Es wird betont, dass eine laufende Beobachtung nötig ist, ob die KI-Nachfrage reale Nachfrage ist, sich wie Cloud zur unverzichtbaren Infrastruktur entwickelt oder nur eine Blase darstellt
  • Wie beim Bilanzskandal von Lucent müsse genau beobachtet werden, damit sich frühere strukturelle Risiken nicht wiederholen, insbesondere bei Asset-Werten, Ertragsmodellen und Schuldenrisiken von Nvidia und der Branche insgesamt

Einleitung: Nvidia, zirkuläre Finanzierung und der Schatten der Telekom-Blase

  • 2025 setzt Nvidia bei OpenAI und anderen auf Vendor Financing im Umfang von 110 Milliarden US-Dollar, wodurch Parallelen zu den groß angelegten zirkulären Finanzierungsstrukturen der Telekom-Blase hervortreten
  • Die US-Big-Techs kündigen für 2025 Investitionen in KI-Infrastruktur im Rekordumfang von 300 bis 400 Milliarden US-Dollar an
  • Dieses Investitionsvolumen liegt deutlich über bisherigen Rekorden für unternehmensseitige Infrastrukturinvestitionen in einem einzelnen Jahr

Lucents Strategie: Die Lehren aus zirkulärer Finanzierung

  • 1999 erzielte Lucent Technologies auf dem Höhepunkt der Dotcom-Blase 37,9 Milliarden US-Dollar Umsatz; nur drei Jahre später war dieser um 69 % eingebrochen, und das Unternehmen steuerte schließlich auf eine Fusion mit Alcatel zu
  • Damals stellten Ausrüster wie Lucent, Nortel und Cisco ihren Telekom-Kunden über Vendor Financing in Milliardenhöhe direkt Kapital für den Kauf von Ausrüstung bereit
    • Lucent 8,1 Milliarden US-Dollar, Nortel 3,1 Milliarden US-Dollar, Cisco 2,4 Milliarden US-Dollar an Kreditzusagen
  • Diese Strategie wirkte anfangs für alle vorteilhaft, führte jedoch mit Marktsättigung und Liquiditätsengpässen zu fatalen Folgen: die meisten Kundenunternehmen (47 CLECs) gingen insolvent, 33 bis 80 % der Kredite konnten nicht eingetrieben werden, und der Wert der Ausrüstung brach ein
  • Tatsächlich wurden Glasfasernetze nur zu 0,002 % ihrer verfügbaren Kapazität genutzt — die Investitionen kamen also viel zu früh im Verhältnis zur Nachfrage

Nvidias Strategie: Eine differenzierte zirkuläre Finanzierungsstruktur

  • Nvidia betreibt Stand 2025 direkte Investitionen von 110 Milliarden US-Dollar (85 % des Umsatzes) und mehr als 15 Milliarden US-Dollar an GPU-besicherten Krediten
    • Mit OpenAI besteht eine konkrete Zusage über 100 Milliarden US-Dollar (10 gestaffelte Tranchen, Auszahlung nach Infrastruktur-Ausbaustufen, tatsächlicher Mittelzufluss in Form von GPU-Leasing)
    • Auch in CoreWeave, NVentures und anderswo werden zusätzliche Investitionen sowie der Markt für GPU-besicherte Kredite ausgeweitet
  • CoreWeave hält GPU-besicherte Verbindlichkeiten von 10,45 Milliarden US-Dollar, und auch andere KI-Startups wie Lambda Labs nutzen GPUs als Kreditsicherheit

Zahlenvergleich: Lucent vs. Nvidia (in Dollar von 2024)

Kennzahl Lucent (2000) Nvidia (2025)
Vendor Financing 15 Milliarden US-Dollar 110 Milliarden US-Dollar
Operativer Cashflow 300 Millionen US-Dollar 15,4 Milliarden US-Dollar (GJ22 Q2)
Jahresumsatz 34 Milliarden US-Dollar 130 Milliarden US-Dollar
Anteil der zwei größten Kunden 23 % 39 %

Worauf zu achten ist: Eine neue Markt-Risikostruktur

1. Stärker konzentrierte KI-Kundenbasis

  • Bei Nvidia entfallen 46 % des Umsatzes auf die größten 2 bis 4 Kunden, also eine etwa doppelt so hohe Kundenzentration wie bei Lucent
  • 88 % des Umsatzes stammen aus dem Datacenter-Geschäft

2. Ausweitung GPU-besicherter Kredite und Bestandsrisiko

  • GPUs werden unter der Annahme einer Wertbeständigkeit von 4 bis 6 Jahren für Kredite mit 14 % hohem Zinssatz eingesetzt (etwa das Dreifache von Investment-Grade-Unternehmensanleihen)
  • Tatsächlich liegt die praktische Nutzungsdauer von GPUs oft nur bei 1 bis 3 Jahren (laut Aussagen von Google-Entwicklern und realen Fällen bei Meta)
Unternehmen Vor 2020 2020 2022~2023 2024~2025 Veränderung
Amazon 3 Jahre 4→5 Jahre 5 Jahre 6→5 Jahre erste Verkürzung
Microsoft ca. 3 Jahre 4 Jahre 6 Jahre 6 Jahre +100 %
Google ca. 3 Jahre 4 Jahre 6 Jahre 6 Jahre +100 %
Meta ca. 3 Jahre 4 Jahre 4,5→5 Jahre 5,5 Jahre +83 %
CoreWeave N/A N/A 4→6 Jahre 6 Jahre +50 % (GPU)
Nebius N/A N/A 4 Jahre 4 Jahre Branchenstandard
  • Amazon setzte 2025 den Abschreibungszeitraum wieder von 6 auf 5 Jahre zurück und wandte damit als erstes Unternehmen eine konservativere Bilanzierungspraxis an

  • Während CPUs üblicherweise 5 bis 10 Jahre genutzt werden, werden GPUs in KI-Datacentern im realen Betrieb oft schon nach 1 bis 3 Jahren ersetzt (Meta Llama 3: 9 % Ausfallrate pro Jahr → prognostiziert 27 % Defektquote über 3 Jahre)

  • Wichtige Finanzhäuser (z. B. Cerno Capital) stellen die Frage, ob diese Abschreibungspolitik die tatsächliche wirtschaftliche und technische Realität widerspiegelt oder eher eine Strategie der „optischen Täuschung“ zur Ablenkung der Investorenaufmerksamkeit ist

4. Einsatz von SPV-Strukturen (Special Purpose Vehicles)

  • Große Tech-Unternehmen finanzieren den Bau von Datacentern über SPV-Joint-Ventures mit Private-Equity-Häusern wie Apollo

    • Das SPV besitzt und betreibt das Datacenter und stellt es dem Tech-Unternehmen per langfristigem Leasing zur Verfügung
    • Die Schulden des SPV erscheinen bilanziell nicht in den Abschlüssen des Tech-Unternehmens (Off-Balance-Sheet)
    • Üblich ist eine Struktur mit 10 bis 30 % Eigenkapital und 70 bis 90 % Fremdkapital
  • Diese Struktur bietet Vorteile wie den Schutz der Bonität und eine geringere Sichtbarkeit der Investitionskosten; sinken jedoch Datacenter-Auslastung oder GPU-Werte, tragen zuerst die Inhaber der dünnen Eigenkapitalschicht die Verluste

  • Datacenter-Assets machen inzwischen 10 bis 22 % der Portfolios großer REITs aus, nachdem ihr Anteil vor zwei Jahren noch bei null lag

5. Wettbewerbsrisiko durch kundenspezifisches Silizium

  • Der Einsatz selbst entwickelter KI-Beschleuniger breitet sich aus, etwa bei Microsoft (Maia), Google (TPU), Amazon (Trainium/Inferentia) und Meta (MTIA)
  • Wechseln Kunden auf eigene Chips, sinkt der Wert GPU-besicherter Assets bei Unternehmen wie CoreWeave, und Nvidias Vendor-Financing-Risiko steigt

Der grundlegende Unterschied zwischen Nvidia und Lucent

  • Lucent: 1,1 Milliarden US-Dollar Umsatzmanipulation, 10 Führungskräfte von der SEC angeklagt, fehlendes Vertrauen in die Abschlüsse
  • Nvidia: Prüfung durch PwC, Rating-Verbesserungen, jährlich über 50 Milliarden US-Dollar Cash-Generierung, 46,2 Milliarden US-Dollar Nettoliquidität (2024)
  • Lucent: Die meisten Kunden waren stark fremdfinanziert und defizitär
  • Nvidia: Die wichtigsten Kunden (Microsoft, Alphabet, Amazon, Meta usw.) verfügen 2024 über 451 Milliarden US-Dollar operativen Cashflow und solide Fundamentaldaten
  • Bei Lucent lag die Nutzung im Verhältnis zu den Investitionen bei nur 0,002 %, während Nvidias größte Kunden von KI-Infrastrukturknappheit (Lieferbegrenzungen) berichten

Wichtige Kennzahlen zur Beobachtung

  1. GPU-Auslastung: Es muss laufend beobachtet werden, ob GPUs in realen Datacentern ausreichend genutzt werden oder nur als Bestand geparkt sind
  2. Rentabilität von OpenAI: Es ist zu prüfen, ob der massive Infrastrukturausbau zu ausreichenden Erträgen führt
  3. Anzeichen fauler Schulden: Im Markt für GPU-besicherte Kredite im Umfang von 15 Milliarden US-Dollar muss auf Signale von Zahlungsausfällen geachtet werden
  4. Trend im AR-Management (Accounts Receivable): Die AR-Quote verbessert sich zwar (68 %→30 %), doch eine erneute Verschlechterung bleibt zu beobachten
  5. Kundendiversifizierung: Es ist zu verfolgen, ob neue Kundenschichten erschlossen werden und wie stark die Abhängigkeit von wenigen Großkunden bleibt
  6. Custom-Silicon-Thema: Wenn Hyperscaler auf eigene Chips umsteigen, steigt Nvidias Finanzierungsrisiko
  7. Trend zur Vendor-Konsolidierung: Nach vielen Marktversuchen mit Alternativen könnte sich die Nachfrage am Ende auf wenige Anbieter konzentrieren
  • Die tatsächliche KI-Nutzung in den USA ist von 20 % im Jahr 2023 auf 40 % im Jahr 2025 stark gestiegen
  • Laut MIT-Studien liefern jedoch 95 % der KI-Einführungspiloten keine substanziellen finanziellen Ergebnisse, was auch auf Integrationsprobleme hinweist
  • Dennoch zeigen sich positive Signale: Die Löhne von KI-Fachkräften haben sich verdoppelt, und die Produktivität der Nutzer stieg um bis zu 40 %
  • OpenAI verzeichnete im ersten Halbjahr 2025 einen Umsatz von 4,3 Milliarden US-Dollar bei 4,7 Milliarden US-Dollar Verlust (die Hälfte davon aktienbasierte Vergütung) und bleibt damit defizitär
  • Anders als in der Vergangenheit verfügen die heutigen Großkunden über ausreichend liquide Mittel, steuern stärker leistungsorientiert und haben reale Infrastrukturnachfrage

Fazit: Strukturelle Risiken zirkulärer Finanzierung und der KI-Markt 2025

  • Nvidias Strategie des großvolumigen Vendor Financing nutzt eindeutig Wachstum und Technologiedruck, birgt jedoch Risiken wie Kundenzentration, Schwankungen der Asset-Werte und die Einführung kundenspezifischer Siliziumchips
  • Wie der Fall Lucent zeigt, können überbewertete Assets, faule Schulden und sinkende Bilanztransparenz Risiken schnell real werden; daher ist eine strenge Beobachtung zentraler Metriken und Markttrends erforderlich

Anhang: Lucents Bilanzbetrug und die Krise der zirkulären Finanzierung

  • Lucent geriet 2000 wegen Bilanzbetrugs unter SEC-Untersuchung (Manipulation von 1,15 Milliarden US-Dollar Umsatz und 470 Millionen US-Dollar Vorsteuergewinn)
    • „Channel Stuffing“: Noch nicht verkaufte Produkte wurden vorab an Distributoren ausgeliefert und pauschal als Umsatz verbucht
    • „Side Agreements“: Neben den Distributionsverträgen wurden Rückgaberechte und Sonderkonditionen eingeräumt, während der Umsatz dennoch erfasst wurde
    • „Manipulation von Rückstellungen“: Durch überhöhte Bildung und Auflösung von Verlustreservierungen wurde die Ergebnisvolatilität geglättet
  • Lucent erhielt eine Strafzahlung von 250 Millionen US-Dollar, und 10 Führungskräfte wurden angeklagt
  • Ein prominenter Fall war WinStar: Nach einer Finanzierung über 2 Milliarden US-Dollar ging WinStar insolvent, und Lucent verbuchte einen Verlust von 700 Millionen US-Dollar
  • In diesem Muster wurden 2001 bis 2002 insgesamt 3,5 Milliarden US-Dollar an Wertberichtigungen auf Forderungen gebildet — ein typischer Fall, in dem sich das tatsächliche Ausfallrisiko materialisierte

1 Kommentare

 
GN⁺ 2025-10-06
Hacker-News-Kommentare
  • Ich habe in den 90ern bei einem kleinen lokalen ISP gearbeitet; damals war Lucent bei Internet-Equipment ganz vorne. Wir nutzten den Portmaster 3 für Dial-up-Verbindungen und haben uns auch Lucents frühe Funktechnik angesehen.
    Dank des Telecommunications Act von 1996 mussten Telekommunikationsanbieter ihre Infrastruktur an Dritte vermieten, wodurch die T1-Mietpreise für ISPs stark sanken (ein T1 fiel von 1.800 Dollar pro Monat im Jahr 1996 auf 600 Dollar im Jahr 1999). Danach verklagten die Carrier die FCC, und 2003 wurde das Gesetz faktisch ausgehebelt.
    Wikipedia-Erklärung zu Competitive Local Exchange Carriers

    • Je nach Region gab es große Preisunterschiede. Bei dem kleinen ISP, bei dem ich arbeitete, fiel ein T1 von 1.500 Dollar pro Monat auf 500 Dollar; später kostete der T1-Loop bis zum Kunden 100 Dollar pro Monat, und für einen OC12-SONET-Ring, der alle Leitungen zurück ins Rechenzentrum backhaulte, zahlten wir mehrere Tausend Dollar.
      Die Hauptursache all dieser Preisbewegungen war die im Telekommunikationsgesetz festgelegte Pflicht der ILECs, ihre Netzelemente entbündelt zu verkaufen.
      Da die meisten CLECs ebenfalls die physische Infrastruktur der regionalen ILECs nutzten, war die strukturelle Veränderung erheblich.
      Interessant ist, dass Ende der 90er, als Dial-up noch dominierte, Voice-T1-PRI-Leitungen (250 Dollar pro Monat) günstiger waren als Data-T1s (500 Dollar pro Monat), weshalb sie häufig genutzt wurden.
      Auch nachdem das Gesetz entkräftet worden war, verkauften die ILECs weiterhin Wholesale-/Unbundled-Services; offenbar hatten sie bereits erkannt, wie profitabel dieses Geschäft war.

    • Ich habe während des Telekom-Booms in einem Startup gearbeitet.
      Damals kauften Firmen wie Cisco sogar Startups ohne Produkt, IPOs waren der einzige Exit, und Ingenieure unterlagen einer sechsmonatigen Lock-up-Frist.
      Die Glücklichen kamen noch per IPO oder Verkauf vor dem Absturz raus, und nach dem Platzen der Blase trocknete das Kapital aus, sodass fast alle Startups untergingen.
      Nach Jahren der Flaute begannen neue IT-Firmen wieder zu entstehen.

    • Es klingt interessant, dass schon vier Jahre Regulierung das Kräfteverhältnis zwischen großen Telekomkonzernen und kleinen ISPs verschoben haben sollen. Ob das wirklich so war, ist spannend.
      Die Erklärung, dass gezielte Regulierung die Entwicklung des Internets angefacht hat, widerspricht den üblichen Vorhersagen, dass ohne Deregulierung alles scheitern würde.
      Dass selbst ein so kurzzeitig geltendes Gesetz ausgereicht haben soll, höre ich zum ersten Mal.

    • Die Zerstörung des Telekom-Wettbewerbs und die Duldung von Monopolen waren ein großes Problem des Justizsystems.
      Das Gesetz war eindeutig, aber die Gerichte ignorierten die Gesetzgebung faktisch mit der Begründung, „Glasfaser zu verlegen ist teuer“.
      Was Preise angeht: T1- oder OCx-Leitungen wurden zwar weiterhin viel genutzt, aber zwischen 1996 und 1999 kam DSL auf und drückte die Preise stark.

    • Gesetzesänderungen könnten das Timing des Preiskriegs und der Telekom-Blase beeinflusst haben.
      Aber der Preiskrieg selbst war unvermeidlich, und die Blase war ebenfalls ein sehr wahrscheinliches Phänomen.
      Die Investitionen in Telekom-Infrastruktur waren eine Reaktion auf die völlig verrückt ansteigenden Dotcom-Aktienkurse.

  • Glasfasernetze nutzten weniger als 0,002 % ihrer maximalen Kapazität, und es gab Spielraum für Geschwindigkeitssteigerungen um das 60.000-Fache; es war einfach zu früh.
    Ich glaube nicht, dass GPUs in ähnlicher Weise ungenutzt bleiben werden.
    Wenn man sie für Dinge einsetzen kann wie „Denk über Nacht über die Codebasis nach, finde eine bessere Refactoring-Methode und schlag sie mir morgen vor“, wird deutlich mehr GPU-Nutzung nötig sein als heute.
    Wenn eine GPU-Minute 0,1 Dollar kostet, sind das 48 Dollar für eine Nachtlaufzeit – das scheint ziemlich wertvoll zu sein, egal ob für Code-Verbesserungen, Autodesign, Buchcover oder Geschäftspläne.

    • Ich glaube zwar auch nicht, dass GPUs nutzlos herumliegen werden, aber ich denke eher, dass es zwangsläufig trotzdem dazu kommen wird.
      Unternehmen kaufen weiterhin alles an GPUs auf, als sei die Nachfrage unendlich.
      Gleichzeitig setzt LLM-Müdigkeit ein, Modelle werden kleiner und Consumer-Hardware verbessert sich.
      Am Ende wird es zwangsläufig viele ungenutzte GPUs geben.

    • Die Behauptung, dass man GPUs für Code-Verbesserungen brauche, ist eher eine kleine Geschichte.
      Schon bald wird generative KI für ultra-hochauflösende Filme verwendet werden, sogar mit HDR und 120 Bildern pro Sekunde.
      Solche Arbeiten werden 100 bis 1000 Dollar pro Minute kosten und enorme Mengen an GPUs verschlingen.
      Auch das US-Militär plant bereits generative KI zur Visualisierung des Gefechtsfelds; das erfordert noch dichtere Rechenlasten als hochauflösende Videos.

    • Die Vorstellung, dass KI eine Codebasis „verbessern“ kann, ist interessant.
      Ich habe noch nie gesehen, dass sie das in der Praxis wirklich tut, also glaube ich es erst, wenn ich es sehe.

    • Durch Verbesserungen bei Algorithmen und Verfahren könnte auch ältere Hardware weiterhin nützlich bleiben.

    • Diese Fantasie von „Denk über Nacht über die Codebasis nach …“ beruht grundsätzlich auf einer falschen Annahme.
      Aktuelle LLMs können reale Probleme nicht eigenständig substanziell lösen.
      Viele hoffen, dass sie es irgendwann können, aber ich halte das aktuelle Niveau für die Leistungsgrenze von LLMs.
      Die jüngste KI-Blase ist das Ergebnis einer massiven Überinterpretation des frühen Abschnitts der S-Kurve der Technologie.
      Stand heute reicht das nicht aus.

  • Frühere Blasen sind ein gewisser Referenzpunkt, aber nicht besonders aussagekräftig.
    Dotcom-Blase, Eisenbahnblase und so weiter – jeder Moment ist anders.
    Im Kern geht es um Geschäftsmodell und ROI.
    Selbst wenn die Geldströme gesund aussehen, droht am Ende der Zusammenbruch, wenn die wirtschaftlichen Erträge nicht historisch außergewöhnlich sind.
    Alle jagen derselben goldenen Gans hinterher.

    • Als Bezos den Plan erwähnte, Rechenzentren mit mehr als 10 GW im All zu bauen, kam mir der Gedanke, dass es hier vielleicht weniger um ROI geht als um zukünftige Machtstrukturen – also den Aufbau einer Welt, in der Superreiche auf Arbeitskräfte nicht mehr angewiesen sind.
      Zugehöriger HN-Kommentar
      Artikel zu Bezos’ Aussage über Weltraum-Rechenzentren

    • Wenn man sich zu sehr an vergangenen Mechanismen festklammert, begrenzt man den Raum künftiger Möglichkeiten übermäßig.
      Auch die Dotcom-Blase war nur einer von vielen „möglichen Pfaden“.
      Wenn man immer nur so denkt, übersieht man womöglich, wie sich die nächste Blase tatsächlich materialisieren wird.

    • Ich frage mich, ob der Unterschied in der Bilanzierung zwischen Lucent und Nvidia, Microsoft, OpenAI und Google in Wahrheit einfach eine Fortentwicklung „raffinierterer Lügen und des Übertreibens über die Realität hinaus“ ist.
      Erst wenn die Blase platzt, kommen die echten Zahlen zum Vorschein.

    • Dieses Mal ist es auch deshalb anders, weil Fiatgeld und staatliche Rückendeckung mit im Spiel sind.

  • Ich war mitten im Dotcom- und Telekom-Crash, und gerade der Telekom-Crash war deutlich schlimmer.
    Glasfaser rostet nicht, aber es wurde massiv zu viel verlegt, und zehn Jahre später waren dank DWDM-Technik von acht Fasern nur zwei tatsächlich in Gebrauch (mit viel mehr Wellenlängen als früher).
    Ich frage mich, welchen Gebrauchtwert GPUs in zehn Jahren haben werden und ob es für überinvestierte GPUs so etwas wie eine „DWDM-artige Lösung“ geben könnte.
    Wir leben gerade in einer extrem interessanten Zeit.

  • Nvidias größtes Problem ist, dass sein Umsatz nicht dauerhaft ist, der Markt ihn aber bewertet, als wäre er wiederkehrend, obwohl es in Wirklichkeit CAPEX-Ausgaben sind, die vielleicht nur ein oder zwei Jahre anhalten.
    Ich glaube schlicht nicht, dass diese Struktur so weiterlaufen kann.

    • Die NVDA-Aktie ist nicht extrem teuer; sie liegt nur beim 25-Fachen des EPS.
      Das Umsatzwachstum ist schnell, und die wichtigste technologische Verschiebung der Geschichte steht bevor.
      Der Markt preist die Wachstumsverlangsamung zum Teil bereits ein.

    • Bei Unternehmen wie Zoom oder Peloton, die während Corona Aufmerksamkeit bekamen, unterstellte der Markt ähnlich, dass die Zukunft ewig so weitergehen würde.
      Der Markt wiederholt dieses Muster ständig; zuletzt galt das auch für 3D-Druck und alternatives Fleisch.
      Das Investment in OpenAI kann man als Hedge gegen eine Verlangsamung der CAPEX-Ausgaben lesen.

    • Jedes Mal, wenn Nvidia etwas ankündigt, sind die Grafikkarten sofort ausverkauft.
      Die Margen sind gewaltig, aber trotzdem können sie die Nachfrage nicht vollständig bedienen.

    • Letztlich ist das einfache Ökonomie.
      Wenn die Nachfrage auch nur einmal ins Stocken gerät, wird der Markt mit gebrauchten GPUs überschwemmt, und niemand muss mehr neue kaufen.
      Dann wird es für Nvidia unmöglich, die heutigen Umsätze fortzuschreiben.

    • Bei TSLA ist es genauso.
      Die Börse ist faktisch eine Bank für Reiche, nur verkleidet als Kredite und Credit.
      In Wahrheit ist es eine Blase, aber das ist vor allem ein Problem für Reiche.
      Normale Leute wie wir sind bloß Kleinanleger.

  • Als ich bei „dem Telekomunternehmen unter den Telekomunternehmen“ arbeitete, haben wir Dark Fiber wegen der mobilen Datennachfrage erst 15 Jahre später, also 2015, überhaupt erst aktiviert.
    Das Ausmaß der Überverlegung war wirklich enorm.
    Glasfaserkabel waren immer nützlich, aber ob GPUs so lange verwendbar bleiben, da habe ich Zweifel.
    Ich spreche aus persönlicher Erfahrung.

    • Neue Glasfaser wurde nicht wirklich viel energieeffizienter.
      Aber die Effizienz des Baggers, der den Boden dafür aufreißt, hat sich auch überhaupt nicht verändert.

    • Auf die Frage „Werden diese Karten lange nutzbar sein?“ hieß es im Artikelbeispiel, dass der Stress so hoch sei, dass die Lebensdauer nur ein oder zwei Jahre betragen könnte.

    • Im Jahr 2005 waren Telekomunternehmen wegen der Ferngesprächsgebühren Gelddruckmaschinen, und wenn sogar mechanische Vermittlungsstellen schon abgeschrieben waren, floss das Geld in Strömen hinein – Regulierung garantierte die Gewinne.
      Aber auch dieses Modell hielt nicht lange, und in vielen Regionen versuchte man sich auf Managed Services auszuweiten, um „unregulierte Erträge“ zu erzielen, etwa mit Lösungen wie DataDog.
      Die Natur des Geschäfts und irrationaler Optimismus können ein Unternehmen jederzeit zu Fall bringen.

    • Die Chips selbst werden vielleicht nicht lange leben, aber die darin steckende F&E bleibt wertvoll.
      Die Frage ist, wie viel dieses Werts tatsächlich abgeschöpft werden kann.

    • Ich denke, die Hochdichte-Rechenzentren, die zur Unterstützung der Hyperscaler gebaut werden, ähneln im Grunde der Überverlegung von Dark Fiber.
      Als man 2015 die Glasfaser aktivierte, hat man vermutlich nicht dieselben Leitungskarten verwendet, die 1998 gekauft worden waren.

  • Grundsätzlich ist die größte Frage die Unsicherheit darüber, ob AGI erreicht wird.
    90 % der aktuellen Topline-Investitionen setzen offenbar darauf, dass das in den nächsten zwei bis fünf Jahren gelingt.
    Wenn das nicht schnell genug kommt, besteht das Risiko, dass das Investoreninteresse abrupt nachlässt.
    Derzeit hält man das Interesse mit Benchmark-Fortschritten aufrecht, aber ich erwarte, dass in sechs bis zwölf Monaten auch die neuen Meilensteine ausgereizt sind.
    Der echte nächste Schritt wäre, tatsächliche Ergebnisse in Softwareentwicklung, Krebsforschung, Robotik und ähnlichen Bereichen zu zeigen.
    In der aktuellen Struktur halte ich das für schwierig.

    • Ich glaube, AGI ist noch weit entfernt.
      Die größte Chance liegt meiner Ansicht nach in Bereichen wie Recht und Medizin, in denen die Wissensbasis riesig ist und Menschen sie sich erst im Graduate-Studium aneignen.
      Gerade beim Coding wird der Einsatz von LLMs besonders stark zunehmen.
      Das Problem ist, dass, sobald die aufgestauten Altlasten wie lästige Refactorings abgearbeitet sind, allein neue Codegenerierung diese Hardware-Nachfrageblase niemals in der heutigen Form aufrechterhalten kann.

    • Selbst die Hyperscaler geben nicht einmal die Hälfte ihres operativen Cashflows für AI-CAPEX aus.
      Wenn sie wirklich auf das Erreichen von AGI wetten würden, müsste das Volumen viel größer sein.

    • „Dein aktueller Zweifel könnte genauso unbegründeter Skeptizismus sein wie vor fünf Jahren die Behauptung, denkende Maschinen seien unmöglich – die heutigen LLMs gibt es schließlich bereits.“

    • Ich verstehe nicht, warum die Leute Downvotes vergeben.
      Wenn man nur mit KI-Forschern spricht, hat man ziemlich realistische Erwartungen.
      Aber gerade Business-Leute ohne technisches Verständnis haben oft völlig überzogene Erwartungen.
      Sie rechnen in der Art: „Für 20 Dollar im Monat erledigt ChatGPT die ganze Arbeit“, und passen schon jetzt Personal, Budgets, Planung und Recruiting entsprechend an.
      Wenn das in einem Jahr offensichtlich nicht funktioniert, kippt die Haltung gegenüber KI sofort ins Gegenteil um – Wut, Vermeidung, Misstrauen gegenüber neuen Produkten und so weiter.
      Wenn sich Fehlschläge häufen, verlangsamt sich das Wachstum, und dann kommen Investorenangst, Kursstürze und sinkende Bewertungen gleich mit.

  • Was ich nicht verstehe, ist der Optimismus, dass die GPU-Nachfrage für Training weiter so stark wachsen soll wie jetzt.
    Inference-Nachfrage verstehe ich, aber es gibt bereits viele hervorragende freie Modelle, und sie laufen auch auf Consumer-Geräten wie dem Apple M4 oder AMD Max APU gut.
    Unter diesen Umständen frage ich mich, ob wirklich noch so viel zusätzliche GPU-Investitionsnachfrage übrig ist.

    • Ich denke, Reinforcement Learning wird das neue Schlachtfeld für GPU-Nachfrage.
      Zum Beispiel die Veränderungen bei o1, o3, GPT-5, Sonnet 3.7, 4 und 4.5.
      Wenn alle Inference auf B200 fahren können, werden die Modelle vielleicht wieder größer, aber aktuell ist der GPU-Hunger in den RL-Trainingsbudgets am stärksten.

    • Es gibt auch das Argument, dass das eigentliche Endziel eine endlose Konkurrenz ist, bei der man immer mehr GPUs laufen lässt, um AGI einen weiteren Schritt näherzukommen.

    • Ich vermute, dass Continuous Learning der nächste Treiber zusätzlicher GPU-Nachfrage sein wird.

    • Inference wird am Ende aus Kostensicht am günstigsten in einer geteilten Cloud-Struktur laufen.
      Die meisten B2B-Anwendungsfälle werden sich meiner Ansicht nach in Richtung AWS und anderer Rechenzentren verlagern.
      Spezialfälle wie CERN oder Apple Siri werden auf dedizierte Hardware wie FPGAs oder stromsparende ASICs setzen, aber darüber hinaus wird „Cloud-basiert“ immer mehr zum Standard.

  • In der Dotcom-Blase erzeugte Werbung einen Kreislaufeffekt.
    VCs steckten Geld in Startups, und die Startups gaben dieses Geld für Werbung bei Yahoo und ähnlichen Firmen aus.
    Yahoos Umsatz schoss nach oben, der Aktienkurs stieg, und das galt als Signal, dass man im Internet Geld verdienen könne, was wiederum den IPO-Markt für andere Startups vergrößerte.
    Je stärker das Geld zirkulierte, desto länger lief der Kreislauf aus Werbung → Umsatz → Marktkapitalisierung → mehr VC-Investments → mehr Werbung weiter.

  • In Referenz 14 hieß es, OpenAI werde Nvidias GPUs nicht per Einmalzahlung kaufen, sondern leasen.
    Deshalb fällt es mir schwer zu verstehen, warum Nvidia sagt: „Wir haben hier investiert.“
    Wenn es sich um Leasing handelt, kassieren sie doch einfach Leasinggebühren – warum nennt man das ein Investment? Worin genau hat Nvidia da „investiert“?

    • Nvidia muss zu Beginn Kapital vorstrecken, um die GPUs zu produzieren und zu liefern, und wenn diese Vermögensallokation am Ende nicht sauber abgerechnet werden kann – etwa bei einer Kundeninsolvenz –, trägt Nvidia das Risiko.
      Im Gegenzug zu diesem Risiko erwartet man eine zusätzliche Vergütung, und genau deshalb hat die Struktur Investment-Charakter.

    • Ich bin kein Buchhaltungsexperte, aber ich vermute, dass Nvidia nach Ablauf des Leasings nur noch einen abgeschriebenen Vermögenswert mit geringem Wert in der Hand hält.
      Anders als beim Fahrzeugleasing dürfte der Gebrauchtmarkt für GPUs nicht besonders groß sein.
      Das heißt, Nvidia liefert die GPUs letztlich „auf Raten“, statt den vollen Betrag im Voraus zu erhalten.
      Ich frage mich, ob die Summe der Leasingraten überhaupt den Kosten entspricht.