- OpenAI steht vor der Situation, in den nächsten 12 Monaten mehr als 400 Milliarden US-Dollar aufbringen zu müssen
- Der Betrag ist für den massiven Ausbau nötig, zu dem großflächiger Rechenzentrumsausbau, AI-Chip-Verträge sowie Personalkosten und Vertriebsaufwand gehören
- Der Bau eines Rechenzentrums wird bereits auf 5 bis 60 Milliarden US-Dollar geschätzt, und OpenAI strebt Kapazitäten von 33 GW bis 2029 und 250 GW bis 2033 an
- Diese Geschwindigkeit und dieses Ausmaß würden die globalen Grenzen von Finanzmärkten und Infrastruktur nahezu unmöglich machen
- Bei Umsetzung des jetzigen Plans würde OpenAI den globalen Kapitalmarkt massiv belasten und zugleich erhebliche Risiken für Investoren und die gesamte Branche schaffen
Überblick
- OpenAI muss für die ambitionierten Pläne zum massiven Bau von Rechenzentren, Chip-Verträgen und Betriebskosten in einem beispiellosen Tempo Mittel beschaffen
- Für das nächste Jahr allein werden mindestens 400 Milliarden US-Dollar benötigt, was eine erhebliche Belastung nicht nur für OpenAI selbst, sondern auch für das globale Finanzsystem bedeutet
- Das Narrativ, die kürzlich angekündigte 10-GW-Partnerschaft für kundenspezifische Chips und die Zusagen für den Einsatz vieler GW seien „vernünftig und umsetzbar“, wird in Frage gestellt
- Die Schätzung müsste pro 1 GW auf 50 Milliarden US-Dollar angehoben werden, und der Gesamtaufwand müsste Gebäude-, Strominfrastruktur- und Networking-Anteile enthalten
- Bei einer minimalen Vorlaufzeit von 2,5 Jahren sowie einzuplanender Reserveleistung ist der Zeitplan daher nahezu unmöglich
- Die Erhöhung der bisherigen Annahme von 32,5 Milliarden US-Dollar pro GW auf 50 Milliarden US-Dollar pro GW wird auf eine Unterbewertung von Chippreisen, Networking, Zusatzinfrastruktur und Fremdbeteiligungen zurückgeführt
- Dazu zählen Annahmen zu GB200/Blackwell-Kosten und Stückzahlen, der Beschaffung über Lancium sowie dem Maßstab von acht Bauabschnitten mit jeweils 50.000 GPUs
Zeitplancheck für die zweite Jahreshälfte 2026
- Broadcom: Zielbild 2026 in der zweiten Jahreshälfte mit Tape-out für Inferenz-Chips, Serienfertigung und 1 GW Einsatz
- Der Standort ist offen, der Baubeginn steht aus; außerdem braucht es pro IT-1 GW 1,2 bis 1,3 GW Gesamtstrom, wodurch es zu Terminkonflikten kommen dürfte
- AMD: 2026 in der zweiten Jahreshälfte ist die erste Bereitstellung von 1 GW MI450 geplant
- Dafür müssten Beschaffung, Stromverträge und Baubeginn bereits im Vorjahr erfolgen
- NVIDIA: 2026 in der zweiten Jahreshälfte ist der Einsatz von 1 GW Vera Rubin vorgesehen
- Auch hier müssten Standort, Strom und Bau bereits in Vorbereitung und im Lauf der Zeit sein
- Selbst bei konservativer Betrachtung werden über 100 Milliarden US-Dollar benötigt; vorauszahlungsartige Liquiditätsbereitstellung oder ein großes Konsortium scheinen unumgänglich
Skepsis zu den Aussagen zu Nachfrage, Traffic und Kapazität
- Die wöchentliche 800-Millionen-MAU-Kennzahl kann Mehrfachzählungen enthalten; die 250-GW- und 10-Billionen-USD-Zielsetzung 2033 wird als unrealistisch bewertet
- Bei einem weltweiten DC-IT-Verbrauch von 55 GW im Jahr 2024 wäre eine Fünffachung innerhalb von acht Jahren bei einem einzelnen Unternehmen beispiellos
- Bei der Produktqualität wirken die jüngsten Einschränkungen von GPT-4.5, GPT-5 und Sora 2 schwach, sodass sich die Wertschöpfung gegenüber dem enormen F&E-Verbrauch in Frage stellt
- Externe Analysen deuten darauf hin, dass unter den 11 bis 12 Milliarden US-Dollar F&E-Aufwendungen 2024–2025 nur begrenzte Kosten für das Training produktiv genutzter Modelle anfielen
Erforderliches Kapital innerhalb von 12 Monaten (Schätzung des Autors)
- Broadcom-Planung 1 GW: etwa 50 Milliarden US-Dollar
- NVIDIA-Planung 1 GW + Chipkäufe: etwa 50 Milliarden US-Dollar
- Compute-Kosten 2026 (via Oracle·CoreWeave·Azure·GCP): etwa 40 Milliarden US-Dollar
- AMD-Planung 1 GW + Chipkäufe: etwa 50 Milliarden US-Dollar
- Entwicklung von Consumer-Geräten: etwa 500 Millionen US-Dollar
- Zusammenarbeit bei ARM-basierter CPU-Entwicklung: etwa 1 Milliarde US-Dollar
- Anpassungen für sonstige OPEX wie Vertrieb, Marketing, Gehälter: etwa 10 Milliarden US-Dollar
- Summe 391,5 Milliarden US-Dollar ≈ 400 Milliarden US-Dollar; erheblicher unmittelbarer Liquiditätsbedarf vor Februar 2026
Finanzielle Zwänge und strukturelle Risiken
- Im Kontext der geschätzten Ausgaben im ersten Halbjahr 2025 von 6,7 Milliarden US-Dollar für F&E und 2,0 Milliarden US-Dollar für S&M ist der Cash-Abfluss anhaltend
- Für das erste Halbjahr 2026 wird ein Rechenressourcenverbrauch von 9,2 Milliarden US-Dollar bei 4,3 Milliarden US-Dollar Umsatz geschätzt, was eine gegenläufige Margenstruktur ergeben würde
- Die Frist für den Wechsel von Nonprofit zu Profit, plus die bedingte 20-Milliarden-USD-Zusage von SoftBank erzeugen Governance- und vertragliche Meilensteinrisiken
- Auch die Bedingung zur Schuldenumwandlung im Oktober 2026 aus der 6,6-Milliarden-USD-Runde von 2024 gilt als zusätzliche Belastung
Realismus von Infrastrukturdeals wie bei Oracle und CoreWeave
- Zur 300-Milliarden-USD-Vertragsbindung über fünf Jahre mit Oracle werden laut Schätzung 4,5 GW IT-Leistung benötigt
- Stargate Abilene hat derzeit nur 200 MW Strom gesichert, mit Reservebetrachtung eher 130 MW IT-Leistung
- Das Shackelford-Areal mit 1,4 GW befindet sich am Anfang der Bauphase; bei erstem Gebäude in H2 2026 wäre eine vollständige Inbetriebnahme eher erst ab 2027 sinnvoll
- Bei dem Stand von CoreWeave, das Ende 2025 von maximal 900 MW spricht, ist die Lücke zu einem behaupteten „2 GW Betrieb 2025“ deutlich
Grenzen von Kapitalmärkten, Lieferkette und Stromnetz
- Der erforderliche Finanzierungsbedarf übersteigt die weltweiten VC-Mittel von 368 Milliarden US-Dollar im Jahr 2024; im Vergleich zu Private-Equity-Deals und globalem Handel ist die Aufnahmekapazität klar begrenzt
- Es gibt gleichzeitige Engpässe bei Transformatoren, Stromstahl, HV-Infrastruktur, Kühlung, dem Reserveanteil des Netzes und dem Bedarf an qualifizierter Fachkraft; Terminüberschneidungen sind damit kaum vermeidbar
- Diese Veröffentlichungen wirken insgesamt stark wie ein Kurs- und Deal-getriebenes Narrativ, während die tatsächliche Umsetzbarkeit als gering eingeschätzt wird
Fazit
- Die Versprechen bis 2026 sind angesichts der realen Beschränkungen bei Zeit, Kapital, Ressourcen, Regulierung und Strom nur schwer zu erreichen
- Die Anforderung, in den nächsten 12 Monaten 400 Milliarden US-Dollar zu beschaffen, stößt auch aus Sicht der globalen Kapitalmarkt-Aufnahmekapazität auf harte Grenzen; bei Nichterfüllung droht ein steigendes Vertrauensrisiko
- Zentral ist die Schieflage zwischen überzogenen Kapazitätszusagen einerseits und Nachfrage, Produktstärke und Cashflow andererseits; ohne Neujustierung der Pläne, Governance-Nachbesserung und Neuaufbau der Finanzierungsstruktur sei die Entwicklung nicht dauerhaft tragfähig
1 Kommentare
Hacker-News-Kommentare
Selbst wenn man die Wachstumsrate von OpenAI beeindruckend findet, gibt es die Sichtweise, dass ein Zuwachs von 100 Millionen Nutzern in nur zwei Monaten nicht bedeutet, dass die gesamte Menschheit diesen Dienst ständig nutzen wird. Umgekehrt kann man bei diesem schnellen Wachstumstempo auch argumentieren, dass das Potenzial besteht, dass ihn die gesamte Menschheit dauerhaft nutzen könnte. Allerdings sollte man sich davor hüten, unbegrenztes exponentielles Wachstum anzunehmen, da die Wachstumskurve auch S-förmig verlaufen kann
Nur weil in zwei Monaten 100 Millionen Nutzer hinzugekommen sind, ist das kein Beleg dafür, dass alle Menschen ihn ständig brauchen. Popularität und Nützlichkeit sind nicht dasselbe. Daten dazu, wie sich die steigende Nutzung von LLMs auf Kennzahlen wie Produktivität auswirkt, wären überzeugender. Einige Studien zeigen sogar einen Rückgang der Produktivität bei Fachkräften. Zur Studie
Ich habe ChatGPT erst vor Kurzem persönlich als Suchmaschinen-Ersatz und ein bisschen nebenbei ausprobiert. Die klassische Suche ist inzwischen so schlecht, dass es sich anfühlt, als würde ein angeschlagener Boxer gegen einen 70-jährigen Champion kämpfen. Wenn das irgendwann auf meinem Laptop läuft, könnte es wirklich ein brauchbares Werkzeug werden
Der Engpass bei OpenAI hat sich zunächst von GPUs zu Energie verlagert. Der nächste Engpass sind „biologische Menschen“. Es gibt auch den Scherz, OpenAI werde wohl noch einen Weg finden, mehr Menschen zu erzeugen, um die Wachstumsrate zu halten
Langfristig könnte der eigenständige KI-Markt für die breite Masse stark schrumpfen, wenn in Browser, OS, Smartphones, Textverarbeitung und viele andere Produkte bereits ausreichend brauchbare KI eingebaut ist. Für Spezialtools, aktuelle Forschung und Coding-Tools wird es weiter Nachfrage geben, aber damit ein Unternehmen in der Billionenklasse aufzubauen, halte ich für schwierig
Tatsächlich zahlen nur etwa 5 % überhaupt die $20. Wie bei VR oder AR: Wenn es gratis ist, nutzt man es gelegentlich, aber man braucht es nicht so sehr, dass man selbst dafür zahlt. Ich denke, LLMs sind bereits zur Commodity geworden
Der Artikel war zwar interessant, aber die mit Abstand größte Bedrohung für OpenAI oder Anthropic sind faktisch Open-Source-Modelle. Modelle wie deepseek oder llama 3 holen schnell auf, und wenn man fast dieselben Funktionen für viel weniger Geld oder kostenlos auf der eigenen GPU nutzen kann, ist fraglich, worin dann noch das Wertversprechen von OpenAI besteht. Ich selbst habe zwar ein bezahltes OpenAI-Abo, aber ehrlich gesagt vor allem aus Bequemlichkeit, und für Dinge wie mathematische Verifikation nutze ich es ganz ordentlich. Angesichts des Preisniveaus bezweifle ich jedoch, dass das wirklich zu einem unverzichtbaren Unternehmensservice werden kann. Natürlich kann ich mich irren, weil bei OpenAI die besten Talente sitzen und das Unternehmen Kapital bekommt
Man sagt zwar, dass Open Source wie deepseek und llama 3 schnell aufholt, aber das Training großer Modelle kostet enorm viel, und was derzeit als Open Source freigegeben wird, ist letztlich ein Zustand, in dem kommerzielle Unternehmen zugunsten des Open-Source-Ökosystems Verluste in Kauf nehmen. Ich frage mich, was der Plan ist, falls diese Unternehmen aus Gewinnstreben plötzlich die Leiter wegziehen
Der Punkt, den der Autor machen will, ist, dass man realistisch auf die tatsächlichen Zahlen schauen muss. Es dauert auch ziemlich lange, überhaupt Leute zu finden, die Rechenzentren bauen und betreiben. Die Behauptung lautet, dass der im Artikel genannte Zeitplan realistisch unmöglich ist
Kurzfristig wird zwar viel Geld hineingepumpt, aber es ist fraglich, woher die tatsächliche Nachfrage kommen soll und wie stark ein Self-Service-Modell à la „llama direkt auf meiner GPU laufen lassen“ überhaupt zu den Umsätzen beiträgt. Irgendetwas daran wirkt unstimmig
Um deepseek, kimi oder glm schnell auf meiner GPU laufen zu lassen, brauche ich allein für die Hardware mindestens über $50,000. Um in die Nähe von OpenAI oder Anthropic zu kommen, braucht man Hunderte GB schnellen VRAM
Die meisten Leute nutzen OpenAI, weil sie mit IT nicht vertraut sind. Im echten Leben gibt es kaum normale Nutzer, die einen Adblocker verwenden. OpenAI hat sich im Bewusstsein der breiten Masse etabliert. Wenn sie wie Google Werbung hineingedrückt hätten, hätten sie eine noch stärkere Position aufbauen können, aber stattdessen auf Blasenökonomie und Investitionsbetrug zu setzen, war ein Fehlgriff
Alle sollten sich mal beruhigen. Altman wird das schon regeln. In 47 Tagen kommt ein Produkt namens ChatGPT 6 Recurd heraus und wird alle überraschen: Statt eines besseren Modells recycelt es ältere Modelle, kauft automatisch zehn ChatGPT-6-Tarife dazu und läuft dadurch viel besser. Danach wird noch schneller upgegradet, wobei sich die Leistung wiederholt um jeweils 1 % verbessert. Solch hyperexponentielles Wachstum wird leicht unterschätzt. Anfang 2026 wird man Billionen von Lizenzen verkaufen, ohne Begrenzung durch die Zahl menschlicher Kunden. Altman hat dafür bereits eine eigene Coin, ein automatisches Kreditsystem und sogar Compute-Futures-Handel geplant. Eine völlig neue Welt. Eine schöne neue „Alt/World!“-Welt
Ich frage mich, warum man Rechenzentren in „Gigawatt“ misst. Warum nicht nach tatsächlicher Rechenleistung (flops usw.)? Ehrlich gesagt denke ich auch, dass ich ein „1-GW“-Rechenzentrum mit einer einzigen 6502-CPU und einem Haufen Widerständen bauen könnte
Der Grund ist, dass elektrische Kapazität und Kühlung die größten Einschränkungen beim Bau von Rechenzentren sind. Die Compute-Leistung verändert sich im Lauf der Zeit stark, und tatsächlich kann man mit 1 GW auf Basis aktueller Chips wie dem GB200 etwa 5 Exaflops erreichen, je nach Präzision usw.
Ich habe in letzter Zeit ebenfalls etwas Erfahrung mit kleinem HW-/Rechenzentrumsbetrieb gesammelt und dabei gemerkt, dass neben den GPUs auch Switches, Firewalls und Storage viel Strom verbrauchen und viel Kühlung benötigen. Ab einer gewissen Größenordnung sind nicht maximale Compute-Leistung, Hz oder GB der entscheidende Engpass, sondern wie viel Strom man hineinbekommt und wie viel Wärme man nach draußen abführen kann. Es gibt zum Beispiel in Häfen Projekte, die überschüssigen Solarstrom mit großen Widerständen verheizen. Das Problem ist, sicher an Hochspannungsnetze anzubinden und die Wärme schnell abzuleiten
Da sich die Einheiten für Rechenleistung je nach Hardware und Workload unterscheiden, ist eine allgemeingültige Messung praktisch unmöglich. Die Stromkapazität kann man als Näherung für die zu diesem Zeitpunkt maximal mögliche Compute-Kapazität verstehen. So werden auch viele Variablen wie Region oder Kühlmethode mit abgedeckt
Nach Überschlagsrechnung könnte man mit 1 GW etwa 1,43 Milliarden 6502-Chips betreiben
Der eigentliche Grund, warum die Einheit „Leistung“ ist, liegt darin, dass sie die letzte gemeinsame Einheit aller Kosten ist, also von Compute-Effizienz, Hardwareinvestitionen, Skalierbarkeit usw.
Ich möchte betonen, dass mehr noch als das Anfangskapital für den Bau von Rechenzentren die Stromversorger der eigentliche Engpass der Industrie sind. Das nordamerikanische Stromnetz ist derzeit extrem knapp bei der Versorgung. Es bräuchte eine tiefgehende Untersuchung dazu, wie viel überschüssige Stromkapazität für wirklich große Rechenzentren überhaupt verfügbar ist und wann zusätzliche Kapazität ausgebaut werden kann. Der Bau von Kraftwerken ist ein extrem langsames Geschäft. Viele Investitionspläne für Rechenzentren scheinen davon auszugehen, dass Stromkapazität „magisch“ auftaucht oder dass es keinen Wettbewerb darum gibt
Die Behauptung „OpenAI wird im nächsten Jahr $400 Milliarden ausgeben“ ist problematisch. Tatsächlich investiert OpenAI nicht direkt selbst, sondern Oracle und andere bauen Rechenzentren, und OpenAI zahlt Miete. Da es sich um Leasingverträge handelt, müssen sie nicht die gesamten Baukosten von Anfang an aufbringen. Beispielsweise wird OpenAI ab 2027/2028 jährlich Mieten in den niedrigen $30-Milliarden-Bereich zahlen, mit einem schrittweisen Anstieg über fünf Jahre. NVIDIA und AMD bekommen ihre Investitionen je nach Milestone oder Chip-Einführung zurück, und letztlich ist es eher so, dass Lieferanten auf das Wachstum von OpenAI „wetten“ und Kredit gewähren. Das mag sehr ungewöhnlich und instabil sein, aber zu behaupten, man müsse „sofort $400 Milliarden in bar“ haben, ist eine falsche Logik. Die eigentliche Frage ist, ob der Umsatz von OpenAI bis 2028–2029 auf mindestens $60–70 Milliarden wachsen kann. Die Behauptung trägt nicht, vielmehr sind der Umsetzungszeitplan und der Fortschritt beim Umsatzwachstum das Risiko. Referenzlinks: CNBC - OpenAI-Rechenzentrum, w.media - Oracle-Mietvertrag, CNBC - Nvidia-Partnerschaft, TechCrunch - AMD liefert Chips
Ed Zitron bringt als Analyst viele falsche Behauptungen und Tatsachenfehler. Er hat auch in einem Beitrag behauptet, die „Inference-Kosten“ würden steigen. Dazu ein Beitrag
Die WAU (wöchentlich aktiven Nutzer) von OpenAI wachsen auf Jahresbasis derzeit ungefähr um 122,8 %, allerdings ist das ein Rückgang gegenüber 461,8 % vor rund zehn Monaten. Falls sich die Wachstumsrate stabilisiert, könnte OpenAI bis Ende 2028 auf einen Jahresumsatz von maximal $104 Milliarden und 6,4 Milliarden WAU kommen. Auf die Zahlen würde ich mich nicht festlegen, aber Oracle und Nvidia müssen ihre Aktienkurse gewissermaßen unter dieser Annahme halten. Tatsächlich verlangsamt sich das Wachstum etwa alle zwei Monate um rund 20 %, sodass um diese Zeit im nächsten Jahr wohl höchstens 1,2 Milliarden WAU und im Jahr danach 1,4 Milliarden WAU zu erwarten sind. Verglichen mit Google oder Facebook sind das immer noch niedrige Werte
Da OpenAI sich über Miete „über Wasser hält“, wird das tatsächliche Risiko faktisch immer stärker auf nachrangige Investoren oder die Allgemeinheit bzw. Rentenversicherte abgewälzt. Siehe Turtles all the way down
Wenn ich mir Sora 2 und die Animationskontroverse anschaue, bestätigt das für mich, dass sich eine durchschnittliche TV-Animationsstaffel oder ein Film für $10–20 Millionen produzieren lässt. Ich weiß nicht, wie hoch die tatsächlichen Entwicklungskosten von Sora 2 sind, aber wenn sie im Bereich von Hunderten Milliarden bis Billionen lägen, könnte man davon Tausende solcher Animationen produzieren. Das hat zwar mit LLMs wenig zu tun, aber selbst wenn KI am Ende Fachkräfte ersetzt, ist fraglich, ob der Nutzen im Verhältnis zur Investition wirklich sinnvoll ist
Tatsächlich dürften die Entwicklungskosten von Sora 2 weit eher viel niedriger sein als im Milliardenbereich
Ich frage mich, ob man mit Sora 2 tatsächlich eine richtige „Show“ produzieren kann. Bisher hört man immer nur von Kurzvideos; für eine echte Serie scheint noch ein technischer Sprung nötig zu sein
Mit Tools wie Sora oder Google Flow werden künftig wahrscheinlich auch Amateure günstig Inhalte in professioneller Qualität produzieren können. Tausende Animationen zu erstellen, ist kein grundsätzlich unmöglicher Bereich mehr
Ich denke, solche Megainvestitionen sind nur dann gerechtfertigt, wenn sie durch mehr als bloße Chatbot-ROI ausgeglichen werden
Ich frage mich, wie schnell sich so viel Geld tatsächlich in Kraftwerke, Rechenzentren, Siliziumdesign und -fertigung investieren lässt, ob die Infrastrukturbranche nach einer abrupten Blase ebenfalls in eine große Bereinigung gerät oder ob wirklich ein Umbruch auf Niveau einer industriellen Revolution bevorsteht. Es gibt auch ein Angebot zur Mitgründung eines Infrastruktur-Startups für hochsichere Embedded-Systeme
Es gibt die Frage, warum Anthropic keinen ähnlichen Kapitalbedarf hat
Anthropic ist bei der Offenlegung seiner Kosten zurückhaltender. Ed Zitron verfolgt derzeit intensiv die GCP-Kosten
Die Diskussion betrifft den Aufbau von „AGI“ und ist daher von den aktuellen Diensten von Anthropic getrennt zu sehen. Außerdem gibt es keine Garantie, dass Intelligenz mit mehr Rechenleistung unbegrenzt weiter ansteigt
Anthropic dürfte tatsächlich ähnliche Investitionen benötigen. Der Autor scheint sich nur auf OpenAI zu konzentrieren
Wenn das Wachstum anhält, wird auch Anthropic große Investitionen brauchen
Anthropic scheint bei Overflow aggressiver TPUs zu nutzen. Der jüngste Leistungsabfall bei Claude lag an Bugs im Zusammenhang mit TPUs und Implementierungsunterschieden, wodurch sich einiges über ihren gemischten Nvidia-/TPU-Betrieb vermuten ließ. Dass OpenAI seine Gewichte auf Google-Infrastruktur verteilt hat, scheint es bisher noch nicht zu geben
Ich würde gern fragen, wie sich das capex-Modell von Rechenzentren ändern könnte, wenn das Ziel 100 % Auslastung ist und capex-Effizienz wichtiger wird als node uptime (Verfügbarkeit). Ich denke, je nachdem, wie Nvidia und andere ihre Margen anpassen, könnten die Kosten noch um ein- bis zweistellige Prozentsätze sinken. Wenn OpenAI Rechenzentren mit geringerer Zuverlässigkeit als bisher an günstigen Standorten bauen würde, könnte das etwas realistischer sein. Dennoch ist es sehr wahrscheinlich, dass OpenAI bis nächstes Jahr mehr als $40 Milliarden in Rechenzentren steckt. Herkömmliche Rechenzentren sind extrem sensibel bei der Verfügbarkeit, aber in dieser Größenordnung wird sich OpenAI meiner Ansicht nach nicht allzu sehr um Rack-Uptime oder die Gesamt-Uptime der Anlage kümmern