3 Punkte von GN⁺ 2025-09-23 | 1 Kommentare | Auf WhatsApp teilen
  • OpenAI hat Pläne angekündigt, auf Basis von NVIDIA-Systemen mindestens 10 GW an AI-Rechenzentren aufzubauen, um die nächste Generation der AI-Infrastruktur bereitzustellen
  • In diesem Zusammenhang sagt NVIDIA schrittweise Investitionen von bis zu 100 Milliarden US-Dollar pro Gigawatt-Ausbaustufe zu
  • Das erste System im Umfang von 1 GW soll in der zweiten Jahreshälfte 2026 auf der Vera Rubin-Plattform in Betrieb gehen
  • Die Zusammenarbeit umfasst eine gemeinsame Hardware-Software-Optimierung von OpenAI und NVIDIA und ergänzt zudem die bestehende Zusammenarbeit mit den Partnern Microsoft, Oracle, SoftBank und Stargate
  • Dies dürfte für OpenAI eine wichtige Grundlage sein, um auf dem Weg zu AGI voranzukommen, gestützt auf mehr als 700 Millionen wöchentliche Nutzer und die weltweite Akzeptanz im Business-Umfeld

Überblick über die Partnerschaft

  • OpenAI und NVIDIA haben eine Absichtserklärung (LOI) für eine strategische Partnerschaft zum Aufbau von Systemen im Umfang von mindestens 10 GW angekündigt
    • Ziel ist die Sicherung von Infrastruktur für das Training und den Betrieb der nächsten Modellgenerationen von OpenAI
    • Vorgestellt wurde dies als Teil eines schrittweisen Fortschritts auf dem Weg zu Superintelligenz
  • NVIDIA erklärte, im Zuge der Bereitstellung einschließlich Rechenzentren und Ausbau der Stromversorgung bis zu 100 Milliarden US-Dollar zu investieren
  • Die erste Phase soll in der zweiten Jahreshälfte 2026 mit der NVIDIA Vera Rubin-Plattform online gehen

Zentrale Aussagen

  • Jensen Huang (CEO von NVIDIA)
    • Er verwies auf die zehnjährige Zusammenarbeit mit OpenAI und hob den Weg bis zum Durchbruch von ChatGPT hervor
    • „Der Ausbau einer 10-GW-Infrastruktur ist ein Sprung, der das nächste Zeitalter der Intelligenz eröffnen wird“, sagte er
  • Sam Altman (CEO von OpenAI)
    • Er betonte: „Alles beginnt mit Compute“ und unterstrich, dass dies die Grundlage der künftigen Wirtschaft sein werde
    • Gemeinsam mit NVIDIA wolle man neue AI-Durchbrüche sowie groß angelegte Anwendungen für Menschen und Unternehmen vorantreiben
  • Greg Brockman (President von OpenAI)
    • Er erklärte, dass man auf der NVIDIA-Plattform AI für Hunderte Millionen Menschen aufgebaut habe
    • Mit dem Ausbau auf 10 GW erwarte man eine Erweiterung der Grenzen von Intelligenz und eine breitere Verteilung der technologischen Vorteile

Umfang der Zusammenarbeit

  • NVIDIA wird als strategischer Compute- und Networking-Partner von OpenAI benannt
  • Beide Unternehmen wollen OpenAIs Modell- und Infrastruktur-Software sowie NVIDIAs Hardware und Software gemeinsam optimieren
  • Zudem soll die Synergie mit dem bestehenden Kooperationsnetzwerk rund um Microsoft, Oracle, SoftBank und Stargate ausgebaut werden

Status und Bedeutung für OpenAI

  • OpenAI verzeichnet derzeit mehr als 700 Millionen wöchentlich aktive Nutzer und ist bei globalen Unternehmen, KMU und Entwicklern breit im Einsatz
  • Die Partnerschaft gilt als Grundlage zur Beschleunigung der Mission, AGI zum Nutzen der gesamten Menschheit aufzubauen
  • In den kommenden Wochen sollen die detaillierten Bedingungen der Partnerschaft finalisiert werden

1 Kommentare

 
GN⁺ 2025-09-23
Hacker-News-Kommentare
  • Es ist sehr interessant, dass das Ganze in Gigawatt ausgedrückt wird. In den letzten drei Jahren gab es wegen des KI-Wachstums durch Rechenzentren immer wieder Debatten über stark steigende Strompreise für Haushalte und kleine Unternehmen. Wenn 10 GW tatsächlich so viel sind wie der kombinierte Verbrauch von Chicago und New York, dann muss angesichts des desolaten Zustands des US-Stromnetzes und der Infrastruktur ernsthaft darüber gesprochen werden, woher dieser Strom kommen soll. Die Kosten wurden bereits auf Haushalte abgewälzt, um Rechenzentren billig mit Strom zu versorgen, und auch diese Ungleichheit ist problematisch. Dass der US-Haushaltsstrompreis innerhalb von fünf Jahren von 13 auf 19 Cent gestiegen ist, also um 46 %, ist weder fair noch nachhaltig. Die Frage ist: Woher sollen diese 10 GW kommen, und wer trägt die Kosten? Zur Einordnung: Wenn über die Größe von Rechenzentren gesprochen wird, geschieht das oft in Leistungseinheiten wie Watt. Diesmal kommt die Zahl aber nicht von einem reinen Rechenzentrumsbesitzer oder -betreiber, sondern von einem Compute-Anbieter wie Nvidia. Das zeigt, wie zentral Stromverbrauch, Netzausbau und Kostenverteilung inzwischen sind
    • Ich arbeite in der Rechenzentrumsbranche. Die Größe von Rechenzentren in Stromverbrauch anzugeben, zum Beispiel 200 MW, ist Standard. Compute-Hardware kann man alle fünf Jahre aufrüsten, aber der Strombedarf bleibt fast fest. Letztlich zeigt diese Einheit sehr gut, dass KI im Kern eine Form der Energieveredelung ist
    • Zu der Aussage „weder fair noch nachhaltig“: Im Vergleich zu Italien sind die Strompreise in den USA nur halb so hoch. Ich glaube nicht, dass das für das reichste Land der Welt unüberwindbar wäre
    • Rechenzentrumsinfrastruktur wird immer in Watt zugeteilt. Aus dieser Zahl werden IT-Last, Kühlung und alle anderen Berechnungen abgeleitet
    • Energieversorger müssen bei Preiserhöhungen den Regulierungsbehörden immer eine Begründung vorlegen. Der Hauptgrund für höhere Kosten ist der Übergang zu erneuerbaren Energien. Es ist nicht schwer, große Rechenzentren ihre notwendigen Kosten direkt tragen zu lassen. Die Stromerzeugung selbst ist aber komplizierter. Früher konnte man etwa billig Strom aus Wasserkraft am Columbia River abzweigen, aber inzwischen konkurriert das direkt mit dem Wohnverbrauch. Trotzdem macht die Erzeugung selbst nur einen sehr kleinen Teil der gesamten Stromrechnung aus
    • 8 % pro Jahr sind viel, aber man muss auch den weltweiten Brennstoffschock von 2022 berücksichtigen. In Australien haben sich die Strompreise in diesem Jahr zum Beispiel verdoppelt. Langfristig liegt die durchschnittliche jährliche Steigerung eher bei etwa 6 %, also nur leicht über dem Lohnwachstum von 4 %. Stromkosten machen noch immer nur einen kleinen Teil des Haushaltseinkommens aus. Das Lohnwachstum fängt die meisten Auswirkungen ab. Für einkommensschwache Haushalte kann das natürlich hart sein, aber für die Mehrheit ist es kein großer Schock
  • Jede Formulierung in der Pressemitteilung zu einer „landmark strategic partnership“ wirkt extrem vage und nach klassischem Unternehmensmarketing. In Wirklichkeit klingt das eher wie die Ankündigung: „Irgendwann werden wir etwas Großartiges machen“
    • Die Nvidia-Aktie ist heute um 6 Dollar gestiegen, also hat die Ankündigung ihren Zweck erfüllt. Im Grunde war das eine Rechnung an Investoren nach dem Motto: „Wir haben etwas Großes vor, gebt uns noch mehr Geld“, und viele scheinen darauf angesprungen zu sein
  • Ich frage mich, was eine Größenordnung in Gigawatt bei Nvidia-Systemen konkret bedeutet. Ich habe selbst grob gerechnet, mit etwas Hilfe von GPT, und bin auf fast zehn Millionen Geräte gekommen. Das klingt nach einer wirklich absurden Größenordnung
    • Diese Zahl ist definitiv absurd groß. Auf Systemebene liegt ein einzelnes H100 bei etwa 1–2 kW, also wären es bei 2 kW ungefähr 5 Millionen Stück. Ein NVL72-Rack hat zum Beispiel 72 Chips bei 120 kW, also insgesamt etwa 2 kW pro Chip inklusive Kühlung
    • Man kann durchaus von „mehreren Millionen Stück“ sprechen. Die tatsächliche Anzahl hängt von der Infrastruktur ab, und in der Praxis machen Beschleuniger nur einen Teil des Gesamtstromverbrauchs aus, aber die Größenordnung liegt klar bei mehreren Millionen
    • Ich habe das vor dem Lesen der Kommentare kurz überschlagen: Wenn man 600 W pro GPU annimmt, kommt man bei 10.000.000.000/600 auf 16,66 Millionen Stück. Das weicht in der Realität wegen vieler Faktoren sicher stark ab, ist aber ein brauchbarer Startpunkt. Overhead, Abwärme und Umwandlungseffizienz sind da noch nicht berücksichtigt
    • Rechnet man mit 3 MW pro 1.000 GPUs, dann entsprechen 10 GW ungefähr 3,33 Millionen Stück
    • Ich frage mich auch, welche Kabelarten und -längen man braucht, um all diese GPUs zu verbinden. Ich dachte immer, man steckt sie einfach in Metallracks, aber auf echten Rechenzentrumsfotos sieht man unzählige blaue Leitungen überall
  • Ich habe das Gefühl, dass die LLM-Technologie ihren Höhepunkt bereits überschritten hat. Jetzt wirkt es fast wie Werbung für Heizlüfter: Es wird so getan, als gäbe es große Fortschritte, obwohl die Technik in Wahrheit stagniert. Man züchtet im Grunde nur schnellere Pferde. Der Markt hätte so etwas vernünftiger einhegen sollen
    • Die KI-Blase könnte irgendwann durchaus spektakulär platzen. Aber zu sagen, jetzt sei der Höhepunkt von LLMs erreicht, ist so, als hätte man 1999 bis 2001 behauptet, das Internet habe seinen Zenit überschritten. Danach kamen noch viele Innovationen wie Smartphones, und auch textbasierte LLMs stagnieren nicht wirklich. KI ist nicht nur Text, auch reale KI etwa für autonomes Fahren entwickelt sich exponentiell weiter
    • Auch in der Dotcom-Blase gab es nach massiver Überhitzung einen großen crash, und Unternehmen wie Amazon, die überlebt haben, wurden zu Giganten. Hoffentlich bleibt auch aus diesem KI-Boom etwas Substanzielles übrig
    • Ich denke, es wird bald eine Marktkorrektur geben. Aber so wie das Internet nach dem Dotcom-Crash weiterhin wertvoll war, dürfte auch hier langfristig Wert bestehen bleiben
    • Die Sichtweise ist eher, dass inzwischen alle positiven Erwartungen bereits eingepreist sind und man deshalb sagen kann, dass es zu weit gegangen ist
  • Wasser ist in vielen Regionen eine knappe und essenzielle Ressource. Es gab mehrfach Fälle, in denen Rechenzentren in Dürrezeiten große Mengen Wasser angezogen haben. Ich frage mich, ob die US-Umweltbehörde EPA bei der Regulierung des Wasserverbrauchs solcher Projekte überhaupt noch eine Rolle spielt
    • Im Mittleren Westen wird Grundwasser stärker für Ethanolproduktion genutzt, in Kalifornien für Mandelanbau. Beide Branchen haben viel größere Auswirkungen auf Wasserressourcen und sind real weniger nützlich als Rechenzentren. Ich wünschte, man würde sich mehr auf die wirklich ernsten Probleme konzentrieren
    • Das Wasserthema bei Rechenzentren ist nicht so wichtig, wie die Medien es darstellen. In einigen Regionen gibt es lokale Probleme, aber Strom ist eindeutig das größere Thema
    • Ich frage mich, ob der Wasserverbrauch von Rechenzentren in der Praxis nicht eher einfach auf zirkulierende Kühlung hinausläuft, also auf Wasser, das nur durch Pumpen bewegt wird, statt tatsächlich in großen Mengen verbraucht zu werden
  • Über den Strombedarf dieser gigantischen Anlagen spricht kaum jemand. In New Jersey sind meine Stromkosten bei PSEG ebenfalls um mehr als 50 % gestiegen. Man sagt, die Nachfrage sei wegen Rechenzentren explodiert, aber trotzdem bekommen Rechenzentren keine höheren Tarife. Passender Artikel
    • Solche Preiserhöhungen zeigen nur, wie verbraucherfeindlich die politische Realität in New Jersey ist. Rechenzentren werden am Ende ohnehin in Regionen mit wettbewerbsfähigen Strompreisen gehen
    • Zugelassen hat das die Regierung des Bundesstaats. Man hätte es auch einfach ablehnen können, aber man hat es erlaubt
  • Google verbraucht pro Jahr 15 TWh, also etwa 1,7 GW, und der neue Plan von OpenAI und Nvidia soll das 5,8-Fache davon verbrauchen, also 5,8 Googles. In einer solchen Größenordnung entsteht eine enorme Chance für extrem stromsparende KI-Beschleuniger im Vergleich zu heutigen GPUs. Es gibt bereits einige technische Ansätze, und das macht Hoffnung
    • Mich würden konkrete Beispiele für extrem stromsparende KI-Chips interessieren. Es wäre gut, Zahlen dazu zu sehen, wie groß die tatsächliche Einsparung sein kann
    • Schon dieses einzelne Rechenzentrum könnte genug Rechenleistung bündeln, um einen 51-%-Angriff auf große Kryptowährungen durchzuführen. Falls der KI-Markt nach dem Ende der Blase einbricht, wäre das eine interessante Absicherung
  • Ich warte still auf Ed Zitrons Analyse zu diesem Thema
    • Wenn Führungskräfte Leistung nicht am Output messen können, messen sie am Input, und das führt zu Ineffizienz. Die Rückkehrpflicht ins Büro ist Teil derselben Logik. Bei OpenAI und Nvidia ist jetzt offenbar die Zahl der eingesetzten Gigawatt wichtiger als tatsächliche KI-Ergebnisse
    • Ein Beitrag von Ed Zitron selbst
    • Manche Leute haben wegen einer einzigen pessimistischen Prognose von Ed Zitron große Verluste gemacht
  • Es gibt die Annahme, dass dieses Rechenzentrum eine Fläche in der Größe von Monaco benötigen würde, also 740 Acres, bei 80 kW pro Rack
    • Monaco ist extrem klein, das passt ungefähr in den Tempelhofer Park in Berlin
    • Man kann es praktisch auch als die Größe eines einzelnen BYD-Werks beschreiben
    • Monaco hat 2 Quadratkilometer. Wenn man 1 Quadratmeter pro Rack ansetzt, bräuchte man tatsächlich 12 Hektar, also etwa 17 Fußballfelder, bei einstöckigem Aufbau. Vielleicht könnte man Rechenzentren auch vertikal stapeln. Bin ich der Einzige, der extra die Größe von Monaco nachgeschlagen hat? Monaco bei Wikipedia Eigene Flächenberechnung
    • In die gesamte Landfläche der USA würden 4,8 Millionen Monacos passen
  • Der Reaktor eines U-Boots der US Navy aus den 1960er Jahren hatte 78 MW, also entsprechen 10 GW etwa 128 atomgetriebenen U-Booten
    • Noch anschaulicher: Das sind 2 % des durchschnittlichen gesamten US-Stromverbrauchs oder ungefähr so viel wie der Verbrauch der Niederlande mit ihren 18 Millionen Einwohnern
    • Ein Kraftwerk hat typischerweise etwa 1 GW, Kernkraftwerke höchstens etwa 2 GW, und Offshore-Windparks stoßen bei rund 1,5 GW an ihre Grenze. Selbst große 525-kV-Gleichstromübertragungssysteme können pro Kabel nur etwa 2 GW übertragen. Allein 10 GW zusätzliche Last wären ein massiver Schock fürs Netz und würden enorme Investitionen in Infrastruktur erfordern. Selbst wenn man heute bei Großkonzernen ein 525-kV-Kabel bestellt, bekommt man es wohl frühestens nach 2030
    • Wenn ein menschliches Gehirn etwa 20 W verbraucht, dann entsprechen 10 GW ungefähr 500 Millionen Gehirnen. Verglichen mit Insekten wie Fliegen, die mit winzigen Energiemengen Informationsverarbeitung leisten, wirkt heutige KI wie LLMs vielleicht einfach grundlegend ineffizient. Wenn irgendwann ein viel effizienterer Ansatz kommt, könnten diese heutigen Anlagen ihren Wert verlieren, haha
    • Zehn sehr sichere 1-GW-RBMK-Reaktoren ergeben ebenfalls 10 GW, ganz ohne Explosionsrisiko
    • Ein Kraftwerk liefert etwa 1 GW, und weil Kernkraft langsam gebaut wird, ist Erdgas am Ende wahrscheinlich die realistischere Option