- Google hat erstmals konkrete Daten zum Energieverbrauch von AI veröffentlicht und offengelegt, wie viel Strom, Wasser und CO2-Emissionen die Verarbeitung von Prompts in der Gemini-App verursacht
- Ein durchschnittlicher Text-Prompt verbraucht 0,24 Wh Strom und liegt damit etwa auf dem Niveau von einer Sekunde Mikrowellennutzung; hinzu kommen 0,26 ml Wasser und 0,03 g Kohlendioxid
- Die Zahlen basieren auf einer umfassenden Analyse, die die gesamte Infrastruktur einschließt, darunter AI-Chips (58 %), CPU und Speicher (25 %), Backup-Geräte (10 %) und Rechenzentrumsbetrieb (8 %)
- Im Mai 2025 war die Energieeffizienz im Vergleich zu Mai 2024 um das 33-Fache verbessert; Google nennt dafür Software-Optimierungen und Modellverbesserungen als Gründe
- Die Ankündigung ist bedeutsam, weil sie für mehr Transparenz bei großen AI-Unternehmen steht; zentrale Informationen wie die Gesamtzahl der Queries bleiben jedoch weiterhin unveröffentlicht, wodurch die Notwendigkeit eines standardisierten Systems zur Bewertung des AI-Energieverbrauchs betont wird
Google legt den Energieverbrauch von Gemini-Prompts offen
- Google ist das erste große AI-Unternehmen, das offenlegt, wie viel Strom, CO2-Emissionen und Wasser die Verarbeitung von Text-Prompts mit dem Gemini-Modell verbraucht
- Ein durchschnittlicher Prompt verursacht 0,24 Wh Strom, 0,26 ml Wasser und 0,03 g CO2; das entspricht ungefähr einer Sekunde Mikrowellenbetrieb oder fünf Wassertropfen
- In einem Interview mit MIT Technology Review erläuterte das Unternehmen die detaillierten Daten und die Berechnungsmethode
Detaillierte Struktur des Energieverbrauchs
- Vom gesamten Stromverbrauch entfallen 58 % auf AI-Chips (TPUs), 25 % auf CPU und Speicher, 10 % auf Backup-Geräte und 8 % auf den Rechenzentrumsbetrieb (Kühlung und Stromumwandlung)
- Google erklärte, die Analyse sei umfassend angelegt und beziehe die komplette Hardware-Infrastruktur ein
- Da dabei interne Daten offengelegt wurden, die für Forschende sonst kaum zugänglich sind, wird dies als wichtiger Beitrag zur Industrieforschung bewertet
Unterschiede zwischen Prompts und Grenzen der Daten
- Die veröffentlichten Werte sind Medianwerte; einige Queries können deutlich mehr Energie verbrauchen
- Beispiel: das Zusammenfassen von Dutzenden Büchern oder komplexe Berechnungen mit einem Reasoning-Modell
- Der Bericht bezieht sich nur auf Text-Prompts; Bild- und Videogenerierung sind nicht enthalten
- Deshalb gibt es weiterhin Grenzen, wenn es darum geht, das tatsächliche Gesamtvolumen der Gemini-Nutzung zu erfassen
Effizienzsteigerungen und Schätzung der CO2-Emissionen
- Google erklärte, dass der Energieverbrauch pro Prompt im Mai 2025 gegenüber Mai 2024 um das 33-Fache gesunken sei
- Als Gründe werden Verbesserungen an der Modellarchitektur und Software-Optimierungen genannt
- Für die Emissionsschätzung wurde kein US-Durchschnitt des Stromnetzes verwendet, sondern ein marktbasierter Ansatz, der den von Google eingekauften Anteil sauberer Energie berücksichtigt; dadurch fällt der Wert im Vergleich zum allgemeinen Strommix auf etwa ein Drittel
Reaktionen aus Forschung und Branche
- Beteiligte am Projekt ML.Energy der University of Michigan bewerten die Veröffentlichung als die bislang umfassendste und wichtigste Analyse
- Forschende von Hugging Face betonen die Notwendigkeit eines standardisierten AI-Energielabels und weisen darauf hin, dass Unternehmen derzeit nur selektiv Daten veröffentlichen
- Der Bericht erweitert das Verständnis des tatsächlichen Ressourcenverbrauchs von AI-Nutzung, doch das Fehlen zentraler Daten wie der Gesamtzahl der Queries bleibt weiterhin eine große Einschränkung
Noch keine Kommentare.