30 Jahre GPU-Geschichte, die jede Ära verändert haben
(sheets.works)- Eine Daten-Story, die 49 GPUs von 1996 bis 2025 nach Epochen ordnet und dabei technische Entwicklung sowie Marktveränderungen visualisiert
- Die einzelnen Generationen werden anhand von Transistoranzahl, Leistungsaufnahme, Preis und prägenden Spielen unterschieden und zeigen die Entwicklung der GPU auf einen Blick
- Von Voodoo Graphics bis zur RTX 5090 verzeichnen GPUs ein explosives Wachstum bei Leistung, Stromverbrauch und Preis
- Die Transistoranzahl stieg von 1M auf 92B, die TDP von 15W auf 575W, der Preis von $299 auf $1.999; zugleich wurden AI-Berechnungen und DLSS zu Schlüsselfaktoren der neuesten Generation
- GPUs sind heute mehr als reine Rendering-Hardware: Sie haben sich zu AI-, Physik- und Simulationsplattformen entwickelt und stehen sinnbildlich für 30 Jahre technologische Evolution
Chronik der GPU-Entwicklung über 30 Jahre
- Eine Daten-Story, die 49 GPUs von 1996 bis 2025 chronologisch ordnet und die prägenden Spiele sowie technischen Merkmale jeder Generation visualisiert
- Für jede Karte werden Speicherkapazität, Transistoranzahl, Leistungsaufnahme (TDP), Einführungspreis (auf 2025 umgerechnet) sowie ein symbolträchtiges Spiel der jeweiligen Ära gezeigt
- Die Einteilung erfolgt in Pioneering Era, DirectX Era, Golden Age, HD Gaming Era, Modern Era, RTX Era, Current Gen
- Jede Epoche zeigt Wendepunkte der Grafiktechnologie und Verschiebungen der Marktführerschaft
- Am Ende wird auf Basis der Steam Hardware Survey (März 2026) der GPU-Marktanteil sowie die Diskrepanz zwischen Beliebtheit und Preis visuell verglichen
-
Pionierzeit (1996–1999)
- Voodoo Graphics (1996) war der erste massentaugliche 3D-Beschleuniger; als reine 3D-Karte benötigte sie eine VGA-Passthrough-Verbindung zu einer 2D-Karte
- 4MB Speicher, 1M Transistoren, 15W TDP
- Prägendes Spiel: Quake (1996)
- Voodoo 2 (1998) unterstützte als erste Karte SLI (Scan-Line Interleave) und verdoppelte mit zwei Karten die Leistung
- 12MB Speicher, 8M Transistoren, 18W TDP
- Prägendes Spiel: Half-Life (1998)
- RIVA TNT (1998) war NVIDIAs Konkurrenzprodukt zu 3dfx und verbesserte mit der „TwiN Texel“-Architektur die Texturverarbeitung
- 16MB Speicher, 7M Transistoren
- RIVA TNT2 (1999) war die Karte, mit der NVIDIA die Marktführung übernahm
- 32MB Speicher, 15M Transistoren
- Rage 128 Pro (1999) wurde im iMac G3 eingesetzt und war im Mac-Markt am weitesten verbreitet
- 32MB Speicher, 8M Transistoren
- GeForce 256 DDR (1999) wurde als „weltweit erste GPU“ vermarktet und verwendete den Begriff GPU erstmals
- 32MB Speicher, 17M Transistoren, 50W TDP
- Voodoo Graphics (1996) war der erste massentaugliche 3D-Beschleuniger; als reine 3D-Karte benötigte sie eine VGA-Passthrough-Verbindung zu einer 2D-Karte
-
DirectX-Ära (2000–2003)
- GeForce 2 GTS (2000) führte den GigaTexel Shader ein und trieb die Verbreitung von 3D-Grafik im Massenmarkt voran
- Prägendes Spiel: Diablo II (2000)
- GeForce 3 (2001) unterstützte als erste programmierbare Shader (Shader Model 1.0); eine angepasste Version kam in die Xbox
- Radeon 9700 Pro (2002) unterstützte als erste Karte DirectX 9.0 und schlug NVIDIA mit einem 256-Bit-Bus
- GeForce FX 5800 Ultra (2003) war wegen ihrer Lautstärke als „Dustbuster“ bekannt
- GeForce FX 5900 Ultra (2003) sollte das Scheitern des Vorgängers ausgleichen, doch die FX-Serie gilt als NVIDIAs schwächste Generation
- GeForce 2 GTS (2000) führte den GigaTexel Shader ein und trieb die Verbreitung von 3D-Grafik im Massenmarkt voran
-
Goldene Ära (2004–2007)
- GeForce 6800 GT (2004) unterstützte als erste Shader Model 3.0 und PCIe-basiertes SLI
- Radeon X800 XT (2004) war effizient, hatte aber wegen fehlender Shader-Model-3.0-Unterstützung Grenzen
- GeForce 7800 GTX (2005) war die letzte Generation vor den Unified Shadern
- GeForce 8800 GTX (2006) führte als erste Unified Shader (CUDA-Kerne) und DirectX 10 ein und eröffnete das GPGPU-Zeitalter
- Prägendes Spiel: Crysis (2007)
- GeForce 8800 GT (2007) bot GTX-Leistung zum halben Preis und wurde zu einer der beliebtesten GPUs der Geschichte
-
HD-Gaming-Ära (2008–2012)
- Radeon HD 4870 (2008) verwendete als erste GDDR5-Speicher und war $350 günstiger als die GTX 280
- Radeon HD 5870 (2009) unterstützte als erste DirectX 11 und überschritt 2 TFLOPS
- GeForce GTX 480 (2010) wurde wegen ihrer Hitzeentwicklung „Thermi“ genannt und hatte 250W TDP
- GeForce GTX 560 Ti (2011) war die 1080p-„Sweet-Spot“-Karte in der Preisklasse von $249
- GeForce GTX 680 (2012) brachte mit GPU Boost eine deutlich bessere Effizienz
- Radeon HD 7970 (2012) markierte mit dem 28nm-Prozess und der GCN-Architektur den Anfang einer neuen Generation und war beim Krypto-Mining beliebt
-
Moderne Ära (2013–2017)
- GeForce GTX 970 (2014) sorgte mit dem „3,5GB-Skandal“ für Kontroversen; nach einer Sammelklage gab es $30 Entschädigung
- GeForce GTX 980 Ti (2015) bot 95% der Leistung der $999 teuren Titan X für $649
- GeForce GTX 1060 6GB (2016) hielt in der Steam-Umfrage von 2017 bis 2022 den ersten Platz
- GeForce GTX 1080 (2016) brachte mit dem 16nm-Prozess den größten Generationssprung seit zehn Jahren
- GeForce GTX 1080 Ti (2017) wurde als „letzte großartige GTX“ bezeichnet und blieb bei vielen lange im Einsatz
- Radeon RX 580 (2017) verdreifachte im Mining-Boom ihren Preis
-
RTX-Ära (2018–2023)
- GeForce RTX 2080 (2018) unterstützte erstmals Hardware-Raytracing und DLSS
- GeForce RTX 2060 (2019) brachte Raytracing in die Mittelklasse
- Radeon RX 5700 XT (2019) war die erste RDNA-GPU im 7nm-Prozess
- GeForce RTX 3080 (2020) stand im Zentrum der durch Pandemie und Kryptowährungen ausgelösten GPU-Knappheit
- GeForce RTX 3090 (2020) hob mit $1.499 den Preis von Consumer-GPUs in den vierstelligen Bereich
- GeForce RTX 4090 (2022) sorgte wegen der schmelzenden 12VHPWR-Stecker für Kontroversen
- Radeon RX 7900 XTX (2022) war AMDs erste Chiplet-GPU und kostete $200 weniger als die RTX 4080
- Intel Arc A770 (2022) markierte Intels Rückkehr zu dedizierten GPUs nach 24 Jahren, hatte jedoch Treiberprobleme bei DX9/11
- GeForce RTX 4060 (2023) wurde mit 8GB VRAM als Rückschritt bewertet und als Generation ohne echten Fortschritt kritisiert
- GeForce RTX 4070 (2023) bot Leistung auf RTX-3080-Niveau, wurde aber wegen des höheren Preises kritisiert
-
Aktuelle Generation (2025)
- GeForce RTX 5070 (2025) bietet dank DLSS 4 Leistung auf RTX-4090-Niveau für $549
-
GeForce RTX 5080 (2025) kostet mit $999 genauso viel wie die RTX 4080 und zementiert damit vierstellige Preise in der oberen Mittelklasse
- GeForce RTX 5090 (2025) ist die erste Consumer-GPU für $2.000, mit 92.2B Transistoren und 575W TDP
- Radeon RX 9070 XT (2025) markiert AMDs Rückzug aus dem High-End-Markt und ist die erste RDNA mit integrierter AI-Spezialhardware
-
Aktuelle Lage des GPU-Markts (Steam Hardware Survey, März 2026)
- Die beliebteste GPU ist die RTX 3060 (4,1%), das Flaggschiff RTX 5090 kommt nur auf 0,42% Anteil
- Unter den Top 10 sind acht NVIDIA-Produkte, die RTX 4060 Laptop GPU liegt mit 4,04% auf Platz zwei
- Auch RTX 3060 Ti, RTX 4070, RTX 2060 halten sich in den oberen Rängen
- Das Flaggschiff kostet $1.999, das Massenmodell $329 – die Preisschere ist extrem weit aufgegangen
- Die Daten werden anhand von Transistoranzahl und Erscheinungsjahr je GPU-Generation visualisiert; per Klick ist ein Vergleich der Detail-Spezifikationen möglich
Fazit
- Von der Voodoo Graphics 1996 bis zur RTX 5090 2025 verzeichneten GPUs ein explosives Wachstum bei Leistung, Stromverbrauch und Preis
- Die Transistoranzahl stieg von 1M auf 92B, die TDP von 15W auf 575W, der Preis von $299 auf $1.999
- Das Zentrum der Innovation verlagerte sich von 3dfx → NVIDIA → AMD → zurück zu NVIDIA; zuletzt stehen AI-Berechnungen und DLSS im Mittelpunkt
- GPUs entwickeln sich über reine Rendering-Hardware hinaus zu AI-, Physik- und Simulationsplattformen
- Die Datenvisualisierung zeigt 30 Jahre GPU-Entwicklung auf einen Blick und dient als technikgeschichtliches Dokument
1 Kommentare
Hacker-News-Kommentare
Diese Liste wirkt nicht wie eine kuratierte Auswahl, wie der Titel behauptet, sondern eher so, als hätte ein LLM ein paar populäre GPUs grob beschrieben.
Das Site-Design ist so gut, dass man leicht glaubt, es stecke viel Sorgfalt dahinter.
Vielleicht bin ich einfach nicht mehr auf der Höhe der Zeit, aber die RTX-4000/5000-Serie erscheint mir nicht so bedeutsam.
Stattdessen waren S3 ViRGE oder Matrox G200 damals wichtig, hatten aber langfristig keinen großen Einfluss.
Siehe S3-Texture-Compression-Wiki
Nicht perfekt, aber die meisten neuen Spiele unterstützen es, und tatsächlich schaltet es kaum jemand ab.
-vo mgaoder-vo xmgakonnte man Hardware-YUV-Ausgabe nutzen.Schade ist, dass viele GPUs in der Liste einfach nur schneller als ihre Vorgänger sind oder nur mehr RAM haben.
Ich hätte mir einen stärkeren Fokus auf architektonische Innovationen gewünscht.
Meiner Meinung nach ist seit Unreal Engine 4 der Inhalt wichtiger geworden als die Grafik.
Die Rendition Vérité 1000 ist definitiv eine GPU, die erwähnt werden sollte.
Siehe Fabien Sanglards Beitrag. Sie kam vor der Voodoo 1 heraus und bot gl-Support für glQuake und Tomb Raider.
Die Kombination aus RX 5700 XT und Control ist eine seltsame Wahl.
AMD unterstützte damals Raytracing noch nicht, und Control war eines der ersten Spiele mit wirklich beeindruckender RT-Umsetzung.
Mit klassischen Cubemaps, SSR und Raster-Overlays konnte man bereits 90 % davon umsetzen.
Eher haben Spiele, die RT stark betonten, bestehende Techniken nicht richtig genutzt, sodass der Unterschied größer wirkte, als er war.
Die echte Stärke von RT zeigt sich bei unregelmäßigen reflektierenden Flächen oder in komplexen Szenen.
Absoluter Nostalgie-Modus.
Vor einem Monat habe ich meinen Desktop mit i7-4790k und 1080 Ti aussortiert und dabei an frühere Zeiten gedacht.
Früher hatte ich Dual-Boot mit Ubuntu, Elementary und Arch, und davor war die 8800 GT meine Traumkarte.
Früher habe ich von einem Surface geträumt, heute finde ich es spannender, auf einer 4070 Founders lokale LLMs laufen zu lassen.
Die CPU ist inzwischen so alt, dass Civ 7 nicht startet (wegen eines DRM-Befehlsproblems).
Ich bin enttäuscht, dass moderne Karten oft so wenig GPU-Speicher haben. 8 GB VRAM waren entscheidend für Zukunftssicherheit.
Die Infografik sieht toll aus, aber tatsächlich gibt es nicht 49 wirklich bedeutende GPUs.
Seit Pascal waren meiner Meinung nach nur ein oder zwei davon wirklich wichtig.
Seit D3D9 (2002) setzen GPUs fast dieselben Funktionen um, und das war der Punkt, an dem die Differenzierung verschwand.
Für mich war die 8800 GT die eindrucksvollste GPU.
Zusammen mit Valves Orange Box war sie unschlagbar beim Preis-Leistungs-Verhältnis.
Die 5700 XT ist die GPU, die bei mir am längsten durchgehalten hat, und sie ist noch immer im Einsatz.
Auf der Seite gab es keine horizontale Scrollleiste, daher musste ich den GPU-Bereich mit der Maus ziehen. Da habe ich mich gefragt, ob ich alt geworden bin.
In der Geschichte der PC-Entwicklung fehlen wichtige GPUs. Zum Beispiel die TMS34010.
Siehe Wiki-Link