1 Punkte von GN⁺ 21 일 전 | 1 Kommentare | Auf WhatsApp teilen
  • Eine Daten-Story, die 49 GPUs von 1996 bis 2025 nach Epochen ordnet und dabei technische Entwicklung sowie Marktveränderungen visualisiert
  • Die einzelnen Generationen werden anhand von Transistoranzahl, Leistungsaufnahme, Preis und prägenden Spielen unterschieden und zeigen die Entwicklung der GPU auf einen Blick
  • Von Voodoo Graphics bis zur RTX 5090 verzeichnen GPUs ein explosives Wachstum bei Leistung, Stromverbrauch und Preis
  • Die Transistoranzahl stieg von 1M auf 92B, die TDP von 15W auf 575W, der Preis von $299 auf $1.999; zugleich wurden AI-Berechnungen und DLSS zu Schlüsselfaktoren der neuesten Generation
  • GPUs sind heute mehr als reine Rendering-Hardware: Sie haben sich zu AI-, Physik- und Simulationsplattformen entwickelt und stehen sinnbildlich für 30 Jahre technologische Evolution

Chronik der GPU-Entwicklung über 30 Jahre

  • Eine Daten-Story, die 49 GPUs von 1996 bis 2025 chronologisch ordnet und die prägenden Spiele sowie technischen Merkmale jeder Generation visualisiert
  • Für jede Karte werden Speicherkapazität, Transistoranzahl, Leistungsaufnahme (TDP), Einführungspreis (auf 2025 umgerechnet) sowie ein symbolträchtiges Spiel der jeweiligen Ära gezeigt
  • Die Einteilung erfolgt in Pioneering Era, DirectX Era, Golden Age, HD Gaming Era, Modern Era, RTX Era, Current Gen
  • Jede Epoche zeigt Wendepunkte der Grafiktechnologie und Verschiebungen der Marktführerschaft
  • Am Ende wird auf Basis der Steam Hardware Survey (März 2026) der GPU-Marktanteil sowie die Diskrepanz zwischen Beliebtheit und Preis visuell verglichen
  • Pionierzeit (1996–1999)

    • Voodoo Graphics (1996) war der erste massentaugliche 3D-Beschleuniger; als reine 3D-Karte benötigte sie eine VGA-Passthrough-Verbindung zu einer 2D-Karte
      • 4MB Speicher, 1M Transistoren, 15W TDP
      • Prägendes Spiel: Quake (1996)
    • Voodoo 2 (1998) unterstützte als erste Karte SLI (Scan-Line Interleave) und verdoppelte mit zwei Karten die Leistung
      • 12MB Speicher, 8M Transistoren, 18W TDP
      • Prägendes Spiel: Half-Life (1998)
    • RIVA TNT (1998) war NVIDIAs Konkurrenzprodukt zu 3dfx und verbesserte mit der „TwiN Texel“-Architektur die Texturverarbeitung
      • 16MB Speicher, 7M Transistoren
    • RIVA TNT2 (1999) war die Karte, mit der NVIDIA die Marktführung übernahm
      • 32MB Speicher, 15M Transistoren
    • Rage 128 Pro (1999) wurde im iMac G3 eingesetzt und war im Mac-Markt am weitesten verbreitet
      • 32MB Speicher, 8M Transistoren
    • GeForce 256 DDR (1999) wurde als „weltweit erste GPU“ vermarktet und verwendete den Begriff GPU erstmals
      • 32MB Speicher, 17M Transistoren, 50W TDP
  • DirectX-Ära (2000–2003)

    • GeForce 2 GTS (2000) führte den GigaTexel Shader ein und trieb die Verbreitung von 3D-Grafik im Massenmarkt voran
      • Prägendes Spiel: Diablo II (2000)
    • GeForce 3 (2001) unterstützte als erste programmierbare Shader (Shader Model 1.0); eine angepasste Version kam in die Xbox
    • Radeon 9700 Pro (2002) unterstützte als erste Karte DirectX 9.0 und schlug NVIDIA mit einem 256-Bit-Bus
    • GeForce FX 5800 Ultra (2003) war wegen ihrer Lautstärke als „Dustbuster“ bekannt
    • GeForce FX 5900 Ultra (2003) sollte das Scheitern des Vorgängers ausgleichen, doch die FX-Serie gilt als NVIDIAs schwächste Generation
  • Goldene Ära (2004–2007)

    • GeForce 6800 GT (2004) unterstützte als erste Shader Model 3.0 und PCIe-basiertes SLI
    • Radeon X800 XT (2004) war effizient, hatte aber wegen fehlender Shader-Model-3.0-Unterstützung Grenzen
    • GeForce 7800 GTX (2005) war die letzte Generation vor den Unified Shadern
    • GeForce 8800 GTX (2006) führte als erste Unified Shader (CUDA-Kerne) und DirectX 10 ein und eröffnete das GPGPU-Zeitalter
      • Prägendes Spiel: Crysis (2007)
    • GeForce 8800 GT (2007) bot GTX-Leistung zum halben Preis und wurde zu einer der beliebtesten GPUs der Geschichte
  • HD-Gaming-Ära (2008–2012)

    • Radeon HD 4870 (2008) verwendete als erste GDDR5-Speicher und war $350 günstiger als die GTX 280
    • Radeon HD 5870 (2009) unterstützte als erste DirectX 11 und überschritt 2 TFLOPS
    • GeForce GTX 480 (2010) wurde wegen ihrer Hitzeentwicklung „Thermi“ genannt und hatte 250W TDP
    • GeForce GTX 560 Ti (2011) war die 1080p-„Sweet-Spot“-Karte in der Preisklasse von $249
    • GeForce GTX 680 (2012) brachte mit GPU Boost eine deutlich bessere Effizienz
    • Radeon HD 7970 (2012) markierte mit dem 28nm-Prozess und der GCN-Architektur den Anfang einer neuen Generation und war beim Krypto-Mining beliebt
  • Moderne Ära (2013–2017)

    • GeForce GTX 970 (2014) sorgte mit dem „3,5GB-Skandal“ für Kontroversen; nach einer Sammelklage gab es $30 Entschädigung
    • GeForce GTX 980 Ti (2015) bot 95% der Leistung der $999 teuren Titan X für $649
    • GeForce GTX 1060 6GB (2016) hielt in der Steam-Umfrage von 2017 bis 2022 den ersten Platz
    • GeForce GTX 1080 (2016) brachte mit dem 16nm-Prozess den größten Generationssprung seit zehn Jahren
    • GeForce GTX 1080 Ti (2017) wurde als „letzte großartige GTX“ bezeichnet und blieb bei vielen lange im Einsatz
    • Radeon RX 580 (2017) verdreifachte im Mining-Boom ihren Preis
  • RTX-Ära (2018–2023)

    • GeForce RTX 2080 (2018) unterstützte erstmals Hardware-Raytracing und DLSS
    • GeForce RTX 2060 (2019) brachte Raytracing in die Mittelklasse
    • Radeon RX 5700 XT (2019) war die erste RDNA-GPU im 7nm-Prozess
    • GeForce RTX 3080 (2020) stand im Zentrum der durch Pandemie und Kryptowährungen ausgelösten GPU-Knappheit
    • GeForce RTX 3090 (2020) hob mit $1.499 den Preis von Consumer-GPUs in den vierstelligen Bereich
    • GeForce RTX 4090 (2022) sorgte wegen der schmelzenden 12VHPWR-Stecker für Kontroversen
    • Radeon RX 7900 XTX (2022) war AMDs erste Chiplet-GPU und kostete $200 weniger als die RTX 4080
    • Intel Arc A770 (2022) markierte Intels Rückkehr zu dedizierten GPUs nach 24 Jahren, hatte jedoch Treiberprobleme bei DX9/11
    • GeForce RTX 4060 (2023) wurde mit 8GB VRAM als Rückschritt bewertet und als Generation ohne echten Fortschritt kritisiert
    • GeForce RTX 4070 (2023) bot Leistung auf RTX-3080-Niveau, wurde aber wegen des höheren Preises kritisiert
  • Aktuelle Generation (2025)

    • GeForce RTX 5070 (2025) bietet dank DLSS 4 Leistung auf RTX-4090-Niveau für $549
    • GeForce RTX 5080 (2025) kostet mit $999 genauso viel wie die RTX 4080 und zementiert damit vierstellige Preise in der oberen Mittelklasse

      • GeForce RTX 5090 (2025) ist die erste Consumer-GPU für $2.000, mit 92.2B Transistoren und 575W TDP
      • Radeon RX 9070 XT (2025) markiert AMDs Rückzug aus dem High-End-Markt und ist die erste RDNA mit integrierter AI-Spezialhardware
  • Aktuelle Lage des GPU-Markts (Steam Hardware Survey, März 2026)

    • Die beliebteste GPU ist die RTX 3060 (4,1%), das Flaggschiff RTX 5090 kommt nur auf 0,42% Anteil
    • Unter den Top 10 sind acht NVIDIA-Produkte, die RTX 4060 Laptop GPU liegt mit 4,04% auf Platz zwei
    • Auch RTX 3060 Ti, RTX 4070, RTX 2060 halten sich in den oberen Rängen
    • Das Flaggschiff kostet $1.999, das Massenmodell $329 – die Preisschere ist extrem weit aufgegangen
    • Die Daten werden anhand von Transistoranzahl und Erscheinungsjahr je GPU-Generation visualisiert; per Klick ist ein Vergleich der Detail-Spezifikationen möglich

Fazit

  • Von der Voodoo Graphics 1996 bis zur RTX 5090 2025 verzeichneten GPUs ein explosives Wachstum bei Leistung, Stromverbrauch und Preis
  • Die Transistoranzahl stieg von 1M auf 92B, die TDP von 15W auf 575W, der Preis von $299 auf $1.999
  • Das Zentrum der Innovation verlagerte sich von 3dfx → NVIDIA → AMD → zurück zu NVIDIA; zuletzt stehen AI-Berechnungen und DLSS im Mittelpunkt
  • GPUs entwickeln sich über reine Rendering-Hardware hinaus zu AI-, Physik- und Simulationsplattformen
  • Die Datenvisualisierung zeigt 30 Jahre GPU-Entwicklung auf einen Blick und dient als technikgeschichtliches Dokument

1 Kommentare

 
GN⁺ 21 일 전
Hacker-News-Kommentare
  • Diese Liste wirkt nicht wie eine kuratierte Auswahl, wie der Titel behauptet, sondern eher so, als hätte ein LLM ein paar populäre GPUs grob beschrieben.
    Das Site-Design ist so gut, dass man leicht glaubt, es stecke viel Sorgfalt dahinter.

    • Dass die erste GPU mit Voodoo beginnt, hat mich eigentlich schon zufriedengestellt.
    • Es sind mehrere Karten derselben Generation enthalten, daher ist es am Ende wohl nur eine Aufzählung populärer GPUs der letzten 30 Jahre.
    • Es fühlt sich an wie ein Blick in eine dystopische Zukunft, in der von KI grob erzeugte Ergebnisse durch menschliches Feedback nachgebessert werden.
  • Vielleicht bin ich einfach nicht mehr auf der Höhe der Zeit, aber die RTX-4000/5000-Serie erscheint mir nicht so bedeutsam.
    Stattdessen waren S3 ViRGE oder Matrox G200 damals wichtig, hatten aber langfristig keinen großen Einfluss.

    • Auch die S3 Savage3D wäre erwähnenswert. Sie war zwar langsamer als die TNT2, führte aber als Erste Texturkompression ein.
      Siehe S3-Texture-Compression-Wiki
    • Ich würde außerdem Matrox Parhelia ergänzen (erste Karte mit Triple-Monitor-Support) und ATI All-in-Wonder (mit TV-Ausgabe).
    • Die RTX-4000/5000-Serie hat DLSS und Frame Generation praxistauglich gemacht und damit 4K-Gaming mit kleinerem Budget ermöglicht.
      Nicht perfekt, aber die meisten neuen Spiele unterstützen es, und tatsächlich schaltet es kaum jemand ab.
    • Früher gab es ein Kernel-Modul für die Kombination aus Matrox und MPlayer. Mit den Optionen -vo mga oder -vo xmga konnte man Hardware-YUV-Ausgabe nutzen.
    • Für eine Zeit lang war die Matrox G400 DualHead die beste Karte für Multi-Monitor-Setups.
  • Schade ist, dass viele GPUs in der Liste einfach nur schneller als ihre Vorgänger sind oder nur mehr RAM haben.
    Ich hätte mir einen stärkeren Fokus auf architektonische Innovationen gewünscht.

    • Außerdem sind die „repräsentativen Spiele“ oft Titel, die in Wirklichkeit auch auf deutlich älteren GPUs gut laufen.
      Meiner Meinung nach ist seit Unreal Engine 4 der Inhalt wichtiger geworden als die Grafik.
    • Ich suche nach einem Text, der tiefer in die GPU-Geschichte einsteigt. Zum Beispiel zeigt Sebastian Aaltonens "No graphics API" mit dem Vergleich von OpenGL/Vulkan und WebGPU/Metal sehr gut die Geschichte der Innovationen im Grafik-Stack.
    • Heute verschwinden ungewöhnliche Strukturen wie bei der PS3, und fast alles wirkt auf PC-Architekturen vereinheitlicht.
  • Die Rendition Vérité 1000 ist definitiv eine GPU, die erwähnt werden sollte.
    Siehe Fabien Sanglards Beitrag. Sie kam vor der Voodoo 1 heraus und bot gl-Support für glQuake und Tomb Raider.

    • Solche frühen experimentellen Hersteller finde ich deutlich bedeutender. Viel interessanter als GPUs wie die 2000er- bis 4000er-Serien, die nur schrittweise verbessert wurden.
    • Durch diese Karte habe ich wieder alte Erinnerungen und Materialien hervorgeholt. Damals waren alle gespannt darauf, passend zu einem Pentium-Pro-Build, aber am Ende wechselten viele doch zu Pentium II und TNT oder Rage 128.
    • Ich dachte eigentlich, ich kenne mich in der GPU-Geschichte ziemlich gut aus, aber von dieser Karte hatte ich noch nie gehört. Wieder etwas gelernt.
    • Die Unterschiede in der Chipdesign-Philosophie von Rendition und 3dfx sind spannend.
    • Die Vérité 1000 war mehr als nur eine Karte zum Zeichnen von Dreiecken; man kann sie als primitiven Ausgangspunkt des Pixel Shading sehen. Ein Beispiel ist der Welleneffekt in vQuake, der auf der GPU umgesetzt wurde.
  • Die Kombination aus RX 5700 XT und Control ist eine seltsame Wahl.
    AMD unterstützte damals Raytracing noch nicht, und Control war eines der ersten Spiele mit wirklich beeindruckender RT-Umsetzung.

    • Der größte Unterschied durch RT lag bei den Reflexionen, aber meist nur in einfachen Szenen wie Büros.
      Mit klassischen Cubemaps, SSR und Raster-Overlays konnte man bereits 90 % davon umsetzen.
      Eher haben Spiele, die RT stark betonten, bestehende Techniken nicht richtig genutzt, sodass der Unterschied größer wirkte, als er war.
      Die echte Stärke von RT zeigt sich bei unregelmäßigen reflektierenden Flächen oder in komplexen Szenen.
  • Absoluter Nostalgie-Modus.
    Vor einem Monat habe ich meinen Desktop mit i7-4790k und 1080 Ti aussortiert und dabei an frühere Zeiten gedacht.
    Früher hatte ich Dual-Boot mit Ubuntu, Elementary und Arch, und davor war die 8800 GT meine Traumkarte.

    • Ich nutze immer noch problemlos ein Z97 + i7-4790k + 980Ti-Setup. Es gibt keinen Grund zum Aufrüsten.
    • Früher war der Kaufrausch bei neuer Hardware viel stärker, heute ist das anders.
      Früher habe ich von einem Surface geträumt, heute finde ich es spannender, auf einer 4070 Founders lokale LLMs laufen zu lassen.
    • Ich habe dasselbe Setup auch, nutze inzwischen aber nur noch einen Ryzen-Laptop.
    • Aktuell verwende ich ein System mit i5-3570k + 1070Ti.
      Die CPU ist inzwischen so alt, dass Civ 7 nicht startet (wegen eines DRM-Befehlsproblems).
      Ich bin enttäuscht, dass moderne Karten oft so wenig GPU-Speicher haben. 8 GB VRAM waren entscheidend für Zukunftssicherheit.
    • Mein TrueNAS-Scale-Server läuft immer noch problemlos mit einem i7-3770.
  • Die Infografik sieht toll aus, aber tatsächlich gibt es nicht 49 wirklich bedeutende GPUs.
    Seit Pascal waren meiner Meinung nach nur ein oder zwei davon wirklich wichtig.

    • Eigentlich wirkt sogar Pascal schon wie eine späte Generation (2016).
      Seit D3D9 (2002) setzen GPUs fast dieselben Funktionen um, und das war der Punkt, an dem die Differenzierung verschwand.
  • Für mich war die 8800 GT die eindrucksvollste GPU.
    Zusammen mit Valves Orange Box war sie unschlagbar beim Preis-Leistungs-Verhältnis.
    Die 5700 XT ist die GPU, die bei mir am längsten durchgehalten hat, und sie ist noch immer im Einsatz.

    • Ich habe auch lange auf eine 8800 GTX gespart und sie dann fünf Jahre lang ohne Upgrade genutzt.
    • Ich hatte früher eine 5700 XT, aber sie hatte unter dem Linux-Kernel häufige Hänger.
  • Auf der Seite gab es keine horizontale Scrollleiste, daher musste ich den GPU-Bereich mit der Maus ziehen. Da habe ich mich gefragt, ob ich alt geworden bin.

    • Lustig, dass man eine Desktop-Hardware-Seite baut und dabei die Desktop-Nutzererfahrung nicht berücksichtigt.
    • Heutzutage ist alles mobile-first gestaltet. Es heißt, auf großen Bildschirmen zu bestehen sei so ein Millennial-Ding.
    • Dank des Feedbacks wurde der Bug bereits behoben.
  • In der Geschichte der PC-Entwicklung fehlen wichtige GPUs. Zum Beispiel die TMS34010.
    Siehe Wiki-Link

    • Ein weiteres Beispiel, das erwähnenswert wäre, ist SGI IMPACT.