- AMD und Sony haben "Project Amethyst", einen Chipsatz für die PlayStation-Konsole der nächsten Generation, vorgestellt und entwickeln eine Architektur, die maschinenlernungsbasierte Grafikverarbeitung in den Mittelpunkt stellt, um die Grenzen bestehender GPU-Strukturen zu überwinden
- Um die Ineffizienzen der bisherigen Rasterisierung (einer Methode, bei der der Bildschirm Pixel für Pixel berechnet wird) zu beheben, zielt das Projekt auf eine effizientere neuronale Verarbeitung ab
- Der Chipsatz bietet über eine Neural-Array-Struktur eine skalierbare Shader Engine, bei der Compute Units Daten gemeinsam nutzen und wie eine einzelne AI-Engine arbeiten, sodass mehr Bereiche des Bildschirms per ML verarbeitet und verbessert werden können
- Darüber hinaus sorgen ein speziell für Ray Tracing ausgelegter Radiance Core sowie eine auf sämtliche übertragenen Daten angewandte Universal Compression für eine effiziente Nutzung der Bandbreite
- Ziel ist eine gleichzeitige Verbesserung von Grafikqualität und Recheneffizienz; in einer Zeit, in der die Fortschritte bei Konsolen-Hardware langsamer werden, könnte dies einen neuen Durchbruch ermöglichen
Überblick über Project Amethyst
- Mark Cerny (Hardware-Architekt bei Sony) und Jack Huynh (Senior Vice President der AMD Computing and Graphics Group) haben ein neunminütiges Video veröffentlicht, in dem sie Project Amethyst als gemeinsames Engineering-Projekt beider Unternehmen vorstellen
- Fast fünf Jahre nach dem Start der PS5 kündigen sie neue AMD-Chiptechnologie für eine "zukünftige Konsole, die in einigen Jahren erscheinen wird" an
- Das Projekt wurde erstmals im Juli 2025 angeteasert und existiert derzeit nur als Simulation; trotz des frühen Stadiums werden die Ergebnisse jedoch als sehr vielversprechend bewertet
Architektur mit Fokus auf Machine Learning
- Heutige GPUs ermöglichen bereits 4K-Auflösung in Echtzeit durch Upscaling-Technologien wie FSR (AMD FidelityFX Super Resolution) und Sony PSSR
- Cerny weist jedoch auf die Ineffizienz paralleler Berechnungen hin und erklärt, dass "die grundlegende Struktur der GPU die Verarbeitung zur Aufteilung von Berechnungen zwingt"
- Project Amethyst führt einen "Neural Array"-Ansatz ein, bei dem mehrere Compute Units Daten gemeinsam nutzen und wie eine einzige AI-Engine arbeiten
- Anstatt die gesamte GPU zu verbinden, werden kleinere Einheiten gekoppelt, um eine skalierbare Shader Engine zu bilden
- Durch die gleichzeitige Verarbeitung großer Bildbereiche wird der Anteil ML-basierter Grafikverarbeitung erhöht
- Huynh sagte, "mehr Teile des Bildschirms werden durch ML verbessert werden"
Verbesserte Effizienz beim Ray Tracing
- Beim bisherigen Ansatz erledigt derselbe Shader sowohl die Berechnung von Ray Paths als auch Texture Shading, was zu einer ineffizienten Struktur führt
- Auf Basis einer von Sony 2022 angemeldeten Patentschlüsseltechnologie wird ein dedizierter Hardware-Block mit dem Namen "Radiance Core" eingeführt
- Er übernimmt exklusiv das Ray Traversal (die Berechnung des Pfads, auf dem Lichtstrahlen auf Objekte treffen)
- CPU und GPU können sich dadurch auf textur- und materialbasiertes Shading konzentrieren
- Damit soll die Verarbeitungsgeschwindigkeit und Qualität von Lichtberechnungen gleichzeitig verbessert werden
Optimierung der Speicherbandbreite
- Der wichtigste Engpass, den Sony und AMD angehen wollen, ist die Begrenzung der GPU-Speicherbandbreite
- AMD hat bereits bisher Texturdaten mit der Delta Color Compression (DCC) komprimiert und verarbeitet
- In Project Amethyst wird dies mit einer erweiterten "Universal Compression" auf alle GPU-Eingabedaten ausgedehnt
- Das System ist so ausgelegt, dass die tatsächlich wahrgenommene Bandbreite die nominellen Spezifikationen übersteigt
- Cerny sagte dazu, dass die "effektive Bandbreite die Werte auf dem Datenblatt übertreffen wird"
Ausblick
- Ohne auch nur eine Konzeptdemo ist es noch viel zu früh, um zu beurteilen, wie viel zusätzliche Leistung sich aus der neuen Architektur tatsächlich herausholen lässt
- Gerade in einer Situation, in der sich Verbesserungen bei Silizium langsamer entwickeln als früher, bleibt abzuwarten, wie wirksam dieser neue Ansatz sein wird
- Dennoch gilt der Wechsel hin zu einer maschinenlernungszentrierten Struktur der Grafikverarbeitung als wichtiger Trend beim Generationswechsel der Konsolen
- Leistungssteigerungen durch Effizienz und strukturelle Innovation dürften zum Kern des Wettbewerbs bei Konsolen der nächsten Generation werden
1 Kommentare
Hacker-News-Kommentare
Ich frage mich, ob die PS6 die letzte Konsolengeneration sein wird, die noch einen sichtbaren Fortschritt bei Rechenleistung und Grafik zeigt. Die Vorteile weiterer Strukturverkleinerung nehmen immer weiter ab, die Preise für Elektronik steigen, und die Chipfertigungskosten treiben die Entwicklung. Verschiedene Techniken, um fehlende Rechenleistung auszugleichen, wurden kontinuierlich eingeführt, etwa Post-Processing-AA, temporale Tricks und AI-Upscaling. In letzter Zeit war zu erwarten, dass AI-Upscaling und Frame Generation immer stärker betont würden. Ich sehe die Richtung dieser Entwicklung jedoch pessimistisch. Raytracing beansprucht bereits viele Transistorressourcen, und fortgeschrittene AI-Lösungen vereinnahmen zusätzliche Ressourcen. Nicht-generatives AI-Upscaling und Frame Generation scheinen fast an ihre Grenzen zu stoßen, sodass es bei einer PS7 wohl generative AI bräuchte, um aus groben Frames detaillierten Fotorealismus zu machen. Ich denke, das würde das wirtschaftlich realisierbare Transistorbudget um ein Vielfaches überschreiten. Am Ende könnte das das Ende der Konsolenära bedeuten, oder alles wandert in die Cloud und Hochleistungsserver übernehmen das Rendering. Ich hoffe eher, dass sich die Fertigungstechnologien schnell genug verbessern, damit eine neue Konsolengeneration wieder so einen Sprung bringt wie damals von SNES zu N64.
Unsere Kinder haben mit Fortnite auf der PS4 viel Spaß, und das Rendering empfinden sie als völlig zufriedenstellend (ich bin schon etwas älter). Das größte Problem beim tatsächlichen Spielen ist in Wirklichkeit die Stabilität der Internetverbindung. Wir spielen auch oft einfache Spiele im Stil von Brettspielen und Kartenspielen, und der Kern des Spaßes ist dabei das Gameplay. Bessere Hardware kann mehr Realismus bringen, aber langfristig ist die Qualität des Gameplays das, was wirklich zählt, ähnlich wie gutes Storytelling in einem guten Film.
Ich denke, selbst die PS6 wird keinen klaren Fortschritt bringen, und eigentlich war die PS5 schon die letzte wirklich innovative Konsole. Die PS5 Pro ist auch die erste Konsole mit Fokus auf Frame Generation, und laut Artikel wird die PS6 diesen Trend fortsetzen.
Ich denke, Konsolen sind die am besten geeignete Plattform für eine Raytracing-Revolution. Raytracing ist der klare Weg zu perfektem Fotorealismus, aber die Kosten sind enorm, und die Frage ist, wie viel dedizierte Hardware man in eine GPU packen kann, auf der auch alte Spiele gut laufen sollen. Deshalb können aktuelle Spiele praktisch nur auf Hybridansätze setzen, bei denen Raytracing nur teilweise eingesetzt wird. Vollständiges Szenen-Raytracing hängt in erster Linie nur von Auflösung und Framerate ab, sodass dann selbst Indie-Entwickler AAA-Grafik haben könnten. Dann wären AI-Upscaling und Frame Generation nicht mehr nötig. Optimal wäre eine GPU, die sich zu 100 % auf Raytracing konzentriert und die klassische Triangle-Pipeline aufgibt, aber auf dem PC halte ich das für schwierig. Auf Konsolen ist perfekte Abwärtskompatibilität nicht zwingend, daher sind dort Experimente möglich.
Nach Raytracing dürfte die nächste große Innovation Path Tracing sein. Konsolen übernehmen moderne Grafiktechniken zwar meist verspätet, aber Raytracing und sogar Path Tracing werden irgendwann auch auf Konsolengrafik angewendet werden. Der Vorteil von Konsolen ist die feste Hardware-Zielplattform: Spiele können ihre Leistung exakt auf dieser Hardware testen, und die Qualität der Erfahrung ist vorhersagbar.
Ich frage mich, ob nicht-generatives AI-Upscaling eine große Veränderung bringen könnte. Die Grundstruktur würde mit traditionellen 3D-Modellen aufgebaut, während für detaillierte Texturen und Beleuchtung generative AI genutzt wird. Zusätzliche Polygone oder mehr Beleuchtung stoßen immer stärker an Grenzen, und solange nicht jede Fingeranzahl exakt stimmen muss, könnte generative AI hier noch größere Verbesserungen bringen.
Es fühlt sich verrückt an, dass DirectX 12 schon vor 10 Jahren erschienen ist. Das Hauptziel war damals, Hardware besser nutzbar zu machen, während sie sich von festen Pipelines entfernte. Funktionen wie Frame Generation, Upscaling und Frame Interpolation haben Potenzial, aber ich glaube, für echte Wirkung braucht es eine völlig andere Art der Integration.
Ich denke, die Neugestaltung hat mit Mesh Shadern und Neural Shadern bereits begonnen. Aber die Hardwareverbreitung ist noch zu gering, sodass Spiele sie noch nicht breit einsetzen können, und für Entwickler ist es ebenfalls schwierig, sie so zu übernehmen, dass das Erlebnis besser wird.
Man sollte auch
mantlenicht vergessen.Ich erinnere mich noch, wie ich in der Zeitschrift PC Gamer zum ersten Mal von directx 1 gelesen habe.
Ich habe das Gefühl, dass die gesamte Spielebranche und Community sich inzwischen nicht mehr besonders für den grafischen Fortschritt an sich interessiert. AAA-Spiele sind zu komplex und zu teuer geworden, und immer größere und kompliziertere Spielerlebnisse skalieren nur schlecht. Gamer haben sich in zahllose kleine Geschmacksrichtungen aufgespalten, etwa 80er, 90er, PS1 und so weiter. Die Ära der großen Konsolenkonzerne und riesigen Spielestudios geht zu Ende.
Ich sehe das anders. Die Leute wollen High-End-Grafik, erwarten dazu aber auch entsprechend bessere Simulation. GTA6 erzeugt nicht nur wegen der Grafik so viel Erwartung, sondern weil viele glauben, dass die Simulation ein bisher unerreichtes Niveau haben wird. Beides muss zusammenkommen.
Ich finde, dass die aktuelle Konsolengeneration nicht ausreicht, um wirklich immersive, flüssige Grafik zu liefern. Ich habe BG3 zuerst auf der PS gespielt und später auf dem PC, und das ist kaum vergleichbar. Bei Cyberpunk genauso. Für konsistente hohe Auflösung und Grafik wie 120/4K würde ich jederzeit upgraden und auch solche Spiele kaufen. AAA-Spiele stellen Grafik weiterhin in den Vordergrund und verdienen damit immer noch sehr viel Geld.
Fortschritte bei Beleuchtungstechniken können nicht nur AAA-Spielen helfen, sondern allen Spielen. Tiny Glade und Teardown zum Beispiel profitieren enorm von raytracingbasierter Global Illumination, nicht wegen Fotorealismus, sondern weil sie damit ihren jeweiligen Artstyle hervorragend umsetzen. Derzeit ist das technisch aber schwer umzusetzen und nur in begrenzten Umgebungen möglich. Entwickler müssen mehrere GPU-Generationen unterstützen, was gut gegen Elektroschrott ist und die Zugänglichkeit verbessert, aber Assets und Level müssen dadurch weiterhin auf rasterbasierte Beleuchtung und ungenaue Schatten ausgelegt werden. Wenn man hervorragende Beleuchtungseffekte einfach darüberlegt, fallen die alten Workarounds eher noch stärker auf, und es fehlt an Feinschliff für das neue Beleuchtungssystem. Deshalb bleiben heutige Raytracing-Optionen oft hinter den Erwartungen zurück.
Wenn man bedenkt, wie überragend erfolgreich die Switch in der letzten Generation war, obwohl viele Spiele nur in HD und auf 30 fps liefen und manche AAA-Spiele gar nicht portiert wurden, dann zeigt das: Es wurden trotzdem unglaublich viele Geräte und Spiele verkauft, und die meisten hat das nicht gestört. Am Ende zählt bei Spielen der Spaß.
Battlefield 6, das heute erschienen ist, bekommt sehr positive Reviews, und die Grafik ist ebenfalls hervorragend.
Ich erinnere mich, wie ich in den 90ern ständig erzählt habe, dass Raytracing irgendwann das gesamte Rendering beherrschen würde. Heute macht es mich glücklich, dass das im Gegensatz zum Spott meiner Freunde tatsächlich Realität geworden ist.
Realistisch betrachtet wird Raytracing (RT) in Spielen meist nur für unterstützende Strahlenberechnungen verwendet, während das Haupt-Rendering weiterhin auf Rasterisierung basiert. Es bewegt sich zwar zunehmend in Richtung Software-Rendering über Compute Shader, aber dennoch.
Grüße an dein Teenager-Ich, deine Vorhersage war ziemlich treffend. Auch die Idee von Radiance Cores finde ich sehr cool.
Ich frage mich, ob ich noch erleben werde, echte gekrümmte Objekte unverfälscht zu sehen.
Es wirkt, als würde SCE bei jeder neuen Konsole mit irgendeiner innovativen Idee kommen, aber zwei Jahre später ist sie dann doch einfach nur wieder eine weitere Konsole.
Dadurch entsteht, wie ich finde, ein merkwürdiges Phänomen. PlayStation-Exklusivtitel nutzen die Hardware maximal aus, aber es gibt keine echte Vergleichsbasis. Multiplattform-Spiele haben dagegen vor allem den Anreiz, sich an den gemeinsamen Plattformstandard anzupassen. Der Anreiz, auf Engine-Ebene zusätzlichen Aufwand zu treiben, nur damit die PlayStation-Version besser aussieht, ist begrenzt. Deshalb erscheinen oft erst am Ende des Konsolenlebenszyklus beeindruckende Spiele, die das wahre Potenzial der Hardware ausschöpfen. Ich habe das Gefühl, dass sich dieser Zyklus seit Jahrzehnten wiederholt.
Vielleicht bin ich dem Marketing aufgesessen, aber ich finde, dass die SSD-Unterstützung der PS5 den Standard für Ladezeiten in Spielen deutlich angehoben hat. Das merkt man auch plattformübergreifend.
So ist es zwar geworden, aber ich halte das nicht für schlecht. Immerhin sind Konsolen noch bereit, auf Architekturebene kalkulierte Risiken einzugehen. Inzwischen sind Konsolen intern ja praktisch PCs.
Ich habe das Gefühl, dass Konsolen seit der Xbox 360 und Unity einen etwas anderen Weg eingeschlagen haben. Davor war die Hürde für Indie-Entwicklung auf Konsolen sehr hoch, weil man oft mit seltsamer Hardware oder eigenem OS, 3D-Engine und GUI-Toolkit arbeiten musste. Dass Konsolen auf merkwürdige Eigenschaften setzten, lag auch an Moore’s Law: Sie mussten dem PC ein paar Jahre voraus sein, damit sie am Ende ihres Lebenszyklus noch mit ihm konkurrieren konnten. Ich denke, diese Zeit liegt inzwischen hinter uns, und ich sehe die Richtung der Entwicklung eher positiv.
Für mich ist der größte Fortschritt der PS5 der extrem schnelle Speicher. Keine Ladebildschirme mehr zu haben, ist ein echter Wendepunkt für das Spielerlebnis. Ich wünschte, die Xbox-Instant-Resume-Funktion gäbe es auch auf der PlayStation. Die Grafik ist gut, aber für mich nicht Priorität Nummer eins.
Hardwarebeschleunigtes 3D-Audio (fortgeschrittenes HRTF) ist sehr cool, und es ist schade, dass Third-Party-Spiele es kaum nutzen. Mit Xbox Instant Resume habe ich außerdem die Erfahrung gemacht, dass es wegen Savegame-Synchronisationsproblemen nicht immer zuverlässig ist. Unterschiedliche Timestamps bei Cloud-Saves führten bei mir öfter zu Konflikten, sodass ich es nicht richtig nutzen konnte.
Soweit ich gehört habe, ist das schnelle Speichersystem der PS5 möglich, weil Sony von RAD einen Kompressionscodec lizenziert und in Hardware umgesetzt hat. Bei den GPU-Transfergeschwindigkeiten scheint es in eine ähnliche Richtung zu gehen.
Dieses Video ist eine Fortsetzung genau des Videos, in dem Cerny die Designphilosophie der PlayStation 5 Pro und die zukünftige Roadmap erklärt hat. Ihr Ansatz ist im Grunde ein System, das ein nahezu perfektes Bild in niedriger Auflösung erzeugt und dann über ein neuronales Netz auf 4K hochskaliert. Wie gut das wirklich sein kann, ist fraglich, wenn man bedenkt, dass aktuelle Upscaler selbst bei perfekt gerenderten Bildern Artefakte, Rauschen und Bildzerfall nicht vollständig beseitigen können, und dort ist das nicht einmal in Echtzeit. Am Ende wird man solche Fehler wohl durch Post-Processing kaschieren, was zwangsläufig die Bildschärfe reduziert.
Ich glaube, ein einziger Marketingslogan kann die Wahrnehmung der Nutzer komplett drehen. So etwas wie: „Genug von Pixelgenauigkeit? Hat Ihnen Schärfe wehgetan? Geben Sie Ihrer Fantasie Freiheit und begrüßen Sie die Zukunft der Unschärfe. Artefakte sind die neue Kunst!“
Ich denke, man könnte deutlich bessere Upscaling-Ergebnisse erzielen, wenn jedes Spiel ein passendes Custom-Upscaling bekäme. Man muss nicht nur ein einzelnes Low-Resolution-Frame verwenden, sondern kann zusätzlich Bewegungsvektoren, Szenentiefe, Szenennormalen, Unlit-Farben und separates Upscaling für transparente und opake Bereiche bereitstellen. Damit lässt sich sehr viel machen. Und die Upscaler in heutigen Smartphone-Kameras arbeiten fast in Echtzeit. Bildgenerierung und simples Upscaling direkt gleichzusetzen, ist daher der falsche Ansatz.
Ich halte Hardware-Raytracing und AI-Upscaling derzeit für die schlimmsten Trends im Grafikbereich, und ich würde eine Zukunft hassen, in der wir vollständig davon abhängig sind.
Die Debatte um AI-Upscaling wirkt auf mich viel zu überhitzt. Das Framing mit AI und „Halluzinationspixeln“ mag unnatürlich klingen, aber Grafikrendering arbeitet schon immer mit allen möglichen Tricks und Näherungen. Auch ohne Deep-Learning-basierte AI sind die Pixel der klassischen Rendering-Pipeline nicht allesamt handgefertigte Kunstwerke.
Persönlich empfinde ich beide Technologien für die Spiele, die ich spielen will, als völlig irrelevant. Ich wünschte, AMD würde eine Grafikkarte ohne diese beiden Dinge bringen, aber realistisch ist das wohl kaum.
Mich würde interessieren, was genau an Hardware-Raytracing als problematisch angesehen wird.
Reale Produkte aus Spitzentechnologie sind meist nicht mehr als Showeffekte oder kurzlebige Trends, und die eigentlichen Kunden von Technologien an der industriellen Front sind nicht normale Verbraucher. Treue Käuferschichten und Early Adopters sind faktisch das QA-Team. Die zukünftigen Wachstumsfelder für Beschleunigungstechnologien liegen in Simulation, Modellierung, Training und Inferenz. Deshalb können viele mit diesem Trend wenig anfangen, aber Sony und AMD versuchen aus meiner Sicht nicht einfach nur, aktuelle Trends zu verlängern, sondern mit ihren Portfolios Märkte in 20 bis 40 Jahren anzuführen. Ich halte das für einen sehr mutigen Schritt.
Soweit ich gelesen habe, spart der Einsatz von RT in Spielen Künstlern enorm viel Zeit bei iterativen Arbeiten am Leveldesign. Früher musste man Lichtquellen einzeln platzieren und bei kleinen Leveländerungen vieles neu machen. Mit RT muss man Shadow Maps nicht mehr vorab berechnen und speichern, was auch beim Speicherplatz Vorteile bringt.
Diesmal wirkt es auf mich so, als hole AMD in den Bereichen RT, AI-Upscaling und Frame Generation gegenüber Nvidia auf. Als AMD-GPU-Nutzer und Linux-User freut mich das persönlich. Allerdings erscheint mir die Darstellung etwas übertrieben, als wäre diese Einführung revolutionär oder speziell nur das Ergebnis der Zusammenarbeit mit Sony. AMD kann so etwas auch allein gut genug umsetzen, und auf dem PC oder der Xbox wird es vermutlich ebenfalls bald ankommen.
Mir gefällt es nicht, dass die Diskussion so stark auf Grafik fokussiert ist, und ich glaube, viele übersehen den im Artikel betonten Effizienz-Aspekt. Wenn sich durch hochauflösende Texturen und Bandbreiteneffizienz ein 4K-Dual-Stream mit der Bandbreite von 1080p liefern ließe, könnte das die Instabilität von VR deutlich verringern. Weniger Stromverbrauch bedeutet auch weniger Größe und Hitze, und mit diesen Vorteilen könnte ein Playstation Portal in Zukunft vielleicht selbst zur Konsole werden. Ich steige gleich in einen Flug nach Schweden und hätte wirklich gern ein kompaktes Gerät wie das Steam Deck, das kühl läuft und weniger Rendering-Fehler produziert. Sony neigt seit den 90ern dazu, sich auf Grafik zu konzentrieren, aber wenn dadurch tatsächlich ein bahnbrechender Formfaktorwandel und echte VR-Unterstützung in greifbare Nähe rücken, könnte das das Spiel komplett verändern.