Metro Exodus: Raytracing auf RTX 3080 & Co. "eine andere Liga", aber AMD ist flexibler

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Metro Exodus: Raytracing auf RTX 3080 & Co. "eine andere Liga", aber AMD ist flexibler

Nachdem der Metro-Exodus-Entwickler 4A Games seine Enhanced Edition vorgestellt hat, gibt es nun weitere Details zur Raytracing-Technik. So würde Nvidia mit der RTX-30-Serie bei der Leistung in einer anderen Liga als beispielsweise PS5 und Xbox Series X spielen. Dafür wäre der AMD-Ansatz flexibler.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Metro Exodus: Raytracing auf RTX 3080 & Co. "eine andere Liga", aber AMD ist flexibler
 
bei "ist nicht möglich" hab ich immer so meine bedenken.
Nicht möglich unter den damaligen Umständen. Sobald AMD die nötigen APIs über den Treiber am PC verfügbar macht ändert sich das natürlich, sofern die Hardware das unterstützt.

Ich finds interessant, dass AMD den Entwicklern scheinbar mehr Freiheit gibt und eigene Ansätze entstehen lässt. Bei Nvidia gibts dagegen eine fertige Pipeline aus RTX und DLSS2.0, die gut funktioniert aber einen starren Rahmen vorgibt.
 
Frage mich wie die Performance am Ende ist.
3080 Native 4k samt Max Setting und RT Ultra/60 Frames? :)
Das würde mich doch etwas wundern - natives 4k mit RT kann man sich evtl. brauchbar mit einer RTX3090 ansehen, da die Leistung dort doch etwas höher liegt - die 3080 wird da leider ihre Schwirigkeiten mit 60fps haben (Speicher ka wie viel das Spiel benötigt).
 
Ich finds interessant, dass AMD den Entwicklern scheinbar mehr Freiheit gibt und eigene Ansätze entstehen lässt.
Mehr Freiheit = mehr Aufwand + mehr mögliche Fehler

Bei Nvidia gibts dagegen eine fertige Pipeline aus RTX und DLSS2.0, die gut funktioniert aber einen starren Rahmen vorgibt.
Scheint trotz oder wegen des starren Rahmens aber bereits den Weg in mehrere Games gefunden zu haben.

Maximal flexibel zu sein hat nicht nur Vorteile, sondern frisst auch sehr viel Zeit.
 
[...] Ich finds interessant, dass AMD den Entwicklern scheinbar mehr Freiheit gibt [...]
Das ist bereits allgemein bekannt seit spätestens Mitte 2019, was schlicht an deren andersartiger Implementation und dem Zusammenspiel zwischen den SPs und den Intersection Engines liegt. Das hat den Vorteil, weil man granularer in den Berechnungsprozess eingreifen kann, dafür scheint aber deren Durchsatz i. V. z. nVidia's Implementation niedriger zu sein, d. h. wie so oft hat es beides seine Vor- und Nachteile. Hier wird man einfach abwarten müssen, wie sich die Implementationen in den nächsten zwei bis vier Jahren weiterentwickeln und wie SW-Hersteller diese aufnehmen werden.
Was man ohne übernatürlich Fähigkeiten jedoch so oder so postulieren kann, ist, dass Raytracing bzw. auf raytracingähnlichen Algorithmen basierende Berechnungen (man muss ja nicht nur Grafik darüber berechnen) weiter etablieren und zunehmend wichtiger werden. Man darf sicherlich gespannt sein was RDNA3 und nVidia's Konter diesbezüglich abliefern werden in 2022 (und daneben gibt es ja auch noch bald Intel mit Xe-HPG, die man leistungstechnisch derzeit aber noch gar nicht einschätzen kann).
 
Zuletzt bearbeitet:
Man muß auch dazusagen, dass Nvidia 2 Jahre mehr Zeit hatte, AMD steht erst am Anfang.
Hab das weniger wertend geschrieben, bzw. das "flexibel" als relativ unpraktisch deklariert.
Das wird sich natürlich erst noch zeigen, wie Spieleentwickler die verschiedenen Optionen in ihrer Anwendung bewerten. Sehr flexibel kann sehr mächtig und klobig zugleich sein. :ugly:
Nvidia macht

Hab das weniger wertend geschrieben, bzw. das "flexibel" als relativ unpraktisch deklariert.
Das wird sich natürlich erst noch zeigen, wie Spieleentwickler die verschiedenen Optionen in ihrer Anwendung bewerten. Sehr flexibel kann sehr mächtig und klobig zugleich sein. :ugly:

Ergänzend zum Zitat oben: Auch Nvidia hat damals Neuland betreten aber ihre Entscheidung dann auch forciert. Nvidia hat bzgl.Raytracing die Weichen letztlich wohl günstiger gestellt als AMD seinerzeit mit Mantle. Vielleicht hab ich auch nicht mitbekommen aber AMD hätte da mehr absahnen können als Nvidia jetzt mit dieser Effekthascherei, gefühlt kam dann aber nach Battlefield nix mehr.
 
Zuletzt bearbeitet:
Neben Battlefield gab es mal mindestens noch relativ zeitnah Metro Exodus, Shadow of the Tomb Raider und Minecraft und hätte sich der Hauptentwickler nicht von seinem Studio getrennt auch Final Fantasy XV. Und dass da nicht mal eben Raytracing-Titel wie Pilze aus dem Boden schießen würden, hätte auch etwas unbedarfteren Gemütern klar sein müssen, einerseits, weil AMD sich dem Thema aktiv verweigerte (RDNA2 wurde explizit für die Konsolen entwickelt und durfte daher nicht zu früh für GPUs verwendet werden) und andererseits weil Toptitel mittlerweile viele Jahre lang in der Entwicklung sind.
Aktuell listet die GS bereits derzeit 29 Titel, für die eine Raytracing-Unterstützung verfügbar ist und zusätzliche 19 Titel, zu denen eine Raytracing-Unterstützung angekündigt wurde. Die Adaption nimmt also stetig zu.

Darüber hinaus ... AMDs Vertragsgestaltung mit Blick auf Sony/Microsoft wird sicherlich zu deren Vorteil gewesen sein, denn die werden nicht aus Langeweile darauf verzichtet haben RDNA2 in den Markt zu bringen, d. h. bzgl. des vermeintlichen "nicht Absahnens" kann man das gar nicht mal so sagen. Bezüglich dieser Konstellation hat AMD lediglich langfristig geplant, da erster handfester Revenue erst Ende 2Q20 generiert wurde.
Ankreiden kann man denen aber dennoch ihr weichgespültes Marketing-BlaBla zum Thema Raytracing, da die natürlich schon zum Turing-Launch sehr genau wussten, dass es gesichert nichts von denen vor Ende 2020 geben wird.

Unterm Strich ist die Marktduchdringung, zumindest soweit über Steam ableitbar, schon durchaus beachtlich (eine neue Technik und es ist gerade mal die zweite Gen im Markt aber auch die ist gerade erst angekommen und dann gibt es auch noch allgemeine Lieferprobleme). Aktuell entfallen dort etwa 70,3 % aller direkt ausgewiesenen GPUs auf dedizierte GPUs und rund 13 % auf RTX-GPUs, d. h. gut 18,5 % aller (explizit benannten) dGPUs sind bereits Raytracing-fähig, sodass man annehmen kann, dass bereits gut 1/5 aller dGPUs bei Steam Raytracing-fähig sind, denn in der Gruppe "Other" verstecken sich noch kleine Anteile an Titan RTX-Karten, sowie die BigNavi-Karten, die es bisher noch zu keiner separaten Wertung in der Statistik geschafft haben (und auch die RTX 3070). Hinzu kommt dann noch die grundsätzliche Verfügbarkeit der Technik bei den NextGen-Konsolen und damit steigt auch absehbar rapide die Adaption bei den Entwicklern an.
 
Zuletzt bearbeitet:
RDNA sehe ich so als Adaption der Ryzen Strategie. Will heißen AMD legt zuerst Wert darauf, dass eine Basis existiert, die sich über folgende Generationen gut skalieren lässt.

Ryzen 1000 hat jetzt Intel nicht vom Hocker gehauen. Ryzen 2000 war echt ok, aber Intel klar besser. Ryzen 3000 war schon auf Augenhöhe und Ryzen 5000 profitiert am deutlichsten davon, dass AMD seine Chips nicht grundsätzlich neu erfinden muss. Selbst wenn Intel zügiger voranschreiten würde, wäre AMD immer am Ball und bleibt es auch auf die kommenden zwei CPU Generationen betrachtet. Am Besten sieht man die Skalierfähigkeit bei Server CPUs mit 128 Threads.

RDNA funktioniert nach dem gleichen Prinzip.Zuerst muss alles drin sein im Chip, der Speed kommt über die Skalierung. Mehr Takt, kleinere Prozesse, besserer RAM. RDNA muss nicht am schnellsten gehen, aber es muss am richtigsten gehen, damit man es nicht grundsätzlich neu erfinden muss. Das ist ja auch eine Taktik die Nvidia mit den Cuda Cores betrieben hat und damit ganz gut gefahren ist 15 (?) Jahre lang.

Jetzt baut Nvidia nicht mehr diese monolithischen Karten mit nur Cuda Cores, sondern hat spezialisierte Cores und die Herausforderung mehr im Chip hin und herkopieren zu müssen.

AMD hingegen will keine Cuda, Tensor und RT Cores, die wollen einen Kern für alles. Weil wenn man den hat, ist die Lösung für alles immer mehr Kerne. So sind wir ja auch bei 10.000 Cuda Kernen angekommen im High End. Ich kann mir gut vorstellen, dass auch Nvidia wieder zu so einem Design zurückkehren will. Nicht jetzt nächste Woche, sondern halt perspektivisch auf die nächsten zwei Generationen gedacht.

Weder Nvidia noch AMD können sich groß ausruhen. Deep Learning, Machine Learning und RT Effekte sind alle da um zu bleiben. Besonders die Umwälzungen die Deep Learning mit sich bringen wird sind so fundamental wie die 3D Texturbeschleunigung auf den ersten 3DFX Karten. Deep Learning wird in Zukunft nicht nur die Auflösung hochrechnen. Es wird Physik-Effekte mit weniger Aufwand berechnen als deterministische Fließkomma jetzt. Es wird die KI besser und günstiger berechnen. Es ist viel besser geeignet ganze Welten zu simulieren.

Jedes Spiel wird da wild unterschiedliche Anforderungen erfordern. Ein Rennspiel braucht edlen Raytracing Look und nur eine sehr einfache Fahrer-KI. Civilization +1 braucht weniger Grafik, will aber die Welt in brutaler Genauigkeit mit Machine und Deep Learning simulieren. Das wird ganz flexible Chips brauchen und AMD will so ein Design wie es scheint. Nvidia lebt da mehr im Moment, da reicht es ein paar Tensor und RT Cores an die CudaCores ranzutackern. Aber auch Nvidia wird das auf die Zukunft betrachtet anders sehen.
 
Auf Deutsch: "Macht euch keine Sorgen, RT auf AMD Chipsätzen ist zwar Müll, aber auf euren Peasantkonsolen müssen wir eh ne Detailstufe unter Ultralow nehmen, da machts auch keinen Unterschied mehr, weil die Dinger sonst schreiend in Flammen aufgehen und die Auflösung auf 640x480 skalieren (reicht bei Konsolen fürs 4k Siegel wenn das Menübild 4k ist)"

Ich warte immer noch auf dieses Aha Erlebnis bei RT, welches mir deutlich macht warum ich auf 60% meiner Frames verzichten soll. Sieht meistens nicht besser, nur anders aus und macht viele Szenen sogar hässlicher. Gerade bei Metro.
 
RDNA sehe ich so als Adaption der Ryzen Strategie. Will heißen AMD legt zuerst Wert darauf, dass eine Basis existiert, die sich über folgende Generationen gut skalieren lässt.

Ryzen 1000 hat jetzt Intel nicht vom Hocker gehauen. Ryzen 2000 war echt ok, aber Intel klar besser. Ryzen 3000 war schon auf Augenhöhe und Ryzen 5000 profitiert am deutlichsten davon, dass AMD seine Chips nicht grundsätzlich neu erfinden muss. Selbst wenn Intel zügiger voranschreiten würde, wäre AMD immer am Ball und bleibt es auch auf die kommenden zwei CPU Generationen betrachtet. Am Besten sieht man die Skalierfähigkeit bei Server CPUs mit 128 Threads.

...

Der Vergleich mit Ryzen passt meiner Meinung nach aber nicht ganz. Ryzen war mit der Performance zu 90% da wo Intel war, jedoch zum halben Preis und gerade dieses unschlagbare Preis-Leistungs-Verhältnis hat dafür gesorgt dass AMD große Marktanteile (ich meine es waren 10% im ersten Jahr) gewonnen hat und entsprechend viel Umsatz/Gewinn. Gerade die Zunahme der Marktanteile hat sehr viel ins Rollen gebracht. Plötzlich gab es Zertifizierungsprozesse von Dell und Lenovo für Ryzen 2000 für den Servermarkt, Softwareanbieter haben ihre Software für Ryzen angepasst usw. Mit Ryzen 2000 hat man die Leistung etwas erhöht und den Preis beibehalten, mit Ryzen 3000 war man mit Intel gleich auf, hat die Preise angehoben, war aber noch immer günstiger als Intel. Das Preis-Leistungs-Verhältnis ist bei Ryzen noch immer besser als bei Intel.

Bei den GPUs schaut es anders aus. Da ist AMD etwas langsamer als Nvidia, kostet aber auch nur etwas weniger. Preis-Leistungs-Verhältnis ist bei AMD und Nvidia quasi gleich, wenn ein Spiel RT oder DLSS unterstützt bei Nvidia besser. Mit Preis-Leistung gleich auf gibt es nicht den großen Reiz zu AMD zu greifen wie bei Ryzen und dadurch gibt es auch keinen großen Anstieg bei der Marktverbreitung was wiederum bedeutet dass es nicht so viele Anreize gibt für AMD zu optimieren. Klar, die Konsolen nutzen AMD, jedoch in leicht abgewandelter Form wodurch einige Optimierungen auch auf den PC überschwappen werden, jedoch nicht in dem Ausmaß wie man es damals bei Ryzen gesehen hat.
 
Scheint trotz oder wegen des starren Rahmens aber bereits den Weg in mehrere Games gefunden zu haben.
Eher "wegen". Nvidia hat hier schon viel Vorarbeit geleistet ("it just works"). Entwickler müssen sich keine Gedanken über die Details machen.

Mehr Freiheit = mehr Aufwand + mehr mögliche Fehler
Richtig. Ich nehme an, dass nicht wenige Entwickler es auch gar nicht erst versuchen werden. Diese Kapazitäten haben eigentlich nur Studios, die eine eigene Engine entwickeln.
 
Mehr Freiheit = mehr Aufwand + mehr mögliche Fehler


Scheint trotz oder wegen des starren Rahmens aber bereits den Weg in mehrere Games gefunden zu haben.

Maximal flexibel zu sein hat nicht nur Vorteile, sondern frisst auch sehr viel Zeit.
Das mag sein. Aber letztlich muss in Zukunft beides möglich sein.
Raytracing ist an und für sich kein Hexenwerk, somit ist mehr Freiheit auch wichtig um Spiele technisch wie optisch voneinander abzugrenzen.
Mehr Freiheit gabs zuerst ca 2001 mit der Einführung von Shadern, alles davor war halbwegs fixed.

Ob man jetzt 10 Tricks übereinander lappt um wie in aktuellen Spuelen Licht und Schatten richtig darstellt, oder dinfach nur auf Raytracing setzt ist gar keine Frage des Entwicklungsaufwands oder der Flexibilität. Wenn genug Rechenleistung in den Spielepcs steckt in Zukunft, ist klar, dass aktuell etablierte Ansätze im Rasterizing nach und nach verschwinden werden. Hybrid Rendering ist die Zukunft, der Raytracing Part noch das einfachste davon und dieser Part wird auch bald Indie-Entwicklern zur Verfügung stehen, weil entweder in jeder Engine integriert (Unreal, Unity...) oder Open Source verfügbar bzw durch die Hersteller angeboten.

Geduld ist jedoch gefragt.In 3-4 GPU Generationen (6-8 Jahre) erst, bzw mit den nächsten Konsolen, was die Entwickler mit RTRT machen werden. Jetzt stecken wir grad eher in einer experimentellen Anfangsphase. Es fehlt an Leistung und Erfahrung
 
Zuletzt bearbeitet:
Zurück