Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?

@PCGH_Raff: Ein hochinteressanter Artikel, meinen herzlichsten Dank. :daumen:
Kannst du (ich vermute, es sollte dann ein Nachfolgeartikel werden; aber vielleicht liegt es dir im Updatestil ja lieber, damit der Umfang nicht völlig ausartet) noch einige Effizienztest anfertigen? Also bei einzelne Karten überprüfen, ob diese ihre PowerTargets auslasten oder überschreiten, weil der RT-Anteil womöglich nicht korrekt mitgedeckelt wird? Und auch einen Vergleich der Karten normiert auf das selbe Powertarget. (also z.B. alle auf 200W und dann schauen, ob sie sich an die Targets halten und wie gut sie dann noch performen)
 
Ich denke auch, dass man mit den RDNA2 karten nicht so schlecht unterwegs ist.
Bin mir auch ziemlich sicher, dass die Konsolen vorgeben werden, wie hoch die RT Anforderungen in Zukunft sein werden und diese werden auch die Entwickler vor die Aufgabe stellen, möglichst viel aus den begrenzten Ressourcen herauszuholen.
Das schöne an den RT Effekten ist ja dass sie skalierbar per Knopfdruck sind und massiv Zeit sparen bei der Implementierung, siehe "Developer Tools" hier: Link

Wenn man also eine Engine nimmt die RT nativ unterstützt (UE4 + 5, Unity, Id Tech, usw usw, die Liste ist bereits lang) dann lassen sich die RT Effekte auf dem PC per *klick hochskalieren. Wenn jetzt RT Spiele crossplatform auf Konsole und PC mit RT erscheinen, dann wird man sehr wahrscheinlich in den PC Versionen deutlich mehr RT Effekte einschalten können. Die Verbreitung dürfte also schneller vonstatten gehen als viele hier denken.

Rt ist mir mich momentan nicht relevant, fällt nach 10min eh kaum noch auf
Siehe Video oben. Das "fällt nach 10 Minuten kaum auf" könnte man auch auf so ziemlich JEDEN Grafikeffekt anwenden, man gewöhnt sich an alles. RT ermöglicht aber erstmalig realistische Schatten, Reflektionen und Beleuchtung. Und wollen wir nicht alle irgendwann fotorealistische Grafik?
 
Stimmt, dennoch müssen die Karten in einem Game immer mehr als nur RT berechnen. Ich sehe aktuell zwar DLSS als großen Vorteil von NV. Dennoch frage ich mich ob bei AMD durch Optimierung nicht noch was zu holen ist. Es gibt Spiele da ist AMD genauso schnell wie NV mit RT, bspw. in WoW. Leider gehöre ich zu den Menschen die kaum einen Unterschied zwischen RT an und aus sehen :( Ich meine jetzt nicht auf Screenshots sondern im Spiel selbst.
Ich teste aktuell die Rx6900XT aus und hoffe die hat kein extreme Spulenfiepen/Rasseln und das ansonsten auch alles passt. Dann werd ich die wohl behalten.
Es gibt Menschen die sehen wenig Unterschied bei:
144hz vs 60
4k vs 2K Auflösung
diverse Effekte (SSAO)
usw.

Raytracing - also ECHTZEITraytracing steckt in den Kinderschuhen und die richtigen Spiele mit Raytracing wirst du erst in einigen Jahren, vermutlich mit der NÄCHSTEN Konsolengeneration erst sehen. Dann wird auch erst klar, wie groß der Unterschied zu traditionellem Rendering ist.

Prinzipiell ist das so: Raytracing kostet jetzt enorm viel Leistung, aber in einigen Jahren, wenn mehr RT eingesetzt wird und die Spiele immer realistischer aussehen werden, wird es so sein, dass dieselbe Grafik mit "Rasterizing" zwar möglich ist, aber dann schon so viele "Tricks" braucht beim Rastern, dass dies wiederum mehr Leistung kostet als RT. Deshalb führt man das jetzt schon ein, um diesen Übergang schnell hinter sich gebracht zu haben.
In 2-3 GPU Generationen wird vielleicht die Rasterizing-Leistung kaum noch steigen, aber sehr wohl die, die für RT benötigt wird.

DLSS ist dabei enorm wichtig. Bzw. die Nachfolger in offener Variante. Ich drücke hier AMD die Daumen was ordentliches auf die Beine zu stellen. Das würde allen helfen, auch weil dann Intel auf diesen Zug aufspringen würde.
 
Eine Allgemeingültigkeit geben die Zahlen nicht wieder, was Raff auch angemerkt hat. Sie zeigen aber die Perfomance der UE4 und das ist das, war wir (Spieler) bekommen, wenn ein Entwickler die Engine nicht groß umbaut.
Solche Differenzen kann sich niemand erlauben zu implementieren, der Benchmark ist einfach Müll, brauch kein Mensch das wird so niemals in der Realität anzutreffen sein.
 
Ich sehe die selben Kugeln wie aus der NV Präsentation, die Benchmarks selbst ohne RT sind dermaßen aus jedem Leistungskontext gerissen das es kracht und die UE ist nun mal NV finanziert. Wozu soll der Benchmark dienen?
Er hat null Aussagekraft.
Es sind auch dieselben Kugeln wie zur Präsentation von Quake 3 Raytraced.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Es gibt Menschen die sehen wenig Unterschied bei:
144hz vs 60
4k vs 2K Auflösung
diverse Effekte (SSAO)
usw.

Raytracing - also ECHTZEITraytracing steckt in den Kinderschuhen und die richtigen Spiele mit Raytracing wirst du erst in einigen Jahren, vermutlich mit der NÄCHSTEN Konsolengeneration erst sehen. Dann wird auch erst klar, wie groß der Unterschied zu traditionellem Rendering ist.

Prinzipiell ist das so: Raytracing kostet jetzt enorm viel Leistung, aber in einigen Jahren, wenn mehr RT eingesetzt wird und die Spiele immer realistischer aussehen werden, wird es so sein, dass dieselbe Grafik mit "Rasterizing" zwar möglich ist, aber dann schon so viele "Tricks" braucht beim Rastern, dass dies wiederum mehr Leistung kostet als RT. Deshalb führt man das jetzt schon ein, um diesen Übergang schnell hinter sich gebracht zu haben.
In 2-3 GPU Generationen wird vielleicht die Rasterizing-Leistung kaum noch steigen, aber sehr wohl die, die für RT benötigt wird.

DLSS ist dabei enorm wichtig. Bzw. die Nachfolger in offener Variante. Ich drücke hier AMD die Daumen was ordentliches auf die Beine zu stellen. Das würde allen helfen, auch weil dann Intel auf diesen Zug aufspringen würde.
Als ob Intel da nicht längst dran wäre... ;)
https://www.tweaktown.com/news/7864...er-to-greens-magic-dlss-technology/index.html

Metro Exodus Enhanced Edition ist ein guter Ausblick auf das was kommt.
Solche Differenzen kann sich niemand erlauben zu implementieren, der Benchmark ist einfach Müll, brauch kein Mensch das wird so niemals in der Realität anzutreffen sein.
Das kann man auf so ziemlich jedem Benchmark anwenden. Es geht bei Benchmarks ja nicht um realistische Szenarien sondern um Stress-Tests die das Maximum fordern. Sehe da keinen Unterschied zum z.B. 3DMark Port Royale Benchmark. Ist der auch Müll?
 
DLSS ist dabei enorm wichtig
Das könnte natürlich, weiterhin ausgebaut(verbessert), tatsächlich mal spannend werden(deutlich mehr fps sind geil ! :D ).

Bisher hat's mich noch nicht so aus den Socken gehauen. Aber dafür zocke ich auch die "falschen" Spiele.
In CP fand' ich's eher shice. ;)
(MatscheMatsch)
Metro Exodus Enhanced Edition ist ein guter Ausblick
... und der nächste Werbeblock von Nvidia. Siehe DF Video, welche ja gern mal Spezialaufträge von Nvidia bekommen, mit entsprechenden Vorgaben(wie z.B. auch mal keine fps einblenden, wie in der Vergangenheit, usw. ;) ).
 
Solche Differenzen kann sich niemand erlauben zu implementieren, der Benchmark ist einfach Müll, brauch kein Mensch das wird so niemals in der Realität anzutreffen sein.
Es ist in dem Fall ein Synthetischer Benchmark in einem Realen Programm. Das macht schon Sinn, braucht aber natürlich mehrere solche Benches um das Reale Bild zu zeigen.
So wie es immer GPU Tests mit MEHREREN Spielen gibt um zu sehen wie die gesamte GPU Performance aussieht
 
Wo bleibt Raytraced AUDIO? Wer will schon den Lichtquatsch haben, spiele sehen auch ohne toll aus, man muss sich einfach mal Mühe geben beim entwickeln seiner >Spiele.
 
Das könnte natürlich, weiterhin ausgebaut(verbessert), tatsächlich mal spannend werden(deutlich mehr fps sind geil ! :D ).

Bisher hat's mich noch nicht so aus den Socken gehauen. Aber dafür zocke ich auch die "falschen" Spiele.
In CP fand' ich's eher shice. ;)
(MatscheMatsch)
Naja eigentlich ist ein gutes DLSS 2.0 oder 2.1 dem nativen Bild fast ebenbürtig bis überlegen. Aber kommt auf die Implementierung drauf an.
 
Es ist in dem Fall ein Synthetischer Benchmark in einem Realen Programm. Das macht schon Sinn, braucht aber natürlich mehrere solche Benches um das Reale Bild zu zeigen.
So wie es immer GPU Tests mit MEHREREN Spielen gibt um zu sehen wie die gesamte GPU Performance aussieht
Naja ichj zieh mir das Teil jetzt runter, ich kann mir schon denken was ich sehen werde. Null Auslastung, sinnfreie Verstopfung der Piepelines außerhalb von Turing und Takt an der Grenze weil die GPU sich langweilt.
 
... und der nächste Werbeblock von Nvidia. Siehe DF Video, welche ja gern mal Spezialaufträge von Nvidia bekommen, mit entsprechenden Vorgaben(wie z.B. auch mal keine fps einblenden, wie in der Vergangenheit, usw. ;) ).
Dann poste doch ein anderes Beispiel.

Naja ichj zieh mir das Teil jetzt runter, ich kann mir schon denken was ich sehen werde. Null Auslastung, sinnfreie Verstopfung der Piepelines außerhalb von Turing und Takt an der Grenze weil die GPU sich langweilt.
Der Benchmark spiegelt die Leistung der RT-Pipeline wieder. Niemand hat je behauptet, dass die gesamte Karte zu 100% ausgelastet wird.
 
Schade, dass hier offenbar niemand den (recht langen) Text gelesen hat. :(

MfG
Raff
What? :what:

Habs erst jetzt geschafft aber natürlich ists gelesen, aber unterm Strich hat man alle News von Euch vorher schon gelesen dann kommt man quasi schon vorher auf den gleichen Schlussstrich.

Find auch das RDNA2 mit der 6900XT sich jetzt recht normal verhält, verglichen mit 2080TI und 3060TI. Mit den komplexeren Modi bei 23-32% mehr Leistung zur 2080TI find ich auch wie bereits vorher erwartet.

Aber dennoch klasse Text alles gelesen und spanender als manch andere News.. auch wenn man das Ergebnis bereits vorher erahnte.:daumen:
 
Hierzu fallen mir folgende Dinge ein:
- Der Test ist nicht neutral sondern technisch pro Nvidia (daher nur bedingte Aussagekraft)

- Dass Nvidia bei RT aktuell besser abschneidet, dürfte wohl nur die wenigsten überraschen, selbst wenn der Test
neutral gewesen wäre. Von DLSS fange ich mal gar nicht an. Dann dürfte AMD aktuell gar kein Land mehr sehen.

- Die meisten dürften während des Spielens eh kaum die tollen Spiegelungen, Reflektionen etc. bewundern, sondern
sich auf das Spiel konzentrieren. Der einmalige Effekt ist natürlich "Wow", aber der wird auch schnell wieder
verpuffen. Raytracing hat daher bei einem großen Teil der Spielerschaft bei weitem nicht die Bedeutung, die
das Nvidia-Marketing dieser Technologie gerne zuschreiben würde.
 
Wenn wir schon von morgens bis Abends die Rassismuskeule schwingen wäre sie hier auch Angebracht. Diese Grüne Besserstellung nervt!
 
Naja eigentlich ist ein gutes DLSS 2.0 oder 2.1 dem nativen Bild fast ebenbürtig bis überlegen. Aber kommt auf die Implementierung drauf an.
Nvidia kann dafür sorgen, dass diese leidigen Diskussionen aufhören würden, indem sie endlich mal DLSS 2x (nicht zu verwecheln mit DLSS 2.X) auf Basis der nativen Auflösung herausbringen würden.
Besonders mit Blick auf die Implementierung in Unity (viele Unity-Titel sind ja von der Grafik her wenig performancefressend, aber haben eine schwache Bildquali) wäre das ohnehin ein wichtiger Schritt. Langfristig relevant ist das obendrein auch noch, in zehn Jahren werden wir selbst bei Marginalo-Fortschritten die Performance haben, um auch die heftigeren Titel intern in mindesten 4320p120 rendern zu können; entsprechend sollte die Möglichkeit softwareseitig schon gegeben sein.
Aus Sicht von Nvidia selber gäbe es für sie halt die Chance, dass sich durch diesen Schritt noch mehr Kritik an DLSS- in Wo bleibt AMD FSR-Beiträge verwandeln würden.
 
Wundert mich, dass die AMDler hier nicht mit Godfall rumposen, da dort die 6900XT sogar vor der Ampere liegt und das mit RT on x)
Wieso sollten sie? Es ist naheliegend, dass User die sich bewusst für RT-"Krücken" entscheiden heutiges Raytracing in Games nicht sonderlich juckt. Ich glaube mittlerweile, dass manche User und Redakteure sogar ein größeres (Klick)Problem damit haben, dass ein nicht gerade geringer Teil der User kein Problem mit mangelnder RT-Performance hat. Ohne manche lustigen Kommentare würde ich z. B. zu dem Thema gar nicht hier posten.
 
Zuletzt bearbeitet von einem Moderator:
Naja ichj zieh mir das Teil jetzt runter, ich kann mir schon denken was ich sehen werde. Null Auslastung, sinnfreie Verstopfung der Piepelines außerhalb von Turing und Takt an der Grenze weil die GPU sich langweilt.
Tada, welch Überraschung....
2,76Ghz bei 225 Watt ASIC, meine Karte rennt also mit 2,8Ghz nicht ins Powerlimit von gerade mal 255 Watt....
Ich hab Mühe das meine Lüfter überhaupt angehen.
Thema abgehackt, völlig uninteressant.
Screenshot (670).png
 
Zurück