Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks

Quake 2 RTX, die mithilfe von Pathtracing grafisch überarbeitete Version des Shooter-Klassikers von 1997, lief bisher nur mit Nvidia-Grafikkarten. Mit dem neuen Patch auf Version 1.4.0 dürfen auch Besitzer einer Radeon RX 6000 ran, denn Quake 2 RTX kann nun das offizielle Vulkan-Raytracing verwenden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Quake 2 RTX: Port für offizielles Vulkan-Raytracing und somit RDNA-2-Support, erste Benchmarks
 
Autsch, das ist hart. Krass das die Programmierung so eine Differenz erzeugt. Im recht neutralen Port Royal ist die Differenz nicht wirklich groß zwischen den beiden Karten.
 
Autsch, das ist hart. Krass das die Programmierung so eine Differenz erzeugt. Im recht neutralen Port Royal ist die Differenz nicht wirklich groß zwischen den beiden Karten.
Nein, das hat nichts mit Programmierung oder Schnittstellen zu tun.

Hier zeigt sich, dass die RT Cores deutlich leistungsstärker sind, da sie neben Intersektionen auch noch BVH Traversal beschleunigt. Bei AMD läuft das in Software auf den Shader-Cores.
 
Autsch, das ist hart. Krass das die Programmierung so eine Differenz erzeugt. Im recht neutralen Port Royal ist die Differenz nicht wirklich groß zwischen den beiden Karten.

Woher weißt du, dass es neutral ist? Wenn dein Anhaltspunkt für Neutralität gleiche Performance ist, dann ist das doch völlig nichtssagend und der Schlechteste Anhaltspunkt überhaupt.

Angenommen Nvidia hat hier "wirklich" die deutlich bessere Performance, aber man wüsste es nicht und du bezeichnest einen Titel der gleiche Performance auf Nvidia und AMD abliefert als neutral, dann wäre das eindeutig ein Trugschluss. Im Umkehrschluss müsste man mit dem Wissen über die Wahrheit dann jeden Entwickler, der es nicht schafft, auf Nvidia deutlich bessere Performance zu erreichen, unterstellen müssen, dass er nur für AMD und nicht Nvidia optimiert hat und Leistung liegen lässt.

Sorry, aber so einfach ist das nicht.

Als Endnutzer kann man sich nur die Endresultate ansehen und Performance und Optik vergleichen. Der Durchschnitt wird dann schon hoffentlich annähernd die Wahrheit abbilden. Ansonsten nen Dev fragen.
 
Schwieriger vergleich wieviel Raytracing einheiten hat die Amd Karte soviele wie Cu´s also 80? Und Nvidia hat wie viele RT Cores? 68 RT der dritten Generation und 272 Tensor Kerne.
nvidia glatt doppelt so schnell gut auf das richtige Pferd gesetzt zu haben mal wieder. aber preise erhöhen das kann amd.
Ist ja nicht so als könnte die Karte nicht mithalten, für einige reicht die Leistung Dicke und Raytracing ist meist ein Feature. Selbst die 3090 schafft laut igor 21 fps mit full Raytracing erst mit zuschalten von DLSS ist es möglich das Spiel zu spielen. Und alle Complier sowie API´s wurden seit den letzte Jahren auf NV optimiert.
 
Weiß man denn, ob bei der NV Karte die offiz. Vulkan Ext. verwendet wurde oder ob diese ggf. weiter auf der NV-Ext. läuft?
 
Das Update gabs, weil nvidia die aktuellen offiziellen Vulkan Extensions eingepflegt hat.
Somit ist es jetzt an AMD zu zeigen, was ihre Karten draufhaben.
nvidia hat vorgelegt und damit viele ihrer Techniken open source gestellt.
 
Da wird man sich ja bald am besten zwei GraKas einbauen müssen, je nach dem was am besten läuft, spielt man dann auf einer RTX oder RX.
 
Da wird man sich ja bald am besten zwei GraKas einbauen müssen, je nach dem was am besten läuft, spielt man dann auf einer RTX oder RX.
Was Raytracing angeht, ist die Sache ziemlich eindeutig: Die allermeisten Spiele, die man derzeit bekommt (20+), laufen mit einer Geforce besser. Die einzige Ausnahme ist WoW Shadowlands, das auf Nvidia-GPUs bei aktivem Raytracing in "normalen" Auflösungen ein hartnäckiges CPU-Limit zeigt. Insofern ergibt Nvidias Pochen darauf, man solle mehr Raytracing statt Rasterisierung testen, absolut Sinn. Allerdings besteht die Welt aus mehr als Raytracing, nicht wahr? ;)

MfG
Raff
 
Im Kurztest lief sie mit den VK_NV_Extensions. Das Spiel fragt diese bei jedem Start ab (siehe eingebetteter Schnipsel im Artikel) und präferiert sie.

MfG
Raff
Danke für die Info.

Da Nvidia hier einen stark auf RT Cores optimierten Ansatz verfolgt (ist ja sowas wie ein Werbespiel) ist es wohl zu erwarten gewesen, dass man Kreise um AMD zieht. Die Frage ist: wie viel kann AMD noch aus ihrem Ansatz rausholen. Quake 2 RTX finde ich als spielbare techdemo schon spannend. Klar mit Hersteller-Bias (auch noch mit Vulkan), aber es zeigt schon auch ein bisschen unterschiedlichen Ansätze auf. Wird in Zukunft sehr spannend, welcher Ansatz schneller sein wird.

In den Extremsituationen in RT ist Nvidia AMD offenbar noch deutlich voraus, zumindest mit den Tensor Cores und RT Cores 2.0.
Wie sieht es mit den RTX 2xxxer aus?
 
AFAIR verwendet auch Quake 2 RTX keine Tensor-Kerne, das Denoising wird als Compute Shader auf den ALUs durchgeführt. Bei Github kann man sich Details ansehen; dazu kam ich heute wegen der Heftproduktion nicht mehr.

MfG
Raff
 
Allerdings besteht die Welt aus mehr als Raytracing, nicht wahr? ;)

MfG
Raff
Ja das stimmt in der Tat undd a ich aktuell eine 2070 und 5700xt habe konnte ich für mich ganz klar festlegen das es jetzt noch keine so hohe Gewichtung hat und ich erst mal mit der 6800xt weitermache... Ich nehme im Moment einfach lieber den tollten TSMC Prozess und den üppigen VRAM mit.
Am Rande muss ich leider bemerken das nach fast 4 Wochen Wartezeit das angepeilte Lieferdatum von 5.1 vom Lieferanten heute wieder auf Zulauf unbekannt umgestellt wurde.. Hätte ich nicht schon den WK Block für die Nitro bestellt würde ich wohl mittlerweile entnervt stornieren und einfach mit der 5700er Devil weiterleben ... Langsam wird es ermüdend.
 
Zuletzt bearbeitet:
Was Raytracing angeht, ist die Sache ziemlich eindeutig: Die allermeisten Spiele, die man derzeit bekommt (20+), laufen mit einer Geforce besser. Die einzige Ausnahme ist WoW Shadowlands, das auf Nvidia-GPUs bei aktivem Raytracing in "normalen" Auflösungen ein hartnäckiges CPU-Limit zeigt. Insofern ergibt Nvidias Pochen darauf, man solle mehr Raytracing statt Rasterisierung testen, absolut Sinn. Allerdings besteht die Welt aus mehr als Raytracing, nicht wahr? ;)

MfG
Raff
Natürlich. So wie man nicht nur DX12 Spiele bencht, oder nur Shooter etc.
Wir wollen euch ja nicht mehr Arbeit machen, aber ich fürchte die habt ihr in den kommenden Jahren durch RT und DLSS (bzw. äquivalentes von AMD) schon. Letztlich müsst ihr nicht nur schauen (wie früher): welche GPU läuft in welchen Spielen, welcher API (dank evtl besserer Treiber, Drawcalls etc), besser. Ihr müsst in Zukunft auch das klassische Rastern vom Hybrid Rendering unterscheiden und hinzu kommt, dass man jeweils auch die Umsetzung und Spielbarkeit von DLSS + Alternativen betrachten muss. Vor allem die Open Source alternative wird spannend, letztlich ist mir DLSS zu Herstellerabhängig. Wenn Nvidia den Support bei einem Spiel einstellt (oder der Hersteller) kann es sein, dass DLSS ja plötzlich nicht mehr will. Das ist bei Open Source weniger die Gefahr.
Aber AMD hinkt sowohl in RT als auch in DLSS eindeutig hinterher leider.
AFAIR verwendet auch Quake 2 RTX keine Tensor-Kerne, das Denoising wird als Compute Shader auf den ALUs durchgeführt. Bei Github kann man sich Details ansehen; dazu kam ich heute wegen der Heftproduktion nicht mehr.

MfG
Raff
Spannend. Wenn das Nvidia-Werbespiel das nicht nutzt, ist die Frage: Warum nicht? Wäre es damit nicht noch schneller beim Denoising?
 
Zuletzt bearbeitet:
Letzteres gilt laut meinem laienhaften Verständnis immer, Fixed-Function-Einheiten für eine einzige Aufgabe sind immer schneller und sparsamer als Allzweckwerke. Und trotzdem gibt es - soweit ich weiß - nicht ein PC-Spiel, das die TCs heranzieht. Die betreiben nur DLSS. Dafür gibt es gewiss Gründe abseits von Kompatibilität, aber die erfährt man nicht. Abseits des Gamings kann man die Tensorkerne hingegen produktiv nutzen (Stichwort "Studio").

MfG
Raff
 
Denoising wird wohl ein Gauss-ähnlicher Kernel in FP32 sein (wobei Salt/Pepper eigentlich mit Median Filtern besser zu unterdrücken ist, aber das ist ne Sortierfunktion, da kann man wohl auch gleich mehr Strahlen schießen). Der ist zum 1. separierbar, also ohne Matrixoperation berechenbar, und zum anderen eben in vollen 32Bit Floating-point zu rechnen. Man will ja Noise entfernen und nicht hinzufügen.
Ampere kann afaik maximal TF32 was keine vollen 32Bit sind (sondern 19).
 
Zurück