Wolfenstein Youngblood RTX-Update: Raytracing-Benchmarks mit Geforce RTX 2060 bis Titan RTX

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Wolfenstein Youngblood RTX-Update: Raytracing-Benchmarks mit Geforce RTX 2060 bis Titan RTX

Seit dem 9. Januar beherrscht auch Wolfenstein Youngblood sehenswertes Raytracing. Nach dem ersten Eindruck haben wir nochmals genauer hingesehen und die Leistung analysiert. Welche Geforce RTX hält der Strahlenbelastung stand, welche geht zu Boden und was gibt es sonst noch zu berichten? PC Games Hardware lädt erneut zur Raytracing-Show, Edition 2020.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Wolfenstein Youngblood RTX-Update: Raytracing-Benchmarks mit Geforce RTX 2060 bis Titan RTX
 
Sehr interessant das nicht die Leistung fehlt, um RT bei allen Karten brauchbar zu nutzen !



sondern der Speicher, ist hier das Zünglein an der Waage.
 
PCGH schrieb:
Die komplette RTX-20-Reihe ist, die Titan RTX ausgeklammert, speicherseitig nur ausreichend bis mangelhaft bestückt.

Das nenne ich Klartext :daumen:

Edit:
Aufmerksam und kritisch beleuchte in dem Video und der Bildgalerie sind auch die Darstellungsfehler, die sich durch Raytracing ergeben. Der Fakt, dass die Entwickler (wie bereits DICE bei Battlefield V) trotz Raytracing nicht auf Screen Space Reflexion verzichten (können) ist auch ernüchternd, vor dem Hintergrund dass sie bei einigen RT(X)-Anghänger verpönt sind.
 
Zuletzt bearbeitet von einem Moderator:
Danke zuallererst für den Artikel.

Interessant ist, dass auch ich einer Fehleinschätzung aufgesessen bin, als es um das Thema VRAM der Grafikkarten der RTX Serie ging.
Ich bin davon ausgegangen, dass man aufgrund morderner Streaming- Engines und inzwischen hochwirksamen- und Aggresiven LODs eher künftig wieder in Richtung weniger Speicherverbrauch gehen würde.

Jedoch ist es so, dass eventuell sich daraus ergebende Vorteile mehrfach von der Datenmenge aufgefressen wird, die ich für RT vorhalten muss.
Nicht nur, dass ich die Szenengeometrie nicht mehr auf den Vieport cullen kann, da ja in reflektierenden Gegenständen jederzeit auch Geometrie gespiegelt werden kann, die sich eben außerhalb des Sichtbereichs befindet, nein- Die Texturdaten für die Gesamte Szene, die einen umgibt muss auch noch im Speicher vorliegen.

Da RT sowieso sehr an Cache und Speicherbandbreite gebunden ist, schlägt das doppelt ins Kontor. Man hat ja gerade auch zukünftig die verlockende Möglichkeit das LOD über Mesh shader bzw. primitive Shader hocheffizient und deutlich schneller/übergangsloser abzubilden. Das aber auch nur, wenn man die GPU mit der ungefilterten Szene versorgt->höhere VRAM Belegung.

Die Zukunft muss also zwangsweise in 12GB VRAM für kleine Modelle münden und 24GB VRAM und mehr für die größeren Modelle, wenn man auch auf modernere, aufwändigere Rendertechnologien setzt.

LG
Zero
 
Zuletzt bearbeitet:
Positiv: Das RTX Update wurde tatsächlich nachgeliefert.

Negativ / zu erwarten: Man darf man wieder unterhalb der >1000€ GPUs zwischen Auflösung/Details und FPS abwägen.

Oder kurz gesagt: Der Benchmark schreibt Ampere nicht nur deutlich zu steigernde RT Leistung, sondern auch deutlich mehr VRAM ins Lastenheft. Ob es wohl kritische Stimmen zum Release von Turing gab, welche die Ramausstattung kritisch gesehen hatten... Man weiß es nicht...
 
Da RT sowieso sehr an Cache und Speicherbandbreite gebunden ist, schlägt das doppelt ins Kontor. Man hat ja gerade auch zukünftig die verlockende Möglichkeit das LOD über Mesh shader bzw. primitive Shader hocheffizient und deutlich schneller/übergangsloser abzubilden.

Ein Programmierer im 3dC meint RT+MeshShading in der Kombi ist momentan net einfach.
3DCenter Forum - Einzelnen Beitrag anzeigen - DirectX 12 Grafik-API

Man wird wohl erste Games abwarten müssen bzgl. der Performance-Gewinne.
 
Ein Programmierer im 3dC meint RT+MeshShading in der Kombi ist momentan net einfach.
...
Man wird wohl erste Games abwarten müssen bzgl. der Performance-Gewinne.
Da hat dieser Pixeljetstream recht. Deshalb gabs ja auch, wie er richtig schreibt die ersten Ansätze dieses Dilemma aufzulösen (DXR 1.1).

Es war aber nicht anders zu erwarten. Nämlich, dass RT in einigen Bereichen neue Lösungsansätze fordert bzw. altbewährtes zum Teil einfach dann so nicht mehr funktioniert.

So lange sie die riesen Sprünge in der Entwicklung beibehalten, die sie bis jetzt in Sachen RT hingelegt haben, sehe ich da aber auch kein großes Problem.

Schade nur, dass in Sachen RT zu Anfangs einfach auch "Rohrkrepierer" dabei waren, wie BF V oder SOTTR _(dessen Implementation ich für garnicht mal so schlecht halte).

Wären Wolfenstein, Control oder deliver us the moon die ersten Spiele gewesen, die für RT herausgebracht worden wären, wäre das Image ein deutlich besseres... Sowohl RT als auch vor allem DLSS betreffend.
Einen ersten Eindruck gewinnt man einfach nur einmal.

LG
Zero
 
Zuletzt bearbeitet:
Mal noch mein persönlicher Eindruck zu erf. Fps.
An nem 144Hz-Moni reichen ja bereits 72fps durch die Verdopplung aus. (für "volles" Vergnügen)
Bei 163Hz dann 81fps.
Wenn die GPU net mit 100% Last laufen muss ist auch das Inputlag niedriger.
Sollte also abseits von e-sports auch mit Weniger gut funzen.

edit: mit 4k@RT sind natürlich Gsync-Monis oder der LC9@VRR optimal unter 60fps
 
Zuletzt bearbeitet:
Ich vermisse Benchmarks mit DLSS. Ich finde es funktioniert sogar in dem ewig schlechtgeredeten BFV sehr gut. Es brauchte nur einen Patch dann gings. Das selbe in Metro Exodus. Aber viele haben sich nur den Zustand bei Release gemerkt. Natürlich wird überall getrickst, wenn man danach sucht findet man immer was. Das gilt auch für Titel, die gar kein Raytracing verwenden. Ausnahme ist lediglich Pong.
Mit DLSS reicht dann ja eventuell der Vram.
 
NV könnte ja auch mal die 2080s als kleine Titan mit 16Gig rausbringen.
Die Studio-Notebooks haben wohl sowas.
 
Leck mich fett, sieht das geil aus. Hab meine RTX gerade richtig lieb... :D Die Performance ist ziemlich gut. Die direkte Steuerung (geringer Input Lag) ist nach wie vor vorhanden. Hab DLSS übrigens auf Quality gestellt.

Aber der VRAM, der wird zum Frühstück verputzt...

Wolfenstein  Youngblood Screenshot 2020.01.11 - 15.15.09.35.jpg
 
Also das Spiel ist installiert, Benchmarks sind gelaufen: R5 3600 @ Stock " GB RAM @ 3000Mhz RTX2060 Super @ Stock
Wolfenstein  Youngblood Screenshot 2020.01.11 - 19.32.30.69.jpg
Wolfenstein  Youngblood Screenshot 2020.01.11 - 19.33.35.87.jpg


Also ich finde zumindest mit DLSS den VRAM Verbrauch mal komplett in Ordnung. Hab jedoch noch nicht rau wie man DLSS anpassen kann.
 
Danke zuallererst für den Artikel.

Interessant ist, dass auch ich einer Fehleinschätzung aufgesessen bin, als es um das Thema VRAM der Grafikkarten der RTX Serie ging.
Ich bin davon ausgegangen, dass man aufgrund morderner Streaming- Engines und inzwischen hochwirksamen- und Aggresiven LODs eher künftig wieder in Richtung weniger Speicherverbrauch gehen würde.

Jedoch ist es so, dass eventuell sich daraus ergebende Vorteile mehrfach von der Datenmenge aufgefressen wird, die ich für RT vorhalten muss.
Nicht nur, dass ich die Szenengeometrie nicht mehr auf den Vieport cullen kann, da ja in reflektierenden Gegenständen jederzeit auch Geometrie gespiegelt werden kann, die sich eben außerhalb des Sichtbereichs befindet, nein- Die Texturdaten für die Gesamte Szene, die einen umgibt muss auch noch im Speicher vorliegen.

Da RT sowieso sehr an Cache und Speicherbandbreite gebunden ist, schlägt das doppelt ins Kontor. Man hat ja gerade auch zukünftig die verlockende Möglichkeit das LOD über Mesh shader bzw. primitive Shader hocheffizient und deutlich schneller/übergangsloser abzubilden. Das aber auch nur, wenn man die GPU mit der ungefilterten Szene versorgt->höhere VRAM Belegung.

Die Zukunft muss also zwangsweise in 12GB VRAM für kleine Modelle münden und 24GB VRAM und mehr für die größeren Modelle, wenn man auch auf modernere, aufwändigere Rendertechnologien setzt.

LG
Zero

Ich glaube, VRAM wird da keine so große Rolle spielen, wie man es heutzutage vielleicht vermuten könnte.

Die nächsten Konsolen sollen stark auf SSD - data streaming setzen und haben selbst nicht so viel RAM (13 GB nutzbar, für den VRAM bleibt da also nicht mehr als 6 GB) sobald die ersten richtigen Next Gen Games rauskommen, werden HDDs daher auch nicht mehr nutzbar sein, das wird sich dann auch auf den PC auswirken.

Bezüglich Mesh Shadern hab ich mal gelesen, dass es eigentlich an VRAM sparen soll. Wie du schon sagtest, laufen die effizienter, sowohl von der Leistung sowie scheinbar auch vom VRAM Verbrauch her. Nagel mich aber nicht drauf fest :D
 
Zurück