Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Trotzdem spielen alle immer mit Ultra Details, trotzdem wollen alle RT nutzen,
Was jetzt auch erstmal nichts schlimmes ist, oder?

obwohl die Bildqualität nur geringfügig besser wird?
Bildqualität geringfügig besser? Hä?

Du merkst den Widerspruch in den Aussagen, oder?
Ich versteh ja nicht mal, was du mir jetzt damit sagen willst. Verwechselst du hier gerade Grafikqualität mit Bildqualität?

Ich selber habe bisher einmal CP mit RT gespielt, Mal unabhängig von der mangelnden Leistung meiner Karte, empfand ich erst bei RT Ultra einen geringen optischen Gewinn und da ich damals mangels FSR2 die Details anderswo runterschrauben musste, hab ich für mich entschieden, dass Details wichtiger sind als RT.
Man kann ja von CP2077 halten, was man mag. Aber RT wirkt sich aus meiner Sicht schon massiv auf die Optik des Spiels aus.
 
DLSS3 greift ja da ein, wo die CPU limitiert. Wenn die CPU nun also 50 FPS liefern kann, die GPU aber Luft für 60FPS hat, dann würde aktives DLSS3 im Idealfall 60 FPS liefern.
Hab ich anders verstanden, die GPU limitiert grds. und durch die Tensor Cores wird ein zusätzliches Bild eingefügt!
Wenn die CPU nicht limitiert, sollte DLSS3 eigentlich kein Vorteil bei den FPS liefern.
Doch
Neben dem Qualitätsunterschied, kommt noch hinzu das du einen spürbar erhöhten Inputlag bekommen würdest, wenn du das Upsampling vom Bildschirm/TV machen lässt, und nicht der GraKa die das Bild eh schon rendert.
Wieso?

Wenn die GPU Upscaling nutzt, dann wird ja in einer geringeren Auflösung gerendert und dadurch erhälst du mehr Bilder, weshalb der Input Lag sich verbessern wird. Bei 30fps in nativer Auflösung und 60fps im Upscaling wirst du hier den gleichen Inputlag haben, wie bei 60fps nativ!

Wenn du das Upscaling extern machen lässt, bspw. durch den TV hast du den gleichen Inputlag wie ohne Upscaling. Obiges Beispiel, also wie bei 30fps!

DLSS muss man jetzt unterteilen, da hier im Prinzip zwei Geschichten vermischt werden. Mit DLSS2 erreichst du im Prinzip das erste Szenario, du renderst in geringerer Auflösung und erreichst mehr FPS, bspw. 60fps (statt 30); dein Inputlag wird daher 60fps entsprechen.
DLSS 3 fügt jetzt noch (ggfls. ja zusätzlich zur Auswirkung von DLSS2) ein weiteres Bild ein und kann dementsprechend im Idealfall deine dargestellten FPS verdoppeln, der Inputlag sollte aber technisch bedingt bei 60fps verbleiben, da die weiteren 60fps keine echten Bilder sind.

Vieles spricht dafür, dass DLSS3 den Inputlag negativ beeinflussen kann, hier reden wir aber meines Erachtens nach nur von Nuancen. Dafür hat Nvidia ja Reflex erschaffen, das scheint diesen geringen Nachteil wieder auszugleichen. Aber du wirst nie den Inputlag erreichen, den du bei 120fps auf Basis einer normalen Upscalingmethode oder eben nativ hast, weil die Bilder keine Informationen vom Rendern bekommen, sondern nur Zwischenbilder ohne Rasterizing sind!

Bei DLSS 3 wird ein zusätzliches Frame eingefügt. Das führt immer zu einer Verdoppelung. Ein Framelimiter hilft da mal gar nichts.
Wieso?

Wieso sollte ein Framelimiter hier nicht helfen (bzw. funktionieren), ich würde allerdings behaupten, dass der Sinn ggfls. aufgeweicht wird. Aber ein 60Hz Monitor bspw. braucht auch mit DLSS3 keine 300 fps (schon gar nicht die virtuellen Zwischenbilder), aber wenn deine GPU für 50 Bilder die Sekunde gut ist, dann kann eine Limitierung auf 60 ggfls. Sinn machen, zumindest um der GPU etwas Last zu nehmen und wenn es nur auf den Tensors ist.
Was jetzt auch erstmal nichts schlimmes ist, oder?
Hab ich nie behauptet!
Bildqualität geringfügig besser? Hä?
Gut, wie wir es nennen ist mir gleich. Optisch behaupte ich merke ich RT erst in Ultra und ich empfinde den Unterschied (mein Ziel ist es zu spielen und mir nicht Standbilder zum Vergleich anzuschauen) eher zugunsten der höheren Texturen.
Soll heißen ich spiele lieber mit Ultra Details und RT aus, als mit hohen Details und RT Ultra!

Das dies Geschmackssache ist, ist mir völlig bewusst.

Ich versteh ja nicht mal, was du mir jetzt damit sagen willst. Verwechselst du hier gerade Grafikqualität mit Bildqualität?
Hmm, OK? Schlecht ausgedrückt!

Ich will sagen, dass obwohl oftmals nur geringe optische Unterschiede zwischen den einzelnen Modi herrschen, trotzdem alle immer mit Ultra spielen wollen, weil eben auch geringe Unterschiede von den meisten wahrgenommen werden (auch wenn ich hier viel Pyschologie sehe; schließe mich auch völlig in die Aussage ein). Wenn man nun mit DLSS qualitative Einschnitte hat, kann ich verstehen, dass man dies nicht will, weil man (da bin ich wieder im HighEnd) eben eine High End Karte kauft und die Erwartungen hat, alles auf Ultra stellen zu können, ohne Einschnitte in der Bildqualität. Dass diese gering sind, sowohl bei High Details, als auch bei DLSS oder bei RT High im Vergleich zu Ultra Details, nativ oder RT Ultra ist mir bewusst, aber wer nicht auf Ultra Details verzichten möchte, dem dürfte in meinen Augen auch DLSS ggfls. schon zuviel Verlust an Optik sein.

Man kann ja von CP2077 halten, was man mag. Aber RT wirkt sich aus meiner Sicht schon massiv auf die Optik des Spiels aus.
In Ultra zweifelsohne, wobei ich hier (aber ganz anderes Thema) auch oftmals sage, dass man beim Spielen den Unterschied nicht merken wird. Aber in High empfinde ich den Unterschied als sehr gering.

Beispiel: Oberes Bild in Ultra und unteres in High; Ultra hat viele Details vom RT, während die wirklich optisch bemerkbaren Unterschiede in High dann schon weg sind (Spiegelung des Reifens im Wasser bspw.)
1664521462940.png

1664521479239.png

 
LSS 3 kann Frames einfügen, OHNE das GPU *oder* CPU belastet wird. Das zusätzliche Bild muss eben auch nicht von der CPU berechnet und bereitgestellt werden. D.h. DLSS 3 hilft auch bei CPU Limitie
War von mir unkorrekt ausgedrückt, das grds. war keine abschließende Aufzählung! Klar kann es auch im CPU Limit funktionieren, vermutlich dort sogar besser, da die Ressourcen der GPU (Tensor Cores) frei sind!

DLSS 3 kann Frames einfügen, OHNE das GPU *oder* CPU belastet wird.
So wie ich oben hast du es hier auch inkorrekt ausgedrückt, die GPU wird natürlich belastet! Nur nicht der Rasterizingkomplex, sondern die Tensor Cores. Ansonsten müsste DLSS3 immer eine Verdoppelung der Frames ergeben, was es aber augenscheinlich nicht tut.

DLSS 3 kann ein weiteres Frame "in die Zukunft" rendern,
Nein, in der Zukunft wird nichts gerendert, sondern "dazwischen"

DLSS 3 kann ein weiteres Frame "in die Zukunft" rendern, wogegen ein TV immer erst das vollständige nachfolgende Frame braucht, um ein Zwischenbild zu berechnen. Und selbst dann fehlen dem TV die Bewegungsvektoren und wird deswegen die Objekte nicht korrekt auf ihrer Zwischenposition rendern sondern immer nur ein unscharfes Blur bei verschobenen Objekten produzieren.
Das ein TV nie die Qualität erreichen wird ist klar.
 
Zurück