DLSS 3.0 mit Frame Generation: Wie urteilt die Redaktion im Blindtest?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3.0 mit Frame Generation: Wie urteilt die Redaktion im Blindtest?

Mit DLSS 3.0 kann die Grafikkarte wegen der niedrigeren Auflösung nicht nur mehr Fps liefern. Die "künstliche Intelligenz" fügt zusätzlich weitere Bilder mit ein und verdoppelt dadurch mal eben die Framerate. Nun hat die Technik aber noch so ihre Kinderkrankheiten, was wir im Test der neuen Upscaling-Technologie auch feststellen mussten. Im folgenden Video haben wir aber nicht nur die Grafik-Sommeliers testen lassen, sondern auch die unvoreingenommenen Gamer in der Redaktion. Kann DLSS 3.0 mit Frame Generation auch im Blindtest überzeugen?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3.0 mit Frame Generation: Wie urteilt die Redaktion im Blindtest?
 
Lustiges Video, hab es gestern bereits gesehen.
Den Effekt das einen das Spiel träger vorkommt trotz höherer Fps hatte ich bereits vermutet. Problematisch scheint mir auch zu sein dass die Response am Ende nie zur Framerate passt.
 
Das Resultat habe ich auch erwartet, leider.

Hoffe Nvidea bekommt das noch besser hin, so das man wenigstens bei einigen Spielen profitiert.
 
Mir ist, insbesondere bei CYBERPUNK, aufgefallen, dass bei Nutzung von DLSS 3 glitzernde Stellen ( meist sehr helle Spiegelungen ) auf den Oberflächen und vor allem dünnen Kanten deutlich dunkler werden, sobald keinerlei Bewegung stattfindet. Dies stört die Immersion für mich erheblich. Ich frage mich ob dies daran liegt, dass ich mit dem ASUS PG32UQX einen Monitor nutze, welcher mit bis zu gut 1400 Nits eine deutlich höhere Spitzenhelligkeit darstellen kann als gewöhnliche Monitore.
 
Zuletzt bearbeitet:
Ich habe Dlss3 bis jetzt erst mit A plague Tale Requiem probiert.
Außer bei den Hud Elementen sehe ich keinen unterschied !
Außer das es Flüssiger läuft.
 
Lustiges Video, hab es gestern bereits gesehen.
Den Effekt das einen das Spiel träger vorkommt trotz höherer Fps hatte ich bereits vermutet. Problematisch scheint mir auch zu sein dass die Response am Ende nie zur Framerate passt.
Es gibt einige Spiele die erst mit sehr hohen Bildraten flüssig laufen, negativ Beispiel hier Wrath auf Darkplaces Engine. Und dann gibt es Spiele die ab ca. 34 Bildern bereits flüssig sind, z.B. ArmA 3.
Ich persönlich hoffe das man DLSS 3 auch umschalten kann und 2.3 nutzen. Bis jetzt sehe ich kein Nutzen an hohen Bildraten mit inputlag.
 
Nachdem wir die PC-Community im Bereich Upscaling weichgeklopft bekommen haben, setzen wir jetzt noch einen drauf und fügen Schummelframes ein.
Kann man drüber diskutieren, mein Ding ist es nicht und diese Meinung möge man mir zugestehen, ich habe DLSS3 aber auch noch nicht selbst ausprobieren können.
Bezogen auf den technologischen Ansatz könnte ich mir vorstellen, dass DLSS3 besonders bei stärkeren und abrupteren Framevarianzen oder einer allgemein niedrigeren Framerate Schwierigkeiten bekommt.
Beispiel:
Ich habe nativ 100FPS, aus denen DLSS3 200FPS macht.
Jetzt sinken meine nativen FPS um 20 auf nur noch 80 FPS nach unten, was unter DLSS3 noch 160FPS bedeuten würde.
Heißt unterm Strich für mich also, dass anstatt nur um 20 FPS zu droppen, ich mich gleich an das Doppelte, nämlich den Verlust von 40 FPS gewöhnen muss.
Oder sehe ich das falsch?
 
Bezogen auf den technologischen Ansatz könnte ich mir vorstellen, dass DLSS3 besonders bei stärkeren und abrupteren Framevarianzen oder einer allgemein niedrigeren Framerate Schwierigkeiten bekommt.
Das kann ich mir auch gut vorstellen.
Als Besitzer einer 4090 hoffe ich natürlich, dass Nvidea DLSS3 richtig gut hinbekommt.
Realistisch erwarte ich höchstens 1-2 Vorzeigetitel.

Insgesamt wäre es für uns Spieler besser, wenn AMD ein neues Upgrade von FSR bieten würde.
 
Der sogenannte "Blindtest" gibt in diesem Falle leider schon eine Richtung vor bzw. beeinflusst den User dahingehend, als dass er weiss, dass es um FG an oder aus geht. Automatisch verbindet der Tester somit das Erlebte mit den Informationen/Erfahrungen, die er insgesamt zu dieser Technik bis dahin aufgeschnappt hat.
Das ist ein natürlicher Reflex und lässt sich kaum in den Griff kriegen.

Ein wirklicher Blindtest setzt den Spielern in mehrfach wechselnder Folge das Spiel vor, ohne dass derjenige weiss, was sich da eigentlich unterscheiden soll.

Nur so lässt sich feststellen, ob eine Technologie nutzbar ist (wenn die Testperson nicht auf den Unterschied kommt oder diese besser bewertet), oder ob sie überhalb der Wahrnehmungsschwelle stört.

Aber das sind nur meine 2 cents...
 
Ich habe Dlss3 bis jetzt erst mit A plague Tale Requiem probiert.
Außer bei den Hud Elementen sehe ich keinen unterschied !
Außer das es Flüssiger läuft.
Ich konnte es mir heute anschauen und fand es ganz unangenehm. Das es durch das CPU-Limit noch träger wirkt ist eine Sache, aber die optischen Probleme wiegen bei mir schwer. Da war auch ein Durchgang/Bogen, der hat so fies gebrickt und die Steintextur geschmiert und gezuckt, das war echt schlimm. An anderen Stellen ähnlicher Art ging es zwar ganz gut, aber irgendwie hatten wir alle paar Minuten so richtig üble Erscheinungen und wenn man erstmal darauf achtet... Auf diesem Markt, wenn man über die Häuser schaut und plötzlich vertikale Kanten doppeln, während horizontale kaum Probleme machen, dann wirkt das ganze Bild einfach falsch und störend, ganz egal wie scharf der Vordergrund daherkommt. Gespielt haben wir mit einem 12900k und einer offenen 4090.
 
Ich habe nativ 100FPS, aus denen DLSS3 200FPS macht.
Jetzt sinken meine nativen FPS um 20 auf nur noch 80 FPS nach unten, was unter DLSS3 noch 160FPS bedeuten würde.
Heißt unterm Strich für mich also, dass anstatt nur um 20 FPS zu droppen, ich mich gleich an das Doppelte, nämlich den Verlust von 40 FPS gewöhnen muss.
Oder sehe ich das falsch?

160 FPS sind immer noch deutlich mehr als 80FPS, von daher siehst du es falsch.

Sonst dürftest du dir auch keine schnellen Grakas kaufen. Wenn ein Spiel auf meiner GTX 1060, z.B. mit Ultra Details, von 30 auf 10 FPS und bei einer RTX 4090 von 240 auf 100 FPS fällt, dann hat die RTX 4090 zwar wesentlich mehr Frames verloren, als meine alte Gurke, aber es ist dort spielbar, während meine Karte auf den letzten Löchern pfeift.
 
Zuletzt bearbeitet:
Hab mich jetzt damit auch nicht beschäftigt.
Aber ist das wirklich Hardware limitiert? Oder ist das eher gewollt, damit Leute 40er-Karten kaufen?
Es ist doch im Grunde DLSS 2, oder? Warum sollte das Ampere nicht können? Gerade die Big Boys RTX 3090/Ti.
 
Hab mich jetzt damit auch nicht beschäftigt.
Aber ist das wirklich Hardware limitiert? Oder ist das eher gewollt, damit Leute 40er-Karten kaufen?
Es ist doch im Grunde DLSS 2, oder? Warum sollte das Ampere nicht können? Gerade die Big Boys RTX 3090/Ti.

Sofern DLSS 3.0 mit einer RTX4050 laufen wird, müsste es auch mit einer RTX3080 oder co. funktionieren.

Ich vermute das DLSS 3.0 nach dem Abverkauf der oberen RTX3000er Karten dann für diese freigeschaltet wird.

Mal sehen wie es kommt.
 
Ich hab mir gerade wegen CB2077 eine RTX 4090 geholt. Aber bei mir hab ich trotz aller Updates keine Möglichkeit die Framerate Generation zu testen weil sie in meinen Einstellungen im Spiel einfach nicht vorhanden ist.... Woran liegt das? Alle Tester auf YT haben die Möglichkeit es zu nutzen, warum ich nicht?
 
Sofern DLSS 3.0 mit einer RTX4050 laufen wird, müsste es auch mit einer RTX3080 oder co. funktionieren.

Ich vermute das DLSS 3.0 nach dem Abverkauf der oberen RTX3000er Karten dann für diese freigeschaltet wird.

Mal sehen wie es kommt.
DLSS 3 setzt offenbar sehr auf den Optical-Flow-Beschleuniger, das wird das für ältere Karten wohl eher spärlich umsetzbar sein (in punkto Qualität).
Bei der RTX 4000 soll dieser um den Faktor 2 - 2.5 schneller sein als bei der RTX 3000.
Und ich glaube der wäre bei einer RTX 4050 auch gleich schnell wie
bei einer RTX 4090, soweit ich weiß skaliert sowas ja nicht mit GPU Größe.

Ganz unabhängig davon würde mich definitiv interessieren wie DLSS3 auf einer RTX 2000 bzw RTX 3000 läuft, es sollte als Option zur Verfügung stehen, wenn es schlecht läuft wird das für viele sicher ein Anreiz sein eine RTX 4000 zu erwerben.
War bei Raytracing auch nicht anders, da wurde es irgendwann mal für GTX 1000 freigeschaltet und durch normale Shader berechnet, das Ergebnis war eine sehr schlechte Performance.
 
DLSS 3 setzt offenbar sehr auf den Optical-Flow-Beschleuniger, das wird das für ältere Karten wohl eher spärlich umsetzbar sein (in punkto Qualität).
Bei der RTX 4000 soll dieser um den Faktor 2 - 2.5 schneller sein als bei der RTX 3000.
Und ich glaube der wäre bei einer RTX 4050 auch gleich schnell wie
bei einer RTX 4090, soweit ich weiß skaliert sowas ja nicht mit GPU Größe.

Ganz unabhängig davon würde mich definitiv interessieren wie DLSS3 auf einer RTX 2000 bzw RTX 3000 läuft, es sollte als Option zur Verfügung stehen, wenn es schlecht läuft wird das für viele sicher ein Anreiz sein eine RTX 4000 zu erwerben.
War bei Raytracing auch nicht anders, da wurde es irgendwann mal für GTX 1000 freigeschaltet und durch normale Shader berechnet, das Ergebnis war eine sehr schlechte Performance.

Das kann natürlich gut möglich sein. Eine Unterstützung, egal wie gut oder schlecht wäre aber wirklich wünschenswert. Bei RT hat es Nvidia auch nicht gestört, das es auf den GTX1000er katastrophal lief. Warum also DLSS3 nicht auch für die RTX2000&3000 veröffentlichen :(

Vielleicht funktioniert FSR3 ja auch abseits von RDNA3 ^^
 
Zurück