DLSS 3 im ersten Praxis-Test: Wie gut ist Nvidias neues Upsampling mit KI-Frameraten-Boost?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3 im ersten Praxis-Test: Wie gut ist Nvidias neues Upsampling mit KI-Frameraten-Boost?

Mit den Grafikkarten der Ada-Lovelace-Generation respektive der RTX-4000er-Reihe bietet Nvidia eine ganze Reihe neuer und spannender Features. Der Star der Technologie-Offensive ist DLSS 3.0, die dritte Iteration von Nvidias Deep Learning Supersampling. Nun werden ganze Frames von der KI erstellt und zwischen die eigentlich berechneten geschoben, um die Performance zu steigern. Wie gut funktioniert das tatsächlich?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3 im ersten Praxis-Test: Wie gut ist Nvidias neues Upsampling mit KI-Frameraten-Boost?
 
Auf jeden Fall spannend, mal sehen was der Markt aus dem Feature macht.

Für VR könnte die Technik hinter der Frame Generation extrem spannend sein: die meisten Hersteller bieten mal bessere oder schlechtere Motion Prediction/Smoothing Lösungen an die auf genau der gleichen Metrik künstliche frames generieren wie die Ada Hardware, aber bei weitem nicht so effizient.
 
Also nachdem heute NUR die FE Test auf diversen seiten gab, geh ich davon aus das es wohl auch ne NDA für Customs gibt , die Morgen fällt. Kann aber auch sein das ich falsch liege und es keine NDA gibt für Customs, nur noch keine Test für da sind.Ich wollte ja auch nur einfach freundlich drauf hinweisen. Obs richtig oder Falsch ist eiß ich leider nicht :)
 
Also nachdem heute NUR die FE Test auf diversen seiten gab, geh ich davon aus das es wohl auch ne NDA für Customs gibt , die Morgen fällt. Kann aber auch sein das ich falsch liege und es keine NDA gibt für Customs, nur noch keine Test für da sind.Ich wollte ja auch nur einfach freundlich drauf hinweisen. Obs richtig oder Falsch ist eiß ich leider nicht :)
Gut mitgedacht. :)
 
Interessantes Feature, letztlich sind wir aber immer noch nicht wirklich schlauer wie nutzbar das ganze sein wird.
Ich denke auf den kleineren Karten wird DLSS3 spannender, dann ist die Technik in den paar Spielen die das unterstützen vielleicht auch nicht mehr ganz so sehr im Alpha-Modus.
 
Hat der Nvidia Build von Plague Tale Raytracing? In den Optionen steht ja nichts davon. Meine Vermutung ist aber eher, dass Raytracing jetzt ab Ultra und/oder High aktiv ist. Wäre cool, wenn ihr das nachprüfen könnt (beispielsweise ob die Reflektionen verschwinden, wenn sie aus dem Bildschirmbereich gehen)
 
Der wichtigste Punkt:
nur ein berechnetes Frame kann auf die Eingabe eines Spielers reagieren. Ein erfundenes Frame. Will heißen, dass wenn ein Spiel sich flüssig und Latenzfrei anfühlen soll, dann muss es das ohne Frame Generation tun.


Laut DF ist bei DLSS Quality 33% des Bildes erfunden (67+33). Dann wird das nächste Bild komplett erfunden (0+100). Auf zwei Frames betrachtet sind von 200 Pixeln also nur 67 berechnet. Man könnte sagen zwei Drittel dessen was wir sehen wird erfunden nicht berechnet.
 
Ja aber das gilt schon seit DLSS 2.x oder so. Die Möglichkeiten gibt es seit Jahren. Die sollen erstmal überhaupt DLSS implementieren, denn die UE4 und andere Plattformen unterstützen das längst. Es dauert halt viel zu lange.
Naja, ein paar DLSS fähige VR Titel gibt es ja mittlerweile. NMS ist erst damit für mich spielbar geworden, ACC auf UE4 Basis ist dagegen schon nativ unscharf und mit DLSS dann Brei.

Frame prediction unter Zuhilfenahme dedizierter hw ist da schon nochmal einen andere Hausnummer. Egal ob ASW bei Oculus, Motion Smoothing bei Pimax, asynchrone Reprojektion bei SteamVR oder Windows MR: alles gebastelte Algorithmen die in der besten Ausprägung (ASW) Motion Vektoren berücksichtigen, die frames aber per CPU generieren.

Mit Blick auf MSFS22 in VR wäre DLSS3 ja ein echtes Wunder, da es sowohl GPU Last reduziert und das CPU Limit ‚überspringt‘.
 
Danke für den Test! Freue mich dann mit meiner RTX 5xxx DLSS 3.x / 4.0 (sicher dann auch wieder Zeitexklusiv), testen zu können.

Scheint ja ganz ordentlich zu funtkioneren!
 
Fuddelfix 3.0, kann ich persönlich nichts mit anfangen. Wie immer am Ende ein Tradeoff und eher was für die unteren Leistungsklassen.
 
Der wichtigste Punkt:
nur ein berechnetes Frame kann auf die Eingabe eines Spielers reagieren. Ein erfundenes Frame. Will heißen, dass wenn ein Spiel sich flüssig und Latenzfrei anfühlen soll, dann muss es das ohne Frame Generation tun.


Laut DF ist bei DLSS Quality 33% des Bildes erfunden (67+33). Dann wird das nächste Bild komplett erfunden (0+100). Auf zwei Frames betrachtet sind von 200 Pixeln also nur 67 berechnet. Man könnte sagen zwei Drittel dessen was wir sehen wird erfunden nicht berechnet.

Du hast da etwas falsch verstanden. Ein DLSS 2.0 Frame wird genau so von der CPU gerendered wie ein natives Frame, heißt der Input Lag ist davon nicht beeinflusst (er wird sogar besser da höhere FPS).

Ein DLSS 3.0 Frame erhöht den Input Lag um ca. 10ms (laut Igor).

1665505254142.png


Heißt Du bekommst mit DLSS 3.0 doppelte FPS und 10ms mehr Input Lag im Vergleich zu DLSS 2.0.

Hier die nativen Latenzen:

1665505328283.png


Also bist Du mit DLSS 3.0 immer noch besser unterwegs was den Input Lag angeht als nativ, und nur geringfügig schlechter als mit DLSS 2.0. Bekommst aber eben einen massiven FPS Boost. Muss dann jeder für sich entscheiden. In Competitive Shootern macht das keiner an, aber das ist auch nicht die Zielgruppe des Features. Es ermöglicht Triple-A-Games mit RT-Ultra-Psycho auf 4K bei 100+FPS...
 
Zurück