DLSS 3 im ersten Praxis-Test: Wie gut ist Nvidias neues Upsampling mit KI-Frameraten-Boost?

Auf jeden Fall spannend, mal sehen was der Markt aus dem Feature macht.

Für VR könnte die Technik hinter der Frame Generation extrem spannend sein: die meisten Hersteller bieten mal bessere oder schlechtere Motion Prediction/Smoothing Lösungen an die auf genau der gleichen Metrik künstliche frames generieren wie die Ada Hardware, aber bei weitem nicht so effizient.

Die zusätzliche Latenz ist für VR praktisch inakzeptable. Nicht umsonst arbeitet mann da mit prediction und berechnet die Bilder voraus, sodass sie bei Bedarf ausbleibende Render-Frames ersetzen und die Eingabeverzögerung retten können. Allerdings gelingt das schon seit den Gen-1-Headsets in einer Qualität, bei der zumindest mir nie eine Unruhe im gesamten Bild aufgefallen wäre. Zwar konnte man bei den Techniken der ersten Generation durch Translationsbewegungen Artefakte provozieren, aber kaum durch reine Schwenks und auch diese Schwäche wurde mit Asynchronous Space Warp vor 6 Jahren (!) weitestgehend behoben. Seitdem frage ich mich, wieso es vergleichbares nicht auch für 2D gibt?

Da mutet es etwas rückständig an, wenn Nvidia im Jahre 2022 mit einer Technik kommt, die immer noch das Funktionsprinzip von 100-Hz-TV-Upscalern von 2002 anwendet (wenn auch in weit besserem Maße). In VR-Titeln ist allerdings auch die Pixeldichte geringer, die Spiele sind detailärmer und das Hirn muss einen viel größeren Sichtbereich nach interessanten Veränderungen scannen. Da kann man sich natürlich mehr Fehler erlauben, ehe es auffällt bei. Bei mindestens 90 Fps in der Ausgabe respektive 45 Fps im Rendering sind etwaige Falschdarstellungen zudem schnell wieder weg, genau wie hier bei der 4090, und zusätzlich kann der VR-Spieler nicht mit einer vollständig statischen Kamera arbeiten, sondern verändert seine Perspektive leicht.

Vielleicht hat Nvidia ein älteres, latenzkritisches Konzept hier also qualitativ so viel besser umgesetzt, dass es erstmals für Flat-Gaming nutzbar ist, während modernere Technik weiter zu fehleranfällig für mehr als VR ist. Aber für diese Beurteilung müssen wir auf kleinere Adas warten, die sich auf unter 40 Render-Fps drücken lassen.
 
Oh yay, Fanboykriege xD.

Aber Mal im Ernst, "erfundene" Frames "berechneten" gegenüberzustellen ist absolut sinnfrei.

Wie werden die denn "erfunden"? Durch Berechnungen, denn was anderes macht ein Computer nicht.

Und woher kommen die "berechneten" Frames?
Aus einem "erfundenen" Code in einer fiktiven, virtuellen Welt die erfunden wurde.
Von findigen Leuten wird sowas auch Programmieren genannt und welcher Code mir nun das Bild auf den Bildschirm zaubert kann mir aus Anwendersicht ja vollkommen egal sein.

Die Latenzen sind ne kleine Sorge, aber warum aufregen? In ein-zwei Monaten gibt's dazu 1000 Tests.

Überhaupt, wen juckt DLSS3 denn schon, wo es doch nur auf völlig überteuerten Karten läuft?

Ich wär ja dafür, erstmal die Verbreitung hinzukriegen. Wenn Spiele ohne DLSS+FSR+XESS die Ausnahme sind, dann kann man das Weiterentwickeln (2.0 war allerdings sowohl bei FSR als auch bei DLSS nötig).
(...) Aber für diese Beurteilung müssen wir auf kleinere Adas warten, die sich auf unter 40 Render-Fps drücken lassen.
Warten? Kannste hier ja keinem mehr zumuten. Urteile werden nach Marken und Emotionen gefällt, nicht aufgrund banaler, objektiver Kriterien. Scheinbar hat keiner mehr Zeit.
 
Oh yay, Fanboykriege xD.

Aber Mal im Ernst, "erfundene" Frames "berechneten" gegenüberzustellen ist absolut sinnfrei.

Wie werden die denn "erfunden"? Durch Berechnungen, denn was anderes macht ein Computer nicht.

Und woher kommen die "berechneten" Frames?
Aus einem "erfundenen" Code in einer fiktiven, virtuellen Welt die erfunden wurde.
Von findigen Leuten wird sowas auch Programmieren genannt und welcher Code mir nun das Bild auf den Bildschirm zaubert kann mir aus Anwendersicht ja vollkommen egal sein.

Man kann schon unterscheiden zwischen "CPU+GPU" und "Tensor" Frames. Letztere könnte man als "erfunden" deklarieren da sie keinerlei Interaktion des Spieler zulassen / zeigen.

Praktisches Beispiel: Ein vorher verdeckter Gegner kommt um die Ecke gelaufen. Wenn die ersten Pixel sichtbar werden, und genau dann ein "Tensor" Frame ausgegeben wird, dann werden die Pixel des Gegners erst im nächsten Frame angezeigt.

Das ist natürlich alles eher theoretischer Natur da wir hier von einstelligen Millisekunden Verzögerung sprechen...

Mich würde viel mehr interessieren ob sich die "Tensor" Frames negativ auf den Betrachter auswirken. Z.B. durch Kopfschmerzen oder ähnliches, sowas kennt man ja wenn vermeintlich nicht sichtbare Frames anders aussehen als das Gehirn "predicted".

Ich wär ja dafür, erstmal die Verbreitung hinzukriegen. Wenn Spiele ohne DLSS+FSR+XESS die Ausnahme sind, dann kann man das Weiterentwickeln (2.0 war allerdings sowohl bei FSR als auch bei DLSS nötig).
Welches Triple-A Spiel kommt denn noch ohne DLSS raus? Selbst bei den Indie Games verbreitet es sich langsam immer mehr (so wie RT auch).
 
In sehr kompetetiven Spiele wie Overwatch 2 oder CS:GO braucht doch kein Mensch DLSS 3, da hat man selbst mit einer GTX 1060 mehr als ausreichend Frames.:ugly:

In High End Spielen wie CP 2077 mit RT Overdrive oder Flugsimulator mit RT, da macht das sehr wohl Sinn, vor Allem weil die zusätzliche Latenz durch Nvidia Reflex fast auf dem Level der nativen Auflösung runtergedrückt wird.
Hier wird bestätigt dass die sehr hohen FPS Zahlen die im Verhältnis geringfügige Steigerung (wenn überhaupt) der Latenz mehr als ausgleicht und das Spielerlebnis deutlich besser wird:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Man kann schon unterscheiden zwischen "CPU+GPU" und "Tensor" Frames. Letztere könnte man als "erfunden" deklarieren da sie keinerlei Interaktion des Spieler zulassen / zeigen.
Nein. Jedenfalls nicht wenn das Gegenteil als "berechnet" definiert wird. Alles wird berechnet.
Die Frames kann man schon danach unterscheiden wo sie berechnet werden, aber das war nicht mein Punkt. Mir ging es schon um die Formulierung, weil so falsche Schlüsse gezogen werden können.
(...)

Welches Triple-A Spiel kommt denn noch ohne DLSS raus? Selbst bei den Indie Games verbreitet es sich langsam immer mehr (so wie RT auch).
Welches AAA Spiel interessiert mich denn?
Anno und TW, der Rest ist eher AA oder B.
Ach und beide haben kein DLSS, aber zumindest Anno hat FSR (lange nicht mehr reingeguckt, ist es schon 2.0?).
Natürlich interessiert mich persönlich auch FSR mehr, so ohne Tensorcores auf der 6700XT.

So oder so, vllt 10% meiner 380+ Steam Spiele haben irgendeinen Upscaler (exklusive Auflösungsskalierung, inkl. wohl eher 20%).

Nun kann man sicher 60% der Spiele aussen vor lassen, da ich sie auch nativ in 4K Ultra spielen kann.

Bleibt ein Viertel mit Upscaler, die Hälfte mit Skalierung.
Find ich nicht so doll.
 
Nein. Jedenfalls nicht wenn das Gegenteil als "berechnet" definiert wird. Alles wird berechnet.
Die Frames kann man schon danach unterscheiden wo sie berechnet werden, aber das war nicht mein Punkt. Mir ging es schon um die Formulierung, weil so falsche Schlüsse gezogen werden können.
Dem stimme ich voll und ganz zu. :daumen:

Welches AAA Spiel interessiert mich denn?
Anno und TW, der Rest ist eher AA oder B.
Ach und beide haben kein DLSS, aber zumindest Anno hat FSR (lange nicht mehr reingeguckt, ist es schon 2.0?).
Natürlich interessiert mich persönlich auch FSR mehr, so ohne Tensorcores auf der 6700XT.

So oder so, vllt 10% meiner 380+ Steam Spiele haben irgendeinen Upscaler (exklusive Auflösungsskalierung, inkl. wohl eher 20%).

Nun kann man sicher 60% der Spiele aussen vor lassen, da ich sie auch nativ in 4K Ultra spielen kann.

Bleibt ein Viertel mit Upscaler, die Hälfte mit Skalierung.
Find ich nicht so doll.
Zuerst sprichst Du von der nicht erfolgten Verbreitung, nur um dann ganze 2 Triple-A und 380+ alte (Indie-)Games als Beispiel zu nehmen? Merkste selbst, oder?

Es kann in dieser Betrachtung nur um aktuelle und kommende Triple-A Spiele gehen. Alle anderen brauchen das Feature schlicht nicht, oder die Studios sind zu schlecht aufgestellt um das Feature zu implementieren. Die breite Masse zockt eben die großen Titel, jedes kommende AC, Witcher, CP, Doom, GTA etc pp wird mit DLSS kommen.
 
Hat der Nvidia Build von Plague Tale Raytracing? In den Optionen steht ja nichts davon. Meine Vermutung ist aber eher, dass Raytracing jetzt ab Ultra und/oder High aktiv ist. Wäre cool, wenn ihr das nachprüfen könnt (beispielsweise ob die Reflektionen verschwinden, wenn sie aus dem Bildschirmbereich gehen)
Ich bin in der etwas seltsamen Situation, dass ich im Grunde nichts über das Spiel sagen "kann" es sei denn, es handelt sich um etwas, was den Test der RTX 4090 betrifft - aber ich denke, das hier geht klar:

Nein, kein Raytracing in der aktuellen Nvidia-Build.
Die Spiegelungen sind SSRs mit recht netten Cube-Maps als Substitution. Die feinen (also detaillierten, ich bewerte an dieser Stelle ausdrücklich nicht! ;) ) Vegetations- bzw. Kontaktschatten sind btw. auch Screen Space.

Gruß,
Phil

PTR - SSRs (1).png
PTR - SSRs (2).png
 
Zuletzt bearbeitet:
Mit jeder Generation werden diese Techniken besser die Lebensdauer der Karten zu steigern.
Erst DLSS 1+2/FSR mit Upscaling und jetzt DLSS 3 mit den KI FPS.
War ja schon ganz nett wie sehr die Lebensdauer meiner 1080ti durch FSR gestiegen ist, deren Nachfolger dürfte dann ewig laufen wenn man alles kombiniert, so gleicht man die steigenden Preise auch teils wieder aus.


Mich würde viel mehr interessieren ob sich die "Tensor" Frames negativ auf den Betrachter auswirken. Z.B. durch Kopfschmerzen oder ähnliches, sowas kennt man ja wenn vermeintlich nicht sichtbare Frames anders aussehen als das Gehirn "predicted".
Dürfte hier wie Motion Sickness in VR wieder von der Person abhängen, der eine merkts der andere nicht.
 
(...)

Zuerst sprichst Du von der nicht erfolgten Verbreitung, nur um dann ganze 2 Triple-A und 380+ alte (Indie-)Games als Beispiel zu nehmen? Merkste selbst, oder?
Was denn? Das ich nicht repräsentativ bin? Nicht Max Mustermann?
Nahm ich auch nicht an. Allerdings sehen die Bibliotheken meiner Freunde ähnlich aus.
Und was heißt "alte Spiele"? Dich scheinen noch unveröffentlichte Spiele mehr zu interessieren als veröffentlichte oO. Mich nicht.
Es kann in dieser Betrachtung nur um aktuelle und kommende Triple-A Spiele gehen.
1. Indie Spiele sind auch aktuell. Sicher 30 meiner Spiele sind von diesem Jahr.
2. Nein danke, ich bestimme selbst was ich betrachten mag und was mich interessiert. In dem Fall, was ich nutze.
Alle anderen brauchen das Feature schlicht nicht, oder die Studios sind zu schlecht aufgestellt um das Feature zu implementieren.
Aber du hast schon gemerkt, dass ich genau diese Spiele (grob 60%) schon rausgerechnet hab?
Ob die Studios das nicht schaffen ist mir auch egal, ich bin Anwender. Mich interessieren nicht die Gründe sondern das Ergebnis. Und das heisst: Nichtmal die Hälfte der Spiele bei denen ich einen Upscaler nutzen würde hat einen.

Die breite Masse zockt eben die großen Titel, jedes kommende AC, Witcher, CP, Doom, GTA etc pp wird mit DLSS kommen.
Schön für die breite Masse. Und ja, das ist die Erklärung für die mangelnde Verbreitung.
Meine Ansicht basiert aber dann doch auf dem was ich spiele.
Deswegen ist es ja meine Ansicht.
 
Was denn? Das ich nicht repräsentativ bin? Nicht Max Mustermann?
Nahm ich auch nicht an. Allerdings sehen die Bibliotheken meiner Freunde ähnlich aus.
Und was heißt "alte Spiele"? Dich scheinen noch unveröffentlichte Spiele mehr zu interessieren als veröffentlichte oO. Mich nicht.

1. Indie Spiele sind auch aktuell. Sicher 30 meiner Spiele sind von diesem Jahr.
2. Nein danke, ich bestimme selbst was ich betrachten mag und was mich interessiert. In dem Fall, was ich nutze.

Aber du hast schon gemerkt, dass ich genau diese Spiele (grob 60%) schon rausgerechnet hab?
Ob die Studios das nicht schaffen ist mir auch egal, ich bin Anwender. Mich interessieren nicht die Gründe sondern das Ergebnis. Und das heisst: Nichtmal die Hälfte der Spiele bei denen ich einen Upscaler nutzen würde hat einen.


Schön für die breite Masse. Und ja, das ist die Erklärung für die mangelnde Verbreitung.
Meine Ansicht basiert aber dann doch auf dem was ich spiele.
Deswegen ist es ja meine Ansicht.
Gut dass nur Du und Deine Freunde zählen. Naja, wie auch immer, ich bin raus aus der "schlechte Verbreitung" Diskussion. Mich interessiert RT+DLSS in aktuellen und kommenden Grafikperlen die das Maximum meiner Karte fordern. Und da sieht die Verbreitung eben gut aus. In 2D oder Indie-Titeln (die ich auch spiele!) brauch ich diese Features eh nicht und da interessiert mich auch die Verbreitung nicht.
 
Du hast da etwas falsch verstanden. Ein DLSS 2.0 Frame wird genau so von der CPU gerendered wie ein natives Frame, heißt der Input Lag ist davon nicht beeinflusst (er wird sogar besser da höhere FPS).

Also bist Du mit DLSS 3.0 immer noch besser unterwegs was den Input Lag angeht als nativ, und nur geringfügig schlechter als mit DLSS 2.0. Bekommst aber eben einen massiven FPS Boost. Muss dann jeder für sich entscheiden. In Competitive Shootern macht das keiner an, aber das ist auch nicht die Zielgruppe des Features. Es ermöglicht Triple-A-Games mit RT-Ultra-Psycho auf 4K bei 100+FPS...

(1) Wir operieren unter der Annahmen, dass wir nicht durch Maus oder Joypad limitiert sind. Für das Beispiel haben beide 0ms Lag.
(2) Wir nehmen ein Spiel das bei 100fps läuft.
(3) Andere Quellen von Lag betrachten wir am Ende.

Unter nativen Bedingungen ist alles klar, das Spiel erhält alle 10ms ein Update. Immer wenn ein Frame fertig ist, frägt die Engine den Zustand des Controller ab (Knopf gedrückt nicht gedrückt, Entfernungen in X und Y Richtungen) und lässt das in das nächste Frame mit einfließen. Die Qualität der Maus und deren Polling Rate spielt keine Rolle. Egal wie gut die Maus ist, bei 20fps ist es immer schwammig.

Unter 100fps DLSS 2.0 sollte sich das Spiel exakt so anfühlen wie mit Nativ 100fps. Es wird zwar nicht das ganze Bild berechnet, aber es wird überhaupt ein Bild berechnet. Und in ein berechnetes Bild kann der Zustand des Controllers einfließen. Will heißen, unser Lag ist weiter 10ms.

Mit 100fps bei DLSS3.0 ändert sich das. Denn nur 50fps werden berechnet. Will heißen, der Controllerinput wird nur noch alle 20ms abgefragt. Klar das Spiel hat 100fps, aber 50% davon werden nicht berechnet, die werden erfunden. Diese Erfindung reagiert nicht auf Controllereingaben, also stellen die sich hinten an.

Der wundervolle Framtimegraph im Artikel zeigt das wundervoll. Das Spiel auf dem Schirm ist für den Beobachter so flüssig wie der gelbe Balken, aber in Sachen Inputlag spielt es sich wie der blaue DLSS2.0 Balken. Nun mag das beim Sprung von 60fps auf 120fps nicht auffallen, gemeinerweise müsste man das bei 20fps und 40 fps testen. Denn 20fps mit der Maus sind grauenvoll, 40 spürbar anders. 40fps nur dank DLSS3.0, sollten das volle Grauen der internen 20fps mit Zwischenframes entblößen.

Die anderen Quellen von Lag sind immer oben drauf. Nvidia kann immer den Controller-Lag, Monitor-Lag und sonstiges 1000 mal pro Sekunde abrufen und in einer Grafik verwursten. Die wirkliche Königsfrage ist, wie oft wird der Zustand der Welt anhand von Controllereingaben berechnet. Wenn eine Nvidia 60fps berechnet hat man immer 16ms gefühlten Input, wenn es 20fps sind hat man immer gefühlte 50ms Input. Egal wie viele fps erfunden werden. Ich behaupte auch nicht Igor oder die PCGH hätten falsche gemessen, sie haben einfach nicht dort gemessen wo es schmerzt.
 
Fuddelfix 3.0, kann ich persönlich nichts mit anfangen. Wie immer am Ende ein Tradeoff und eher was für die unteren Leistungsklassen.
1+
Dann kauft man lieber nen 240Hz-WQHD und lässt den Moni die Frames von 120 auf 240 verdoppeln.

da reicht dann auch ne vorh. ältere Graka länger
 
Zuletzt bearbeitet:
Because we can't.
Wir kriegen die Bildraten mit der RTX 4090 nicht in dafür genügend niedrige Bereiche.

Gruß,
Phil
da könnte LG echt mal einen 77 Zoll 8k OLED rüberschieben bin ich der Meinung. Wir reden hier von 2000€ GPUs, glaubt LG die Leute kaufen dafür einen 27 Zoll 1440p@144Hz Monitor von LG für 350€? PCGH muss dringed bemustert werden. Cyberpunk 8k mit Psycho-RT sollten regeln (hoffe ich). Oder auf die 4060 warten, aber ehrlich LG, dafür kauft man keinen OLED.
 
@PCGH_Phil wie steht es denn um DSR (bzw. die dem früher vorangegangenen Tricks mit Custom Auflösungen für Downsampling) und/oder NV Surround um die Karte mal ordentlich zu belasten?

Ansonsten bin ich wie @PCGH_Torsten immer noch bei der Frage was die eingefügten Frames jetzt besser machen sollen als diverse TVs es schon seit Jahren machen. Ich war in der Tat offen für eine Überraschung in die Richtung. Stattdessen trifft man nicht mal die Mitte zwischen den zwei echten Frames. Und dann noch Tearing? :stupid:

Alles in allem im jetzigen Zustand eine 100%ige Enttäuschung und große Verwunderung dass NV das so überhaupt für Tester frei gibt.
Ich spiele derweil weiter mit Triplebuffer Vsync und kann nun behaupten mein Inputlag ist prinzipiell nicht schlechter als der einer RTX4090 bei den selben FPS :ugly: .

DLSS 2.x und FSR 2.1 benutze ich übrigens durchaus gerne, wenn auch oft eher wegen der besseren TAA Qualität als den Leistungsvorteilen.
 
Zuletzt bearbeitet:
Zurück