DLSS 3 im ersten Praxis-Test: Wie gut ist Nvidias neues Upsampling mit KI-Frameraten-Boost?

Frage zum Text:
Bei den Spielen mit zirka 50% Framezuwachs durch DLSS3 wie verhält sich der Stromverbrauch? Das künstliche Frame wird wohl weniger Strom brauchen als das Echte. Also sinkt die Anzahl der echten Frames? Oder wird nur nach jedem 2. echten ein künstliches Frame eingespielt?
 
Zuletzt bearbeitet:
(1) Wir operieren unter der Annahmen, dass wir nicht durch Maus oder Joypad limitiert sind. Für das Beispiel haben beide 0ms Lag.
(2) Wir nehmen ein Spiel das bei 100fps läuft.
(3) Andere Quellen von Lag betrachten wir am Ende.

Unter nativen Bedingungen ist alles klar, das Spiel erhält alle 10ms ein Update. Immer wenn ein Frame fertig ist, frägt die Engine den Zustand des Controller ab (Knopf gedrückt nicht gedrückt, Entfernungen in X und Y Richtungen) und lässt das in das nächste Frame mit einfließen. Die Qualität der Maus und deren Polling Rate spielt keine Rolle. Egal wie gut die Maus ist, bei 20fps ist es immer schwammig.

Unter 100fps DLSS 2.0 sollte sich das Spiel exakt so anfühlen wie mit Nativ 100fps. Es wird zwar nicht das ganze Bild berechnet, aber es wird überhaupt ein Bild berechnet. Und in ein berechnetes Bild kann der Zustand des Controllers einfließen. Will heißen, unser Lag ist weiter 10ms.

Mit 100fps bei DLSS3.0 ändert sich das. Denn nur 50fps werden berechnet. Will heißen, der Controllerinput wird nur noch alle 20ms abgefragt. Klar das Spiel hat 100fps, aber 50% davon werden nicht berechnet, die werden erfunden. Diese Erfindung reagiert nicht auf Controllereingaben, also stellen die sich hinten an.

Der wundervolle Framtimegraph im Artikel zeigt das wundervoll. Das Spiel auf dem Schirm ist für den Beobachter so flüssig wie der gelbe Balken, aber in Sachen Inputlag spielt es sich wie der blaue DLSS2.0 Balken. Nun mag das beim Sprung von 60fps auf 120fps nicht auffallen, gemeinerweise müsste man das bei 20fps und 40 fps testen. Denn 20fps mit der Maus sind grauenvoll, 40 spürbar anders. 40fps nur dank DLSS3.0, sollten das volle Grauen der internen 20fps mit Zwischenframes entblößen.

Die anderen Quellen von Lag sind immer oben drauf. Nvidia kann immer den Controller-Lag, Monitor-Lag und sonstiges 1000 mal pro Sekunde abrufen und in einer Grafik verwursten. Die wirkliche Königsfrage ist, wie oft wird der Zustand der Welt anhand von Controllereingaben berechnet. Wenn eine Nvidia 60fps berechnet hat man immer 16ms gefühlten Input, wenn es 20fps sind hat man immer gefühlte 50ms Input. Egal wie viele fps erfunden werden. Ich behaupte auch nicht Igor oder die PCGH hätten falsche gemessen, sie haben einfach nicht dort gemessen wo es schmerzt.

Das ist korrekt. Wenn man aber ein Extrembeispiel heranziehen muss (20 FPS nativ, 40 FPS DLSS 3.0) um das Feature schlecht dastehen zu lassen, dann ist das meiner Meinung nach umgekehrtes cherry picking.

Wer stellt denn sein Spiel so ein dass es selbst mit DLSS 3.0 nicht über 60 FPS kommt? :schief:
Realistische Anwendungsszenarien sind eher die Fälle wo man mit DLSS 2.0 über 60 FPS kommt und mit DLSS 3.0 dann eben ~120 FPS hat. Da ist der zusätzliche Input Lag dann eher verschmerzbar für das flüssigere Bild.

Siehe Testreihe von Igor:

1665554644869.png


Mit DLSS 3.0 sieht es – Stand heute – so aus, dass der Spieler die Wahl hat. Will man noch höhere Frameraten (dank DLSS 3.0 mit FG)? Oder lieber niedrigere Latenzen – bei immer noch guten Frameraten dank DLSS 2.3? Die Latenzen mit DLSS 3.0 sind in keiner Weise schlecht, aber NVIDIA hat viel Latenz zu Gunsten von hohen Frameraten geopfert.

Because we can't.
Wir kriegen die Bildraten mit der RTX 4090 nicht in dafür genügend niedrige Bereiche.

Gruß,
Phil
So für sich betrachtet ist das schon eine krasse Aussage. :D

Frage zum Text:
Bei den Spielen mit zirka 50% Framezuwachs durch DLSS3 wie verhält sich der Stromverbrauch? Das künstliche Frame wird wohl weniger Strom brauchen als das Echte. Also sinkt die Anzahl der echten Frames? Oder wird nur nach jedem 2. echten ein künstliches Frame eingespielt?

DLSS 3.0 spart noch mal zusätzlich Strom im Vergleich zu DLSS 2.0.

1665554750298.png


Die Anzahl der "echten" Frames als Beispiel:
Nativ: 30 FPS
DLSS 2.0: 45 FPS
DLSS 3.0: 45 "echte" FPS + 45 "Tensor" FPS
 
(1) Wir operieren unter der Annahmen, dass wir nicht durch Maus oder Joypad limitiert sind. Für das Beispiel haben beide 0ms Lag.
(2) Wir nehmen ein Spiel das bei 100fps läuft.
(3) Andere Quellen von Lag betrachten wir am Ende.

Unter nativen Bedingungen ist alles klar, das Spiel erhält alle 10ms ein Update. Immer wenn ein Frame fertig ist, frägt die Engine den Zustand des Controller ab (Knopf gedrückt nicht gedrückt, Entfernungen in X und Y Richtungen) und lässt das in das nächste Frame mit einfließen. Die Qualität der Maus und deren Polling Rate spielt keine Rolle. Egal wie gut die Maus ist, bei 20fps ist es immer schwammig.

Unter 100fps DLSS 2.0 sollte sich das Spiel exakt so anfühlen wie mit Nativ 100fps. Es wird zwar nicht das ganze Bild berechnet, aber es wird überhaupt ein Bild berechnet. Und in ein berechnetes Bild kann der Zustand des Controllers einfließen. Will heißen, unser Lag ist weiter 10ms.

Mit 100fps bei DLSS3.0 ändert sich das. Denn nur 50fps werden berechnet. Will heißen, der Controllerinput wird nur noch alle 20ms abgefragt. Klar das Spiel hat 100fps, aber 50% davon werden nicht berechnet, die werden erfunden. Diese Erfindung reagiert nicht auf Controllereingaben, also stellen die sich hinten an.

Der wundervolle Framtimegraph im Artikel zeigt das wundervoll. Das Spiel auf dem Schirm ist für den Beobachter so flüssig wie der gelbe Balken, aber in Sachen Inputlag spielt es sich wie der blaue DLSS2.0 Balken. Nun mag das beim Sprung von 60fps auf 120fps nicht auffallen, gemeinerweise müsste man das bei 20fps und 40 fps testen. Denn 20fps mit der Maus sind grauenvoll, 40 spürbar anders. 40fps nur dank DLSS3.0, sollten das volle Grauen der internen 20fps mit Zwischenframes entblößen.

Die anderen Quellen von Lag sind immer oben drauf. Nvidia kann immer den Controller-Lag, Monitor-Lag und sonstiges 1000 mal pro Sekunde abrufen und in einer Grafik verwursten. Die wirkliche Königsfrage ist, wie oft wird der Zustand der Welt anhand von Controllereingaben berechnet. Wenn eine Nvidia 60fps berechnet hat man immer 16ms gefühlten Input, wenn es 20fps sind hat man immer gefühlte 50ms Input. Egal wie viele fps erfunden werden. Ich behaupte auch nicht Igor oder die PCGH hätten falsche gemessen, sie haben einfach nicht dort gemessen wo es schmerzt.
Das ist eher ein gutes Beispiel für umgekehrte Psychologie
Dein Punkt 2 suggeriert, dass das Spiel, so oder so, mit 100fps läuft und bei DLSS3.0 eben nur noch 50fps real berechnet werden.
Das kann man machen, um Nvidias Werbefolien mit 5000% FPS Zuwachs zurechtzurücken.
In der Realität kommt DLSS oben drauf. Wenn mein Spiel mit 20fps rumlaggt, wirds auch mit DLSS3.0 nicht viel besser. Aber nativ kommt man dann eh nicht auf 40fps.
 
@PCGH_Phil wie steht es denn um DSR (bzw. die dem früher vorangegangenen Tricks mit Custom Auflösungen für Downsampling) und/oder NV Surround um die Karte mal ordentlich zu belasten?

Ansonsten bin ich wie @PCGH_Torsten immer noch bei der Frage was die eingefügten Frames jetzt besser machen sollen als diverse TVs es schon seit Jahren machen. Ich war in der Tat offen für eine Überraschung in die Richtung. Stattdessen trifft man nicht mal die Mitte zwischen den zwei echten Frames. Und dann noch Tearing? :stupid:

Alles in allem im jetzigen Zustand eine 100%ige Enttäuschung und große Verwunderung dass NV das so überhaupt für Tester frei gibt.
Ich spiele derweil weiter mit Triplebuffer Vsync und kann nun behaupten mein Inputlag ist prinzipiell nicht schlechter als der einer RTX4090 bei den selben FPS :ugly: .

DLSS 2.x und FSR 2.1 benutze ich übrigens durchaus gerne, wenn auch oft eher wegen der besseren TAA Qualität als den Leistungsvorteilen.
Ein Fernseher interpoliert zwischen zwei Bildern, das ganze kann man beim Rendern ja knicken. Die Prädiktion ist da schon um einiges schwieriger. Feature ist zur Zeit sowieso uninteressant aber bin trotzdem gespannt ob das noch besser wird.
Das ist korrekt. Wenn man aber ein Extrembeispiel heranziehen muss (20 FPS nativ, 40 FPS DLSS 3.0) um das Feature schlecht dastehen zu lassen, dann ist das meiner Meinung nach umgekehrtes cherry picking.

Wer stellt denn sein Spiel so ein dass es selbst mit DLSS 3.0 nicht über 60 FPS kommt? :schief:
Realistische Anwendungsszenarien sind eher die Fälle wo man mit DLSS 2.0 über 60 FPS kommt und mit DLSS 3.0 dann eben ~120 FPS hat. Da ist der zusätzliche Input Lag dann eher verschmerzbar für das flüssigere Bild.
Wer nutzt DLSS3.0 mit Framegeneration wenn er 60 fps hat? Dort wo ich die hohen fps haben will, ist ja gerade dem Inputlag geschuldet. Und gerade da wo ich Probleme mit fps habe würde ich so ein Feature nutzen wenn es eine gute Qualität abliefert oder eben die Regler bedienen.
Und da gerade Spiele im CPU Limit von profitieren sollten sind es vor allem Spiele wie Anno die ab einer größe an fps schwächeln ein interessantes Feature. Aber genau da wirst du dich auch mit dem Thema Inputlag auseinandersetzen müssen.
Das ist eher ein gutes Beispiel für umgekehrte Psychologie
Dein Punkt 2 suggeriert, dass das Spiel, so oder so, mit 100fps läuft und bei DLSS3.0 eben nur noch 50fps real berechnet werden.
Das kann man machen, um Nvidias Werbefolien mit 5000% FPS Zuwachs zurechtzurücken.
In der Realität kommt DLSS oben drauf. Wenn mein Spiel mit 20fps rumlaggt, wirds auch mit DLSS3.0 nicht viel besser. Aber nativ kommt man dann eh nicht auf 40fps.
Na klar kommst du auch nativ auf 40 fps. Das Zauberwort heißt Regler. Und genau damit muss sich DLSS 3.0 letzten Endes messen. Wenn die Framegeneration die Qualität stark verringert dann ist der Regler evtl. die bessere Wahl.
 
Und da gerade Spiele im CPU Limit von profitieren sollten sind es vor allem Spiele wie Anno die ab einer größe an fps schwächeln ein interessantes Feature. Aber genau da wirst du dich auch mit dem Thema Inputlag auseinandersetzen müssen.
In Anno ist Input Lag wichtig? Also ob der jetzt 30ms oder 40-50ms ist? Seh ich irgendwie nicht.

Na klar kommst du auch nativ auf 40 fps. Das Zauberwort heißt Regler. Und genau damit muss sich DLSS 3.0 letzten Endes messen. Wenn die Framegeneration die Qualität stark verringert dann ist der Regler evtl. die bessere Wahl.
Die Frame Generation verringert die Grafik Qualität ja kaum laut bisherigen Tests. Addiert halt 10-20ms Input Lag und verdoppelt die FPS. Der Input Lag ist weiterhin besser als nativ, er verliert nur im Vergleich zu DLSS 2.0.
 
Tolles Feature. Kaum getestet. Keine Games die es supporten. Keine Vergleichswerte. Negiert zig andere Dinge die wichtig sind. Sorgt für massive Latenz.

Joa da krieg ich hart Bock 2000 Latten und mehr hinzuknallen für so'n Backstein


Nicht.
 
In Anno ist Input Lag wichtig? Also ob der jetzt 30ms oder 40-50ms ist? Seh ich irgendwie nicht.
Ich schon. Präzises bedienen ist damit ein Graus und spreche da aus Erfahrung...
Die Frame Generation verringert die Grafik Qualität ja kaum laut bisherigen Tests. Addiert halt 10-20ms Input Lag und verdoppelt die FPS. Der Input Lag ist weiterhin besser als nativ, er verliert nur im Vergleich zu DLSS 2.0.
Und ich habe bereits gesehen dass es Artefakte gibt, die Qualität der Frames ist auch immer wieder schwach. Sowas ist dann einfach zu inkosistent. Fsr2.0 war ja auch anfangs an vielen stellen OK aber die stellen wo es nicht passt zerstört dann die Lust auf das Feature.
 
Tolles Feature. Kaum getestet. Keine Games die es supporten. Keine Vergleichswerte. Negiert zig andere Dinge die wichtig sind. Sorgt für massive Latenz.

Joa da krieg ich hart Bock 2000 Latten und mehr hinzuknallen für so'n Backstein


Nicht.
Massiv Latenz, jo, 10-20ms. :lol:

Ich schon. Präzises bedienen ist damit ein Graus und spreche da aus Erfahrung...
Naja, ob es 30 oder 40ms Input Lag sind macht wohl kaum einen großen Unterschied aus in "langsamen" Spielen. Der "menschliche Input Lag" liegt bei ~200ms...

Und ich habe bereits gesehen dass es Artefakte gibt, die Qualität der Frames ist auch immer wieder schwach. Sowas ist dann einfach zu inkosistent. Fsr2.0 war ja auch anfangs an vielen stellen OK aber die stellen wo es nicht passt zerstört dann die Lust auf das Feature.
Ist halt noch nicht ganz fertig, bisher wurde es in einer Beta Version von CP2077 getestet. Da jetzt von "die Frames sind inkonsistent" zu sprechen ist ein bisschen zu früh.
 
Naja, ob es 30 oder 40ms Input Lag sind macht wohl kaum einen großen Unterschied aus in "langsamen" Spielen. Der "menschliche Input Lag" liegt bei ~200ms...
Na wenn du meinst. Ich habe da andere Erfahrung.
Ist halt noch nicht ganz fertig, bisher wurde es in einer Beta Version von CP2077 getestet. Da jetzt von "die Frames sind inkonsistent" zu sprechen ist ein bisschen zu früh.
Dann sollen sie keine Test erlauben. Es ist das was wir von der Technik sehen und dass war bisher eben kein Argument für die Technik. Da muss sich Nvidia an die eigene Nase fassen :ka:
 
Ich finde die Ausführungen von PCGH und auch CB sehr gut. Wichtig war für mich der Punkt bei CB, der Input Lag wird durch das Frame Generation erhöht. Sprich den eigentlichen Vorteil einer hohen Bildwiederholrate kann man nicht umsetzen sondern verschlimmert ihn nur. Und Frame Generation macht wohl nur Sinn wenn die FPS ohnehin schon recht hoch sind. Sonst ist eben der Input Lag bei 30 FPS das Bild aber bei 60 FPS.

An sich scheint es dann nur wirklichen Sinn zu ergeben, wenn man einen Monitor mit 300Hz oder sogar 600Hz hätte.
Dann kann man aus 200 FPS eben 500 FPS machen. Der Monitor kann es sauber darstellen. Der Input verbleibt aber bei 200 FPS bzw. sinkt sogar auf 180 FPS.
 
@PCGH_Phil wie steht es denn um DSR (bzw. die dem früher vorangegangenen Tricks mit Custom Auflösungen für Downsampling) und/oder NV Surround um die Karte mal ordentlich zu belasten?

Nach dem Downampling sieht man keine pixelfeinen Fehler mehr, weil die ja verrechnet wurden. ;-)
Man könnte natürlich mal extra testen, in wie weit es auf diesem Wege 4× SSAA zum kleinen Preis gibt, aber die entscheidenen Fragen zur 1:1-Ausgabe in GPU-überfordernden Szenarien bekommt man nicht beantwortet. @PCGH_Phil: Hast du es mal mit massivem Underclocking versucht? Oder erzwungenem Thermal Throtteling? ("will it run Crysis fanless in 4k")
 
DLSS3 ist tatsächlich ein feature, weshalb ich ggf auf eine rtx4000 umsteigen könnte - wobei auch nicht zu jedem Preis (maybe 4080 16gb?). als alter Flightsimmer würde mir das extrem helfen. Jedenfalls ein nettes feature
 
Ein Fernseher interpoliert zwischen zwei Bildern, das ganze kann man beim Rendern ja knicken. Die Prädiktion ist da schon um einiges schwieriger. Feature ist zur Zeit sowieso uninteressant aber bin trotzdem gespannt ob das noch besser wird.
Wenn dem mal so wäre. DLSS 3.0 macht aber tatsächlich KEINE Bildvorhersage sondern eine Interpolation mit Daten aus dem Triplebuffering. Also wirklich inhaltlich (nicht unbedingt technisch) genau das was Fernseher auch machen. Übrigens ist es kein absolut unüblicher Tipp mancher Konsoleros die Zwischenbildberechnung für Spiele auch an zu schalten.
Und für die Nutzung von TB darf ich mir regelmäßig anhören dass das doch das Latenz Sakrileg schlechthin wäre. Jetzt macht es NV und es soll der neue heiße Scheiß sein. :stupid:
 
Also jetzt nochmal für mich zum Verständnis, weil ich heute kaum die Augen offen halten kann:

Gegenüber DLSS 2.x habe ich mit DLSS 3 also mehr Input-Lag, da 1 Frame mehr "einbehalten" wird (der Einfachheit halber in beiden Fällen mal Reflex aktiv).
Allerdings habe ich eine höhere Framerate, welche wiederum den Input-Lag verringert.
Aaaaber da die Frames ja nur "dazwischengerechnet" werden, wird die Eingabe des Spielers hierbei nicht berücksichtigt (oder wird sie das?), so dass dies keine Auswirkungen auf den Input-Lag hat und dieser dadurch dennoch über DLSS 2.x liegt.
Man hat halt dafür ein flüssigeres Bild.

Richtig oder nicht?


PS
Den Input-Lag bei Triple-Buffering fand ich übrigens in der Tat störend.
 
Also jetzt nochmal für mich zum Verständnis, weil ich heute kaum die Augen offen halten kann:

Gegenüber DLSS 2.x habe ich mit DLSS 3 also mehr Input-Lag, da 1 Frame mehr "einbehalten" wird (der Einfachheit halber in beiden Fällen mal Reflex aktiv).
Allerdings habe ich eine höhere Framerate, welche wiederum den Input-Lag verringert.
Aaaaber da die Frames ja nur "dazwischengerechnet" werden, wird die Eingabe des Spielers hierbei nicht berücksichtigt (oder wird sie das?), so dass dies keine Auswirkungen auf den Input-Lag hat und dieser dadurch dennoch über DLSS 2.x liegt.
Man hat halt dafür ein flüssigeres Bild.

Richtig oder nicht?


PS
Den Input-Lag bei Triple-Buffering fand ich übrigens in der Tat störend.

Die Anzahl der "echten" Frames als Beispiel:
Nativ: 30 FPS
DLSS 2.0: 45 FPS
DLSS 3.0: 45 "echte" FPS + 45 "Tensor" FPS

Es liegt immer der Input Lag der "echten" Frames an. Eine Eingabe während eines "Tensor" Frames wird registriert, aber eben erst "später" angezeigt.

Vereinfachte Zusammenfassung:
Nativ hat den schlechtesten Input Lag da geringste FPS
DLSS 2.x hat den besten Input Lag da höchste FPS
DLSS 3.x hat die höchsten FPS, dafür liegt man beim Input Lag zwischen nativ und DLSS 2.x

1665574228293.png


Ein schönes Beispiel ist "DLSS 3.x Quality mit Frame Generation VERSUS Nativ ohne Frame Generation". Ungefähr derselbe Input Lag, dafür halt 2-3x so viele FPS.
 
Na dann ist es ja so wie ich es befürchtet habe - im Vergleich mit DLSS 2 mehr Input-Lag. Das wollte ich wissen.
OHNE jegliches DLSS siehts natürlich anders aus, ich bin aber diesmal trotzdem nicht begeistert.
 
Ja, da ist was los. Aber das ist mit DLSS wie mit RT auch, am Ende interessiert es mich als Spieler, wieviele Spiele das unterstützen (und wieviele ich davon noch spielen will, also faktisch ein Bruchteil).

Zudem kommt ja noch das Problem, daß sich immer mehr herausstellt, daß man die geilsten Spiele schon gemacht hat, die Technik ja nicht "rückwertig" eingebaut wird, und da halt jetzt immer wieder ein paar sehr gute spielbare dazu kommen (die dann gerade auch noch die Technik unterstützen sollten).

Gut ist, wenn sich technisch was tut. Sinnvoll ist es jedoch dann nur, wenn eine Breitbandumsetzung kommt. Als Verkaufsargument, als PR Werkzeug, tut es DLSS und RT eventuell, der Mehrnutzen ist wohl diese Konsolengeneration noch nicht gegeben. Wird ja dann eventuell mal anders oder eventuell kommt dann schon das neue "Musthave", wer weiß das schon (außer die PR Hansel bei Team Rot/Blau/Grün).
 
Ja, da ist was los. Aber das ist mit DLSS wie mit RT auch, am Ende interessiert es mich als Spieler, wieviele Spiele das unterstützen (und wieviele ich davon noch spielen will, also faktisch ein Bruchteil).

Zudem kommt ja noch das Problem, daß sich immer mehr herausstellt, daß man die geilsten Spiele schon gemacht hat, die Technik ja nicht "rückwertig" eingebaut wird, und da halt jetzt immer wieder ein paar sehr gute spielbare dazu kommen (die dann gerade auch noch die Technik unterstützen sollten).

Gut ist, wenn sich technisch was tut. Sinnvoll ist es jedoch dann nur, wenn eine Breitbandumsetzung kommt. Als Verkaufsargument, als PR Werkzeug, tut es DLSS und RT eventuell, der Mehrnutzen ist wohl diese Konsolengeneration noch nicht gegeben. Wird ja dann eventuell mal anders oder eventuell kommt dann schon das neue "Musthave", wer weiß das schon (außer die PR Hansel bei Team Rot/Blau/Grün).

Ist doch aber schon eine Menge an Games, die DLSS oder RT mitbringen:
Und teilweise passiert das auch nachträglich.

Aber wie es aussieht, ist die Implementierung von DLSS 3 nicht mehr ganz so einfach.

Ob es sowas wie ein DLDSR 3.0 geben wird?
 
Zurück