DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse!

Und erneut stellt sich die Frage: wird es irgendeine abgespeckte DLSS 3 Version für die 3000er Karten geben?
Wer, außer der Lederjackenmann, soll das jetzt beantworten wollen und können?
Die 3000er sind seit gestern auch Schnee von gestern. Das interessiert erst wieder, wenn die Verkaufszahlen einbrechen bzw. stagnieren und die Lager dann immer noch rappelvoll mit 3000er-Karten sind.

So wie man es mitbekommen hat, gibt es doch einige wagemutige Reseller; und ich meine alle, bzw .eine große Menge der 4090iger auf den einschlägigen Plattformen gefunden zu haben :ugly: zu natürlich noch übertriebeneren Preisen. Das heißt für mich im Umkehrschluss, dass die Mehrzahl der gestern verkauften Karten wieder nur zum Verkauf stehen. Damit dürfte heute, mal abgesehen von der nicht vorhandenen ,"grandiosen" angekündigten Mehr-Verfügbarkeit, nichts übrig sein und damit Stand heute der Umsatz bei den Karten quasi gen null fallen.

Ich würd mir über DLSS3 auf 3000er-Karten erstmal keine Gedanken machen, wird irgendwann kommen.

PS: Danke für den sehr guten Test, @PCGH_Dave . Keep testing INTEL. Und guck mal bitte, ob es evtl. für Ryzen 7000 noch mal Wert zum Idle-State gibt, maybe im Vergleich zu den neuen Intel-CPUs, wenn es passt, das es ja nie tut. :D
 
Zuletzt bearbeitet:
Da es ein exemplarischer Test war ob das, was sie sagen stimmt und PCGH das testet! Weil wir ja alles glauben was NVidia uns erzählt, versteh ich die Aufregung nicht.
Naaaad der hat gesagt man kann nen 8700k mit ner 4090 koppeln und brauch nicht wechseln...
A
ch kommt schon, das macht doch in der Praxis normal niemand.
160fps mit ner zu schwachen CPU endet m.M. n. in Mikroruckeln, wie bei SLI.
Theoretisch gehts, wie sich das praktisch anfühlt kann ich mangels 4090 nicht testen. 8700k habch noch da. Ein Test sample bitte zu mir! :devil:
 
Auch wenn ich nicht alle Tests ausführlich lese, vielen Dank für die Arbeit PCGH.

Was mich, und ich würde schätzen vllt noch "1-2 Leute", interessieren würde ist wie sich DLSS auf "Old Gen" schlägt. Also mind Ampere, sowie schwächere CPUs, und v. a. wie es im Vergleich zu DLSS 2.0 ist.

Lt Developer Aussage ist nur eines von den drei Key Features von DLSS 3 RTX 4000 exklusiv. Der Rest müsste abgespeckt auch mit den alten Karten harmonieren, sofern man das per Treiber seitens nVidia verfügbar macht.

Grad gegoogled:
Notebookcheck.com
Nvidia GeForce RTX 2000 & 3000 erhalten bis zu 24% mehr Gaming-Power per ...

Das sieht doch schonmal gut aus!
 
Und erneut stellt sich die Frage: wird es irgendeine abgespeckte DLSS 3 Version für die 3000er Karten geben? Ich hoffe es. Die 4000er sind zwar stärker und DLSS 3 wird für die 3000er Karten in der Form nicht verfügbar sein. Aber ein Boost über eine KI-Berechnung, eine künstliche Erzeugung von FPS muss doch noch möglich sein. Hoffentlich.

Edit: Wobei wenn Gsync-Freesync nicht nutzbar sind, dann bringts null.
Keine abgespeckte, sondern ganz normal in Zukunft. Da wird sicherlich der Lock noch entfernt seitens Nvidia. Das wird dann als Kundenfreundlichkeit dargestellt und alle haben sich wieder lieb. Lang lebe Team Grün.

Dauert halt nur etwas. Bin ich mir zu 99,9% sicher. Ist ne klassische FOMO Taktik, bei denen die alten Karten künstlich ausgesperrt werden. So durch die Blume hat man das ja schon bestätigt, indem man sagt die Motion Kiste würde auch auf Ampere/Turing laufen, aber für den Kunden würde sich das zu "laggy" anfühlen. Erste Berichte über das Umgehen des Locks mit einer 2070 gab es ja auch schon, wenn auch ohne solid proof.

Abwarten.
 
Ich wollte meiner 4090 auch erst einen besseren Prozzi beiseite stellen, allerdings habe ich mich für ein "Entlastungspaket" einem 4K-Monitor entscheiden. Dieser hat mehr Sinn gemacht und die CPU wurde nun weiter entlastet

Danke für den Artikel!
 
PCGH schrieb:
Jeder zweite Frame mit DLSS 3.0 ist also ein von der KI erzeugtes, "unechtes" Bild, das zwischen tatsächlich gerenderten Frames, aus deren Informationen der KI-Frame erstellt wurde, eingeschoben wird.

Ist das denn wirklich so?

Bisher hieß es, das Bild wird aus den Bewegungsvektoren und dem letzten Bild generiert. Das hätte den Vorteil, das man keine zusätzlichen Probleme mit der Latenz hat. So wäre es nur das, was die Fernseher auch machen und würde da keine Vorteile bringen.

Bei dem Ansatz, bei dem zwei Bilder benötigt werden, würde sich bei 20FPS die Latenz von 50ms auf 100ms verdoppeln, da man erst auf das zweite Bild warten müßte. Errechnet man das Bild jedoch aus dem letzten und den Bewegungsvektoren, dann bleibt es bei den 50ms und durch das eingeschobene Bild fühlt es sich dann eher Richtung 25ms an.

Wenn es so ist, wie es im Artikel steht, dann würde sich DLSS nicht von dem unterschieden, was die Fernseher seit über einem Jahrzehnt machen.

Aber bitte hört auf uns zu Siezen... das ist einfach nicht mehr zeitgemäß. Ich fühle mich so schon alt genug.

Kann der Herr sein Schnitzel noch kauen oder soll es püriert werden?

Vermutlich ist das eine fließende Grenze, aber DLSS 3 wird das Spielgefühl nicht retten, wenn die CPU bei 30 FPS aus dem letzten Loch pfeifft.

Wenn es so ist, wie Nvidia das angekündigt hat, dann wird es das. Man darf natürlich nicht 40 FPS nativ mit 40 FPS DLSSS 3.0 vergleichen, da gewinnt immer das native, aber es ist dann wohl Welten von den 20 FPS entfernt. So, wie es schon bei der Auflösung war.

160fps mit ner zu schwachen CPU endet m.M. n. in Mikroruckeln, wie bei SLI.

Bei 160 FPS hat man kein Problem mit Microrucklern, die zeigen sich eher zwischen 15 und 60 FPS.

Sprache war und ist nunmal im Wandel. Ich finde das auch gut so.

Es ist eben die Frage, ob das ein natürlicher Wandel ist oder ob jemand den Wandel künstlich vorschreibt.

Letzteres ist nicht doppel gut.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mit einer kleineren Ada Karte wird DLSS 3 wohl erst mal weniger spaß machen. Bei niedrigeren FPS ist das schon sehr wonky

Dazu ist die Latenz wie erwartet ein Problem.
 
Nach der beschriebenen Funktionsweise hätte ich keinen nennenswert erhöhten CPU-Verbrauch erwartet (maximal etwas Overhead für den GPU Treiber für die Synchronisation), da alle Daten und Berechnungen auf GPU-Seite ausgeführt werden können. Im Gegenteil, ich würde sogar erwarten, dass die CPU-Belastung sinkt, wenn durch die zusätzlichen Frames nun die CPU auf die GPU warten muss.

Nehmen wir mal folgendes Modell an: Die GPU gibt jeden Frame zweimal aus (*). Der Zeitpunkt der Ausgabe wird aus den Framezeiten der vorherigen beiden Frames interpoliert.

Dann kann ich direkt vorhersagen (im CPU-Limit):
  • CPU-Auslastung wird sich kaum verändern.
  • Spikes in Framezeiten werden kaschiert durch den eingeschobenen Frame (der quasi keine Zeit zur Berechnung erfordert). Aber: Der absolute Unterschied zwischen Spike-Peak und Durchschnitt der Framezeiten wird ungefähr gleich bleiben, der Verlauf wird relativ gesehen also weniger "flach".
  • Der Inputlag "verdoppelt" sich (Reaktion erfolgt erst nach doppelt so vielen Frames)
DLSS verspricht nun ja, mehr Arbeit zu leisten, um den zweiten Frame zu generieren, mit dem Ziel, einen besseren Zwischenstand zu erhalten (und damit eine flüssigere Animation). Da sollte sich aus CPU-Sicht wenig ändern (wenn die Arbeit rein auf GPU-Seite stattfindet).

Mich würde eher der andere Extremfall (GPU-Limit) interessieren:
  • Ist die Interpolation im allgemeinen zuverlässig?
    • Was passiert bei größeren Änderungen von Frame zu Frame (z.B. beim schnellen Schwenken der Kamera)?
    • Gibt es Flackern bei dünnen Linien? (z.B. Fadenkreuz)
    • Wirkt das Ergebnis "verwaschen" durch Interpolation und/oder Upscaling?
  • Wie schlägt sich die Rechenzeit für die generierten Frames zu Buche?
    • Wenn ich in einem Spiel 20 FPS (normal) habe, wie viele FPS bekomme ich dann mit DLSS? 20? 25? 30? 40?
    • Ist die Zeit zur Berechnung des generierten Frames einheitlich?
    • Werden fertige Frames zurückgehalten, um glattere Framezeiten zu erzielen?
(*) Um unterschiedliche Frames zu bekommen, wird beim untersten Pixel am rechten Bildrand ein Bit invertiert.

Oder liege ich mit meinem Verständnis der Funktionsweise von DLSS daneben?
 
Ist das denn wirklich so?

Bisher hieß es, das Bild wird aus den Bewegungsvektoren und dem letzten Bild generiert. Das hätte den Vorteil, das man keine zusätzlichen Probleme mit der Latenz hat. So wäre es nur das, was die Fernseher auch machen und würde da keine Vorteile bringen.
Ne es funktioniert schon wie beschrieben. Es werden 2 Bilder berechnet, vorgehalten und dann der KI Frame dazwischen berechnet. Anschließend kann der erste Frame ausgegeben werden.
Anders hätte man vermutlich zu viele Artefakte, insbesondere für alle sichtbaren Elemente ohne Bewegungsvektoren.

Der frappierende Vorteil gegenüber Fernsehern ist die immer noch Recht geringe Latenz und die generelle Qualität des errechneten Frames durch die Bewegungsvektoren. Digital Foundry hat in einem Preview Video DLSS 3 mit alternativen Berechnungsverfahren für Zwischenbilder verglichen und DLSS 3 sah massiv besser aus und hatte weit weniger Artefakte. Und das was Fernseher machen wird mangels Rechenleitung eher noch schlechter sein.

Also man hat da schon nen heißes Eisen im Feuer, insbesondere sofern man die Probleme mit Vsync und Framelimitern behoben bekommt.
 
Keine abgespeckte, sondern ganz normal in Zukunft. Da wird sicherlich der Lock noch entfernt seitens Nvidia. Das wird dann als Kundenfreundlichkeit dargestellt und alle haben sich wieder lieb. Lang lebe Team Grün.

Dauert halt nur etwas. Bin ich mir zu 99,9% sicher. Ist ne klassische FOMO Taktik, bei denen die alten Karten künstlich ausgesperrt werden. So durch die Blume hat man das ja schon bestätigt, indem man sagt die Motion Kiste würde auch auf Ampere/Turing laufen, aber für den Kunden würde sich das zu "laggy" anfühlen. Erste Berichte über das Umgehen des Locks mit einer 2070 gab es ja auch schon, wenn auch ohne solid proof.

Abwarten.
DLSS 3.0 addiert ca. 10-20ms Latenz auf DLSS 2.0. Das könnte auf älteren Karten deutlich höher ausfallen, und dann merkt man es schon sehr deutlich. Also klar könnte NV das Feature aktivieren auf älteren Karten, nur wär es dann in jedem Review so dargestellt dass DLSS 3.0 unspielbar ist...

Ist das denn wirklich so?

Bisher hieß es, das Bild wird aus den Bewegungsvektoren und dem letzten Bild generiert. Das hätte den Vorteil, das man keine zusätzlichen Probleme mit der Latenz hat. So wäre es nur das, was die Fernseher auch machen und würde da keine Vorteile bringen.

Ein TV kann aber die Ausgabe ewig lang verzögern und Du merkst es nicht. Das ist überhaupt nicht vergleichbar mit Real-Time-Berechnung und Ausgabe von Benutzereingaben.

DLSS 3.0 nimmt das erste Frame, hält es zurück, berechnet das 2. Frame, interpoliert das "Tensor Frame" und gibt dann Frame 1+1.5 aus. Dann wird Frame 2 genommen und das spielt beginnt von vorne. Der ganze Vorgang dauert 10-20ms der auf die Latenz addiert wird.

Die DLSS 3.0 Latenz ist also DLSS 2.0 (die ist schon deutlich besser als nativ da viel mehr FPS rauskommen) + Tensor Berechnungszeit. Abzüglich Reflex wenn es im Spiel vorher nicht verfügbar war.
 
Ne es funktioniert schon wie beschrieben. Es werden 2 Bilder berechnet, vorgehalten und dann der KI Frame dazwischen berechnet. Anschließend kann der erste Frame ausgegeben werden.
Anders hätte man vermutlich zu viele Artefakte, insbesondere für alle sichtbaren Elemente ohne Bewegungsvektoren.

Der frappierende Vorteil gegenüber Fernsehern ist die immer noch Recht geringe Latenz und die generelle Qualität des errechneten Frames durch die Bewegungsvektoren. Digital Foundry hat in einem Preview Video DLSS 3 mit alternativen Berechnungsverfahren für Zwischenbilder verglichen und DLSS 3 sah massiv besser aus und hatte weit weniger Artefakte. Und das was Fernseher machen wird mangels Rechenleitung eher noch schlechter sein.

Also man hat da schon nen heißes Eisen im Feuer, insbesondere sofern man die Probleme mit Vsync und Framelimitern behoben bekommt.
Also das mit der Latenz widerlegt Hardware Unboxed ja direkt. Sprich 40FPS mit so und so viel Latenz, werden durch DLSS zwar im FPS Zähler höher, aber die Latenz bleibt gleich (schlecht) oder wird sogar schlechter.

Dazu ist das Ganze aktuell eher nutzlos bei zweistelligen Ausgangsfps. Sprich so richtig sinnvoll wird das erst bei FPS die sowieso schon bei 100+ liegen. Da kann mann dann seine 240Hz aus dem Monitor rausholen.
DLSS 3.0 addiert ca. 10-20ms Latenz auf DLSS 2.0. Das könnte auf älteren Karten deutlich höher ausfallen, und dann merkt man es schon sehr deutlich. Also klar könnte NV das Feature aktivieren auf älteren Karten, nur wär es dann in jedem Review so dargestellt dass DLSS 3.0 unspielbar ist...



Ein TV kann aber die Ausgabe ewig lang verzögern und Du merkst es nicht. Das ist überhaupt nicht vergleichbar mit Real-Time-Berechnung und Ausgabe von Benutzereingaben.

DLSS 3.0 nimmt das erste Frame, hält es zurück, berechnet das 2. Frame, interpoliert das "Tensor Frame" und gibt dann Frame 1+1.5 aus. Dann wird Frame 2 genommen und das spielt beginnt von vorne. Der ganze Vorgang dauert 10-20ms der auf die Latenz addiert wird.

Die DLSS 3.0 Latenz ist also DLSS 2.0 (die ist schon deutlich besser als nativ da viel mehr FPS rauskommen) + Tensor Berechnungszeit. Abzüglich Reflex wenn es im Spiel vorher nicht verfügbar war.
Das stimmt so aber nicht ganz. Siehe Hardware Unboxed. DLSS 3 hat schlechtere Latenzwerte als DLSS 2. Bzw. DLSS inkl. Frame Interpolation hat schlechtere Werte als ohne jene.

Wir bewegen uns hier auf nativ Latenzwerte oder schlechter laut HUB. Siehe meinen Anhang.
 

Anhänge

  • DLSS 3 Latenz inkl. Interpolation.png
    DLSS 3 Latenz inkl. Interpolation.png
    1,2 MB · Aufrufe: 17
Zuletzt bearbeitet:
@GladiusTi
Genau so hab ich's gemeint :)

Die Latenz wird per Definition schlechter, aber eben weniger als bei konventionellen Zwischenbildberechnungen.

Anders als DLSS 2, FSR 2 und XeSS ist DLSS 3 eben kein Allheilmittel, sondern vielmehr ein mächtiges Tool für spezielle Situationen.
Die Frametimes müssen rund sein, man braucht mindestens so viele FPS, dass der Inputlag klargeht, man darf mit DLSS 3 nicht über die maximale Bildwiederholfrequenz des Monitors hinwegschießen usw.

Aktuell also eine sehr spannende Spielerei und, wenn die Kinderkrankheiten behoben sind, ein tolles Feature für Singleplayer-Spiele (mit RT).

@DARPA
VRR läuft, aber zusätzliches Vsync kann weiteren Inputlag oder massive Ruckler verursachen. Und Framelimiter greifen entweder gar nicht, oder machen alles kaputt. Irgendwie so... :)
 
Das stimmt so aber nicht ganz. Siehe Hardware Unboxed. DLSS 3 hat schlechtere Latenzwerte als DLSS 2. Bzw. DLSS inkl. Frame Interpolation hat schlechtere Werte als ohne jene.

Wir bewegen uns hier auf nativ Latenzwerte oder schlechter laut HUB.
Ich habe nirgends behauptet dass DLSS 3 die Latenz NICHT erhöht. Natürlich erhöht es die Latenz, ich sagte ja zwischen 10-20ms im Vergleich zu DLSS 2.

1665663069619.png



Nativ mit Reflex On, FG Off: 47ms mit ~ 40 FPS
DLSS 3.0 Quality mit Reflex On, FG Off: 35ms mit ~ 70 FPS
DLSS 3.0 Quality mit Reflex On, FG On: 45ms mit ~ 110 FPS
 
PS: Danke für den sehr guten Test, @PCGH_Dave . Keep testing INTEL. Und guck mal bitte, ob es evtl. für Ryzen 7000 noch mal Wert zum Idle-State gibt, maybe im Vergleich zu den neuen Intel-CPUs, wenn es passt, das es ja nie tut. :D
Danke. Idle-Verbrauch kann ich nicht zuverlässig messen, hatte ich an anderer Stelle schon erklärt. Das Analyse-Tool spuckt da nur Blödsinn aus, weil die Wandler bei sehr niedrigen Verbräuchen extrem ineffizient werden.
 
Ich zitiere erneut Igor dazu, er hat es sehr gut auf den Punkt gebracht:

Jetzt seht ihr, was ich mit Licht und Schatten gemeint habe. Mit DLSS 3.0 sieht es – Stand heute – so aus, dass der Spieler die Wahl hat. Will man noch höhere Frameraten (dank DLSS 3.0 mit FG)? Oder lieber niedrigere Latenzen – bei immer noch guten Frameraten dank DLSS 2.3? Die Latenzen mit DLSS 3.0 sind in keiner Weise schlecht, aber NVIDIA hat viel Latenz zu Gunsten von hohen Frameraten geopfert. Fakt ist: Stand heute muss man abwarten, wie sich DLSS 3.0 bei anderen Spielen verhält.

Es kommt einfach eine Option dazu. Wenn ich ein Triple-A Singleplayer Game mit RT Psycho zocke, und da mit DLSS 2.x bereits >60 FPS rauskommen, dann kann ich mit DLSS 3.x die FPS fast verdoppeln und habe dafür etwas schlechteren Input Lag. Dieser Input Lag ist aber immer noch deutlich geringer als würde ich Nativ zocken (wenn das Spiel vorher kein Reflex hatte). Oder der Input Lag bleibt einfach gleich wie es Nativ der Fall wäre.
 
ui ui ui ...die Technik wird jetzt schon gehasst von Intel und AMD :D
die wollen ja schließlich CPUs verkaufen in Zukunft
 
Zurück