DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse!

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse!

In DLSS 3.0 werden während des Einsatzes ganze Frames von der KI erzeugt und zwischen die "echten", also tatsächlich von der CPU und Grafikkarte berechneten Bilder eingefügt. So wird die Performance im besten Fall verdoppelt. Doch eine höhere Framerate bedeutet in der Regel auch mehr Arbeit für die CPU. Oder etwa doch nicht? Wir haben es getestet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse!
 
Sehr nett, dass dieser Aspekt nochmal genau unter die Lupe genommen wird! :daumen:

Was die Auslastung der CPU angeht hätte ich jetzt auch genau das erwartet. Ich finde vor allem interessant, dass der Verbrauch der GPU ja doch ein gutes Stück ansteigt. Die Tensorkerne laufen also auch nicht mit Luft und Liebe.
 
Ich möchte ja eigentlich kein Partypooper sein. Aber das war schon zu 99,9% klar seit der Keynote.

Folgendes Video anschauen für 30-40 Sekunden
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

"without processing the graphics pipeline"
"generates a new frame without involving the game"
"it benefit's both GPU and CPU limited games"
und ein paar weitere Sachen die diesen Umstand klar machen

Daher finde ich den Titel "Überraschende Ergebnisse" ziemlich falsch.

Man könnte eher schreiben:

DLSS 3 Frame Generation: Ergebnisse bestätigen: Keine Mehrarbeit für die CPU!

EDIT:
Zitat aus dem Artikel von der PCGH:
"Was Nvidia jedoch bei der Präsentation gar nicht erwähnt oder kaum beachtet hat, ist der Prozessor."
Falsche Aussage mit Video widerlegt
 
Zuletzt bearbeitet von einem Moderator:
Das Fazit ist doch Käse. Wenn der Prozessor zu langsam ist für ein Spiel und das Spielgefühl darunter leidet, dass zb Physik etc zu langsam berechnet und Spielereingaben verzögert verarbeitet werden, dann ändert FG daran halt genau gar nichts.
Lässt die sich nicht ohnehin nur oberhalb einer Grenze (60 FPS?) aktivieren?
 
Danke für den Test. Meines Erachtens war das Ergebnis aber absehbar. Mit DLSS 2 wird die CPU mehr gefordert, da die Grafikkarte leistungsfähiger wird und entsprechend mehr Frames auch Seitens der CPU berechnet werden müssen. DLSS 3 erfolgt erst im Nachgang kurz vor der Ausgabe an den Monitor. Die CPU dürfte das nicht einmal wirklich mitbekommen.

Ich weiß aber nicht, ob die Aussage so stimmt, dass DLSS quasi den Betrieb schwächerer CPUs erlaubt. Das Video von Digital Foundry dazu ist mal wieder mega interessant. Wenn ich das richtig verstanden habe, werden Frametimes im CPU-Limit tendenziell sehr unrund. Dieser Effekt wird anschließend von DLSS 3 auch noch verstärkt, sodass das Bild trotz ausreichend Frames ruckelt. Exemplarisch galt die Aussage, wenn ich mich richtig erinnere, für einen r5 3600 in Spiderman mit RT.
Also ist DLSS 3 eigentlich dann am besten, wenn die CPU eben noch nicht (ganz) begrenzt.

Vermutlich ist das eine fließende Grenze, aber DLSS 3 wird das Spielgefühl nicht retten, wenn die CPU bei 30 FPS aus dem letzten Loch pfeifft.
 
Das Fazit ist doch Käse. Wenn der Prozessor zu langsam ist für ein Spiel und das Spielgefühl darunter leidet, dass zb Physik etc zu langsam berechnet und Spielereingaben verzögert verarbeitet werden, dann ändert FG daran halt genau gar nichts.
Lässt die sich nicht ohnehin nur oberhalb einer Grenze (60 FPS?) aktivieren?
FG kann man immer aktivieren sobald das Spiel DLSS3 ready ist.

FG hilft nur bei einer Sache dem Motionflow. Heisst wenn du einen 120 hz monitor hast und bei 60 FPS ohne FG im CPU Limit dann FG aktivierst hast du halt (wenn korrekt umgesetzt) 120 FPS. Heisst das Spiel fühlt sich von der Bewegung smoother an. Die Latenz wird natürlich etwas erhöht. Wobei vor der Einführung von DLSS3 waren die Latenzen höher als danach. Da DLSS3 auch Reflex voraussetzt. Und typischerweise heisst das, dass ein Spiel mit Reflex + FG die selbe oder bessere Latenz hat als vor DLSS3. Natürlich kann man auch nur Reflex aktivieren und damit die Latenz verbessern ohne mehr FPS zu haben.

Und natürlich ändert FG nichts am CPU Limit. Es macht das spiel nur smoother anzusehen.
 
Ich möchte ja eigentlich kein Partypooper sein. Aber das war schon zu 99,9% klar seit der Keynote.
Sorry aber wer eine Keynote als verlässliche Informationsquelle, welche nur reale und korrekte Fakten beinhaltet, ansieht, der ist nicht gerade kritisch unterwegs.

Nur weil nvidia sagt, dass etwas so ist, heißt es nicht wirklich so, dass es auch so wäre. Immerhin will man ein Produkt verkaufen.

Von daher ist es immer klug, wenn solche Aussagen unabhängig geprüft werden.
 
Das war meiner Meinung nach zu erwarten. Schließlich handelt es sich hier lediglich um Fake Frames. Die leichte Mehrbelastung kommt wohl lediglich vom etwas erhöhten Treiberaufwand.
 
Die FG passiert doch auf den Tensor Cores und nicht auf der CPU, das war doch schon klar. Daher hat die GPU auch eine höhere Leistungsaufnahme durch FG. So weit, so normal.

Aber dennoch interessante Benches. Jetzt sehen wir es nochmal in Farbe und Balken :)
 
Sorry aber wer eine Keynote als verlässliche Informationsquelle, welche nur reale und korrekte Fakten beinhaltet, ansieht, der ist nicht gerade kritisch unterwegs.

Nur weil nvidia sagt, dass etwas so ist, heißt es nicht wirklich so, dass es auch so wäre. Immerhin will man ein Produkt verkaufen.

Von daher ist es immer klug, wenn solche Aussagen unabhängig geprüft werden.
Habe ich auch nie behauptet dass dies nur reale und korrekte Fakten beinhaltet. Ich dachte 99,9% macht bereits eindeutig das ein Rest an Unsicherheit nun einmal verbleibt. Und ich beziehe die 99,9% ausschließlich auf die Aussage bzgl. dieses Artikels. Ich beziehe diese Form an Sicherheit nicht auf den Rest der Keynote. Nur um gleich weiterer Kritik in diese Richtung vorwegzugreifen.

Zitat aus dem Artikel von der PCGH:
"Was Nvidia jedoch bei der Präsentation gar nicht erwähnt oder kaum beachtet hat, ist der Prozessor."
Dies habe ich defacto mit dem Video widerlegt. Das ist also somit eine Falschaussage seitens PCGH.

Meine Kritik ist dass hier so getan wird als wäre das jetzt ein Geniestreich von PCGH das zu prüfen. Dem ist aber halt nicht so.

Sie haben nur eine Behauptung von nVidia bestätigt. Das ist nichts überraschendes. Und genau das ist auch meine Aussage.
 
Sorry aber wer eine Keynote als verlässliche Informationsquelle, welche nur reale und korrekte Fakten beinhaltet, ansieht, der ist nicht gerade kritisch unterwegs.

Nur weil nvidia sagt, dass etwas so ist, heißt es nicht wirklich so, dass es auch so wäre. Immerhin will man ein Produkt verkaufen.

Von daher ist es immer klug, wenn solche Aussagen unabhängig geprüft werden.
Ist richtig, was du schreibst, aber die Formulierung bleibt unnötig, unpassend reißerisch.

Das Fazit ist doch Käse. Wenn der Prozessor zu langsam ist für ein Spiel und das Spielgefühl darunter leidet, dass zb Physik etc zu langsam berechnet und Spielereingaben verzögert verarbeitet werden, dann ändert FG daran halt genau gar nichts.
Genau so sehe ich das auch.
Abeits von persönlichen Präferenzen bleibt die FG Funktion als sinnvolle Erweiterung eine Nische, ganz besonders solange FG nicht mit einer Bildsynchronisation kombinierbar ist und Bildartefakte nicht störend sind. Grundsätzlich bietet FG nur dann einen Mehrwert, wenn die CPU bereits für den Spieler ausreichend schnell arbeitet, also die CPU Fps ausreichend hoch sind.
 
Zuletzt bearbeitet:
Bevor sich hier noch mehr Unsinn auftut: ich bin nicht allwissend und habe die Keynote gar nicht verfolgt, weil ich zwischen Messung 2.000 und 5.000 im Zen-4-Dschungel exakt Null Sekunden Zeit dafür übrig hatte. Und wer aufgepasst hat, weiß, dass ich dank Intel gerade zwischen Messungen 6.000 und 9.000 bin. Für mich war es also der Erstkontakt mit der 4090 und des FG-Feature. Die Zahlen und die (nicht-)Auswirkungen haben mich beeindruckt und mehr soll der Artikel auch nicht zeigen. So, genug geredet, ich muss jetzt weiter arbeiten. :kaffee:
 
Und erneut stellt sich die Frage: wird es irgendeine abgespeckte DLSS 3 Version für die 3000er Karten geben? Ich hoffe es. Die 4000er sind zwar stärker und DLSS 3 wird für die 3000er Karten in der Form nicht verfügbar sein. Aber ein Boost über eine KI-Berechnung, eine künstliche Erzeugung von FPS muss doch noch möglich sein. Hoffentlich.

Edit: Wobei wenn Gsync-Freesync nicht nutzbar sind, dann bringts null.
 
Zurück