Special DLSS 3.0, Frame Generation und die RTX 4060 Ti - Frametimes und Latenzen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3.0, Frame Generation und die RTX 4060 Ti - Frametimes und Latenzen

Wie angekündigt, möchten wir DLSS 3.0, die Frame Generation und die Performance der RTX 4060 Ti nochmals detaillierter unter die Lupe nehmen. Für dieses Unterfangen war ein Update des ursprünglichen Artikels mit Frametimes und Latenzen - Link in der Einleitung - geplant. Aufgrund des Umfangs haben wir uns allerdings entschlossen, dieses Update in Form eines separaten Artikels zu veröffentlichen. Hier ist er nun. Wir wünschen ein erfüllendes Studium.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3.0, Frame Generation und die RTX 4060 Ti - Frametimes und Latenzen
 
Ich hätte mir gewünscht, dass in den verschiedenen Graphen jeweils die Skalen der Frametimes und der Latenzen aneinander angepasst worden wären. Also Nativ/DLSS Q/FG+Reflex alle mit einer einheitlichen Skala pro Spiel, das hätte das vergleichen sehr viel einfacher für mich gemacht.

Sonst ein sehr netter Artikel. :daumen:
 
Zuletzt bearbeitet:
Kurz FG kann das Bild glätten aber keine Ruckler vermeiden wegen Speichermangel. Die Latenz wird durch die option reflex gesenkt
Aber OHNE FG und dlss ist die Latenz am besten.
Die problem die hier beschrieben werden liegen primär an spielen mit hohen vram anforderungen und Ladevorgängen was die UE4 so an sich hat
Das sind alles Auswirkungen weil die meisten keine ssd für die Spieleinstallation nutzen
dazu der langsame pcie bus und fehlende direct storage Nutzung.
man kann das schlecht optimiert nennen aber real ist es eher so das an die Anforderungen nicht klar kommuniziert.
Was bleibt ist das FG und dlss3 sich kaum bis gar nicht nutzen lässt bei kompetitiven spielen und bei low framerate bis 40fps.
Wo es eigentlich Sinn machen würde wenn ich schon min 70fps habe wozu mehr?
Der einzige nutzen wäre bei Simulationen oder allgemein Latenz unkritische spielen.
Dazu die potenziellen Fehler je weniger basis fps anliegen.
nvidia hätt beser dlss3 ohne FG binden sollen und stattdessen eher die Qualität des upsamplings verbessern sollen.
So aber hat m an sich die nachfolgende dlss Verbesserungen mit dem Namen versperrt.
 
Bei kompetitiven Spielen hat man meistens kein Problem mit der Hardware, weil selbst 10 Jahre alte Hardware häufig noch ausreicht. DLSS3 ist eher für AAA Titel bzw. Singleplayergames gedacht. Der erste große Vorteil ist einfach, dass die CPU dadurch nicht belastet wird bzw. sogar entlastet. Framelimit auf 120 Frames einstellen und die CPU muss nur konstant 60 Frames liefern. Dadurch hält eine CPU dann gleich mal 2-3 Jahre länger bei mir.

Dazu spart man nicht nur etwas Strom bei der Grafikkarte ein, sondern auch noch mal deutlich bei der CPU. Ich spiele AAA-Titel wie "a Plague Tale" mit 120 Frames auf 4k, Raytracing und UltraDetails und das Gesamtsystem verbraucht mit der 4080 weniger als 300 Watt. 4080 habe ich auf 250 Watt begrenzt, aber die 4080 bleibt sogar sehr häufig noch darunter, weil sie super skaliert. Vor einem Jahr hat man für diese Leistung noch deutlich über 500 Watt benötigt.

-> Man hat also ein System was "nur" 60 Frames liefern muss und man kommt in den Genus von geschmeidigen 120 Frames auf entsprechenden 120hz/144hz Monitoren/Fernsehern. Damit ist auch Raytracing komplett bei mir
angekommen.

nvidia hätt beser dlss3 ohne FG binden sollen und stattdessen eher die Qualität des upsamplings verbessern sollen.
So aber hat m an sich die nachfolgende dlss Verbesserungen mit dem Namen versperrt.

DLSS2 wird doch auch ständig verbessert und bekommt Upgrades. In vielen Spielen wählt man auch nicht DLSS3 aus, sondern neben DLSS einfach Frame Generation.

DLSS3 ist also im Grunde DLSS2 + Frame Generation. Hätte man vielleich zusammen anders als DLSS3 nennen sollen.
 
Zuletzt bearbeitet:
Ich hätte mir gewünscht, dass in den verschiedenen Graphen jeweils die Skalen der Frametimes und der Latenzen aneinander angepasst worden wären. Also Nativ/DLSS Q/FG+Reflex alle mit einer einheitlichen Skala pro Spiel, das hätte das vergleichen sehr viel einfacher für mich gemacht.

Sonst ein sehr netter Artikel. :daumen:
Ja, ich weiß, was du meinst. Aber dann hätte ich alle auf 300 ms setzen müssen, oder so.
Dann hätte man wiederum bei z.B. den Messungen in Forza nichts großartiges erkennen können. Hab lang mit mir selbst debattiert, wie ich das am besten mache, aber irgendwo ist es immer nicht ganz optimal.

So wie ich es im Artikel gemacht habe, unterscheidet sich zwar die Skala von Messung zu Messung und Spiel zu Spiel, aber die von RTX 4060 Ti und RTX 4070 sind immer gleich, damit man die genau in Relation setzen und vor allem die 8 GiByte gegen die 12 stellen und eben da die Unterschiede erkennen kann.

Optimalerweise wäre das alles außerdem durch den User anpassbar und optimalerweise müsste ich da gar nicht groß mit Excel rumhantierten, sondern könnte das einfach mit unserer eigenen Implementierung machen. Es kostet Stunden über Stunden an Arbeitszeit, das so zu machen, wie ich es hier getan habe.

Wir haben da zusammen mit unserer IT tatsächlich was für Frametimes etc. gebaut. Aber das ist für diesen Ansatz bzw. einen Vergleich der Frametimes mit den Latenzen und längere Messungen (es ist für unsere üblichen 20-Sekunden-Benchmarks ausgelegt) nicht geeignet. Aber nur, weil da niemand dran gedacht hat, nicht weil das nicht geht. Das ist etwas, wo wir uns einfach noch einmal aktiv hinsetzen und das zusammen mit der IT weiterentwickeln können. Bestenfalls ist das bald die effektivste und einfachste (sowie detaillierteste) Methode.

Besten Gruß,
Phil
 
Mein Plan war ja, als ich damals von dem tollen Feature hörte, mir dann eine 4060Ti supersusi mit 16GB zu kaufen und einfach alles mit FG glatt zu bügeln. :fresse:

Tja, die Realität holt einen doch immer wieder auf den Boden zurück :heul:

Nachteil reiht sich an Nachteil. Wirklich nutzbar nur mit Topkarten bei neuen Spielen wenn man eh schon reichlich Fps hat.
 
Mein Plan war ja, als ich damals von dem tollen Feature hörte, mir dann eine 4060Ti supersusi mit 16GB zu kaufen und einfach alles mit FG glatt zu bügeln. :fresse:

Tja, die Realität holt einen doch immer wieder auf den Boden zurück :heul:

Nachteil reiht sich an Nachteil. Wirklich nutzbar nur mit Topkarten bei neuen Spielen wenn man eh schon reichlich Fps hat.
Es funktioniert (mittlerweile, bzw. nach einer Weile, denn die KI die ganzen Artefakte "verlernt" hat) wirklich gut, wenn man mit einer RTX 4090 mindestens 144 Hz (oder besser gleich 240 Hz in WQHD) ins Visier nimmt.

Und es wird auch ein bisschen besser, wenn man Spiele nimmt, die starke Schwierigkeiten haben, überhaupt auf 60 Fps zu kommen, wenn man da dann mit FG 120 anpeilt. Hogwarts und Flight Sim zum Beispiel. Am allergeilsten ist es aber natürlich mit der allerfettesten (und -teuersten) Karte, Nvidia ist ja nicht blöd ;)

Ich hab allerdings noch so halb geplant auf der Agenda, da mal einen DLSS-3.0-Artikel bezüglich Tuning, Mittelklasse oder sogar Laptop-Performance/Laufzeit anzugehen. Wenn ich mal Zeit dazu finde™...

Gruß,
Phil
 
@PCGH_Phil Da hab ich mich tatsächlich nicht ganz klar ausgedrückt. Bei Forza Horizon hast du es tatsächlich absolut optimal gelöst. Alle Graphen beider Grafikkarten sind auf 80ms "genormt" (so heißt das glaube ich), man kann alles gut vergleichen. Bei Forza ging das natürlich einfach, weil die Latenzen und Frametimes zeitlich nicht so weit auseinander liegen.

Bei Cyberpunk ist das natürlich ganz anders. Aber ich hätte das da vielleicht so gelöst, dass ich alle Frametime Graphen von Cyberpunk auf 150ms normiere und alle Latenzgraphen von Cyberpunk auf vielleicht 300ms oder so. So könnte man die verschiedenen Modi (Nativ vs DLSS Q vs DLSS Q + FG + Reflex) gut miteiander vergleichen, was zumindest vom Titel her denke ich der Fokus des Artikels ist.

Ist vielleicht auch der Art und Weise geschuldet, wie ich die Graphen anschaue und vergleiche, ich vergleich halt in erster Linie die Frametime Graphen miteinander und weniger die Frametime Graphen mit den Latenzgraphen.
 
@PCGH_Phil Vielen Dank für diesen Benchmark Marathon. Sehr intressant und aufschlussreich. Eine Frage hätt ich noch.
Dieses lernen von DlSS, passiert das bei jedem User einzeln durch Spielzeit, oder werden Telemetriedaten in den kommenden Treiber eingepflegt?
Und geht das auch schon bei DLSS 2 so?

Gruß
Winnie
 
Interessant.
Einerseits freue ich mich schon auf die nächste Gen, die dann 4K+Pathtracing Nativ schaffen (speziell eine hypothetische 5090) könnten. Andererseits muss ich mich von dem Gedanken ja vielleicht verabschieden (auch weil ich um den Preis nicht kaufe ;) ): vielleicht ist DLSS im Quali Modus das neue "Nativ"
 
Das sind alles Auswirkungen weil die meisten keine ssd für die Spieleinstallation nutzen

Das war mal vor 15 Jahren so, aber heute?

Heute verbauen viele keine HDD mehr, weil ihnen die SSD völlig ausreicht.

dazu der langsame pcie bus und fehlende direct storage Nutzung.

Direct Storage konnte keines seiner großspurigen versprechen einlösen. Was geblieben ist, sind die schnelleren Ladezeiten.

Was bleibt ist das FG und dlss3 sich kaum bis gar nicht nutzen lässt bei kompetitiven spielen und bei low framerate bis 40fps.

Klar läßt es sich bei niedrigen Framerate nutzen, bzw. besonders bei niedrigen FPS. 40 FPS FG sind einfach besser, als 20 FPS ohne.

Wo es eigentlich Sinn machen würde wenn ich schon min 70fps habe wozu mehr?

Weil es dann flüssiger wird.

nvidia hätt beser dlss3 ohne FG binden sollen und stattdessen eher die Qualität des upsamplings verbessern sollen.

Gibt es schon, nennt sich DLSS2.irgendwas.

Der Erfolg gibt Nvidia recht und außerdem: womit sollten die RTX 4070Ti abwärts dann noch werben können? die einzige Rechtfertigung ist doch DLSS 3

So aber hat m an sich die nachfolgende dlss Verbesserungen mit dem Namen versperrt.

Also ob die 3 die Letze Zahl ist- Aber da wird es in Zukunft weiter gehen: mehr als nur ein Bild, warum aus 30FPS nicht 120 machen? FG in die Zukunft, damit kann man die Latenz besiegen und sogar noch verbessern. Vollständige Hardwareintegration gegen Leistungsverlust, 60 FPS in WQHD gehen rein, 240 kommen in 8K wieder heraus.

Es gibt so vieles, auf das wir uns freuen können.
 
Das war mal vor 15 Jahren so, aber heute?

Heute verbauen viele keine HDD mehr, weil ihnen die SSD völlig ausreicht.



Direct Storage konnte keines seiner großspurigen versprechen einlösen. Was geblieben ist, sind die schnelleren Ladezeiten.



Klar läßt es sich bei niedrigen Framerate nutzen, bzw. besonders bei niedrigen FPS. 40 FPS FG sind einfach besser, als 20 FPS ohne.



Weil es dann flüssiger wird.



Gibt es schon, nennt sich DLSS2.irgendwas.

Der Erfolg gibt Nvidia recht und außerdem: womit sollten die RTX 4070Ti abwärts dann noch werben können? die einzige Rechtfertigung ist doch DLSS 3



Also ob die 3 die Letze Zahl ist- Aber da wird es in Zukunft weiter gehen: mehr als nur ein Bild, warum aus 30FPS nicht 120 machen? FG in die Zukunft, damit kann man die Latenz besiegen und sogar noch verbessern. Vollständige Hardwareintegration gegen Leistungsverlust, 60 FPS in WQHD gehen rein, 240 kommen in 8K wieder heraus.

Es gibt so vieles, auf das wir uns freuen können.

Alles richtig gelesen und verstanden??? FG und DLSS (egal ob 1,2 oder3) verbessern die Latenzen nicht... ;) FG verbessert die Latenzen wenn DLSS zum einsatz kommt... weswegen dieses Feature auch oft an DLSS gebunden ist und ansonsten oft nicht genutzt werden kann... ;)

Lesen und verstehen ist halt was anderes als einfach nur "eine große Klappe" zu haben... ;)

Wünsche dennoch einen schönen Sonntag und vielen Dank für die Unterhaltung.
 
Alles richtig gelesen und verstanden???

Im Gegensatz zu dir: ja

FG und DLSS (egal ob 1,2 oder3) verbessern die Latenzen nicht... ;)

Bei DLSS momentan nein, Frame Generation kann es aber tatsächlich machen.

Ich habe einen Ausblick auf die Zukunft gegeben. Dazu gehört auch das generieren künftiger Bilder. Dort wird kein Zwischenbild generiert, sondern es wird das nächste (oder auch die nächsten drei) aus dem vorigen Bildern generiert. Damit kann man die Latenz tatsächlich schlagen, da diese Bilder in der Zukunft liegen.

FG verbessert die Latenzen wenn DLSS zum einsatz kommt... weswegen dieses Feature auch oft an DLSS gebunden ist und ansonsten oft nicht genutzt werden kann... ;)

Ich vermute mal, dass Reflex meinst, FG bedeutet Frame Generation.

Lesen und verstehen ist halt was anderes als einfach nur "eine große Klappe" zu haben... ;)

Das kann ich nur an dich zurückgeben. Du hast keine Ahnung, hast das Wort Latenz gelesen und dich dann in deiner Arroganz weit aus dem Fenster gelehnt, ohne überhaupt zu kapieren, worum es ging.

Das ist der Dunning-Kruger-Effekt.

Wünsche dennoch einen schönen Sonntag und vielen Dank für die Unterhaltung.

Ich kann auf deine Unwissenheit und deine Arroganz gerne verzichten. Wobei ich mit Unwissenheit eigentlich weniger Probleme habe, ich erhelle gerne Leute, aber mit deiner Arroganz kannst du dich verziehen. 2 Beiträge Pro Jahr? Es können gerne weniger werden.
 
Ich habe den Reflex Absatz auf Seite 1 nicht verstanden. Verbessert es jetzt die Latenzen wenn man keine FG eingeschaltet hat oder nicht? Wenn es die Latenzen so enorm verbessert dann verstehe ich nicht warum es nicht freigeschaltet ist in Games. Nur damit sich FG dann nicht so träge anfühlt? Wenn das so ist finde ich das sehr paternalistisch von den Entwicklern.
 
Ich habe den Reflex Absatz auf Seite 1 nicht verstanden. Verbessert es jetzt die Latenzen wenn man keine FG eingeschaltet hat oder nicht? Wenn es die Latenzen so enorm verbessert dann verstehe ich nicht warum es nicht freigeschaltet ist in Games. Nur damit sich FG dann nicht so träge anfühlt? Wenn das so ist finde ich das sehr paternalistisch von den Entwicklern.

Reflex senkt immer die Latenz und wurde deswegen ja auch zu erst in E-Sport-Titeln integriert wie z.B. Valorant.

Es gibt Spiele wo man DLSS3 und Reflex aber auch nur Reflex anschalten kann. Dann gibt es Spiele wo man Reflex nur in Verbindung mit DLSS3 anwenden kann und dann gibt es natürlich auch Spiele mit Reflex, aber ohne DLSS3 Support.

Einzige Idee die mir einfällt, man will das gleiche Spielgefühl mit der gleichen Latenz erreichen und bietet daher Reflex nicht einzeln an. Allerdings haben Highendsysteme ja auch eine geringere Latenz als schwächere Systeme. Am Ende ist es wohl einfach Faulheit, dass man Reflex nicht immer auch einzeln auswählen kann.
 
Einen weniger positiven Eindruck hinterlässt allerdings die Grafikkarte selbst. Sie ist mit nur 8 GiByte für aktuelle, speicherlastige Spiele zu knapp ausgestattet, die eingeschränkte PCI-E-Verbindung verschärft diesen Umstand tendenziell nochmals, insbesondere beim Einsatz in einem System, welches nur über eine PCI-E-3.0-Anbindung verfügt.
Sowas darf halt bei einer >430€ GPU nicht vorkommen. Absoluter Fail von NV. Ich sehe bei jeder GPU von dem Verein nur noch Ausbeutung und Gewinnmaximierung. Selbes Spiel bei der 4070 ti, die für 900€ gerade mal 12GB bekommt. Unfassbar.

Auch unterstützt kaum ein Spiel DLSS und FG. D.h. damit zu werben ist Verarschung pur.
 
Da wird's natürlich gleich wieder einen großen Aufschrei geben, aber ich finde diese ganzen - ich nenne sie gerne "Marketingtechnologien" insbesondere von nvidia mittlerweile nur mehr absurd. Da wird nämlich nur verschleiert, dass sie offensichtlich einen ordentlichen Leistungszuwachs in nativer Auflösung in 4K - oder eigentlich sogar 1080p/1440p - nicht wirklich hinbekommen.
Und dann wird über Latenzen etc. sinniert. Die Diskussionen wären müßig, wenn dies alles in nativer Auflösung ordentlich runterkommen würde ?‍♂️

Angetrieben wird das Ganze natürlich dann von Gimmicks wie Raytracing oder jetzt dann Pathtracing (es muss ja klarerweise noch gesteigert werden) die die Grafik nicht BESSER und schon gar nicht realistischer machen aber extrem hardwarehunrig sind, in nativer Auflösung aber kaum stemmbar sind! Denn wo in der realen Welt da draußen gibt es ständig und überall Reflexionen?!
Bis zur Absurdität wird das Ganze dann von dieser CP2077 Pathtracing-Techdemo getrieben, wo die Welt aussieht als sei alles mit einer reflektierenden Gelschicht überzogen...Ich dachte es ginge darum die Grafik immer realistischer werden zu lassen, und nicht eine reflektierende Scheinwelt nachzubauen ?
 
@PCGH_Phil Vielen Dank für diesen Benchmark Marathon. Sehr intressant und aufschlussreich. Eine Frage hätt ich noch.
Dieses lernen von DlSS, passiert das bei jedem User einzeln durch Spielzeit, oder werden Telemetriedaten in den kommenden Treiber eingepflegt?
Und geht das auch schon bei DLSS 2 so?

Gruß
Winnie
Prinzipiell "lernt" auch DLSS 2.x. Wie und was genau da "KI-Lernfähigkeit" und was Optimierung/Weiterentwicklung ist, kann ich allerdings nicht sagen. Aber z.B. in der Closed Beta hat DLSS teils noch stark geschmiert (Beispiel wären die Arme des Shop-Keepers, wenn er damit rumfuchtelt. Die haben in der Beta noch stark geschmiert, jetzt nicht mehr - allerdings gibt es hier und da immer noch etwas DLSS-Smearing, etwa bei den Haaren). Das könnte aber auch eine andere DLSS 2.x-Version sein oder aber eine händische, spezifische Optimierung.

Bei der Frame Generation ist es aber - zumindest aktuell - besonders auffällig, weil die gerade bei sowas wie HUD-Elementen anfangs gern mal relativ heftig aussetzt. Die sind nicht in den regulären Motion Vectors enthalten, das ist was, wo die neuen Optical Flow Fields zum Einsatz kommen, ebenso bei einigen (Halb-)Transparenzen sowie Dingen wie Schatten (die sieht man auch öfter ein bisschen "hüpfen", wenn die FG in einem neuen Spiel zum Einsatz kommt – oder z.B. Dingen wie das Parallax Mapping in A Plague Tale – noch sichtbar im Blindtest-Video, schon deutlich weniger aktuell beim dortigen Einsatz von DLSS 3.0)

Gruß,
Phil
 
Zurück