Special DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?

Okay, I see. Deine CPU war/ist in diesem Beispiel dazu imstande 45 Bilder pro Sekunde zu berechnen. Die GPU könnte vermutlich deutlich mehr darstellen. Dann ist das aber natürlich kein Problem der Funktionsweise von Frame Generation, sondern eher von Deinem System (der CPU). Die Technologie an sich kann ja nichts dafür, dass der Bottleneck woanders liegt (als er sollte). Angenommen Du bist im GPU-Limit und schaltest dann Frame Generation zu - dann sieht die ganze Geschichte schon wieder anders aus.

Das ist mir ja bewusst, wollte damit er aufzeigen das in in einem "Low FPS " Szenario FG für mich nicht gut funktioniert.
Ob dabei die GPU oder die CPU das limit ist, ist eigentlich egal da die Latenz ja gleich bleibt durch FG bzw minimals erhöht wird. Da FG ja im grunde die Latenzenz von den FPS entkoppelt .

Alles gut. Ich sehe das Ganze halt etwas entspannter und schildere nur meine Eindrücke und meine Meinung. =)
Nichts anders habe ich auch gemacht. :)

Das ist alles logisch, aber über ansprechende Peripherie bekommt man die Inputlatenz auch noch einmal gedrückt. Ich habe noch keine Messungen mit Nvidia LDAT angestellt, aber laut Tests ist die Inputlatenz meiner 3 Mäuse, die ich verwende, sehr gering (< 10ms) und mein Monitor ist auch keine lahme Gurke. Das hilft natürlich enorm. Des Weiteren liegt meine Systemlatenz bei ~35 ns (RAM-OC). Das hilft natürlich im CPU-Limit auch extrem mit bzw. lässt mich die GPU in CPU-lastigen Szenarien deutlich mehr auslasten als dies normalerweise der Fall wäre.
Ich würde mal vermuten mein 240hz Monitore plus Razer maus ist hier auch nicht das Problem.
Da ich ja durch das Abschalten von FG durchaus merke das sich da was tut bei der System Latenz (Click zu Passiert)
Habe leider kein LDAT kann es also nur fühlen.

btw: Dein Sogenannte System Latenz ist ja nur dein RAM Latenz das hat mit der CPU Leistung an für sich oder der Latenz von Click zu Bild erstmal nichts zu tuen. (klar wäre dein CPU mit lagsameren RAM langsamer) aber eine andere CPU kann trotz höherer Ram Latenz trotzdem schneller sein als dein in Games.

Ich bin mir relativ sicher das mein 5600x +3600mhz Ram in den meisten CPU lastigen Spielen deiner CPU voraus ist.

.... Ich sage nur, dass wir am Ende des Tages keine Pro-Gamer sind und damit die Kirche auch einmal im Dorf lassen können. Ich bin froh darüber, dass Frame Generation als Technologie existiert (und reift).
Ob ich Pro Gamer bin oder nicht ist ja erstmal egal, wenn ich die Latenz von FG Spüre dann ist sie halt ein Negativ Punkt für mich, wenn nicht dann nicht ganz einfach.

Ich finde die Technik auch Super, aber in meinem Fall ist Sie halt für mich als Person nur sehr selten nützlich.

Ähnlich wie NVENC für mich unnötige ist weil ich es schlicht nicht nutze. Das macht die Technik nicht schlechter nur hat sie für mich halt keinen Wert.

Hast Du denn die Systemlatenz selbst mal mit LDAT gemessen? Und wenn ja, es könnte ja auch sein, dass das Wissen über eine vermeintlich existierende "Laggyness" Deine subjektive Wahrnehmung beinflusst, so placebomäßig halt.

Wie oben geschrieben nein,
Wäre natürlich eine Möglichkeit, könnte ich nur durch einen Blind Test herausfinden.
 
Was ist das denn für ein alberner Start? Nvidia hält 80% des Marktes. Du könntest also auch schreiben: "Nividia ist sich einig, der Trend zu Nvidias proprietärer Technik ist nicht mehr aufzuhalten, ganz egal wie das Bild dann ausschaut."
Ne, ganz so einfach ist das nicht.
Du erwähnst allerdings nicht, dass AMD, sowie Intel, dieselbe Technologie anbieten.

Auf den Konsolen wird hoch und runter skaliert. Es wird aber immer Ewiggestrige geben, die denken, dass sich nie was ändern wird (Nichts gegen dich).
Alle sind sich einig:
Das Lag Problem ist deutlich spürbar, die Qualität leidet sichtlich, somit ist das bisher nicht viel mehr als eine teure Spielerei!
Nein Danke! Kein Bedarf!
Absolut zu vernachlässigen. Ein Unterschied ist kaum noch auszumachen. Weitere Fortschritte sind bereits in Peto.
 
Du erwähnst allerdings nicht, dass AMD, sowie Intel, dieselbe Technologie anbieten.

Auf den Konsolen wird hoch und runter skaliert. Es wird aber immer Ewiggestrige geben, die denken, dass sich nie was ändern wird (Nichts gegen dich).

Absolut zu vernachlässigen. Ein Unterschied ist kaum noch auszumachen. Weitere Fortschritte sind bereits in Peto.

Also da es hier um DLSS3.0 aka Frame Generation geht, nein AMD und Intel haben bis jetzt nichts vergleichbares.
Oder meinst du Upscaler wie DLSS2.x und FSR?

Also ein Unterschied ist wahrnehmbar was die Bild Qualität angeht jedenfalls in den von mir getesteten Spielen.
Und die zusätzlich Latenz ist je nach Szenario wahrnehmbar oder nicht.

Ich bin gespannt was die Zukunft bringt aber im moment ist es für mich sowas wie DLSS 1.0 oder FSR1 Nett mehr aber auch nicht.

Ich warte ja immer noch auf einen Implementierung in ARMA 3 vlt hilft es da ja aus den Cinematischen 20FPS
40 zu machen zwar immernoch Laggy dafür aber wenigstens Flüssig was den Bild aufbau angeht.
 
Also da es hier um DLSS3.0 aka Frame Generation geht, nein AMD und Intel haben bis jetzt nichts vergleichbares.
Oder meinst du Upscaler wie DLSS2.x und FSR?
Eine Art Frame Generation (FG) gibt es schon seit Jahren bei der Benutzung von VR Brillen. Sonst wären die Grafikanforderungen nicht zu erfüllen.

FG ist Teil von DLSS3 und ist Bestandteil des Featuresets.

Ich gehe wie selbstverständlich davon aus, dass FG (DLSS3) sich durchsetzt und in breiter Masse eingesetzt wird. Ebenso die Konkurrenzentwürfe von AMD und Intel.

Ganz ehrlich, ich erkenne den Unterschied zwischen DLSS3 und einem nativen Bild nicht mehr. Vielleicht wenn die Option "(Ultra)Performance" benutzt wird, aber ansonsten...:huh: PCGH und die anderen Techies haben auch nicht viel auszusetzen.

Es handelt sich um eine sehr fortschrittliche Technik, die Energie spart und leistungsschwächere Grafikkarten zu einer viel besseren Performance verhilft.
 
Eine Art Frame Generation (FG) gibt es schon seit Jahren bei der Benutzung von VR Brillen. Sonst wären die Grafikanforderungen nicht zu erfüllen.

FG ist Teil von DLSS3 und ist Bestandteil des Featuresets.

Ganz ehrlich, ich erkenne den Unterschied zwischen DLSS3 und einem nativen Bild nicht mehr. Vielleicht wenn die Option "(Ultra)Performance" benutzt wird, aber ansonsten...:huh: PCGH und die anderen Techies haben auch nicht viel auszusetzen.
Zu eins echt war bis jetzt nicht bekannt.
Meines wissen ist VR ja nur zweimal irgendeine Auflösung halt je nach Brille. Oder werden dort auch irgendwelche Bilder erstellet (und nein das Anfügen von Schwarz Bilder ist für mich keine Frame Generation).

FG und DLSS3.0 werden halt gerne als Synonyme verwendet auch wenn dies natürlich nicht 100% Korrekt ist.
Da DLSS 3.0 ja eigentlich Reflex + DLSS upscalier also (DLAA) + Frame Generation ist.

Ich Rede aber von FG alleine unabhängig von Reflex oder DLSS als upscaler.
Und dort sehe ich Unterschied in der Bild Qualität und in der Latenz.

DLSS bzw Ai upscaling finde ich hingegen sehr gut.
 
Ganz ehrlich, ich erkenne den Unterschied zwischen DLSS3 und einem nativen Bild nicht mehr. Vielleicht wenn die Option "(Ultra)Performance" benutzt wird, aber ansonsten...:huh: PCGH und die anderen Techies haben auch nicht viel auszusetzen.
Hast du diesen Test hier gelesen, oder mal das Blindtest-Video zur Einführung von FG angeschaut, wo sie sich A Plaque Tale anschauen? Also ganz ehrlich, wenn du das wirklich nicht siehst... wundert mich das.

Ändert aber nichts an deiner Aussage, dass es sich weiter durchsetzen wird. So lange es besser wird, ist daran mMn auch nichts auszusetzen.
 
Sagen wir es doch wie es ist:
Wenn ein Spiel mehr Ressourcen braucht als die nvidia Krüppelkarten im Mainstream bieten können, dann ist das Spiel mies portiert. Weil es sind doch genau die Leute mit 8 GB Karten die dann jammern.

Absolut korrekt. Weil 8GB vor 6 Jahren für Alles genug waren, muss das heute und bis in alle Ewigkeit auch noch so sein. Ich kann dieses "miese Portierung" Geheule sowieso nicht mehr hören. Den perfekten Port gibt es sowieso nicht.
 
Das ist mir ja bewusst, wollte damit er aufzeigen das in in einem "Low FPS " Szenario FG für mich nicht gut funktioniert.
Ob dabei die GPU oder die CPU das limit ist, ist eigentlich egal da die Latenz ja gleich bleibt durch FG bzw minimals erhöht wird. Da FG ja im grunde die Latenzenz von den FPS entkoppelt .
Naja, aber ein GPU-Limit ist schon "angenehmer", da zumindest noch einigermaßen gleichmäßige Frametimes anliegen. Im CPU-Limit gibt es schon deutlich ekligere Ausschläge.

btw: Dein Sogenannte System Latenz ist ja nur dein RAM Latenz das hat mit der CPU Leistung an für sich oder der Latenz von Click zu Bild erstmal nichts zu tuen. (klar wäre dein CPU mit lagsameren RAM langsamer) aber eine andere CPU kann trotz höherer Ram Latenz trotzdem schneller sein als dein in Games.
Ich weiß, aber zwischen meinem und einem Stock - Comet Lake - System liegen Welten.

Ich bin mir relativ sicher das mein 5600x +3600mhz Ram in den meisten CPU lastigen Spielen deiner CPU voraus ist.
Ich glaube, dass Du Dich da sehr weit aus dem Fenster lehnst. ;)
Mein System ist sehr oft schneller als ein 5800X3D und der dreht ja Kreise um Deine CPU. DDR4-4600 mit händisch optimierten Timings holen da bis zu 40% Mehrleistung gegenüber einem Stock-System raus. :)
 
Naja, aber ein GPU-Limit ist schon "angenehmer", da zumindest noch einigermaßen gleichmäßige Frametimes anliegen. Im CPU-Limit gibt es schon deutlich ekligere Ausschläge.


Ich weiß, aber zwischen meinem und einem Stock - Comet Lake - System liegen Welten.


Ich glaube, dass Du Dich da sehr weit aus dem Fenster lehnst. ;)
Mein System ist sehr oft schneller als ein 5800X3D und der dreht ja Kreise um Deine CPU. DDR4-4600 mit händisch optimierten Timings holen da bis zu 40% Mehrleistung gegenüber einem Stock-System raus. :)
1. Naja kommt halt darauf an wie hart GPU limitiert etwas ist. Auch ein GPU limit kann unschöne Frametimes haben. (aber ja meist ist ein CPU limit unangenehmer (wenn die FPS zwischen 30-60 sind). CPU limit kommt halt meist bei Streaming zum einsatz und da wird dann halt aus flüssigen 100 FPS plötzlich 30 FPS oder weniger und das merkt man. Wenn ich aber wie in Arma oder Warhammer konstandt in einem CPU limit hänge das bei ca 60FPS ist dann sind auch da die Frametimes sauber.
TLDR: Es kommt drauf an was für ein CPU limit oder GPU limit vorhanden ist, je nach dem sind die Frametimes halt glatt oder halt nicht

2. Da bin ich mir sicher.

3. hmm könntest du recht haben, meine Timings sind zwar auch hand optimiert aber mit 3600mhz ist der Takt natürlich handzahm. Man könnte ja mal in einem Community benchmark auf der PCGH vergleichen. Das wird aber so langsam etwas OT.
 
Wie meinst du das? FG gibt es nicht ohne Reflex.
Was ich damit meinte ist das ich rein von Frame Generation Rede also nicht von Reflex bzw DLSS3.0 also Featureset.
Klar mir ist bewusst das bei Aktivieren von FG immer Reflex mit aktiviert wird und auch DLSS. Aber beides kann ich je nach Spiel wieder deaktivieren (bei Reflex stellt sich die Frage warum und ob das im Backend was ändert, ist aber auch egal).

Reflex mag ich und hat ja auch keine Nachteile. Ich Rede allgemein von den Nachteilen der reinen Frame Generation. Also der Zwischenbild(AI Bild berechnung) unabhängig der anderen Features.
Weil Reflex und co geht auch auf einer 3000 gen von Nvidia und Reflex alleine wahrscheinlich sogar bei noch ältern GPUs.
 
Absolut zu vernachlässigen. Ein Unterschied ist kaum noch auszumachen. Weitere Fortschritte sind bereits in Peto.
Wohl eher Nische und Spielerei, wenn man sich den Anteil an Monitoren über 60Hz anschaut.
Ganz im ernst, die meisten insteresiert es einen feuchten Pups, ob Spiele über 60 FPS laufen.
Für Konsolen sollte das auch uninteressant sein, die sind oft sogar auf 30 FPS begrenzt.

Wenn es Dir mit Deinem 300 Hz Monitor Spaß bereitet, bitte schön. Das ändert trotzdem nichts an der praxisuntauglichen Situation für die meisten.
 
Jo, ich finds sehr dumm, weil entweder darf ich dann mit Artefakten Leben (die FG ja durchaus hat) dafür vlt. mit einer niedrigeren Latenz wobei ich vermuten würde das ich das gegenseitig aufhebt also die plus Latzenz von FG wird durch Refelx kompensiert.
 
Sorry, dass das etwas gedauert hat – das Update sollte gleich live gehen.

War ein bisschen mehr Arbeit als ich mir ausgemalt habe^^ Falls ihr euch fragt, warum ihr solche Messungen so selten zu Gesicht bekommt: Es ist ein Höllenaufwand.
(Da ist außerdem noch ein gewisser Shock dazwischengegrätscht)

Wünsche trotzdem frohes Studieren, ich hoffe obendrein, das Ganze unterstreicht außerdem die Funktionsweise und auch gewisse Einschränkungen von DLSS 3.0 auf anschauliche Weise.

EDIT:
1685734652146.png



Hast du diesen Test hier gelesen, oder mal das Blindtest-Video zur Einführung von FG angeschaut, wo sie sich A Plaque Tale anschauen? Also ganz ehrlich, wenn du das wirklich nicht siehst... wundert mich das.

Ändert aber nichts an deiner Aussage, dass es sich weiter durchsetzen wird. So lange es besser wird, ist daran mMn auch nichts auszusetzen.
Das Blindtest-Video ist tbf. auch schon verhältnismäßig alt (jedenfalls auf die bisherige Lebenszeit von DLSS 3.0 bezogen). Das ist mittlerweile im Grunde überall besser geworden, Vsync, Gsync und Framelimits funktionieren, die Artefakte sind deutlich weniger geworden...

Vielleicht lohnt sich da langsam mal ein Update (das es den Blindtestern noch sehr viel schwerer machen würde
:devil:
)

Aber es zeigt ein paar der "typischen" Macken von DLSS 3.0 eben auch ganz gut auf, weil da eben noch nicht alles ganz optimal lief.

Schönes Wochenende,
Phil
 
Zuletzt bearbeitet:
Zurück