Special DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?

Heute möchten wir Sie einladen, mit uns gemeinsam einen genaueren Blick auf die modernen Fähigkeiten der jüngst erschienenen RTX 4060 Ti zu werfen und deren Performance zu begutachten. Genauer: Wir möchten prüfen, ob DLSS 3.0 respektive Nvidias auf KI basierende Frame Generation auch der Mittelklasse Flügel verleihen kann.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?
 
Spannender Artikel, auch wenn ich bei den Youtube Videos doch ein deutliches 720p-Gefühl habe. Sonst kann DLSS ja die Qualität trotz Upsamplings teilweise "verbessern", aber in diesen Videos sieht das wirklich so aus, als ob man quasi nativ mit 720p spielt. Alleine die Stufenbildung in Forza 5 am Lenkrad und der Motorhaube... So etwas sehe ich selbst bei Forza 4 auf der XBOX One X nicht...
@PCGH_Phil: Wieso schlägt die 4060ti die 4070 so häufig? Und wo kommt die Unbeständigkeit her, dass die 4060ti die 4070 manchmal in nativ, manchmal mit DLSS3 und manchmal mit DLSS3 + FG + Reflex schlägt? Und in manchen Spielen (wie zu erwarten) bei allen 3 Varianten hinterher hinkt?

EDIT: Hat sich erledigt. Vielen Dank für das aktualisieren der Werte, alles chiko jetzt :pcghrockt:
 
Zuletzt bearbeitet:
Es ist zwar besser als gedacht, aber wenn man mit Controller spielt und die Kamera dann langsam mit dem Stick bewegt (um sich die schöne Landschaft anzusehen zum Beispiel) dann sieht man doch deutlich Artefakte und ruckelig fühlt es sich auch an.
 
Die Artefakte werden schwächer, wenn man höhere Bildraten hat, da der Algo so mehr Information als Input bekommt und weniger Zeit zwischen Einzelbildern liegt. Die Idee, von 30 auf bestenfalls 60 Fps "aufzublasen" klappt leider in den wenigsten Spielen, da man dann nicht nur die Latenz, sondern auch besagte Artefakte sieht. Wobei das in den meisten Fällen noch verschmerzbar ist - richtig übel wird's bei noch geringeren "echten" Bildraten.

MfG
Raff
 
Die Artefakte werden schwächer, wenn man höhere Bildraten hat, da der Algo so mehr Information als Input bekommt und weniger Zeit zwischen Einzelbildern liegt. Die Idee, von 30 auf bestenfalls 60 Fps "aufzublasen" klappt leider in den wenigsten Spielen, da man dann nicht nur die Latenz, sondern auch besagte Artefakte sieht. Wobei das in den meisten Fällen noch verschmerzbar ist - richtig übel wird's bei noch geringeren "echten" Bildraten.

MfG
Raff
Glaub bei mir wars von ~80 Fps auf ~140 "FpS"

vorallem sichtbar war es an feineren Struckturen wie z.B. Zweige vor nem blauen Himmel

Ich hoffe, dass es irgendwann FG 2.0 gibt und es dann ein ähnlicher Sprung wird wier DLSS1 zu DLSS2

(habs aber auch nur in Witcher 3 getestet)
 
Zuletzt bearbeitet:
Bin angenehm überrascht von der Leistung (4060Ti) in CP2077.
Mit 60 - 80 (überwiegend 65 - 75) FPS.
Nur weshalb jene schneller ist als eine 4070 mit 12 GB erschließt sich mir just nicht gerade.
Klingt ja fast danach, dass 8 GB doch reichen und mind. 12 GB erst für die nächsten Jahre gelten.
 

Anhänge

  • 4060Ti vs. 4070.jpg
    4060Ti vs. 4070.jpg
    238,6 KB · Aufrufe: 27
Zuletzt bearbeitet von einem Moderator:
Spannender Artikel, auch wenn ich bei den Youtube Videos doch ein deutliches 720p-Gefühl habe. Sonst kann DLSS ja die Qualität trotz Upsamplings teilweise "verbessern", aber in diesen Videos sieht das wirklich so aus, als ob man quasi nativ mit 720p spielt. Alleine die Stufenbildung in Forza 5 am Lenkrad und der Motorhaube... So etwas sehe ich selbst bei Forza 4 auf der XBOX One X nicht...
@PCGH_Phil: Wieso schlägt die 4060ti die 4070 so häufig? Und wo kommt die Unbeständigkeit her, dass die 4060ti die 4070 manchmal in nativ, manchmal mit DLSS3 und manchmal mit DLSS3 + FG + Reflex schlägt? Und in manchen Spielen (wie zu erwarten) bei allen 3 Varianten hinterher hinkt?
*arg* Da sind ein paar Werte durcheinander gekommen (und die Skala ist auch noch kaputt). Thx. ich fix das gerade mal. Die "Sortierung" ist bei den Online-Benchmarks genau andersherum als bei den Messwerten, das ist wahrscheinlich der Grund.

Sekunde. Ich hab den ganzen Kram ja noch und kann es genau kontrollieren/nachvollziehen.

EDIT: So, jetzt stimmt es. Ich hab einen ganzen Haufen Werte genau falsch herum eingetragen. Sorry. Ich muss das im Kopf quasi vor dem Eintragen zwei mal umdrehen, einmal die Min und Avg-Werte (die genau andersherum ausgegeben werden) und weil ich primär die RTX 4060 Ti gesteste und die RTX 4070 nur als Referenz getestet habe, ist meine Sortierung der Benchmarkwerte nach der RTX 4060 Ti sortiert. Die kommt immer an erster Stelle. Aber bei den Benchmarks kommt zuerst die 4070. Also muss ich da nochmal umdenken. Das hab ich offenkundig hier und da
vergessen. Noch mal Entschuldigung, das war/ist ein recht anstrengender Artikel.

Der Server muss die Benchmarks/den Artikel noch aktualisieren. Sollte hoffentlich nicht lange dauern. Die Benchmarks sollten dann auch gleich alle Werte anzeigen. So:
1685439976014.png

Die Frametimes Latenzen kommen, da sitze ich gerade dran (und mache die direkt von Anfang an komplett neu und frisch, damit mir da nichts um die Ohren fliegt, das ist noch mal etwas komplexer).

Hier schon mal eine kleine Vorschau:
1685439699294.png


1685439720008.png

Gruß,
Phil
 
Zuletzt bearbeitet:
Ich frage mich, wann AMD endlich FSR 3 bringt. Wahrscheinlich erst Ende des Jahres zusammen mit DLSS 4. Das fehlen dieses Features bei AMD macht AMD für mich zur Zeit unattraktiv.
 
Das fehlen dieses Features bei AMD macht AMD für mich zur Zeit unattraktiv.
Du musst dabei immer bedenken, dass AMD nur ein Bruchteil der Ressourcen zur Verfügung steht, die Nvidia dafür nutzen kann. Lieber dauert die Entwicklung von FSR 3 daher etwas länger, als das Feature mit Bugs behaftet starten zu lassen – dann ist AMD nämlich auch wieder schuld und "kann nix". Die können es eigentlich nur falsch machen.
 
Cool, wusste gar nicht dass DLSS 3 dazulernt und mit der Zeit noch besser wird :daumen:
Bin gespannt auf die Fortsetzung zum Artikel.
 
Könnte man eventuell dazu übergehen DLSS 3.0 einfach DLSS Frame Generation (FG) zu nennen?

Meiner Meinung nach ist das eindeutiger als die Kürzel DLSS 2.X für DLSS Super Resolution (bzw. DL-Upsampling) und DLSS 3.0 für FG zu verwenden. Darüber hinaus gibt es bei Techpowerup nämlich auch schon DLLs mit der Version 3.X, aber eben für DLSS 2.X, also DLSS Super Resolution. Das hat in diesem Falle nichts mit Frame Generation zu tun:
Ich blicke da zwar mittlerweile durch, finde es aber irgendwie trotzdem nervig. Da bin ich bestimmt nicht der Einzige.

edit:
Version 3.1.11 ist die neueste Version für DLSS Super Resolution und Version 3.1.12 die aktuellste Iteration von DLSS FG:
Was für ein Käse...
 
Zuletzt bearbeitet:
DLSS 3 ist halt einfach ne sehr geile Technik und eigentlich schon ein Gamechanger.
Ich mein der Boost gerade bei CPU limitierten Sachen oder eben wie hier, wenn die Puste der Karte knapp wird, ist beachtlich.
Das ganze Latenz Zeug spielt bei Singelplayern keine Rolle und die Artefakte sieht man auch nicht wirklich mehr als bei den ganzen TAA Grampf was wir aktuell überall als Standard drin haben, außerdem wirds eben stetig verbessert.
 
Kann mir bitte irgendwer erklären wieso man für diese Tests plötzlich ständig auf solche miesen Port-Gurken wie Hogwarts Legacy zurückgreift?! Oder auf unoptimierte, experimentelle Version von CP2077 die die erwähnte GPU explizit NICHT auflistet?!

Schaut schon fast so aus, als wollte man diese GPU's einfach schlecht machen, weil's halt gerade in der Community angesagt ist ?
 
Kann mir bitte irgendwer erklären wieso man für diese Tests plötzlich ständig auf solche miesen Port-Gurken wie Hogwarts Legacy zurückgreift?! Oder auf unoptimierte, experimentelle Version von CP2077 die die erwähnte GPU explizit NICHT auflistet?!

Schaut schon fast so aus, als wollte man diese GPU's einfach schlecht machen, weil's halt gerade in der Community angesagt ist ?
Wir können Frame Generation nur mit Spielen testen, die das Feature implementiert haben. Und dafür nehmen wir eine bunte Mischung aus Engines und somit Ansprüchen, wie immer bei PCGH-Tests.

Cyberpunk 2077 mit Pathtracing ist übrigens sehr wohl optimiert, vermutlich sogar extrem aufwendig - allerdings einseitig. ;)

MfG
Raff
 
Und Hogwarts ist auch alles andere als ein "mieser Port". Das Spiel hat tatsächlich die beste Grafik, die ich seit Langem am PC bestaunen durfte und die CPU-Skalierung ist auch überraschend positiv, vor allem wenn man die Engine im Hinterkopf behält. Zudem sollte es nicht verwundern, dass gerade diese Spiele eine FG-Implementierung erhalten, da sie überaus beliebt sind.
 
Und Hogwarts ist auch alles andere als ein "mieser Port". Das Spiel hat tatsächlich die beste Grafik, die ich seit Langem am PC bestaunen durfte und die CPU-Skalierung ist auch überraschend positiv, vor allem wenn man die Engine im Hinterkopf behält. Zudem sollte es nicht verwundern, dass gerade diese Spiele eine FG-Implementierung erhalten, da sie überaus beliebt sind.
Sorry, aber es ist überall bekannt, dass Hogwarts Legacy schlecht optimiert ist und z. B RT bis heute nicht richtig implementiert ist. Das hat doch gar nichts mit guter Grafik zu tun?
Ein kurzer Blick auf die Steam Rezensionen bzw Community sagt da eh schon alles!
 
Sagen wir es doch wie es ist:
Wenn ein Spiel mehr Ressourcen braucht als die nvidia Krüppelkarten im Mainstream bieten können, dann ist das Spiel mies portiert. Weil es sind doch genau die Leute mit 8 GB Karten die dann jammern.
 
Zurück