Special DLSS 3.0, die Frame Generation und die RTX 4060 Ti - Auch für die Mittelklasse ein Game-Changer?

Was bei den Videos aber sofort wieder auffällt, Upsampling funktioniert in FHD schlicht nicht mehr gut, die Auflösung mit DLSS / FSR ist dann einfach zu gering und das Bild wird viel zu unsauber.
Von daher bin ich nicht überzeugt davon extreme Hardwareanforderungen in FHD mit DLSS 3 zu begegnen, ab WQHD sieht das doch schon deutlich vielversprechender aus, da wird für die 4060Ti die Luft aber auch schon ziemlich dünn.
 
Was bei den Videos aber sofort wieder auffällt, Upsampling funktioniert in FHD schlicht nicht mehr gut, die Auflösung mit DLSS / FSR ist dann einfach zu gering und das Bild wird viel zu unsauber.
Von daher bin ich nicht überzeugt davon extreme Hardwareanforderungen in FHD mit DLSS 3 zu begegnen, ab WQHD sieht das doch schon deutlich vielversprechender aus, da wird für die 4060Ti die Luft aber auch schon ziemlich dünn.
Das Gute: Frame Generation lässt sich überall "draufpfropfen" - TAA, FSR, DLSS, XeSS, FXAA, was du willst. Erst in Kombination mit Super Resolution (= DLSS 2) wird DLSS 3 daraus.

MfG
Raff
 
@PCGH_Phil

Vielen Dank für den tollen Test. Was DLSS3+FG leisten ist äußerst beeindruckend. Ada Lovelace spielt für mich in einer eigenen Liga, eher schon 2 Klassen über allem anderen.

Mit DLSS3+FG hievt sich eine 4060Ti über eine 6800XT, auch in QHD.

Mit DLSS3+FG erhöhen sich die FPS in FH5 um 39% und die Min FPS um 49%. Das ist doch Wahnsinn.

Ja ok, da ist ein Traversal-Ruckler (noch nie gehört das Wort, wahrscheinlich Nachladeruckler). Aber hey, niemand wird gezwungen in max Details zu spielen. Im Extrem Preset ist der Ruckler wahrscheinlich schon weg.

Frage 1: Im OSD, hinter GPU Mem und GPU Mem Game steht noch eine zweite, niedrige GB-Zahl. Was ist das?

Frag 2: Im OSD ganz unten bei Available Mem steht 18GB. Ich nehm an, das ist der Sysram. Müßte da nicht 32/64GB stehen dann, oder ist das was anderes?

CPU-Limit in FH5 in dem Video? Nein. CPU-Limit erkennt man nicht nur an GPU-Load, sondern auch an den Auslastungen der einzelnen Kerne. Keiner der Kerne ist in der Nähe von 90%. Kern 6 ist einmal für eine Sekunde auf 80%, ansonsten alle immer viel weiter unten.

Schönen Feierabend Dir und Deinen Kollegen:innen (innen is wichtig, sonst kanns massiv Ärger geben). ?
Winnie
 
Wenn es jetzt nicht an der Videokomprimierung liegt, muss ich sagen, dass ich in jedem Video die optischen "Kompromisse" regelrecht störend gespürt habe. Je nach Spiel und Szene mal mehr, mal weniger.

Von FG erwarte ich zwar Kompromisse, aber nicht in solch einer spürbaren Form, weil es dann einfach unattraktiv ist. Wenn es die kleine Blume oder der Strohhalm hinten im Bild wäre, kein Problem, das würde mich nicht jucken bzw. würde ich das im Spielgeschehen kaum bemerken, aber in den Videos sieht einfach das gesamte Bild so aus, als würde man mit Erfolg einen Brei entbreit haben, nur dass man die Brei-Historie dennoch spürt. Ganz ganz komisch.

Der fps-boost heute, den ich bei FHD nicht freiwillig mit FG nehmen würde, kann aber in Zukunft zwischen spielbar/unspielbar entscheiden. Daher sehe ich das nur als Langzeitpotential gut, aber ob das 7 Jahre später auch tatsächlich so kommt? Jedenfalls besser haben als nicht haben, keine Frage.

Die Ironie bei FG ist doch, dass je höher die fps ohne FG sind, umso besser das Resultat von FG wird, was aber teils im Widerspruch zu dem, was man sich als Spieler überwiegend erhofft, steht. Ganz nach dem Motto: Eine 4090 hat die beste Leistung mit brachialem FG-Resultat, was dort allerdings am wenigsten gebraucht wird, bei schwächeren Karten hingegen der Bedarf steigt, während dort das Resultat verhältnismäßig schlechter wird?

Weiss nicht. Vielleicht wird das ganze noch stetig optimiert, aber heute habe ich lieber 80 gestochen scharfe anstatt 110 leicht verbreite fps.
 
Zuletzt bearbeitet:
Das Schöne und markante an Computerspielen ist doch eigentlich das "saubere" native Bild.
Dinge wie DLSS3 und Frame Generation machen das kaputt. Ähnlich wie Artefakte in schlechten Streams.
Und wie einige Effekte, die das Bild unscharf machen oder letztendlich Ghosting Effekte verursachen.

Hier wird nur mit FPS geworben, dafür aber ein niedriger Lag und Qualität vernachlässigt.
 
Zuletzt bearbeitet:
Achtung auf älteren Plattformen mit PCIe 3.0. Die RTX 4060 Ti nutzt NUR 8 Lanes. D.h. bei PCIe 4.0 ist es kein Problem, bei PCIe 3.0 gibt es Einbußen bei der Performance. "der8auer" hat dazu ein Video auf Youtube hochgeladen. Sollte unbedingt beachtet werden, wenn nur die Graka ausgetauscht werden soll und nicht der ganze Unterbau.
 
Ich frage mich, wann AMD endlich FSR 3 bringt. Wahrscheinlich erst Ende des Jahres zusammen mit DLSS 4. Das fehlen dieses Features bei AMD macht AMD für mich zur Zeit unattraktiv.
Das wäre schon langsam gut.
Es gibt zwar ein paar Nebeneffekte mit DLSS 3.0 bzw. FG, aber im Großen und Ganzen ist es eigentlich überall nützlich bzw. verbessert überall zumindest die "sichtbare" Performance.

Das zeig ich euch morgen noch mal genauer. Ich bin jetzt mit dem ganzen Auswerte-Gedöns fertig (das ist ein absoluter Pein-im-Gebein, aber echt ganz nützlich, um die ganze Chose etwas besser zu verstehen). Jetzt muss ich daraus nur noch ein Update bauen. Das waren über 240 MiByte Frameview-Messdaten. Bei gerade einmal einer Handvoll Spielen. *puhhh* :ugly:

Gruß,
Phil
 
Die Ironie bei FG ist doch, dass je höher die fps ohne FG sind, umso besser das Resultat von FG wird, ...
und
net zu vergessen, das man Reflex auch ohne FG nutzen kann

Da brauchen sich in Puncto Latenz die Besitzer ner 3070 net verrückt machen und auf ne 4060Ti wechseln.
(die Latenz mit FG ist dann schlechter)
 

Anhänge

  • Cyberpunk-2077-Latency-1440p-DX12-Ultra-RT-On-DLSS3_DLSS.jpg
    Cyberpunk-2077-Latency-1440p-DX12-Ultra-RT-On-DLSS3_DLSS.jpg
    87,6 KB · Aufrufe: 11
Sorry, aber es ist überall bekannt, dass Hogwarts Legacy schlecht optimiert ist und z. B RT bis heute nicht richtig implementiert ist. Das hat doch gar nichts mit guter Grafik zu tun?
Ein kurzer Blick auf die Steam Rezensionen bzw Community sagt da eh schon alles!
Hogwarts Legacy steht bei 92% positiven reviews. Das sagt tatsächlich schon alles.
 
Meld. Probleme gibts aber nur, wenn die 8GB überlaufen, oder?
Das hat etwas mit dem möglichen Datendurchsatz der PCIe-Lanes zu tun. Die 4060 Ti nutz eben nur 8 von 16 PCIe-Lanes. Damit ist die Karte auf PCIe 3.0 Systemen etwa auf dem Niveau einer RTX 3060 Ti, weil sie nicht genügend Bandbreite von Mainboard/CPU bekommt. Mit dem Speicher der Karte hat das nichts zu tun.
 
Das Schöne und markante an Computerspielen ist doch eigentlich das "saubere" native Bild.
Dinge wie DLSS3 und Frame Generation machen das kaputt. Ähnlich wie Artefakte in schlechten Streams.
Und wie einige Effekte, die das Bild unscharf machen oder letztendlich Ghosting Effekte verursachen.

Hier wird nur mit FPS geworben, dafür aber ein niedriger Lag und Qualität vernachlässigt.
Alle sind sich einig, dass der Trend alias DLSS3 und Co. nicht mehr aufzuhalten ist.

Diese Techniken vereinen alle Aspekte die in unserer Zeit von Relevanz ist - Effizienz und Leistungsoptimierung bei einem erstaunlich guten Bild. PCGH und Co. können es sich nicht mehr leisten Benchmarks nur noch nativ durchzuführen. Zu wichtig und zu oft genutzt ist die KI-Technik

Das native saubere Bild, so wie du es nennst, spielt bereits bei Konsolen kaum noch eine Rolle und wird bei PC´s sicherlich bald ebenfalls irrelevant.
 
Alle sind sich einig, dass der Trend alias DLSS3 und Co. nicht mehr aufzuhalten ist.

Diese Techniken vereinen alle Aspekte die in unserer Zeit von Relevanz ist - Effizienz und Leistungsoptimierung bei einem erstaunlich guten Bild. PCGH und Co. können es sich nicht mehr leisten Benchmarks nur noch nativ durchzuführen. Zu wichtig und zu oft genutzt ist die KI-Technik

Das native saubere Bild, so wie du es nennst, spielt bereits bei Konsolen kaum noch eine Rolle und wird bei PC´s sicherlich bald ebenfalls irrelevant.
Alle sind sich einig:
Das Lag Problem ist deutlich spürbar, die Qualität leidet sichtlich, somit ist das bisher nicht viel mehr als eine teure Spielerei!
Nein Danke! Kein Bedarf!
 
Ich wundere mich, dass diese umfangreiche Analyse von DLSS3 mit Blick auf die 4060 ti, nicht der Heftausgabe vorbehalten ist.
 
Alle sind sich einig, dass der Trend alias DLSS3 und Co. nicht mehr aufzuhalten ist.

Diese Techniken vereinen alle Aspekte die in unserer Zeit von Relevanz ist - Effizienz und Leistungsoptimierung bei einem erstaunlich guten Bild. PCGH und Co. können es sich nicht mehr leisten Benchmarks nur noch nativ durchzuführen. Zu wichtig und zu oft genutzt ist die KI-Technik

Das native saubere Bild, so wie du es nennst, spielt bereits bei Konsolen kaum noch eine Rolle und wird bei PC´s sicherlich bald ebenfalls irrelevant.
Was ist das denn für ein alberner Start? Nvidia hält 80% des Marktes. Du könntest also auch schreiben: "Nividia ist sich einig, der Trend zu Nvidias proprietärer Technik ist nicht mehr aufzuhalten, ganz egal wie das Bild dann ausschaut."
Ne, ganz so einfach ist das nicht.
 
Alle sind sich einig:
Das Lag Problem ist deutlich spürbar, die Qualität leidet sichtlich, somit ist das bisher nicht viel mehr als eine teure Spielerei!
Nein Danke! Kein Bedarf!
Du sollst ja auch keine kompetitiven Multiplayer-Shooter oder Rennspiele damit spielen. Für alles Andere ist es doch vollkommen irrelevant. Insofern man auch ohne Frame Generation zumindest schon einmal 60-70 FPS anliegen hat, ist Dein "Lag Problem" aber mal sowas von vernachlässigbar. Reflex regelt außerdem ganz gut gegen.

Außerdem: Selbst ausprobieren und das auch nicht nur in einem Spiel und im Anschluss urteilen. Mir sind in meinen Spielerfahrungen keine eklatanten Mängel aufgefallen. Darüber hinaus werden die Technologien ja immer weiter verbessert.
 
Außerdem: Selbst ausprobieren und das auch nicht nur in einem Spiel und im Anschluss urteilen. Mir sind in meinen Spielerfahrungen keine eklatanten Mängel aufgefallen. Darüber hinaus werden die Technologien ja immer weiter verbessert.
Dazu braucht man dann erstmal eine Karte die FG kann was ja nun nicht jeder hat. Und gerade um es nicht selbst austesten zu müssen/können dafür sind ja die Test und Reviews gedacht.
Alle Spiele sind mit RT on

Zur Meiner Erfahrung mit Nvidia FG:
Cyberpunk 2077 (DLSS Quali; 4k ; Pathtracing).
Die Relativ geringe Nativen FPS sorgen dafür das FG sichtbar Artefakte bildet und durch die ca 10ms Extra wird das Spiel nicht gut Spielbar was Latenz angeht. In diesem fall bringt mir DLSS FG also nichts.

Redfall:
FG (native FPS ca 80 ; 4k ; DLSS Quali)
FG funktioniert hier Super die mehr Latenz ist nicht wahrnehmbar (außer in den kurzen CPU limitieren Szenen)
Artefakte sind kaum bis wenig vorhanden.

Warhammer Darktide (4k, DLSS Quali)
Die mehr Latenz ist hier sehr deutlich wahrnehmbar was es für mich Sinnlos macht. Klar das bild sieht flüssige aus, fühlt sich aber nicht so an.

Witcher 3 (DLSS Quali 4k +rt)
Nachdem es in den ersten Patches damit immer zu abstürzen führte war es für mich erstmal uninteressant.
Nun läuft es, leider ist der Mehrwert hier gering da ich mit der 4090 auch ohne FG in allen GPU lastigen Szenarien ein Flüssiges Bild habe.
In den CPU lastigen Szenarien wird die Mehrlatenz mal wieder zum Verhängnis.

Zusammenfassung meinerseits:
Ist Spanned hat aber für mich selten einen Mehrwert. DLSS(ohne FG) hingegen ist nach meiner Meinung eines der besten Features seid Jahren von dem Wunderbaren DLAA brauchen wir garnicht Reden.
Geht mal in Cyberpunk 2077 und Aktiviert bei einer Nativen Auflösung von 4k mal DLAA, meine Güte sieht das Spiel gut aus. (man hat zwar nur noch Cinematische 20 FPS aber irgendwas ist halt immer.
 
Dazu braucht man dann erstmal eine Karte die FG kann was ja nun nicht jeder hat. Und gerade um es nicht selbst austesten zu müssen/können dafür sind ja die Test und Reviews gedacht.
Wenn ich so eine Karte noch nicht hätte, würde es mich gar nicht interessieren, da ich es ja sowieso nicht nutzen kann.
Alle zukünftigen Karten von Nvidia (RTX 5000, 6000, etc.) werden das Feature wohl auch anbieten. Dementsprechend ist davon auszugehen, dass es auch immer weiter verbessert wird. Irgendwann wird sich der geneigte Gamer, der jetzt noch skeptisch ist, auch eine neue Karte anschaffen. Die kann das ja dann und dann kann man es ja auch selbst austesten.

FSR 3 wird zudem ebenso kommen. Dann kommen auch AMD-only-Käufer in den Genuss dieser (oder zumindest einer ähnlichen) Technologie.

Ich urteile nie anhand von Tests bzw. von Inhalten, die ich mir nur angelesen habe. Die sind für mich nur ein Appetithäppchen bzw. zum Einstieg in die Thematik gedacht. Wenn mich etwas interessiert, will ich es immer selbst testen und urteile erst danach. Alles Andere ergibt doch keinen Sinn.

Ist Spanned hat aber für mich selten einen Mehrwert. DLSS(ohne FG) hingegen ist nach meiner Meinung eines der besten Features seid Jahren von dem Wunderbaren DLAA brauchen wir garnicht Reden.
Geht mal in Cyberpunk 2077 und Aktiviert bei einer Nativen Auflösung von 4k mal DLAA, meine Güte sieht das Spiel gut aus. (man hat zwar nur noch Cinematische 20 FPS aber irgendwas ist halt immer.
Cyberpunk 2077 habe ich noch nicht angerührt. Da ist die RTX 4090 einfach noch zu schwach auf der Brust (für mich zumindest). Das werde ich mir dann mal beim nächsten geplanten GPU-Kauf zu Gemüte führen (RTX 6090). Dann wird auch mehr Rohleistung da sein, sodass man auch nativ schon seine 60 FPS hat.

Ich habe von den von Dir genannten Spielen nur The Witcher 3 mit Frame Generation getestet. Das hat bei mir sehr gut funktioniert. Ich konnte das Spiel in UHD voll ausfahren und Frame Generation hat mir geholfen meine GPU adäquat auszulasten (da ich sonst teilweise noch im CPU-Limit gehangen hätte).

Witcher 3 (DLSS Quali 4k +rt)
Nachdem es in den ersten Patches damit immer zu abstürzen führte war es für mich erstmal uninteressant.
Nun läuft es, leider ist der Mehrwert hier gering da ich mit der 4090 auch ohne FG in allen GPU lastigen Szenarien ein Flüssiges Bild habe.
In den CPU lastigen Szenarien wird die Mehrlatenz mal wieder zum Verhängnis.
Bei mir ist nichts abgestürzt und ich habe es sogar in der allerersten Next-Gen-Iteration gespielt (also vor den Patches, die dann noch kamen). Mehrlatenz? Ganz ehrlich: Das ist kein Shooter, das ist kein Rennspiel und das ist auch kein Souls, wo extrem präzise Eingaben wirklich notwendig wären. Man darf die Kirche auch sehr gerne mal im Dorf lassen. Schalte Reflex ein und dann ist doch alles prima.

Ansonsten habe ich A Plague Tale: Requiem damit komplett durchgezockt und hatte keinerlei Beanstandungen. Ich schaue aber auch wirklich, dass ich vor dem Zuschalten von Frame Generation wenigstens 60 FPS (besser 75 FPS) habe. Dann geht das auch vollkommen klar. Wenn man nur 30-40 FPS hat und es dann nutzt, dann braucht man sich auch logischerweise nicht wundern, dass die Spielerfahrung "laggy" ist.

Bei DLAA stimme ich Dir im Übrigen zu. Das ist mein liebstes AA!
 
Bei mir ist nichts abgestürzt und ich habe es sogar in der allerersten Next-Gen-Iteration gespielt (also vor den Patches, die dann noch kamen). Mehrlatenz? Ganz ehrlich: Das ist kein Shooter, das ist kein Rennspiel und das ist auch kein Souls, wo extrem präzise Eingaben wirklich notwendig wären. Man darf die Kirche auch sehr gerne mal im Dorf lassen. Schalte Reflex ein und dann ist doch alles prima.
Dann hatte ich wohl einen Patch erwischt in dem es so war. Ist aber auch egal weil ist ja nicht mehr der Fall und war ja so oder so ein Spiel Problem und kein FG Problem.

Naja für mich fühlt es sich halt im CPU limit damit laggy an. (Nativ dürfte ich da auch bei ca 45-50 FPS gewesen sein).
Reflex kann ich aber auch ohne FG verwenden und senkt dort im GPU limit die Latenz.

Ich möchte nochmals betonen das es meine Erfahrungen sind und meine Bewertung des ganzen, das ist nicht Objektiv wie ein Test sondern eben Subjektiv.

Achtung Fiktive werte:

Es ist halt so wenn ich halt eine Inputlatenz von ca (maus click zu ich sehe auf dem Bildschirm von 55ms) habe z.b. dann sind halt die extra 10ms von FG halt schon merkbar.
Und umso kleiner der Wert wird um so schlimmer wird es, Prozentual gesehen. Klar wenn ich irgendwann ein CLick zu passiert was Latenz von 12ms habe dann wird man die 10ms wahrscheinlich nicht mehr merken weil man einfach ein sehr geringe Latenz hat.

Aber wenn man gerade so an seiner Spürbaren Latenz zeit ist und dann kommt nochmals was von FG obendrauf dann fällt es halt negativ auf.

Beispiel: Mark merkt das sein Spiel sich etwas Laggy anfühlt er schließt ldat an und misst 59ms Latenz.
Mark optimiert seine Setting so das es sich nicht laggy anfühlt ldat misst 49 ms.
Nun Aktiviert Mark FG es kommen wieder 10ms obendrauf er ist wieder bei 59ms und damit wieder bei laggy.

in er Optimiert weiter und kommt nun mit FG auf 53 ms und ohne fg auf 43 ms, doch Mark fällt auf das FG diesmal nicht zu einem Laggy gefühlt führt.

Und das liegt halt daran das er unterseiner warnehmbaren schwelle ist.
 
Naja für mich fühlt es sich halt im CPU limit damit laggy an. (Nativ dürfte ich da auch bei ca 45-50 FPS gewesen sein).
Okay, I see. Deine CPU war/ist in diesem Beispiel dazu imstande 45 Bilder pro Sekunde zu berechnen. Die GPU könnte vermutlich deutlich mehr darstellen. Dann ist das aber natürlich kein Problem der Funktionsweise von Frame Generation, sondern eher von Deinem System (der CPU). Die Technologie an sich kann ja nichts dafür, dass der Bottleneck woanders liegt (als er sollte). Angenommen Du bist im GPU-Limit und schaltest dann Frame Generation zu - dann sieht die ganze Geschichte schon wieder anders aus.

Ich möchte nochmals betonen das es meine Erfahrungen sind und meine Bewertung des ganzen, das ist nicht Objektiv wie ein Test sondern eben Subjektiv.
Alles gut. Ich sehe das Ganze halt etwas entspannter und schildere nur meine Eindrücke und meine Meinung. =)

Es ist halt so wenn ich halt eine Inputlatenz von ca (maus click zu ich sehe auf dem Bildschirm von 55ms) habe z.b. dann sind halt die extra 10ms von FG halt schon merkbar.
Und umso kleiner der Wert wird um so schlimmer wird es, Prozentual gesehen. Klar wenn ich irgendwann ein CLick zu passiert was Latenz von 12ms habe dann wird man die 10ms wahrscheinlich nicht mehr merken weil man einfach ein sehr geringe Latenz hat.
Das ist alles logisch, aber über ansprechende Peripherie bekommt man die Inputlatenz auch noch einmal gedrückt. Ich habe noch keine Messungen mit Nvidia LDAT angestellt, aber laut Tests ist die Inputlatenz meiner 3 Mäuse, die ich verwende, sehr gering (< 10ms) und mein Monitor ist auch keine lahme Gurke. Das hilft natürlich enorm. Des Weiteren liegt meine Systemlatenz bei ~35 ns (RAM-OC). Das hilft natürlich im CPU-Limit auch extrem mit bzw. lässt mich die GPU in CPU-lastigen Szenarien deutlich mehr auslasten als dies normalerweise der Fall wäre.

Wahrscheinlich könnten wir es aber erst beurteilen, wenn ich es an Deinem System testen würde und Du an Meinem. Deswegen will ich Dir an der Stelle auch gar nicht widersprechen. Das ergibt ja auch keinen Sinn. Ich sage nur, dass wir am Ende des Tages keine Pro-Gamer sind und damit die Kirche auch einmal im Dorf lassen können. Ich bin froh darüber, dass Frame Generation als Technologie existiert (und reift).

Hast Du denn die Systemlatenz selbst mal mit LDAT gemessen? Und wenn ja, es könnte ja auch sein, dass das Wissen über eine vermeintlich existierende "Laggyness" Deine subjektive Wahrnehmung beinflusst, so placebomäßig halt.
 
Zurück