Special Cyberpunk 2077 jetzt mit Frame Generation: Alle Infos zu DLSS 3, mit Benchmarks, Latenzen und mehr

DLSS Q erzielt in manchen Bildteilen ein besseres Bild als TAA, in anderen ein schlechteres. Das Leistungsplus ist aber so hoch, dass das niemand liegen lässt, der davon weiß. Ich hatte überlegt, die Benchmarks nativ laufen zu lassen, um die Grafikkarten maximal zu fordern, allerdings ist das im Alltag mit einer RTX-Karte nicht praxisnah. Und bei Vollbild-Raytracing generell nicht.

MfG
Raff
 
Für mich ist DLSS3 keine Technik für einen High-End PC mit 300W Gesamt-TDP und mehr. Diese Technik wäre viel interessanter für 15-25W Handhelds im Stile des SteamDecks, oder 45W Laptops. Die Klasse der 100W Laptops zähle ich da gerade so mit rein. Kurzum, DLSS3 ist eine Technologie für Einsatzgebiete an denen man Kompromisse machen muss. und bereit ist Kompromisse einzugehen.

Bei 2000€ GPUs will ich kein Flackern, kein Schmieren, kein Input Lag. Deswegen kauft man da ja teure PCs und Monitore, damit man all das nicht hat. Und dann soll man das alles wegwerfen für ein paar erfundene fps? Liebes Nvidia, keine Macht den Drogen!
Für mich ist DLSS 3 neben der ohnehin schon brachialen Leistung der 4090, eines der geilsten Features die diese Karte(n) mitbringt.
Ein GPU Upgrade was praktisch auch gleichzeitig ein CPU „upgrade“ gleich kommt und CPU Limit aushebelt.
Flug Sim statt 40 fps über New York in 100-120… sieht und fühlt sich fantastisch an. Wie viele CPU Gens bräuchte man dafür 5 vllt 6 oder gar noch mehr weils in höheren Auflösungen (Ultrawide) einfach nur um vllt 5+ fps ausmacht von Gen zu Gen?
Spiderman schnelles schwingen über die Passanten - CPU limit 60, dlss 3 locked 120.
Seh nicht mehr oder weniger Artefakte als man mit TAA nativ hat.
DLSS 3 für mich ein no brainer wenn man die fps möchte. Bei Singleplayern ist mir das völlig wumpe.
 
Finde die Tests gut und sinnvoll, solche Aussagen widersprechen sich meiner Ansicht nach jedoch:

"Da es keinen vernünftigen Grund gibt, auf DLSS zu verzichten, aktivieren wir den hochwertigsten Modus DLSS Quality/Qualität (Q)."

Diese Aussage verlinkt zu diesem Part in einem anderen Artikel:
Man lese jetzt genau weiter
"Zu den Schattenseiten von DLSS zählen die mit steigendem Upscaling-Faktor zunehmenden Schlieren einiger Objekte, wie sich im Video anhand der Stromleitung erkennen lässt. Außerdem verlieren die Raytracing-Spiegelungen an Kontur und Schärfe, da die eingesparten Pixel nicht vollständig wettgemacht werden können. Beides ist angesichts der gigantischen Leistungsgewinne durch DLSS, welche höhere Auflösungen als WQHD erst praxistauglich machen, aber verschmerzbar - mehr dazu auf der nächsten Artikelseite."
Die Rede ist von DLSS zum Beispiel nicht in high quality, oder quality, sondern eher balanced oder performance
Für mich liest sich das so DLSS = schlechtere Grafik aber bessere FPS.

Bezog sich das nicht sogar auf DLSS1 und ist mit DLSS2.2 auch eher seltener so, wenn überhaupt.
Ob jemand mit einer 2000€ Grafikkarte gewillt ist das hinzunehmen hängt doch immer von der Person ab.

Und für mich wäre gerade schlechtere Grafik ein riesen Manko?
Habe auch schon Vergleiche gesehen, da sah DLSS, oder FSR besser aus als nativ.
Wie geht es denn anderen hierbei?
 
@PCGH_Richard
Wie verhält sich der VRam der GPUs. Wie sieht die Auslastung in den Kombinationen aus. Gerade bei der 4070TI?
Wäre vor dem Hintergrund DLSS/HAGS doch eigentlich interessant.

Ich habe auf die Schnelle nur kurz mit der RTX 4080 testen können, aber bei der RTX 4070 Ti wird es ähnlich sein: Der VRAM-Verbrauch steigt mit Frame Generation minimal an (ca. 0,5 bis 1,0 GiB). Der Nvidia-Treiber werkelt aber bei vollem Speicher ohnehin noch im Hintergrund – mit Frame Generation ist jedenfalls die Speicherauslastung etwas höher, aber noch im Rahmen. Wir haben zum Thema VRAM übrigens in der Ausgabe 03/2023 einen ausführlichen Artikel drinnen.
 
Für mich ist DLSS 3 neben der ohnehin schon brachialen Leistung der 4090, eines der geilsten Features die diese Karte(n) mitbringt.
Ein GPU Upgrade was praktisch auch gleichzeitig ein CPU „upgrade“ gleich kommt und CPU Limit aushebelt.
Absolut! Das ist auch mit der Hauptgrund, warum ich mir ein Platformupgrade (modernere CPU + DDR5-RAM) noch klemme. :)
Für mich liest sich das so DLSS = schlechtere Grafik aber bessere FPS.
Ob jemand mit einer 2000€ Grafikkarte gewillt ist das hinzunehmen hängt doch immer von der Person ab.

Und für mich wäre gerade schlechtere Grafik ein riesen Manko?

Wie geht es denn anderen hierbei?
Hmmm, wenn ich die Wahl habe zwischen UHD nativ oder quasi WQHD upgesampled auf UHD via DLSS Quality, wähle ich auf meinem 27'' Monitor immer letztere Option, da die Bildqualität für mich dann immer noch top bzw. oft sogar besser ist als nativ und die Framerate merklich ansteigt. Das mag aber sicher an der ohnehin hohen ppi von 163 liegen. Andere DLSS-Modi (< DLSS Quality) verwende ich nicht, da dafür kein Bedarf bestand/besteht.

Wie DLSS Quality auf größeren Bildschirmen (> 27'') oder TVs aussieht, kann ich nicht beurteilen, da ich das noch nicht selbst gesehen habe.
 
Zuletzt bearbeitet:
Genau, das ist ghosting vom feinsten, leider ist genau das Bild bei nativer Auflösung ohne DLSS oder FSR entstanden, also native und mit dem internen TAA des Spiels.

Leider ist dann doch native nicht immer besser.

Die anderen beiden haben auch sehr leichtes ghosting (Schläger wurde bei allen drei Bildern geschwungen) aber es fällt weniger auf.

Man könnte nun Treiberseitig MFAA forcieren, aber dann fällt die Leistung noch mehr, also nutzt man DLSS / FSR in der höchsten Stufe, hat mehr FPS und gleichzeitig ein besseres Bild (wobei es bei FSR auf die Umsetzung von TAA ankommt, ist letzteres schlecht wird auch FSR schlechtere Bilder liefern können).

Gibt natürlich auch Games, da ist es genau anders herum und native sieht besser aus, bei CP2077 allerdings nicht.
 
Zuletzt bearbeitet:
DLSS Q erzielt in manchen Bildteilen ein besseres Bild als TAA, in anderen ein schlechteres. Das Leistungsplus ist aber so hoch, dass das niemand liegen lässt, der davon weiß. Ich hatte überlegt, die Benchmarks nativ laufen zu lassen, um die Grafikkarten maximal zu fordern, allerdings ist das im Alltag mit einer RTX-Karte nicht praxisnah. Und bei Vollbild-Raytracing generell nicht.

MfG
Raff
Genau mein Gedanke.

DLSS ist für mich das wichtigste Feature im Grafikkartenmarkt seit Jahren. Ich nutze es sogar ohne RT gerne um TAA zu umgehen und den Stromverbrauch zu senken. Bestes Beispiel Deep Rock Galactic. Nativ komme ich auf 120 fps locked. Die Karte arbeitet dann je nach Szene sogar voll ausgelastet undervolted mit 175W. Mit DLSS Q komme ich auf eine Auslastung der GPU von ca. 40 bis 50% und die Karte nimmt sich schlimmstenfalls 80W. Bei besserer Bildqualität als mit TAA.
 
Frame Generation ist eine sehr interessante Technik.

Da ich aber hauptsächlich Multiplayergames zocke, käme es für mich (abgesehen von der Tatsache, dass ich zur Zeit sowieso AMD Hardware verbaut habe) aufgrund der im Artikel aufgeführten Nachteile allerdings nicht in Frage, außer die Alternative sind grauenhaft unspielbare Framerates und wenn die Geräte dann so veraltet sind hol ich mir lieber ein Hardwareupgrade.

Es ist schade, dass Nvidia solche Features häufig als Verkaufsargument für ihre jeweils neueste Gen nimmt und gerade ältere GPUs, die am meisten davon profitieren würden, außen vor gelassen werden, wobei die Gründe dafür offensichtlich sind.
 
Wow, DLSS3 is impressive. With all details maxed out Raytracing and 120 FPS on 120hz monitor is immersive. But the thing that surprised me the most: Game interestingly does NOT crash. Currently rather abnormal for CDPR games. DLSS3 and Witcher crashes constantly.
 
Naja also ich konnte überhaupt keine Eingabeverzögerung wahrnehmen ?
Display: LG OLED C1 120Hz, GPU 4090. Gecappt auf 117FPS in 4K getestet
so, mit etwas mehr zeit noch ein weiterer test mit krassem ergebnis:

screen weiterhin auf 120 Hz, vsync raus, gsync an, dlss3 an, FG an, max frames in cyberpunk auf 30 (!!), los gehts.

(für mich) keine latenz, kompletter gummiband effekt weg, sicherlich in mancher manns augen laggy aber für mich kein unterschied zu 60 fps mit 1/2 vsync. und bei wqhd mit 4080 und rt ultra gerade mal 95-100w verbrauch auf der graka.
irre! mit vsync auf 1/2 refresh (60hz) liefen im schnitt 150w durch. am ende alles kein beinbruch, aber wenn man strom sparen kann, ohne selber was zu merken, ist das echt eine geniale sache.
 
Was mich ander ganzen Sache stört ist dass Nvidia DLSS 3 Framegeneration auf RTX 4000 beschränkt und dann dennoch das als " Performance"-Argument hernimmt und mit DLSS 2.0 der RTX 3000 vergleicht. Grenzt für mich fast schon an Betrug.
Betrug, nicht, aber schmierige PR.
Keine 24h nach dem Patch macht Nvidia Werbung natürlich mit DLSS OFF vs. DLSS 3 ON. Wer gratuliert dazu gleich CDPR.
 
Für UHD kann ich es noch nachvollziehen, dass man das nutzt, da aber auch nur nur bei den kleineren Karten.
Alles drunter ist bei so einem Spiel doch Quark, außer man möchte unbedingt extrem hohe FPS haben und die paar Raytracingeffekte mitnehmen. Da lieber Nativ und ein paar FPS weniger.
Ich daddel das Game aktuell mit Patch 1.61 mit einer RX6800 und habe nativ bei hohen/ultra Einstellungen zwischen 75 und 95 FPS. Und es sieht fantastisch aus.
 
Ja Nvidia RTX4000 Rockt in Cyberpunk 2077 .

Amd ist mit ihrem Fsr 2.0 in keinster Weise konkurrenzfähig !

Und deren Karten kosten auch ca. 1000,- Euro und mehr !
:nene:
 
Für UHD kann ich es noch nachvollziehen, dass man das nutzt, da aber auch nur nur bei den kleineren Karten.
Alles drunter ist bei so einem Spiel doch Quark, außer man möchte unbedingt extrem hohe FPS haben und die paar Raytracingeffekte mitnehmen. Da lieber Nativ und ein paar FPS weniger.
Ich daddel das Game aktuell mit Patch 1.61 mit einer RX6800 und habe nativ bei hohen/ultra Einstellungen zwischen 75 und 95 FPS. Und es sieht fantastisch aus.
Aber dann hat man den zu hohen Verbrauch. Ich nutze eine 4090 und ich kann bei bestem Willen nicht mit ruhigen Gewissen etwas 2 Std lang spielen, wenn ich einen Verbrauch von über 220 Watt habe, wenn ich weiß, dass ich auch weniger verbrauchen kann bei nur minimalen Verlusten in Bild und evtl FPS. Zocke derzeit das Dead Space Remake lieber als alles andere und hab es mit Absicht nur auf 60 FPS und mit DLSS, verbrauche NUR 150 Watt höchstens. Schalte ich auf Nativ sind es direkt über 220 Watt, selbst bei meiner UV 4090 bei 875mV und bis 2500Mhz.
Umgebungsverdeckung habe ich auf aus, weil das so minimalen Unterschied ausmacht, den man im Spielefluss einfach Überbaupt nicht merkt, dabei aber noch mals Verbrauch und Leistung einspart. Klar, nativ sieht noch etwas besser aus und vor allem etwas schärfer aber kostet mal eben 100 Watt mehr und das ist es mir auf Dauer einfach nicht wert.
 
Zurück