Special DLSS: Nur 1,4 Prozent der PCGH-User setzen auf Nvidias aktuelles Lieblings-Preset [Umfrage]

Ehrlich gesagt, ich daddel gerade wieder DOOM Eternal auf Nightmare in WQHD. Wenn ich da DLSS anschmeisse habe ich 10tel-s miesere Reaktionszeiten, die mir die Tour vermasseln, und das trotz m. w. Ausreichendem 5800x3d und 4070. Auffällig oft wenn Gegnerhorden auftauchen. Schalte ich DLSS aus, passt alles. Irgendjemand eine Idee dazu?
Lass es aus. Die Engine ist doch genial optimiert. Das Doom Reboot lief sogar auf einem alten AMD Phenom mit einer GTX 660 mit konstanten 60 FPS ohne Framedrops. :hail:
 
Was für eine krasse Kombi. 60hz + 4080? Wie kommt man denn auf die Idee? Ich hoffe dir ist klar das ein 60hz Bildschirm auch nur 60fps darstellen kann. Für so einen "lahmen" Bildschirm ist so eine schnelle Karte fast schon überdimensioniert ausser du zockst in 4k Titel wo selbst einen 4080 gerade die 60fps schafft.
Wer lesen kann ich klar im Vorteil :) Ich habe geschrieben, das ich keine 200-300 fps brauche, da mein Monitor nur 60fps kann, also ja mir ist bewusst das nur 60 fps möglich sind......Und ich zocke ausschließlich in 4K, steht aber auch in meinem Beitrag. Wenn ich z.B. bei Forza 5 in 4K alles auf Max. stelle und auf 60fps begrenze läuft die Karte bei 75 % auslastung. Ohne Limit schaft sie 80fps bei nahezu 99 % auslastung. Die 60 fps schafft sie also dicke.......Und für meine zwecke reichts.
Du könntest aber dennoch mit der Technik das optisch gleiche Ergebnis haben und einiges an Strom/Wärme/Lautstärke der Karte sparen....

Mein PC steht rechts unterm Tisch und es ist echt angenehm wie leise meine Strix bei 120 FPS Warzone macht und kaum noch spürbare Wärme nach oben steigt. Plus eben die Energie, die weniger benötigt wird...
Ja da hast du natürlich recht. Nur erstmal ist der Strom noch recht günstig (bei uns), also egal. Bei Wärme muss ich weniger heizen und die Lautstärke ist egal, weil ich kopfhörer benutzte. Das einzige, was ich tue um zu sparen ist, auf 60 fps zu begrenzen. Und das bringt bisher ca. 25% weniger GPU auslastung. Das muss reichen um den Planeten zu retten :)
 
Zuletzt bearbeitet:
Ich finde es erstaunlich, dass sich viele komplett für eine so tolle Technologie sperren und es gar nicht in Erwägung ziehen, es wenigstens mal zu testen. Ich empfinde DLSS und FSR als große Bereicherung.
Ich glaube die Wenigsten sperren sich komplett, sehen aber nun, dass sich ihre Bedenken, auch unabhängig der BQ, Schritt für Schritt erfüllen.
Meine RX6800 packt so locker 4k Auflösung und ich muss keine Kompromisse eingehen und vor allem muss ich mir keine neue GPU kaufen. ?
Bei Deiner Software. Viele anspruchsvollere Neuerscheinunen können es allerdings nicht sein. Gerade mit FSR(2) gehst Du auch in 4K bereits meist einen Kompromiss ein.
TLOU auf dem OLED@4k sieht einfach zu schön aus um es auf 24zoll@1440p zu spielen ? mir reichen da auch 60fps und das schafft die Karte dank FSR.
Wieder 4K, eine absolut marginale Gruppe.

Das größte Problem bei den Upscalern sind allerdings die Auflösungen darunter, auch im Quality Modus. Bei FSR2 i.d.R. mehr als bei DLSS (ohne FG). Aber blurr scheint heute einfach die neue Bildstabilität. Artefakte, Ghosting, dediziert notwendiger Support durch Entwickler, alles nicht mehr so wichtig.

Aber wehe es fehlte vor einigen Jahren einmal ein SLI/CF Profil... Verrückte Welt.
 
Ehrlich gesagt, ich daddel gerade wieder DOOM Eternal auf Nightmare in WQHD. Wenn ich da DLSS anschmeisse habe ich 10tel-s miesere Reaktionszeiten, die mir die Tour vermasseln, und das trotz m. w. Ausreichendem 5800x3d und 4070. Auffällig oft wenn Gegnerhorden auftauchen. Schalte ich DLSS aus, passt alles. Irgendjemand eine Idee dazu?

Nein, so funktioniert DLSS nicht.

Wenn die FPS steigen, hast du bei DLSS Upscaling auch 1:1 geringere Latenzen. Genauso wie bei FSR2 oder genauso wenn du einfach nur die Auflösung runter setzen würdest, um mehr FPS zu bekommen.

DLSS kostet natürlich renderzeit, so wie jeder andere Effekt im Spiel auch. Diese Kosten werden durch die geringere Auflösung aber überkompensiert. Du sparst dir z.B. 10ms renderzeit durch die geringere Auflösung, verlierst aber 2ms renderzeit durch das berechnen von DLSS, bleiben 8 ms die du gewonnen hättest. 8ms geringere latenz, 8ms kürzere Frametimes. (werte nur beispielhaft)

DLSS wirkt sich hinsichtlich berechnungskosten also unmittelbar auf die Frametime aus. Es gibt hier keine versteckte zusätzliche Latenz wie es bei DLSS3 Frame Generation der Fall ist, wo absichtlich um einen Frame verzögert wird, um ein Zwischenbild zu generieren. Gut, dieser eine Frame wird meistens durch Reflex wieder kompensiert, aber das ist ein anderes Thema.

Wie gesagt, wenn mit DLSS Upscaling die FPS ansteigen, hast du auch bessere Latenzen. Das ist ausnahmslos immer so!
Die Berechnungszeit ist bereits in der Frametime enthalten. Würden die Latenzen mit DLSS schlechter werden hättest du zwangsläufig weniger statt mehr FPS!

Für optimale latenzen solltest du zudem ein FPS limit nutzen, um die GPU-Last unter 100% zu halten. Bei 100% GPU-Last sind die Latenzen nämlich immer hoch, meistens sogar viel viel höher als mit Frame Generation + Reflex, nur um das mal gesagt zu haben. Unter 100% Last sind die Latenzen deutlich niedriger. Reflex macht sich das übrigens auch zu Nutze und versucht die GPU last immer knapp unter 100% zu halten.
 
Zuletzt bearbeitet von einem Moderator:
Jetzt ist Ihre Meinung gefragt zu DLSS: Nur 1,4 Prozent der PCGH-User setzen auf Nvidias aktuelles Lieblings-Preset [Umfrage]
Ja, die Umfrage sagt das aus. Aber was bedeutet es? Wieviele Spiele gibt es denn, die DLSS und Ok einsetzen und wie wird sich das in Zukunft verändern? Mit jedem neuen Spiel werden die Würfel neu gewürfelt und ich behälte Grafikkarten in der Regel lange, Durchnittlich drei Jahre. Natürlich kaufe ich heute eine Karte, die auch modernste Umsetzungen dieser Technik beherrschen, denn sie wird sich durchsetzen. Und was ich heute noch nicht nutze, kann morgen relevant sein.
 
Bei Deiner Software.
Offensichtlich. Aber ich habe auch früher die Regler nicht auf ultra gedreht. Da sehe ich eh keinen Unterschied zu hoch. Außer bei den Texturen regle ich alles niedriger als ultra. Und SinglePlayer Spiele bekommen bei mir auch einen FPS Cap. Es kommt eben auch immer auf die eigenen Anforderungen an. Ich Brauch keine ultra Settings @ 120FPS und bin in der Vergangenheit ganz gut damit gefahren. Der einzige Kompromiss den ich bis letztes Jahr mit der 1080 eingehen musste, war der Verzicht auf RT. Konnte ich mit leben und wenn es die RX6800 zulässt, nutze ich es jetzt.

Aber blurr scheint heute einfach die neue Bildstabilität. Artefakte, Ghosting, dediziert notwendiger Support durch Entwickler, alles nicht mehr so wichtig.
Ich zocke nicht so viel, aber bisher konnte ich deine geschilderten Szenarien nicht sehen. Zumindest ist es mir nicht aufgefallen. Ich suche allerdings auch keine Fehler in Standbildern sondern genieße eher eine schöne Atmosphäre und hübsche Grafik.

Wieder 4K, eine absolut marginale Gruppe.
Neue OLED TVs fungieren wie ein Monitor. VRR, 120Hz, FreeSync und G-Sync. Und endlich kann man bei Filmen diese Zwischenbildberechnung komplett deaktivieren. Da bin ich empfindlich und finde das furchtbar anzusehen. Und die TVs werden immer günstiger. Vor allem die Vorjahresmodelle. So marginal wird die Gruppe also nicht ewig bleiben und umso wichtiger werden FSR und DLSS.
 
Die "meisten" fps sind für nicht-Hardcore-Shooter Spieler komplett nutzlos.
Bei FSR ist schon "Quality" recht verlustbehaftet was die Optik angeht. Maximal als Ausgleich wenn es nicht anders geht für den persönlichen fps counter kann man das als Notlösung nutzen.
Ich Persöhnlich verzichte lieber gänzlich auf Leistungsfresser wie RT um meine FPS auf so ca 60-80fps zu halten. Bevor ich dann Ausweichlösungen nutzen muss. Und das ging auch locker bei aktuellen spielen mit meiner bis vor wenigen Tagen genutzten 1080Ti noch knapp in WQHD!
 
In Multiplayer-Titeln sieht das bei mir genauso aus, aber im Singleplayer möchte ich beim Erkunden auch RT nutzen. DLSS sieht in WQHD selbst mit balanced Qualität noch brauchbar aus.
Brauchbar das ist der Brennpunkt. Da hat halt jeder seinen eigenen Geschmack Maximale Qualität in Optik bei ordentlichen Bildraten so ab 75fps. Das macht doch den PC aus.... leider korreliert RayTracing Nativ nicht mit hohen Bildraten und hohen Auflösungen. Dann lieber rüber ins Wohnzimmer N64 auf Beamer spielen Spaß macht das auch. die Optik ist nur gammelig.

DLSS erzielt wie über mir schon gesagt natürlich bessere Ergebnisse. Aber um meinen Standpunkt festzulegen..
Allein FSR Quality geht in Cyberpunk, Forza5. und Witcher 3, gar nicht ansolut no Go! Ich hab mir nur ne größere Karte gekauft damit ich für moderne Spiele keine Downsampler nutzen muss ansonsten hat die 1080TI Office-GPU bis vor ein paar Tagen locker für alles andere gereicht.
Nicht falsch verstehen FSR/DLSS sind top Software ohne jeglichen Zweifel. Aber für mich.. noch ne BETA Software

Ich Arbeite mit Bildern. Ich habe auch Topaz für harte fälle und unwiederbringliche Fotos. Aber ich laufe lieber los und mache das Foto wenn möglich lieber im Vorfeld besser und schärfer als es in der Software, Zwar gut, aber doch nur digital aufzubereiten. Kauf dafür auch gerne nicht nur Sony G Objektive sondern auch GM wenn ich an eine unüberwindliche Grenze Stoße
 
Zurück