Special DLSS: Nur 1,4 Prozent der PCGH-User setzen auf Nvidias aktuelles Lieblings-Preset [Umfrage]

DLSS Performance in 4K (auf einem 4K Display) sieht besser aus, als DLAA in 1440p auf einem 1440p Display.
Deshalb finde ich das ehrlich gesagt gar nicht so daneben, dass man im Performancemodus testet.

Aber grundsätzlich ja. Ich nutze auch nur den Quality Modus oder DLAA, solange die Leistung ausreicht. Ist ja selbstverständlich.

Bei zu knapper Leistung hätte ich mit DLSS Performance in 4K aber echt keine Probleme. Läuft idr etwas schneller als 1440p nativ und sieht wie gesagt besser aus. Von daher Meckern auf sehr hohem Niveau.
 
"Preset" als Bezeichnung für Quality/Balanced/Performance (und Ultra Performance) hat mich erst komplett verwirrt, ich dachte hier zuerst an die Presets A-D+F, die als Grundlagen dienen. :D Nur die werden von Nvidia offiziell auch als "Presets" bezeichnet, wohingegen die Qualitätsabstufungen selbst "Modes" sind.

Bei mir wird alles händisch via DLSSTweaks angepasst, da die Defaultconfigs oftmals murks sind. Sei es, weil die im Spiel mitgelieferte .dll veraltet ist, oder weil das Standardpreset mal wieder nicht C ist... Wenn man irgendwo Tests zu spielen mit DLSS sieht und von sichtbaren Ghosting die Rede ist, weiß man schon, wo das herkommt. Und das ist auch wieder kein "DLSS-Problem", sondern schlicht die Unfähigkeit eines Entwicklers (und Nvidia aufgrund des genutzten Presets...).

Deswegen ist die 2.5.1 .dll auch immer noch so beliebt für Quick&Dirty .dll austauschen ohne weiteren Aufwand, die nutzt nämlich Preset C und hat deswegen massivst weniger auffälliges Ghosting im Vergleich zu den meisten anderen.

DLSS P ergibt zumindest in UHD aufwärts Sinn, das sieht dann immer noch besser aus als 1440p + DLSS Q. Für mangelnde "Schärfe" gibt's grundsätzlich Möglichkeiten, das ist nun wahrlich kein Ausschlusskriterium.
 
Ich denke mal die Qualitätsstufe ist abhängig von der verbauten Grafikkarte.
Wer eine 4090 bei WQHD hat der wird wohl kaum Performance nutzen.
Ich mit meiner 4070 Ti @UHD nutze gerne balanced um dreistellige fps bei ansonsten höchsten Einstellungen zu erhalten, in manchen Spielen wie TLOU oder Diablo 4 sehe ich keinen Unterschied in der Bildschärfe zu Quality wenn ich mit der Nase am Monitor bin und ganz genau hinschaue.
Im Vergleich zu FSR 2 braucht FSR mindestens eine Qualitätsstufe mehr um eine vergleichbare Optik zu bieten, hat dann aber auch weniger Performance. Also z.B. FSR 2 (Ultra)Quality = DLSS 2 Balanced. Mit einer der Gründe warum so viele DLSS in Starfield haben wollen.
Und zum Thema native Renderauflösung sei am besten, so gut wie immer empfinde ich DLSS als optisch schöner als nativ. Unabhängig davon möchten manche aber nicht eine 4090 kaufen um gelegentlich bei Schlechtwetter ein bisschen in hoher Auflösung/Qualität zocken zu können. Upscaling ist schon eine sehr feine Sache:)
 
Ich nutze es überhaupt nicht. Weil es die Grafik für meine Augen Hässlich macht. Da ich jedes Spiel mit Reshade selber anpasse ist das nix für mich. Shooter Zocke ich eh nur auf Low Settings und Max FPS für Low Latency das ganze Gepaart mit einen 500hz Monitor(Alienware AW2524H) und mehr Juckt mich nett.
 
DLSS Performance in 4K (auf einem 4K Display) sieht besser aus, als DLAA in 1440p auf einem 1440p Display. Deshalb finde ich das ehrlich gesagt gar nicht so daneben, dass man im Performancemodus testet.
DLSS P ergibt zumindest in UHD aufwärts Sinn, das sieht dann immer noch besser aus als 1440p + DLSS Q.

Guter Punkt. Darüber habe ich noch gar nicht nachgedacht. Ich spiele in WQHD und mit DLSS-Q wird intern nur mit 1.706 × 960 gerendert. In UHD allerdings schon mit 1.920 × 1.080 und das im Performance Modus. Stimmt also wohl nicht das Performance "immer" schlechter aussieht.
 
Ich nutze DLSS fast nie. Ausnahme ist bisher nur Witcher 3 und Cyberpunk mit Pathtracing. Dort jeweils aber auch nur Quality. Mir genügt die native Leistung, zumal mir die Bildqualität auch wichtig ist.
 
Ich nutze es überhaupt nicht. Weil es die Grafik für meine Augen Hässlich macht. Da ich jedes Spiel mit Reshade selber anpasse ist das nix für mich. Shooter Zocke ich eh nur auf Low Settings und Max FPS für Low Latency das ganze Gepaart mit einen 500hz Monitor(Alienware AW2524H) und mehr Juckt mich nett.
Ein 500hz Monitor ist aber auch ein spezielles Setup.

DLSS ist ein super Feature. Es spart Energie, erlaubt leistungsschwachen Grafikkarten in hohen Frames zu spielen und das Bild bleibt fast unverändert. Das gilt natürlich auch für FSR.

Wer jetzt sagt, diese Features seien nichtig, der verkennt die Vorteile. Kann ich nicht nachvollziehen...
 
Guter Punkt. Darüber habe ich noch gar nicht nachgedacht. Ich spiele in WQHD und mit DLSS-Q wird intern nur mit 1.706 × 960 gerendert. In UHD allerdings schon mit 1.920 × 1.080 und das im Performance Modus. Stimmt also wohl nicht das Performance "immer" schlechter aussieht.

Wenn Samsung nächste Woche den G95NC Dual UHD mit 7680x2160 offiziell vorstellt, wird man sich mit DLSS des Öfteren beschäftigen (müssen), auch mit einer 4090. Da kommt DLSS-Q oder DLSS-B genau richtig und wird hinsichtlich der zunehmenden DLSS-Auflösungsskalierung immer noch top aussehen.
 
Guter Punkt. Darüber habe ich noch gar nicht nachgedacht. Ich spiele in WQHD und mit DLSS-Q wird intern nur mit 1.706 × 960 gerendert. In UHD allerdings schon mit 1.920 × 1.080 und das im Performance Modus. Stimmt also wohl nicht das Performance "immer" schlechter aussieht.

Jap, DLSS vor allem im Performancemodus ist quasi der "4K enabler" für schwächere Karten.
Als ich noch meine 3060ti hatte, hab ich das ziemlich häufig genutzt. Da waren im DLSS Performancemodus in 4K auch häufig dreistellige FPS möglich und es sah auf meinem 4K TV einfach so viel besser aus im Vergleich zu meinem 1440p Monitor.
Absoluter Gamechanger in dem Bereich.

Allerdings muss man dazu sagen, dass DLSS den VRAM Bedarf nur moderat senken kann.
Wer in 4K Zielauflösung spielt, der muss sich auch auf entsprechend höhere VRAM Anforderungen einstellen, die mindestens zwischen 1440p und 4K liegen. Selbst im Performancemodus.
 
Ein 500hz Monitor ist aber auch ein spezielles Setup.

DLSS ist ein super Feature. Es spart Energie, erlaubt leistungsschwachen Grafikkarten in hohen Frames zu spielen und das Bild bleibt fast unverändert. Das gilt natürlich auch für FSR.

Wer jetzt sagt, diese Features seien nichtig, der verkennt die Vorteile. Kann ich nicht nachvollziehen...

Ich verstehe halt das Argument nicht, das DLSS/FSR nicht genutzt wird um Nativ eine bessere Bildqualität zu haben. Nur ist das eben der Punkt, oft ist die Bildquali mit DLSS/FSR besser. Ja es ist wahrscheinlich etwas unschärfer (dafür gibts ja Schärfefilter oder bei AMD RIS), aber dafür ist die Bildruhe viel besser.
Was bringt mir Knackscharf wenn es selbst in 4k teils noch flimmert wie Hölle?
Und keine AA Methode kommt zur Zeit an DLSS/FSR ran...
 
Ich nutze DLSS nur wen notwendig. Dank meiner 4090 ist das meist auch nicht nötig. Zum Beispiel bei Cyberpunk 2077 in UHD, alle Regler auf Anschlag + RT nutze ich DLSS 3 (Quality) mit Framegeneration um die Frames im spielbaren Bereich zu halten.
 
Seit 20 Jahren wird Anti-Aliasing hier im Forum gepredigt, also die Empfehlung das Bild in einer HÖHEREN Auflösung zu rendern als der Monitor darstellt. DLSS ist das EXAKTE Gegenteil davon, das Bild wird in einer NIEDRIGEREN Auflösung gerendert und der Rest dazuerfunden.

Es wundert mich nicht, dass so ein System also nur soweit geduldet wird, soweit es nicht sichtbar den Bildeindruck kompromittiert und das ist halt nur bei Quality der Fall.
 
Zurück