Special DLSS: Nur 1,4 Prozent der PCGH-User setzen auf Nvidias aktuelles Lieblings-Preset [Umfrage]

DLSS Q hat nur Vorteile. Qualität und Stromverbrauch sind besser und so gut wie keine Nachteile...
Wobei ich das mit dem Stromverbrauch nicht pauschal sehe. Solange damit die gpu dennoch bei 100% Auslastung läuft sollte der Stromverbrauch gleich bleiben. Erst wenn durch dlss die fps so hoch sind dass plötzlich z.B. die cpu der Flaschenhals wird und die Auslastung der gpu sinkt, sinkt auch der Stromverbrauch der GPU. Da dann aber die CPU Last gestiegen ist, steigt damit auch der Stromverbrauch der cpu. Bei den aktuellen Intel CPU'S kann das schon ein grosser Unterschied sein. Eine I7 13700k bei 30% Auslastung zieht oft nur 60W. Wenn diese aber ausgelastet wird weil die gpu mit dlss viele fps einfordert kann der Stromverbrauch der cpu schnell auf über 200W steigen.
Daher würde ich so etwas komplexes wie Stromverbrauch eher ausklammern.
Bei den anderen Faktoren stimme ich dir 100% zu. Ich warte auch schon sehnsüchtig darauf das mein Lieblingstitel endlich dlss unterstützt.
 
Wobei ich das mit dem Stromverbrauch nicht pauschal sehe. Solange damit die gpu dennoch bei 100% Auslastung läuft sollte der Stromverbrauch gleich bleiben. Erst wenn durch dlss die fps so hoch sind dass plötzlich z.B. die cpu der Flaschenhals wird und die Auslastung der gpu sinkt, sinkt auch der Stromverbrauch der GPU. Da dann aber die CPU Last gestiegen ist, steigt damit auch der Stromverbrauch der cpu. Bei den aktuellen Intel CPU'S kann das schon ein grosser Unterschied sein. Eine I7 13700k bei 30% Auslastung zieht oft nur 60W. Wenn diese aber ausgelastet wird weil die gpu mit dlss viele fps einfordert kann der Stromverbrauch der cpu schnell auf über 200W steigen.
Daher würde ich so etwas komplexes wie Stromverbrauch eher ausklammern.
Bei den anderen Faktoren stimme ich dir 100% zu. Ich warte auch schon sehnsüchtig darauf das mein Lieblingstitel endlich dlss unterstützt.
Stimmt. Aber wenn der Herr vom Post davor "nur" 60 FPS will. Dann wäre es der CPU ja egal, ob die GPU das Bild nativ oder DLSS berechnet. Bei DLSS wäre dennoch eine Einsparung vorhanden. (+ Evtl weniger VRAM Verbrauch je nach Game)...

Oder die Luft an Grafik-Leistung mit RTX Dingen rum zu spielen bei CP2077 und co...

Ich merke das schon, bei über 90 FPS hat die CPU schon ordentlich zu tun. Daher spare ich mit 120 FPS lock zwar etwas auf der GPU, die CPU hat dennoch gut zu tun...

Mein Beispiel bezog sich vor allem auf diese "Zock eh nur auf 60 Hz / FPS"- Szenarien.
DLSS bringt mehr FPS und weniger Last. Dieses kann ich nutzen zum Wärme/Strom-sparen oder eben in optische Spielereien investieren.

Und wenn ich die Temperaturen zur Zeit so sehe, finde ichs gar nicht soooo schlimm weniger Watt zu brauchen, geschmeidige FPS zu haben und weniger Wärme zu haben die aus dem Case kommt. Daher ist für mich DLSS Q - Win Win.
 
Zuletzt bearbeitet:
Wobei ich das mit dem Stromverbrauch nicht pauschal sehe. Solange damit die gpu dennoch bei 100% Auslastung läuft sollte der Stromverbrauch gleich bleiben. Erst wenn durch dlss die fps so hoch sind dass plötzlich z.B. die cpu der Flaschenhals wird und die Auslastung der gpu sinkt, sinkt auch der Stromverbrauch der GPU. Da dann aber die CPU Last gestiegen ist, steigt damit auch der Stromverbrauch der cpu. Bei den aktuellen Intel CPU'S kann das schon ein grosser Unterschied sein. Eine I7 13700k bei 30% Auslastung zieht oft nur 60W. Wenn diese aber ausgelastet wird weil die gpu mit dlss viele fps einfordert kann der Stromverbrauch der cpu schnell auf über 200W steigen.
Daher würde ich so etwas komplexes wie Stromverbrauch eher ausklammern.
Bei den anderen Faktoren stimme ich dir 100% zu. Ich warte auch schon sehnsüchtig darauf das mein Lieblingstitel endlich dlss unterstützt.
Zum Glück sind Intels, teils verzweifelte in meinen Augen, Stromverbrauchswerte aber ja nicht die Norm.
Natürlich hast du Recht was die Auslastung und den Stromverbrauch angeht, aber ich denke bei den meisten bleibt die GPU der bösere Stromschlucker.

Generell sind FSR und DLSS/XESS aber ein guter Weg diese Zahlen zu bändigen, ob man sie mag oder nicht.
 
Das hängt natürlich von der Hardware ab. Mit einer RTX 4090 gibt es wenig Grund (wenn man nicht gerade Cyberpunk 2077 nimmt), überhaupt Upscaling zu nutzen, wenn man nicht im hohen FPS Bereich unterwegs ist.

Ich habe den FSR1 Performance und den FSR 2 Ultra Performancemodus genutzt und so, mit meiner GTX 1060, z.B. Diablo 4@Ultra von 720p auf 4K hochskaliert.

Es kommt halt eben immer darauf an, womit man es vergleicht und hier neigen viele zu Vergleichen, die nicht zur Debatte stehen. Natürlich ist natives 4K deutlich besser, als FSR Ultra Performance, ruckelt dafür mit 6-8FPs ein klein wenig, da sind die 45+ FPS deutlich besser. Die andere Alternative wären 720p, flimmert nicht, dafür kann ich jedem Pixel einzeln einen Namen geben (besonders Horst stört mich).
 
Zuletzt bearbeitet:
Ich nutze gerne DLSS, dann hab ich mir grundlos teure Hardware geholt und spare dabei noch paar Prozente an Strom.

Ich mag es besonders gerne, Spiele auf einer niedrigen Auflösung hoch zu skalieren, denn so hat sich der Kauf von teurere Hardware sehr gelohnt. Auch hat das genug Vorteile für Entwickler, denn der Optimierungsprozess fällt so flach und man hat mehr Zeit die DLCs voraus zu planen.

Den Spieler/innen gefällt das sogar so gut, dass man schlechte Performance des Spiels als gut bezeichnet während man DLSS auf Performance hat.

Man kannst du glauben, dass mein Spiel so gut läuft? :banane:


Aber mal Butter bei de Fische, ich kann niemals verstehen, warum DLSS so gelobt wird, warum man es mit moderner Hardware in spielen nutzen muss, damit man genug FPS hat. Weshalb wird so ein Verhalten der Entwickler belohnt?
War der Sinn von Upscalern nicht, älteren System zu helfen und nicht dem 0815 Gamer etwas vorzugaukeln?
 
Denke der "Sinn" kann unterschiedlich sein... ?

-schwachen Systemen mehr FPS generieren
-RTX Effekte mit ordentlichen FPS generieren
-High-FPS Gaming ermöglichen
-Mit FPS-Lock + DLSS Energie sparen...

ist doch alles möglich mit dieser Technik.

Als "ohne DLSS läuft das Game nicht sauber"-Technik sehe ich es eigentlich eher nicht.
Wenn ein Game schlecht optimiert ist, dann laufen die FPS nicht sauber. (Ruckeln und co.)
Sowas kannst ja mit DLSS nicht mal eben so wegrechnen... da muss die Grundperformance schon stimmen .... meinst nicht auch ?
 
Nein tut sie nicht. Du definierst im Treiber nur welche Auflösungen dir das Spiel in den Grafikeinstellungen zur Auswahl anbieten kann/darf
Du musst immer noch aktiv im Spiel die entsprechende Auflösung auswählen.. genau wie bei AMD auch.
Leider nicht! Im NVidia Treiber-Tool gibst Du nicht die Auflösung an, sondern den DSR-Faktor der Desktop-Auflösung. Ich bin gerade im NVidia Treiber-Tool und:
a) Ich kann den DSR Faktor für alle Spiele festlegen, aber nur laut Desktop-Auflösung.
Damit wird der Treiber alle Auflösungen einfach um den Faktor vergrößern, was ich doch gar nicht möchte, weil es Hirnverbrannt ist. Ich muss doch die genaue Auflösung, nativ oder Downsampling steuern können.
b) Ich kann den DSR Faktor für ein einzelnes Spiel festlegen.
Was total kompliziert ist, weil ich das im Spiel dann nicht erkennen kann. Ich muss also immer genau wissen, was im Treiber-Tool eingestellt ist.
Der Unterschied ist AMD berechnet die virtuelle Auflösung als wäre es eine echte.. und Nvidia nutzt dafür den DLSS Algorithmus ausgehend von der original Auflösung
Ja genau, das ist seitens NVidia leider bescheuert umständlich und unübersichtlich. ;)

Aus diesem Grund nutze ich bei NVidia Karten eigene definierte Monitorauflösungen, weil das mit DSR komplizierter Unsinn ist und überhaupt keinen Performancevorteil bringt. Das ist quasie ein unnützes Feature. :huh:

Bei AMD aktiviere ich das Häkchen mit VSR und Tadaa: Ich kann im Spiel mit der Auflösung direkt hochgehen, als hätte ich ein Display, das mehr als nativ darstellt. Wie geil ist das denn? :love:

Zur Erinnerung: Bei NVidia erreiche ich diesen Zustand erst mit der Bildschirm-Option: Benutzerspezifische Auflösung erstellen. Erst dann darf ich auch im Spiel bequem die Auflösung einstellen, mit der ich das Spiel spielen möchte. Diese Auflösung muss man händisch erstellen und man darf keine falschen Werte eingeben. Ansonsten müsste ich jedes mal das Spiel verlassen und dann im NVidia Treiber-Tool den DSR-Faktor ändern. Total umständlich und seitens NVidia ein beschissenes Feature. ;)

p.s. Ok, Thema geklärt. Mit dem NVidia Tool läuft das mittlerweile so wie bei AMD.
@Blackfirehawk: Vielen Dank für Deine ausführliche Info.
Das wurde mit der Zeit wohl bei NVidia angepasst.
 
Zuletzt bearbeitet:
Stimmt. Aber wenn der Herr vom Post davor "nur" 60 FPS will. Dann wäre es der CPU ja egal, ob die GPU das Bild nativ oder DLSS berechnet. Bei DLSS wäre dennoch eine Einsparung vorhanden. (+ Evtl weniger VRAM Verbrauch je nach Game)...

Oder die Luft an Grafik-Leistung mit RTX Dingen rum zu spielen bei CP2077 und co...

Ich merke das schon, bei über 90 FPS hat die CPU schon ordentlich zu tun. Daher spare ich mit 120 FPS lock zwar etwas auf der GPU, die CPU hat dennoch gut zu tun...

Mein Beispiel bezog sich vor allem auf diese "Zock eh nur auf 60 Hz / FPS"- Szenarien.
DLSS bringt mehr FPS und weniger Last. Dieses kann ich nutzen zum Wärme/Strom-sparen oder eben in optische Spielereien investieren.

Und wenn ich die Temperaturen zur Zeit so sehe, finde ichs gar nicht soooo schlimm weniger Watt zu brauchen, geschmeidige FPS zu haben und weniger Wärme zu haben die aus dem Case kommt. Daher ist für mich DLSS Q - Win Win.
Stimmt, in diesem speziellen Fall, Highend gaming Technik für 60fps/hz läuft die cpu+gpu wahrscheinlich auf sehr geringer Auslastung mit dlss noch geringerer Auslastung. Wahrscheinlich in einigen titeln je nach Auflösung im idle Mode bei der rtx4090 mit dlss... ?
 
@Gemar
Samma wo guckst du? Im Control Panel oder GeForce experience?

Im Control Panel kann ich die angezeigten ingeme DSR Auflösungen auswählen..
Da verändert sich erstmal gar nix .. weder in Windows noch ingame..und da wird auch erstmal nix geuspcalet

Danach kann ich das in jeden Spiel in den entsprechenden Optionen einstellen in welcher Auflösung ich das haben möchte


Screenshot 2023-08-20 175216.png


da ist alles noch in 3440x1440.. sowohl ingame wie auch auf dem desktop und es wird noch gar nix hoch oder runter Skaliert


ingame sieht das dann so aus

Screenshot 2023-08-20 175752.png

Standart ist immer noch 3440x1440 .. ich kann aber die beiden ausgewählten.. per Treiber freigeschalteten DLDSR auflösungen auch auswählen.. ich kanns aber auch einfach lassen
 
Zuletzt bearbeitet:
Ich nutze meistes DLSS Ausbalanciert und das gleicht die Performance gut aus.
DLSS Performace bzw. sogar Ultra-Performance, nutze ich eher in einer Notsituation, wie in Ghostwire:Tokyo, in der Stadt, wo viel gekämpft wird und bei Regen.
 
@Blackfirehawk

Ich glaube, er meint, dass sich die zwei Auflösungen, die Dir via DL-DSR x1,78 und x2,25 zur Verfügung stehen, aus der nativen Auflösung Deines Monitors ergeben und damit nicht beeinflussbar sind.

Je nachdem, ob ich einen FHD-Monitor, einen WQHD-Monitor, einen der diversen Ultrawide-Monitore (21:9, 24:10, 32:9, etc.) oder einen UHD-Monitor nutze, sind die zwei zur Verfügung stehenden Auflösungen, die per DL-DSR angewendet werden können, immer vordefiniert, da immer die gleichen Downsampling-Faktoren (x1,78 und x2,25 - und nur diese beiden!) greifen und nicht veränderbar sind.

Wenn man mehr Downsampling-Auflösungen nutzen möchte, benötigt man am besten mehrere Monitore mit unterschiedlichen nativen Auflösungen.

Ich habe derzeit nur einen 24:10-Monitor (3840x1600) und einen UHD-Monitor und überlege aber derzeit mir noch einen WQHD-Monitor zu kaufen, damit ich in Spielen, die kein DLSS und kein DLAA anbieten (hallo Starfield), trotzdem wenigstens noch DL-DSR via Treiber nutzen kann (wäre dann von WQHD ausgehend ja UHD), um noch adäquate Frameraten zu erreichen und nicht "unnötig" in 6K rendern zu müssen. So vermeide ich auch auf jeden Fall so einen Schund wie FSR nutzen zu müssen.
 
Mein PC steht rechts unterm Tisch und es ist echt angenehm wie leise meine Strix bei 120 FPS Warzone macht und kaum noch spürbare Wärme nach oben steigt. Plus eben die Energie, die weniger benötigt wird...

Ich habe Metro Exodus Enhanced Edition auf meiner 4090 mit einem 120 fps lock auf 5120x1440 getestet, die Unterschiede hinsichtlich Verbrauch und Auslastung sind schon erheblich, ausgehend von 438 Watt (nativ) bis runter auf 224 Watt (DLSS UP):

4090_Metro_Vergleich.png
 
Ich glaube, er meint, dass sich die zwei Auflösungen, die Dir via DL-DSR x1,78 und x2,25 zur Verfügung stehen, aus der nativen Auflösung Deines Monitors ergeben und damit nicht beeinflussbar sind.
Das ist doch beim AMD Adrenalin auch nicht anders da gibt es ausgehend von nem 1440p Display auch nur 3840x2160 und 5120x2880 ohne zwischenschritte

basteln muss man erst wenn man anfängt zwischendinger haben zu wollen...

und auch ein 3440x1440 display wird da maximal auf 6880x2880 ausgegeben

Das ist dort genauso abhängig von der Original auflösung


mit meiner vorherigen 6800xt war zwar einiges Massiv im Adrenalin Treiber Kernschrott und Buggy... aber das hat tatsache mal funktioniert, daran erinnere ich mich noch
 
Zuletzt bearbeitet:
Ich habe noch nie DLSS oder FSR genutzt. Was daran liegt das ich noch in FHD spiele.
Aber wenn ich mal eine höhere Auflösung nutze wäre ich dem nicht abgeneigt.
Weil ich nicht jemand bin der 1000 Euro für eine Grafikkarte ausgibt.
 
Ich habe Metro Exodus Enhanced Edition auf meiner 4090 mit einem 120 fps lock auf 5120x1440 getestet, die Unterschiede hinsichtlich Verbrauch und Auslastung sind schon erheblich, ausgehend von 438 Watt (nativ) bis runter auf 224 Watt (DLSS UP):

Anhang anzeigen 1434720

Danke für die Daten - da sieht man es....

Klar wenn ne 4090 die FPS auch so bringt, klar warum sollte man auch ? Kann die Überlegung schon verstehen...

Man könnte eben vernünftig strom sparen für 0 optischen Unterschied... und wie gesagt weniger Wärme, Lüfter etc....
Das kann natürlich jeder selber entscheiden wie er das mag. Aber gerade in Zeiten wo Stromkosten in den Fokus rücken denke ich mir "jetzt macht es erst recht Sinn".

Ich könnte das Ganze mal mit Warzone 2.0 machen...das Ergebnis wäre eben fast Identisch was die Einsparung angeht...
 
Das ist doch beim AMD Adrenalin auch nicht anders da gibt es ausgehend von nem 1440p Display auch nur 3840x2160 und 5120x2880 ohne zwischenschritte

basteln muss man erst wenn man anfängt zwischendinger haben zu wollen...

und auch ein 3440x1440 display wird da maximal auf 6880x2880 ausgegeben

Das ist dort genauso abhängig von der Original auflösung
Das stimmt schon, aber bei AMD gibt es halt nur DSR und kein DL-DSR (oder ein "FSR(2)-DSR"-Pendant). Bei Nvidia gibt es ja zumindest noch mehr "normale" DSR-Faktoren. DL-DSR-Faktoren gibt es aber nun mal eben nur zwei (x1,78 und x2,25).

Wenn ich nun in einem bestimmten Spiel, egal ob alt oder aktuell, die Deep-Learning-Technologie mit reinbekommen möchte, geht das eben nur über den Treiber erzwungenes DL-DSR, wenn kein DLSS oder DLAA angeboten wird.

Wenn mir dann die Frames bei einem Spiel beispielsweise in "5K" (5120x2160 = DL-DSR x1,78; ausgehend von 3840x2160) oder in "6K" (5760x3240 = DL-DSR x2,25; ausgehend von 3840x2160) selbst mit einer RTX 4090 eben nicht ausreichen, weil ich vielleicht mit 120 FPS+ spielen will und aber Deep Learning mit drin haben möchte, dann gehe ich eben von einem nativen UHD- auf einen nativen WQHD-Monitor runter, um dann nur in 3413x1920 (DL-DSR x1,78; ausgehend von 2540x1440) oder in 3840x2160 (DL-DSR x2,25; ausgehend von 2540x1440) rendern zu müssen.

Es wäre halt irgendwie cool, wenn demnächst mal ein Treiber-Update von Nvidia käme, mit dem man mehr DL-DSR-Faktoren zur Auswahl hat, am besten inklusive DLAA oder gar manuelle DL-DSR-Faktoren, wie DL-DSR x1,337 :D. Dann wäre man auch, was DLAA betrifft, nie mehr an Implementierungen in Spielen seitens Entwickler gebunden, sondern könnte es immer selbst erzwingen, quasi via DL-DSR x1,00.
 
Zuletzt bearbeitet:
Viele hier nutzen dlls q. Spielt ihr alle auf 4k? Ich spiele auf 1440p. Kann da jemand was dazu sagen? Wie sieht es mit Schlieren und schwarzen outlines bzw verwaschungen aus?

Bei Battlefield 2042 wird ja irgendeine alte Version genutzt, render distance wird kacke und fast schon cell shading art. Bei Baldurs gate 3 hab ich's kurz Mal getestet aber das war Anfang Akt 1 und sah Teilweise auch merkwürdig aus. Muss ich vlt mit dlss swapper nachhelfen und wenn ja welche Version ist denn am besten? Bei rdr2 sah foliage leider nicht so super aus, und die permanente Vignette hat es auch irgendwie negativ beeinflusst

Lediglich Control habe ich mit max settings und dann dlss quality gespielt, weil sonst wäre das mit der 2080 super nicht spielbar gewesen, aber das hatte auch einen merkwürdigen Look dadurch.

Lediglich wenn ich gameplay von 4k Mal anschaue und nativ (mit taa) und 4k dlss q sehe sieht es meistens wirklich fast identisch aus.
 
Zurück