DSR auf einem 1440p Monitor in 4K IMMER mit Nebenwirkungen?

Lupoc

PCGH-Community-Veteran(in)
Guten Abend,

da meine 1080 Ti noch einige Reserven hat, spiele ich des öfteren mit Nvidias DSR rum und wähle eine höhere Auflösung als 1440p.

Hat dies eigentlich IMMER zur Folge dass das Bild unscharf wird (nicht meine Erfahrung. Aber einige male gelesen) Mir ist das nämlich nie aufgefallen. Oder ist das wirklich ein Nebeneffekt der definitiv immer auftritt?
 
Eigentlich sollte es nur unscharf werden, wenn man mit der Auflösung runtergeht. Mit der Auflösung hoch zu gehen hat sowieso keinen großen Effekt, da der Monitor es sowieso nicht darstellen kann.
 
Guten Abend,

da meine 1080 Ti noch einige Reserven hat, spiele ich des öfteren mit Nvidias DSR rum und wähle eine höhere Auflösung als 1440p.

Hat dies eigentlich IMMER zur Folge dass das Bild unscharf wird (nicht meine Erfahrung. Aber einige male gelesen) Mir ist das nämlich nie aufgefallen. Oder ist das wirklich ein Nebeneffekt der definitiv immer auftritt?

Wenn du DSR benutzt musst du darauf achten dass die eingestellte Auflösung in einem gleichmäßigen Verhältnis zu deiner nativen steht.Also keine krummen Werte verwenden.
 
Krumme Werte sind hier eigentlich egal, da die Skalierung immer im Verhältnis zur Nativen Auflösung steht. Also aus einer 16:9 Auflösung wird nicht plötzlich eine 16:10 durch irgend ein Skalierungsfaktor. Jedoch kommst du nie auf UHD sondern leicht drüber oder drunter, da sich WQHD aus 720P zusammen setzt und zB. 4K aus 1080P. Ab einem bestimmten Wert lohnt es sich aber eh nicht mehr, da dein Monitor einfach nicht feiner Darstellen kann.
 
Wenn du bei nem LCD eine nicht native Auflösung einstellst, wirst du immer ein leichte bis starke Unschärfe haben.
Selbst bei ganzen Teilern muss skaliert werden und dass ist leider nie zu 100% wie die native Auflösung.
Dabei ist es auch egal, ob die Auflösung kleiner oder grösser ist.
 
Eigentlich sollte es nur unscharf werden, wenn man mit der Auflösung runtergeht. Mit der Auflösung hoch zu gehen hat sowieso keinen großen Effekt, da der Monitor es sowieso nicht darstellen kann.
Quatsch, bitte mal die Basics zum Thema Oversampling aneignen! Das ist bei Videospielen genauso sinnvoll wie in der Fotografie (ich rechne alle meine 24MPx Bilder auf 6MPx runter, für die ultimative Rauschreduzierung) und auch in der CGI Industrie. Jeder einzelne Animationsfilm setzt massiv auf Over-/Supersampling.

Drei Faktoren sind entscheidend:

1) Downsampling verrechnet benachbarte Pixel miteinander um ein eigentlich zu großes Bild in ein kleineres Bild (die native Monitorauflösung) herunterzurechnen. Dies hat unweigerlich einen gewissen Kontrastverlust zufolge (nämlich wenn z.B. ein schwarzer mit einem grauen Pixel verrechnet wird, dann entsteht ein dunkelgrauer). Diesen Kontrastverlust nehmen wir als Unschärfe wahr. Je nach Bildinhalt kann dieser Effekt unterschiedlich stark ausgeprägt sein.

2) Es kommt auf den Downsampling Filter an, wie scharf das Bild am Ende wird. Nvidia nutzt einen Gauss Filter und dessen Präzision kann im Treiber konfiguriert werden. Je mehr benachbarte Pixel er erfasst, desto unschärfer (kontrastärmer) wird das Bild, aber desto besser ist die Flimmerunterdrückung. Hier muss jeder selbst entscheiden, was ihm besser gefällt.

3) Die Auflösung von der heruntergesampelt wird, sollte möglichst gerade Achsenfaktoren haben. 2160p @ 1080p (Faktor 2,0) ist von Natur aus schärfer als 1620p @ 1080p (Faktor 1,5) und dieses wiederum ist schärfer als 1800p @ 1080p (Faktor 1,66). Die Faktoren kann man auch im Nvidia Treiber einstellen. Nvidia nennt sie nur anders, es werden die beiden Achsen-Faktoren (horizontal und vertikal) einfach multipliziert. Faktor 1,5 ist bei Nvidia: 1,5 x 1,5 = 2,25. Faktor 2 ist 2,0 x 2,0 = 4,00 usw.

Grundsätzlich kann es hilfreich sein ein fertiges DSR Bild noch mit Reshade nachzuschärfen. Aber auch hier sollte man es nicht übertreiben, da man dann wieder Flimmern hat.
 
Zuletzt bearbeitet:
Danke für die sinnfreie Theoriestunde, ändert nur rein gar nichts daran, wie es in Games am Monitor selbst aussieht, ich habe das alles schon ausprobiert und das Ergebnis war ziemlich klar, gerade eben auch in Black Ops 4 Auflösungsskalierung 0,5 extrem verwaschenes unscharfes Bild, 1,0 sauberes Bild, 2.0 kein Unterschied erkennbar.
 
Dann stell dir mal nen Monitor daneben, der die Auflösung der Skalierung nativ hat.
Dann siehst du vielleicht einen Unterschied.
 
Dann stell dir mal nen Monitor daneben, der die Auflösung der Skalierung nativ hat.
Dann siehst du vielleicht einen Unterschied.

Bezahlst du mir den 8k Monitor? ;).
Mir ist klar, dass man den Unterschied zwischen einem 4k und einem 8k Monitor locker sieht, doch eben nicht auf einem 4k Monitor den Unterschied zwischen 4k und 8k.
 
Nur weil DU den Unterschied nicht siehst, bedeutet nicht, dass es ihn nicht gibt.

Und ja, bei DSR halte ich nur Faktor 4 mit 0% Smoothness (oder notfalls Faktor 2,25 mit 20% Smoothness) für brauchbar.
 
Nicht dass da jemand nur vergessen hat, dass es einen "weichmatschfilter" im Treiber gibt, der das DSR-Bild glättet.
Wenn man den immer auf 33% lässt, dann kann es gut sein dass das DSR unscharf aussieht.
 
Nur weil DU den Unterschied nicht siehst, bedeutet nicht, dass es ihn nicht gibt.

Und ja, bei DSR halte ich nur Faktor 4 mit 0% Smoothness (oder notfalls Faktor 2,25 mit 20% Smoothness) für brauchbar.

Der Monitor kann 4k ( bei mir oder WQHD bei ihm) darstellen und nicht mehr.
So leid es mir tut, aber willst du 8k sehen musst du eben zu einem 8k Monitor greifen.
Die native Auflösung wird nicht zum Spaß angegeben.
 
Ich benutze seit Jahren verschiedene Formen von Downsampling (Gedosato, VSR, DSR) und kann dabei sehr wohl Unterscheide bei verschiedenen Renderauflösungen erkennen.
Ebenso wie spielinternes Supersampling.

Und ja, das läuft unabhängig von der nativen Bildschirmauflösung. Das ist ja der Witz an der Sache und rettet mich seit längerem über den schlechten Monitormarkt und nicht attraktive Upgradeoptionen.
 
Ich benutze seit Jahren verschiedene Formen von Downsampling (Gedosato, VSR, DSR) und kann dabei sehr wohl Unterscheide bei verschiedenen Renderauflösungen erkennen.
Ebenso wie spielinternes Supersampling.

Und ja, das läuft unabhängig von der nativen Bildschirmauflösung. Das ist ja der Witz an der Sache.

Ja, die Grafikkarte berechnet die höhere Auflösung, was aber nichts damit zu tun hat, das es schlicht unmöglich ist eine höhere Auflösung als die Native am Monitor darzustellen.
 
Und trotzdem ist das Bild, was dir von der Flimmerkiste entgegenprangt, mit DSR ein anderes als ohne. Natürlich wird es nur in der vom Bildschirm vorgegebenen Auflösung wiedergegeben. Aber genau das ist ja der Trick daran: die Graka "überlegt" sich im Rahmen der im Treiber vorgenommenen Einstellungen, wie sie ein in höherer Auflösung gerendertes Bild so komprimieren kann, dass es auf niedrigerer Auflösung darstellbar ist. Da es aber von der Grafikkarte mit deutlich mehr Details/Informationen gerendert wurde, als es bei einem Bild in der Monitor-Auflösung der Fall wäre, sieht es dann auch nach dem namensgebenden Downsampling anders aus, als eben ein in nativer Monitor-Auflösung gerendertes.

Der Unterschied mag nicht immer groß sein und der subjektive Faktor spielt sicher auch eine Rolle. Aber ich merke definitiv Unterschiede zwischen nativem FHD und WQHD per DSR, das ich recht häufig verwende.

Aber um nochmal auf die Ausgangsfrage des Threadstarters zurück zu kommen:

Eine gewisse "Vermatschung" lässt sich aufgrund der Funktionsweise von DSR nicht vermeiden. Aber mittels der im Treiber möglichen Einstellungen, insbesondere der DSR-Glättung (ich persönlich bevorzuge 20%), kann man etwas gegensteuern.
 
Zurück