Special DLSS: Nur 1,4 Prozent der PCGH-User setzen auf Nvidias aktuelles Lieblings-Preset [Umfrage]

Also ich bin da sehr bequem mittlerweile und nutze in der Regel das Preset, welches mir GeForce Experience vorschlägt. Wenn noch Leistung übrig ist, drehe ich die Regler manchmal manuell noch etwas hoch doch mittlerweile muss ich sagen, ich bin begeistert von dieser Art, automatisch die optionalen Einstellungen zu finden. Das Einzige was ich wirklich noch manuell verändere ist der Schieberegler von Qualität zu Leistung, damit das Tool entsprechend die Einstellungen vornehmen kann. :D
 
Seit 20 Jahren wird Anti-Aliasing hier im Forum gepredigt, also die Empfehlung das Bild in einer HÖHEREN Auflösung zu rendern als der Monitor darstellt.
Ist Anti-Aliasing nicht einfach Kantenglättung? Mir ist bekannt, dass man in höheren Auflösungen weniger Anti-Aliasing benötigt, weil sich das durch die höhere Anzahl der Pixel ergibt. Oder liege ich da falsch?
 
Seit 20 Jahren wird Anti-Aliasing hier im Forum gepredigt, also die Empfehlung das Bild in einer HÖHEREN Auflösung zu rendern als der Monitor darstellt. DLSS ist das EXAKTE Gegenteil davon, das Bild wird in einer NIEDRIGEREN Auflösung gerendert und der Rest dazuerfunden.

Es wundert mich nicht, dass so ein System also nur soweit geduldet wird, soweit es nicht sichtbar den Bildeindruck kompromittiert und das ist halt nur bei Quality der Fall.

Das ist genau genommen falsch. Um überhaupt AntiAliasing machen zu können, brauchst du mehr samples, als im aktuellen Bild nativ gerendert wurden. Ohne zusätzliche Bildinformationen ist einfach kein AntiAliasing möglich. Früher hat man die notwendigen Samples einfach per brute force berechnen lassen. z.B. 4x SSAA in FHD entspricht der Pixelllast von 4K. Hat funktioniert, war aber extrem teuer. Mit MSAA hat man versucht, die Effizienz zu erhöhen, indem die höhere Samplerate nur an Objektkanten angewendet wurde und nicht aufs gesamte Bild. Hat super funktioniert, hat immernoch einiges an Leistung gekostet, war aber sehr viel effizienter, ist aber mit heutigen Engines nicht mehr kompatibel.

TAA sowie auch DLSS und FSR holen sich die samples aus vorherigen Frames. Es werden also sehr wohl mehr Samples und damit Bildinformationen in das aktuelle bild eingebracht, als ursprünglich im aktuellen Frame berechnet wurden.

Der Punkt ist, dass DLSS und FSR so irre viele Samples aus vorherigen Bildern verwerten können, dass sie es sich leisten können, sogar weniger pixel von der GPU berechnen zu lassen. Es sind dann trotzdem immernoch genug verwertbare samples da, um ein neues Bild in höherer Auflösung zusammenzusetzen und zusätzlich noch AntiAliasing zu machen.


Letztendlich entscheided über die Bildqualität die am Ende raus kommt immer die Zahl der Samples mit der die Szene abgetastet werden konnte. Und diese Samplezahl ist mit DLSS extrem hoch.

Das ist auch der Grund, warum DLSS Deep Learning Super Sampling heißt.
Im Kern ist es nunmal temporales supersampling. Man nutzt die hohe Samplerate aber nicht nur für AntiAliasing sondern eben auch um Bilder direkt in höherer Auflösung auszugeben, einfach weil man so viele Samples hat. Viel mehr als man für reines AntiAliasing sinnvoll gebrauchen kann.

Das sieht man auch gut am Vergleich zwischen DLSS Q und DLAA. DLSSQ sieht kaum schlechter aus. Eben weil es so viele samples gibt, die DLAA kaum noch sinnvoll in bessere Bildqualität umsetzen kann.


Die interne Renderauflösung hat hier absolut gar keine Bedeutung mehr.
Wenn die Samplerate von DLSS höher ist, als die in nativ mit TAA, dann muss DLSS zwangsläufig besser aussehen. Auch wenn es manchen Leuten schwer fällt das wegen der verringerten Renderauflösung zu glauben...

Natürlich ist das nicht immer so. Wenn TAA sehr gut umgesetzt ist, wird die samplerate höher sein und es wird besser aussehen. Oft hat hier aber DLSS trotz niedrigerer Renderauflösung die nase vorne. Und da braucht es auch keinen Glaubenskrieg. Wenn man mitloggen könnte, wie hoch die Hitrate der beiden Verfahren ist, könnte man das auch mit Zahlen belegen.

Übrigens nutzt DLSS die "Deep Learning" bzw AI komponente nicht für die Bildmanipulation bzw. das Upscaling, sondern um die Hitrate beim auswerten der Samples aus vorherigen Bildern zu optimieren. Und sicherlich noch für einige andere Aspekte, die wir nicht genau kennen. Es ist technisch gesehen also kein AI Upscaling. Weil nichts skaliert wird. Es ist AI supersampling, weil in erster Linie viele samples generiert werden, die dann dazu verwendet werden, um ein Bild in höherer Auflösung zusammenzusetzen.
 
Zuletzt bearbeitet von einem Moderator:
Ist Anti-Aliasing nicht einfach Kantenglättung? Mir ist bekannt, dass man in höheren Auflösungen weniger Anti-Aliasing benötigt, weil sich das durch die höhere Anzahl der Pixel ergibt. Oder liege ich da falsch?
So einfach ist das nicht. Es sind so viele Faktoren die da miteinspielen. Es kommt natürlich auch auf die Monitorgröße an. Du musst also nach der PPI (Pixel pro Inch) schauen. Ein 24 Zoll Monitor mit 4K hat eine wesentlich höhere Pixeldichte als ein 40 Zoll 4K Monitor. Auf dem 24 Zoll Monitor würden einzelne Pixel kaum noch auffallen. Zum Flackern (z.B. Moiré-Effekt oder leicht schräge horizontale Kanten) kann es dennoch kommen. Da hilft es wieder das ganze zu Glätten und das wäre wieder eine Art des AntiAliasing.

Eins ist Fakt:
Die Grafikkartenhersteller bekommen die Pixelflut nicht gebändigt.
Daher investiert NVidia ja auch in DLSS, weil 4K und 8K zu rechenintensiv sind.

Am einfachsten wäre es natürlich ein 8K Bild zu berechnen und es auf 4K "downzusampeln". Das wäre natürlich eine hervorragende Qualität. Aber die benötigte Leistung ist einfach zu gross. Mit alten Spielen kann man das aber machen.

Wer Qualität möchte kommt kaum um Downsampling herum. Es gibt Spiele, die bieten das sogar in den Optionen an. Z.B. Sniper Elite V2 Remastered. Nennt sich dort in den Optionen Super Sampling, was wohl SSAA ist oder entspricht.

So gesehen dürfte DLSS bei älteren Spielen für gute und neuere Grafikkarten also immer weiter obsolet werden, weil die Grafikkarten immer schneller werden. Da kann man nur hoffen, dass Entwickler neben DLSS und FSR auch SSAA anbbieten. Ansonsten muss man über den Treiber ein größeres Bild erzwingen, um es "Downzusampeln".
 
Ich muss gestehen, das ich DLSS eigentlich garnicht nutze. Dank der 4080 läuft bisher ALLES in 4K mit Maximalen details butterweich. Und da ich nen Monitor mit 60 Hz habe, brauche ich auch keine 200-300fps im Spiel. Trotzdem finde ich es gut, das man mit DLSS die Nutzbarkeit seiner Hardware noch etwas verlängern kann.
 
Das ist genau genommen falsch. Um überhaupt AntiAliasing machen zu können, brauchst du mehr samples, als im aktuellen Bild nativ gerendert wurden. Ohne zusätzliche Bildinformationen ist einfach kein AntiAliasing möglich. Früher hat man die notwendigen Samples einfach per brute force berechnen lassen. z.B. 4x SSAA in FHD entspricht der Pixelllast von 4K. Hat funktioniert, war aber extrem teuer. Mit MSAA hat man versucht, die Effizienz zu erhöhen, indem die höhere Samplerate nur an Objektkanten angewendet wurde und nicht aufs gesamte Bild. Hat super funktioniert, hat immernoch einiges an Leistung gekostet, war aber sehr viel effizienter, ist aber mit heutigen Engines nicht mehr kompatibel.

TAA sowie auch DLSS und FSR holen sich die samples aus vorherigen Frames. Es werden also sehr wohl mehr Samples und damit Bildinformationen in das aktuelle bild eingebracht, als ursprünglich im aktuellen Frame berechnet wurden.

Der Punkt ist, dass DLSS und FSR so irre viele Samples aus vorherigen Bildern verwerten können, dass sie es sich leisten können, sogar weniger pixel von der GPU berechnen zu lassen. Es sind dann trotzdem immernoch genug verwertbare samples da, um ein neues Bild in höherer Auflösung zusammenzusetzen und zusätzlich noch AntiAliasing zu machen.


Letztendlich entscheided über die Bildqualität die am Ende raus kommt immer die Zahl der Samples mit der die Szene abgetastet werden konnte. Und diese Samplezahl ist mit DLSS extrem hoch.

Das ist auch der Grund, warum DLSS Deep Learning Super Sampling heißt.
Im Kern ist es nunmal temporales supersampling. Man nutzt die hohe Samplerate aber nicht nur für AntiAliasing sondern eben auch um Bilder direkt in höherer Auflösung auszugeben, einfach weil man so viele Samples hat. Viel mehr als man für reines AntiAliasing sinnvoll gebrauchen kann.

Das sieht man auch gut am Vergleich zwischen DLSS Q und DLAA. DLSSQ sieht kaum schlechter aus. Eben weil es so viele samples gibt, die DLAA kaum noch sinnvoll in bessere Bildqualität umsetzen kann.


Die interne Renderauflösung hat hier absolut gar keine Bedeutung mehr.
Wenn die Samplerate von DLSS höher ist, als die in nativ mit TAA, dann muss DLSS zwangsläufig besser aussehen. Auch wenn es manchen Leuten schwer fällt das wegen der verringerten Renderauflösung zu glauben...

Natürlich ist das nicht immer so. Wenn TAA sehr gut umgesetzt ist, wird die samplerate höher sein und es wird besser aussehen. Oft hat hier aber DLSS trotz niedrigerer Renderauflösung die nase vorne. Und da braucht es auch keinen Glaubenskrieg. Wenn man mitloggen könnte, wie hoch die Hitrate der beiden Verfahren ist, könnte man das auch mit Zahlen belegen.

Übrigens nutzt DLSS die "Deep Learning" bzw AI komponente nicht für die Bildmanipulation bzw. das Upscaling, sondern um die Hitrate beim auswerten der Samples aus vorherigen Bildern zu optimieren. Und sicherlich noch für einige andere Aspekte, die wir nicht genau kennen. Es ist technisch gesehen also kein AI Upscaling. Weil nichts skaliert wird. Es ist AI supersampling, weil in erster Linie viele samples generiert werden, die dann dazu verwendet werden, um ein Bild in höherer Auflösung zusammenzusetzen.
Ich stimme dir über weite Strecken zu. Nur pauschal davon zu sprechen, dass DLSS mit mehr Samples natives TAA schlägt halte ich für einen Trugschluss. Letztenendes entscheidet der Algorithmus welche Samples verworfen werden. Du hast keine Garantie dass die Gewichtung passt und das dort abgebildete wirklich frei von Bias ist.
 
Ich bevorzuge in 1440p die Option "balanced". Mit dem alten Monitor und 1080p Auflösung nutzte ich "Quality", wobei das auch immer auf den Titel und die genutzte DLL-Version ankommt.
 
Zuletzt bearbeitet:
Ist Anti-Aliasing nicht einfach Kantenglättung? Mir ist bekannt, dass man in höheren Auflösungen weniger Anti-Aliasing benötigt, weil sich das durch die höhere Anzahl der Pixel ergibt. Oder liege ich da falsch?
Genau so ist es. Anti-Aliasing mache ich auf 5120x1440 immer aus das es dort keine sichtbare Kanten zum glätten gibt. Eher im Gegenteil, in meinem Lieblingstitel sieht es mit max AA richtig mies aus da es nicht mehr gestochen scharf sondern alles verschwommen/verwaschen aussieht.
 
Wobei wir hier bei Nvidia noch DLDSR hätten das ein natives Bild mit voller Auflösung via DLSS Algorithmus hochscaliert auf eine noch höhere Auflösung und dieses dann wieder downsamplet

Da gefällt mir das NVidia Tool aber nicht. Ich muss bei NVidia Karten eine höhere Monitorauflösung einrichten, denn ansonsten funktioniert das ganze nicht für alle Spiele gleichzeitig. Bei AMD geht das per Knopfdruck.
Und es ist nervig, wenn ich die Einstellungen für jedes Spiel immer über das NVidia Tool vornehmen muss.

Damit meine ich die angebotenen Auflösungen im Spiel selbst. Mit dem NVidia Tool geht das eben nicht und das macht es fummelig.
 
Ich muss gestehen, das ich DLSS eigentlich garnicht nutze. Dank der 4080 läuft bisher ALLES in 4K mit Maximalen details butterweich. Und da ich nen Monitor mit 60 Hz habe, brauche ich auch keine 200-300fps im Spiel. Trotzdem finde ich es gut, das man mit DLSS die Nutzbarkeit seiner Hardware noch etwas verlängern kann.
Was für eine krasse Kombi. 60hz + 4080? Wie kommt man denn auf die Idee? Ich hoffe dir ist klar das ein 60hz Bildschirm auch nur 60fps darstellen kann. Für so einen "lahmen" Bildschirm ist so eine schnelle Karte fast schon überdimensioniert ausser du zockst in 4k Titel wo selbst einen 4080 gerade die 60fps schafft.
Seit 20 Jahren wird Anti-Aliasing hier im Forum gepredigt, also die Empfehlung das Bild in einer HÖHEREN Auflösung zu rendern als der Monitor darstellt. DLSS ist das EXAKTE Gegenteil davon, das Bild wird in einer NIEDRIGEREN Auflösung gerendert und der Rest dazuerfunden.

Es wundert mich nicht, dass so ein System also nur soweit geduldet wird, soweit es nicht sichtbar den Bildeindruck kompromittiert und das ist halt nur bei Quality der Fall.
Dlss/fsr ist für mich die beste Erfindung bei GPUs seit langem.in Red dead redumption2 z.b. schafft meine kleine rtx3060ti nativ irgendwie 40fps. Mit dlss kann ich in 5120x1440 bei 70-90fps zocken ohne dass ich einen sichtbaren Unterschied Wahrnehme. Ohne dlss müsste ich wahrscheinlich für 1000€ eine neue gpu kaufen. Ich könnte also sagen dass Gamer durch diese Technologien viel Geld sparen können da sie GPU upgrades damit nach hinten schieben können. Nicht jeder Gamer will alle 2-3 Jahre eine 1000-2000€ gpu kaufen.
Da dreh ich lieber an Schrauben wie dlss/fsr und spare das Geld.
 
Zuletzt bearbeitet von einem Moderator:
Da gefällt mir das NVidia Tool aber nicht. Ich muss bei NVidia Karten eine höhere Monitorauflösung einrichten, denn ansonsten funktioniert das ganze nicht für alle Spiele gleichzeitig. Bei AMD geht das per Knopfdruck.
Und es ist nervig, wenn ich die Einstellungen für jedes Spiel immer über das NVidia Tool vornehmen muss.

Damit meine ich die angebotenen Auflösungen im Spiel selbst. Mit dem NVidia Tool geht das eben nicht und das macht es fummelig.
Also ich stell die möglichen DLDSR Auflösung im Treiber unter grafikeinstellungen ein und gut ist..das ist ein vorgefertigtes Dropdown menü

Windows kann ja problemlos in der nativen Auflösung bleiben
Das konfigurierst du nur ein einziges Mal..
Genauso wie bei AMDs VSR (virtuel super ressolution)
Du musst da keine costum Auflösung selbst angeben.


Dann wähle ich ingame in den Grafikoptionem die entsprechende DLDSR Auflösung aus..
Soweit ist der Vorgang noch absolut identisch

Der Unterschied ist das die AMD Karte das ganze dann wirklich auch in der entsprechenden höheren Auflösung berechnet (mit dem entsprechenden Performance Verlust)
Wärend die Nvidia Karte die original Auflösung nimmt und das per DLSS hochskaliert auf die gewünschte DLDSR Auflösung.


AMD hat keine Kombi aus FSR und VSR
Da gibt es entweder niedriger als original mit upscaling oder Virtuell in einer höheren Auflösung..

Aber nicht original upgescalt auf eine höhere Virtuelle Auflösung

Du kannst sogar DLDSR mit DLSS kombinieren.. was dir erst das Bild quasi doppelt upscalet (erst zur original Auflösung.. und auf der Basis dann zur DLDSR Auflösung) und dann downsamplet.. was wirklich knackige Kantenglättung gibt aber auch einiges an Performance kostet
 
Zuletzt bearbeitet:
Also ich stell die möglichen DLDSR Auflösung im Treiber unter grafikeinstellungen ein und gut ist..das ist ein vorgefertigtes Dropdown menü
...
Dann rendert die NVidia-Karte aber doch immer in dem eingestellt höheren Wert.
Bei AMD bietet er mir im Spiel dann die höheren Auflösungen zur Auswahl an. Was natürlich viel bequemer ist, weil man nicht jedes Spiel mit der höheren Auflösung laufen lassen kann.
 
Dann rendert die NVidia-Karte aber doch immer in dem eingestellt höheren Wert.
Bei AMD bietet er mir im Spiel dann die höheren Auflösungen zur Auswahl an. Was natürlich viel bequemer ist, weil man nicht jedes Spiel mit der höheren Auflösung laufen lassen kann.
Nein tut sie nicht. Du definierst im Treiber nur welche Auflösungen dir das Spiel in den Grafikeinstellungen zur Auswahl anbieten kann/darf

Du musst immer noch aktiv im Spiel die entsprechende Auflösung auswählen.. genau wie bei AMD auch.

Der Unterschied ist AMD berechnet die virtuelle Auflösung als wäre es eine echte.. und Nvidia nutzt dafür den DLSS Algorithmus ausgehend von der original Auflösung
 
Zuletzt bearbeitet:
Ich muss gestehen, das ich DLSS eigentlich garnicht nutze. Dank der 4080 läuft bisher ALLES in 4K mit Maximalen details butterweich. Und da ich nen Monitor mit 60 Hz habe, brauche ich auch keine 200-300fps im Spiel. Trotzdem finde ich es gut, das man mit DLSS die Nutzbarkeit seiner Hardware noch etwas verlängern kann.
Du könntest aber dennoch mit der Technik das optisch gleiche Ergebnis haben und einiges an Strom/Wärme/Lautstärke der Karte sparen....

Mein PC steht rechts unterm Tisch und es ist echt angenehm wie leise meine Strix bei 120 FPS Warzone macht und kaum noch spürbare Wärme nach oben steigt. Plus eben die Energie, die weniger benötigt wird...
 
Zurück