DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Bei DLSS 2.0 gab es unter anderem die Kritik, dass Bilder zu scharf sind. Solche Meinungen sind mitunter subjektiv und die beste Lösung ist, dem Nutzer die Entscheidung zu überlassen. Das soll wohl nun kommen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Läuft das auch bei metro? Sonst kann ich damit nux anfangen.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Dann kann man einmal Sharpening einstellen in den Treibern und dazu noch die Bildschärfe über DLSS. Das wird ganz schön viel hin und her probieren und auch irgendwie verwirrend.

Läuft das auch bei metro? Sonst kann ich damit nux anfangen.

Sicherlich nicht mit ner GTX 1050ti :ugly:
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Und natives Bild zählt, alles andere ist Spielerei die keine Sau interessiert. Sorry, wer will interpolierte Bilder sehen am PC?
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Und natives Bild zählt, alles andere ist Spielerei die keine Sau interessiert. Sorry, wer will interpolierte Bilder sehen am PC?

Das ist doch Quatsch. In Wolfenstein sieht das Bild über DLSS besser aus als nativ. Nativ verschluckt da teilweise Details in der Ferne, die man mit DLSS aber sieht. In Control habe ich es gestern probiert. Da ist überhaupt gar keine Einbuße gegenüber ohne DLSS. Die Technik ist der Hammer und dabei noch schonend für die Hardware. In Wolfenstein taktet meine Karte in 4k mit DLSS auf 1200MHz runter (!) Ohne DLSS sieht das Bild schlechter aus und die Karte taktet voll auf.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Bild zu scharf... irgendwas findet die PCMR ja immer zu meckern :D
 
Eine regelbare Humanuierung könnte es um ein vielfaches erleichtern.
 
Es ist nunmal ein Unterschied, ob die Details da sind und/oder ob sie zusätzlich noch scharf gezeichnet werden.

Eins muss man DLSS 2.0 lassen, es stellt Details dar, die bei nativer Auflösung komplett fehlen bzw. im Aliasing untergehen. Daher definitiv ein Bildqualitätsgewinn.
Aber von der zusätzlichen Scharfzeichnung bin ich auch nicht der Fan. In vielen Screenshots die ich bisher gesehen habe, wäre mir das auch zu viel.

Scharfzeichnen muss m.M. immer so dezent sein, dass mans nicht als Scharfzeichnung wahrnimmt.

Auch ein Grund, warum ich bei Nvidias Sharpening Filter in spielen mit TAA selten mehr als 5-10% Schärfe einstelle.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Wobei ich nichts gegen schafte Bilder habe, solange sich dabei kein Flimmern bildet und die Kantenglättung funktioniert.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Hab grad eine RTX im Homeoffice und spiel nach Feierabend ein bisschen damit rum.
Das neue DLSS ist schon ganz schnieke, aber ich wäre beispielsweise auch froh, wenn ich einen Schärferegler hätte, ich finde es nämlich relativ deutlich überschärft (krabbelnde Kanten bei starken Kontrasten, krümelige Feinheiten bei Bewegung, Details die eigentlich undeutlich sein müssten, beispielsweise hinter Nebel zu stark und übernatürlich betont, etc.)

Beispiel aus Mechwarrior 5, wo's wirklich gut funktioniert, aber eben auch all die genannten Nebeneffekte zeigt. Und dass, obwohl ich Sharpening (Fidelity FX) im Optionsmenü schon deaktiviert habe.
(DLSS Quality ausgehend von WQHD) Sieht man gut an den gelben Panelen, dem hängenden Kabeln, dem Geländer oben rechts in der Ecke, den Stufen im Hintergrund, ect.:

DLSS off (links) on (quality, rechts):

Mechwarrior 5  Mercenaries DLSS off.jpg
Mechwarrior 5  Mercenaries DLSS Quality.jpg


Mit Downsampling von 5.120 × 2.880 Pixeln in Kombination mit DLSS sieht's gut aus, aber dann krebst selbst eine RTX 2080 Ti mit nicht mehr wirklich flüssigen Bildraten rum – für mein Empfinden, aber WQHD fühlt sich halt ungefähr 3 mal so flüssig und richtig samtig-geschmeidig an, während das Spiel mit Downsampling im Vergleich wie Molasse läuft - gefühlt deutlich weniger smooth an als die gut 50-60 Fps, die dann immer noch auf der Uhr stehen (die Umgebung im zweiten Beispiel ist anzumerkender Weise nicht sonderlich anspruchsvoll, die meisten Szenen insbesondere mit dichter Vegetation sind eine Ecke härter) und das Bild wirkt ein wenig verzögert und schlierig, als würde es ghosten (die Einzelbilder sind aber scharf, der zweite Screenshot ist bei schneller Mausbewegung geschossen worden).

Die GPU wird auch nicht mehr zu 100 % ausgelastet, was ein wenig seltsam ist. Vielleicht stoßen die Tensor-Cores bei so hohen Auflösungen an ihre Grenzen und es kommt zu einer Latenz, weil die eigentliche GPU ein Päuschen einlegen und auf das DLSS warten muss. Das würde jedenfalls die beobachteten Umstände tendenziell halbwegs erklären (niedrigere GPU-Auslastung und gefühlt trägere Performance als die Fps suggerieren und auch das verzögert-schlierig wirkende Bild).

Beide Bilder jeweils ausgehend von 5.120 × 2.880 Pixeln mit Quality-DLSS runtergerechnet auf 1440p (2x2 DS):

Mechwarrior 5  Mercenaries Screenshot Downsampling x DLSS.jpg
Mechwarrior 5  Mercenaries Screenshot Downsampling x DLSS_performance.jpg


Aber generell: DLSS hat sich schon echt gemacht. Ich denke, ich würde es bei anspruchsvollen Spielen auch durchaus privat nutzen, selbst mit einer RTX 2080 Ti und in WQHD tendenziell nicht nur bei Raytracing. Da scheint es noch ein paar technische Flaschenhälse zu geben (in einigen Spielen steigt beispielsweise die Bildrate nicht oder kaum über einen bestimmten Wert hinaus, auch wenn man nochmals die Auflösung reduziert - ich vermute ebenfalls, das hier die Tensor-Cores nicht ausreichen bzw. nicht schnell rechnen genug rechnen beziehungseise nicht entsprechend viel Bildmaterial bearbeiten können - bzw. nur so und so viele (Mega-)Pixel pro(Milli-)Sekunde. Vielleicht ist das auch der Grund dafür, weshalb es bei den aktuellen Karten kein DLSS2x gibt). Und die Nvidia- bzw. aktuell Turing-Exklusivität ist auch ein bisschen nervig, weil sie der Durchsetzung und Verbreitung etwas im Wege steht und DLSS halt nicht von jedem eingesetzt werden kann. Aber zumindest gibt es dafür einen halbwegs trefflichen Grund (wobei ich auch nicht ausschließen würde, dass eine ähnliche Arbeit nicht auch von Compute- statt Tensor-Cores verrichtet werden könnte). Cool wäre es noch, wenn DLSS in Kombination bei Lastüberschuss dynamisch downsamplen könnte oder die Auflösung verringern und Aggressivität erhöhen könnte, wenn die Leistung abfällt. Ist aber vielleicht eher was für DLSS 3.0.

EDIT: Angabe welches Bild welches ist (falls der Mouse-over-Text nicht funktioniert)

Gruß,
Phil
 
Zuletzt bearbeitet:
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Kannst du bitte noch drunter schreiben, welche der Bilder mit DLSS ist?

Cool wäre es noch, wenn DLSS in Kombination bei Lastüberschuss dynamisch downsamplen könnte oder die Auflösung verringern und Aggressivität erhöhen könnte, wenn die Leistung abfällt. Ist aber vielleicht eher was für DLSS 3.0.

Wobei das schon eine Herausforderung ist, weil dafür das Spiel oder der Treiber in die Zukunft sehen muss, wie da die Last sein wird. Das würde dann wohl die Latenz nach oben treiben.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Ich finde eine Option, die jeder selber nach Belieben regeln könnte natürlich auch die beste Möglichkeit, da Geschmäcker eben sehr verschieden sind.

Zu scharf mag ich auch nicht, wenn es z.B. so "grieselig" aussieht.
Aber zu Matsche, als wenn man ne Brille mit falscher Schärfe/Einstellungen auf hätte, also "blurry", finde ich ebenso schlecht.

Wo is eigentlich die native Auflösung mit guter Kantenglättung geblieben, die es früher mal gab ?
Geht das auf einmal nicht mehr ? Oder gibt es nur noch diese Kantenglättung, die einen Schmierfilm über's Bild zieht ?

Oder hab ich verschiedene Dinge von früher einfach falsch und verschönernd in Erinnerung ?

Früher konnte man doch einfach irgendein 2x oder 4x AA einschalten und feddich.
Hab ich das evtl. falsch in Erinnerung ? Warum is das auf einmal so kompliziert geworden ?
Jetzt braucht man auf einmal ganze Teile der GPU mit Extra Hardware für die Berechnung der Kantenglättung, die von irgendwelcher KI auf Nvidia Supercomputern vorberechnet und dann per patch/update nachgeliefert werden.
Das war doch früher nicht so.


edit:

Irgendwie bleibt mir DLSS tendenziell unsympathisch.
Einfache Lösungen finde ich oft besser, als komplizierten Kram, wo halt auch viel schief laufen kann.
Was mach' ich bloß, wenn's bald nur noch Nvidia GPUs inkl. DLSS gibt ?
Ob's vielleicht eine GTX 3080Ti 16GB ohne RT und DLSS geben wird ? :D Das wär noch was für mich. :)
 
Zuletzt bearbeitet:
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Wobei das schon eine Herausforderung ist, weil dafür das Spiel oder der Treiber in die Zukunft sehen muss, wie da die Last sein wird. Das würde dann wohl die Latenz nach oben treiben.

Das ist jetzt wirklich nicht so schwer. Die großen Lastspitzen kommen meistens ja von Partikeln - da kann man recht einfach den Rest etwas anpassen wenn auf einmal sehr viel mehr Partikel gespawned werden müssen.

Oder hab ich verschiedene Dinge von früher einfach falsch und verschönernd in Erinnerung ?
Wahrscheinlich schon auch beides - die Zeiten in denen auch die CPU öfters mal das Limit war und man ohne viel verlust MSAA/SSAA reingehaut hat. Vor allem bei den früheren AMD Karten mit vielen Shadern bei denen der Sheduler noch so grottenschlecht war das man Auflösung erhöhen konnte ohne wirklich Leistung zu verlieren.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Früher konnte man doch einfach irgendein 2x oder 4x AA einschalten und feddich.
Hab ich das evtl. falsch in Erinnerung ? Warum is das auf einmal so kompliziert geworden ?

Empfinde es auch teilweise langsam kompliziert mit den ganzen Einstellungen...

Vielleicht bisschen Offtopic, wobei nicht wirklich. Ist es denn jetzt besser über das Spiel selber im Menü Antialiasing einzustellen oder über die Systemsteuerung oder läuft's auf das Gleiche hinaus?
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

und das Bild wirkt ein wenig verzögert und schlierig, als würde es ghosten (die Einzelbilder sind aber scharf, der zweite Screenshot ist bei schneller Mausbewegung geschossen worden).
Das hatte ich erwartet, ist auch aufgrund des technischen Ansatzes zu erwarten gewesen. Die Latenz dürfte also spürbar höher liegen, was das ganze schwierig macht für schnelle Spiele.
 
AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad

Naja Latenz stört ja nicht überall. Bei manch gruseligem TAA würde ich mir sowas wie DLSS wünschen muss ich sagen. Resident Evil 3 wäre ein schöner Kandidat gewesen für DLSS.
Ich zocke auch viele langsame Games, Ghosting wiederum ist auch in solchen Spielen sehr nervig.
 
Oder hab ich verschiedene Dinge von früher einfach falsch und verschönernd in Erinnerung ?

Früher konnte man doch einfach irgendein 2x oder 4x AA einschalten und feddich.
Hab ich das evtl. falsch in Erinnerung ? Warum is das auf einmal so kompliziert geworden ?

Damals hatte man einfache Shader und simple Geometrie. Da konnte Aliasing bzw. Kantenflimmern auch nur an Geometriekanten auftreten und diese konnte 2x, 4x oder 8x MSAA sehr effizient bearbeiten. Zusätzlich konnte man in den Grafiktreibern noch Transparency AA aktivieren, was transparente texturen wie Gräser oder Zäune glättet.

Nach Deferred Rendering, Screen Space Reflections und Physicaly based Rendering (PBR) ist MSAA aber komplett unbrauchbar und nutzlos geworden und zudem technisch Inkompatibel geworden.
Mittlerweile hast du durch die ganzen mordernen Renderferfahren sogar Aliasing mitten auf den Oberflächen und nicht nur an den Kanten.
Wenn du in nem modernen Spiel TAA ausschaltest, dann hast du nur noch Flimmern aus der Hölle, dagegen ist jegliche Form von AntiAliasing nutzlos meist sogar echtes Supersampling (und wenn dann nur mit irrwitzig hohen Faktoren, die auf keiner Hardware flüssig laufen)

TAA ist mittlerweile essenzell in modernen spielen, da TAA enorm viele Samples aus vorherigen Frames zum glätten generieren kann und daher einfach alles glattbügeln kann. Und ja, das ist "ECHTES" AntiAliasing. Die szene wird durch die gewonnen Samples aus den vorherigen Frames präziser abgetastet. Die Bildqualität bzw. der Informationsgehalt steigt. Da kann nichtmal 8x Supersampling (SSAA) mithalten.
Im grunde ist TAA nix anderes als Temporal Supersampling.

Ja, das Problem ist meistens die Bildschärfe, weil die Samples auch "korrekt" verarbeitet werden müssen, damit das Bild dann auch möglichst scharf wird. Aber dahinter stecken wahnsinnig komplexe Algorithmen. Aber die implementierungen werden immer besser. Aktuelle Implementierungen wie bei Doom Eternal stehen klassischem MSAA praktisch in nichts nach, wenn es um Bildschärfe geht, glättet aber besser, als 8x SSAA.

Nochdazu kostet TAA auf modernen GPUs extrem wenig Rechenleistung.
Ich persönlich finde, dass TAA das beste ist, was der computergrafik in den letzten 10 Jahren passiert ist. Endlich perfekte Kantenglättung ohne nennenswerten leistungsverlust. All die Jahre hat man immer enorm viel Performance für 4x oder 8x MSAA opfern müssen und die Glättung war eh nie perfekt (außer bei den ganz alten Games ~2005). Selbst Crysis flimmert heute noch, selbst mit 8x MSAA. Ich bin froh, dass MSAA und auch die Matschfilter FXAA und SMAA tot sind und endlich durch was richtig ausgeklügeltes ersetzt wurden, das es locker mit SSAA aufnehmen kann.
 
Zuletzt bearbeitet von einem Moderator:
TAA bestes AA das es gibt kostet fast nichts und eliminiert 95% der Treppchen.
 
Zurück