AW: DLSS 2.0: Nvidia angeblich mit anpassbarem Schärfegrad
Hab grad eine RTX im Homeoffice und spiel nach Feierabend ein bisschen damit rum.
Das neue DLSS ist schon ganz schnieke, aber ich wäre beispielsweise auch froh, wenn ich einen Schärferegler hätte, ich finde es nämlich relativ deutlich überschärft (krabbelnde Kanten bei starken Kontrasten, krümelige Feinheiten bei Bewegung, Details die eigentlich undeutlich sein müssten, beispielsweise hinter Nebel zu stark und übernatürlich betont, etc.)
Beispiel aus Mechwarrior 5, wo's wirklich gut funktioniert, aber eben auch all die genannten Nebeneffekte zeigt. Und dass, obwohl ich Sharpening (Fidelity FX) im Optionsmenü schon deaktiviert habe.
(DLSS Quality ausgehend von WQHD) Sieht man gut an den gelben Panelen, dem hängenden Kabeln, dem Geländer oben rechts in der Ecke, den Stufen im Hintergrund, ect.:
DLSS off (links) on (quality, rechts):
Mit Downsampling von 5.120 × 2.880 Pixeln in Kombination mit DLSS sieht's gut aus, aber dann krebst selbst eine RTX 2080 Ti mit nicht mehr wirklich flüssigen Bildraten rum – für mein Empfinden, aber WQHD fühlt sich halt ungefähr 3 mal so flüssig und richtig samtig-geschmeidig an, während das Spiel mit Downsampling im Vergleich wie Molasse läuft - gefühlt deutlich weniger smooth an als die gut 50-60 Fps, die dann immer noch auf der Uhr stehen (die Umgebung im zweiten Beispiel ist anzumerkender Weise nicht sonderlich anspruchsvoll, die meisten Szenen insbesondere mit dichter Vegetation sind eine Ecke härter) und das Bild wirkt ein wenig verzögert und schlierig, als würde es ghosten (die Einzelbilder sind aber scharf, der zweite Screenshot ist bei schneller Mausbewegung geschossen worden).
Die GPU wird auch nicht mehr zu 100 % ausgelastet, was ein wenig seltsam ist. Vielleicht stoßen die Tensor-Cores bei so hohen Auflösungen an ihre Grenzen und es kommt zu einer Latenz, weil die eigentliche GPU ein Päuschen einlegen und auf das DLSS warten muss. Das würde jedenfalls die beobachteten Umstände tendenziell halbwegs erklären (niedrigere GPU-Auslastung und gefühlt trägere Performance als die Fps suggerieren und auch das verzögert-schlierig wirkende Bild).
Beide Bilder jeweils ausgehend von 5.120 × 2.880 Pixeln mit Quality-DLSS runtergerechnet auf 1440p (2x2 DS):
Aber generell: DLSS hat sich schon echt gemacht. Ich denke, ich würde es bei anspruchsvollen Spielen auch durchaus privat nutzen, selbst mit einer RTX 2080 Ti und in WQHD tendenziell nicht nur bei Raytracing. Da scheint es noch ein paar technische Flaschenhälse zu geben (in einigen Spielen steigt beispielsweise die Bildrate nicht oder kaum über einen bestimmten Wert hinaus, auch wenn man nochmals die Auflösung reduziert - ich vermute ebenfalls, das hier die Tensor-Cores nicht ausreichen bzw. nicht schnell rechnen genug rechnen beziehungseise nicht entsprechend viel Bildmaterial bearbeiten können - bzw. nur so und so viele (Mega-)Pixel pro(Milli-)Sekunde. Vielleicht ist das auch der Grund dafür, weshalb es bei den aktuellen Karten kein DLSS2x gibt). Und die Nvidia- bzw. aktuell Turing-Exklusivität ist auch ein bisschen nervig, weil sie der Durchsetzung und Verbreitung etwas im Wege steht und DLSS halt nicht von jedem eingesetzt werden kann. Aber zumindest gibt es dafür einen halbwegs trefflichen Grund (wobei ich auch nicht ausschließen würde, dass eine ähnliche Arbeit nicht auch von Compute- statt Tensor-Cores verrichtet werden könnte). Cool wäre es noch, wenn DLSS in Kombination bei Lastüberschuss dynamisch downsamplen könnte oder die Auflösung verringern und Aggressivität erhöhen könnte, wenn die Leistung abfällt. Ist aber vielleicht eher was für DLSS 3.0.
EDIT: Angabe welches Bild welches ist (falls der Mouse-over-Text nicht funktioniert)
Gruß,
Phil