Seit 20 Jahren wird Anti-Aliasing hier im Forum gepredigt, also die Empfehlung das Bild in einer HÖHEREN Auflösung zu rendern als der Monitor darstellt. DLSS ist das EXAKTE Gegenteil davon, das Bild wird in einer NIEDRIGEREN Auflösung gerendert und der Rest dazuerfunden.
Es wundert mich nicht, dass so ein System also nur soweit geduldet wird, soweit es nicht sichtbar den Bildeindruck kompromittiert und das ist halt nur bei Quality der Fall.
Das ist genau genommen falsch. Um überhaupt AntiAliasing machen zu können, brauchst du mehr samples, als im aktuellen Bild nativ gerendert wurden. Ohne zusätzliche Bildinformationen ist einfach kein AntiAliasing möglich. Früher hat man die notwendigen Samples einfach per brute force berechnen lassen. z.B. 4x SSAA in FHD entspricht der Pixelllast von 4K. Hat funktioniert, war aber extrem teuer. Mit MSAA hat man versucht, die Effizienz zu erhöhen, indem die höhere Samplerate nur an Objektkanten angewendet wurde und nicht aufs gesamte Bild. Hat super funktioniert, hat immernoch einiges an Leistung gekostet, war aber sehr viel effizienter, ist aber mit heutigen Engines nicht mehr kompatibel.
TAA sowie auch DLSS und FSR holen sich die samples aus vorherigen Frames. Es werden also sehr wohl mehr Samples und damit Bildinformationen in das aktuelle bild eingebracht, als ursprünglich im aktuellen Frame berechnet wurden.
Der Punkt ist, dass DLSS und FSR so irre viele Samples aus vorherigen Bildern verwerten können, dass sie es sich leisten können, sogar weniger pixel von der GPU berechnen zu lassen. Es sind dann trotzdem immernoch genug verwertbare samples da, um ein neues Bild in höherer Auflösung zusammenzusetzen und zusätzlich noch AntiAliasing zu machen.
Letztendlich entscheided über die Bildqualität die am Ende raus kommt immer die Zahl der Samples mit der die Szene abgetastet werden konnte. Und diese Samplezahl ist mit DLSS extrem hoch.
Das ist auch der Grund, warum DLSS Deep Learning
Super Sampling heißt.
Im Kern ist es nunmal temporales supersampling. Man nutzt die hohe Samplerate aber nicht nur für AntiAliasing sondern eben auch um Bilder direkt in höherer Auflösung auszugeben, einfach weil man so viele Samples hat. Viel mehr als man für reines AntiAliasing sinnvoll gebrauchen kann.
Das sieht man auch gut am Vergleich zwischen DLSS Q und DLAA. DLSSQ sieht kaum schlechter aus. Eben weil es so viele samples gibt, die DLAA kaum noch sinnvoll in bessere Bildqualität umsetzen kann.
Die interne Renderauflösung hat hier absolut gar keine Bedeutung mehr.
Wenn die Samplerate von DLSS höher ist, als die in nativ mit TAA, dann muss DLSS zwangsläufig besser aussehen. Auch wenn es manchen Leuten schwer fällt das wegen der verringerten Renderauflösung zu glauben...
Natürlich ist das nicht immer so. Wenn TAA sehr gut umgesetzt ist, wird die samplerate höher sein und es wird besser aussehen. Oft hat hier aber DLSS trotz niedrigerer Renderauflösung die nase vorne. Und da braucht es auch keinen Glaubenskrieg. Wenn man mitloggen könnte, wie hoch die Hitrate der beiden Verfahren ist, könnte man das auch mit Zahlen belegen.
Übrigens nutzt DLSS die "Deep Learning" bzw AI komponente nicht für die Bildmanipulation bzw. das Upscaling, sondern um die Hitrate beim auswerten der Samples aus vorherigen Bildern zu optimieren. Und sicherlich noch für einige andere Aspekte, die wir nicht genau kennen. Es ist technisch gesehen also kein AI Upscaling. Weil nichts skaliert wird. Es ist AI supersampling, weil in erster Linie viele samples generiert werden, die dann dazu verwendet werden, um ein Bild in höherer Auflösung zusammenzusetzen.