@AncientDoomSlayer: DLSS 2 ist deutlich weiterentwickelt und verwendet Vektorinformationen und auch Pixelinformationen aus etlichen aufeinanderfolgenden Frames für die Aufwertung eines einzelnen Frames *) und kann daher tatsächlich weitestgehend korrekte Details hervorbringen, die in einem einfachen nativen Rendering gar von der Rasterisierung und dem nachgelagerten AA weggebügelt werden. Das ist nicht mit einem simplen Upscaling in der Bildbearbeitungssoftware oder auch im BR-Player vergleichbar.
*) Ein wesentlicher Punkt hierbei ist, dass selbst leichte Perpektivenveränderungen von Frame zu Frame leichte Bildunterschiede hervorbringen und unterschiedliche Detais im jeweiligen Raster (das durch die Renderauflösung bestimmt wird) rendern, über die die Details für das Upscaling extrapoliert werden können.
Beispiele:
A) 540p nativ
b) 540p auf 1080p mit DLSS2
C) 1080p nativ mit AA
D) 1440p
Mit klassischen Verfahren gibt es keinen sinnvollen Weg von A) auf B). Die Vektorinformationen sowie die diversen Frames, die zu diesem Bild führten enthielten jedoch ausreichend Informationen um beträchtliche Details rekonstruieren zu können, sodass man hier selbst mit 540p als Ausgangsmaterial arbeiten kann. (B entstand nicht schlicht aus A, sondern aus den Frames A, A-1, A-2, A-3, usw.)
@xxRathalos: Der GSync/Freesync-Vergleich ist unzutreffend. Du hast faktisch geschrieben, dass BMW seine Produktion aufgeben muss um Mercedes'e zu fertigen.
Wird es jetzt deutlicher? Faktisch versucht AMD nun etwas Eigenständiges zu implementieren, dass dem entspricht, was nVidia schon vor gut zwei Jahren einzuführen begann und innerhalb der letzten 9 Monate beträchtlich weiterentwickelt hat.(AMD hat es nicht umsonst vermieden, einen konkreten Termin an die Ankündigung zu hängen. Einerseits wusste man, dass man etwas Vergleichbares ankündigen muss, weil man andernfalls einen handfesten Nachteil bei hohen Auflösungen hat, aber man ist anscheinend noch nicht so weit sich jetzt schon mit einem Termin aus dem Fenster lehnen zu können und ebenso klar sollte sein, dass man mit einer Lösung, die nur qualitativ zu DLSS1 vergleichbar ist, besser erst gar nicht in Erscheinung treten sollte.)
@FlorianKl: Die Aussage bzgl. des Trainingsbedarfs in Verbindunng mit DLSS2 ist nach wie vor falsch. DLSS2 verwendet ein universelles, spiel- und contentunabhängiges Netzt, dass Entwickler direkt in ihre Titel implementieren und ad hoc nutzen können ohne es trainieren zu müssen. Das ist ja einer der wesentlichen Vorteile von DLSS2. Und da das NN unabhängig ist, kann nVidia dieses unabhängig davon weiterentwickeln und mit bspw. einem neuen Treiber ein Update ausrollen. (Ein Patch wird erst notwendig, wenn sich was am API der jeweiligen Version ändert, so bspw. mit dem kürzlich eingeführten DLSS 2.1, das eine signifikante Funktionserweiterung erfuhr oder mit einem irgendwann kommenden DLSS 3.0.)
nVidia entwickelt dieses Netz natürlich auf seinem Supercomputer weiter und schlussendlich steht es Entwicklern auch weiterhin frei das Netz dennoch individuell anzupassen auf ihren konkreten Content/ihren Titel, jedoch werden das voraussichtlich nur noch wenige machen, weil die Basisqualität bereits so gut ist, dass das den Mehraufwand auf Entwicklerseite kaum noch rechtfertigt.
(Sehe gerade, dir ist der Fehler schon selbst aufgefallen.)
Allgemein ist DLSS eine in jeder Hinsicht zu begrüßende Technik (ebenso gleichermaßen das Äquivalent von AMD, wenn es mal kommt und völlig egal wie sie es nennen werden), denn die Technik hilft die grundsätzlich immer zu knappen Rechenressourcen zumindest zu einem gewissen Grad zu übergehen.
Dass die Technik noch nicht fehlerfrei ist, ist offensichtlich, jedoch liefert sie bereits jetzt für den Großteil des Contents hervorragende Ergebnisse. Man darf gespannt sein, wann man final das Gröbste raushaben wird, wie bspw. die stellenweisen Schlieren der Hochspannungsleitungen in DS, etc. AMD musste hier schlicht reagieren, weil sie ansonsten den Anschluss verpassen würden.
Anschließend noch, ob man diese AI-basierten Algorithmen über die universellen ALUs oder spezielle Einheiten berechnet spielt keine Rolle; letzteres ist natürlich performanter, weshalb hier nVidia mit seinen Tensor Cores auch einen leichten Vorteil hat, aber auch hier zeigte nVidia bereits in seiner Beta-Phase zu DLSS2 eine Implementaiton noch über die regulären CUDA Cores. Über die Tensor Cores wird es halt deutlich schneller, weil jeder zusätzliche Rechnenschritt in der Renderpipeline natürlich einen Impact hat und auf die FPS drückt, d. h. der Impact darf nicht zu hoch sein, damit die Verwendung dieser Technik einen echten Mehrwert bietet (also in Form signifikant höherer FPS).
Vielleicht hat AMD ja seine RDNA2-Architektur auch ein wenig erweitert, nicht mit speziellen HW-Einheiten wie nVidia, aber vielleicht mit einer operativen Unterstützung wie es Intel bspw. in Xe mit DP4A implementiert hat, was hier ML/AI-Algorithmen deutlich zu beschleunigen hilft. Einfach mal abwarten. Da AMD grundsätzlich noch nicht bereit war über ihr Supersampling zu reden, weil sie noch nicht so weit sind, gab es voraussichtlich auch keinen Grund ein derart mögliches Detail hervorzukramen.