Aber AMDs Ansatz hat [...] einen derart grossen Vorteil, dass sie DLSS verdrängen wird.
Das ist vorerst eher nicht abzusehen. DLSS ist schon relativ weit verbreitet und wird auf dem PC vorerst weiterhin bestehen. Sofern AMD-Jünger hier nicht einen geheimen Pakt geschlossen haben und Steam grundsätzlich fern bleiben oder kategorisch jedwede Steam-HW-Befragung verweigern, gibt es bereits mehr RTX-GPUs bei PC-Desktop-Gamern als es überhaupt AMD-GPUs insgesamt gibt (inkl. aller Alt- und mobilen GPUs), d. h. nVidia's Basis ist hier viel zu groß, als dass man die ignorieren könnte/würde.
Was aber korrekt ist, ist dass man erst mal echte Vergleiche abwarten muss, denn am Ende entscheidet die Qualität und Performance. Aber das wird für den Anfang vermutlich eher problematisch bleiben, da ich bei den ersten Veröffentlichungen und Patches nicht davon ausgehe, dass hier auch der eine oder andere Titel dabei sein wird, der zufälligerweise beide Techniken unterstützen wird. Entsprechend wird es vorerst immer etwas "ungenau" bzgl. Vergleichen sein. *)
Hinzu kommt, dass die Konkurrenzsituation bzgl. weiterer Produkte derzeit ebensowenig einschätzbar ist. Epic implementiert ihr Temporal Super Resolution mit der UE5 und Intel kommt anscheinend mit ihrem XeSS in den Markt.
Anmerkung am Rande: Es wirft per se Fragen auf, dass Epic eine eigene Implementation anbietet, anstatt unmittelbar auf AMDs Implementation zu setzen, also stellt sich die Frage, was gegen AMDs Technik spricht, insbesondere da Epic auch primär die Konsolen im Fokus hat?
*) Anmerkung am Rande: Das Auge lässt sich leicht durch vermeintliche Bildschärfe in die Irre führen und ein schärferer Bildeindruck wird pauschal als besser/qualitativ höherwertiger interpretiert. Wesentlich relevanter dürfte sein, was die Algorithmen an Details beisteuern/rekonstruieren können, hinzu kommt temporale Stabilität, etc.
Zeig mir mal Vergleichsbilder von DLSS auf der 1060, oder Vega. Ach warte...
Würde vermutlich genau so aussehen, wie auf den RTX-Karten, wenn man den Algorithmus sauber übernimmt oder aber die Beta-Implementation von DLSS2 verwendet, die nVidia damals noch über die reinen Shader rechnen lies (bei irgend einem id-Titel, wenn ich mich recht erinnere). Wird halt nur langsamer berechnet werden, weil die Tensor Cores hier einen Teil des Workloads beschleunigen ... die Frage ist halt wie viel langsamer und welcher Fps-Zugewinn bleibt dabei am Ende übrig?
Darüber hinaus lässt sich absehbar vermuten, dass bei leistungsschwächeren Karten AMDs Qualitätszugeständnisse größer ausfallen müssen, da hier Rechenleistung fehlt, während die Tensor Cores selbst bei den kleinen RTX-Karten dies deutlich besser kompensieren können werden.
Will man das Bild der GTX 1060 vergleichen, sollte man den gleichen Modus und dann gegen bspw. Vega 56 (oder eine noch kleinere Radeon) vergleichen. Letzten Endes weiß man ja noch nicht einmal wie genau hier gerechnet wird. Wenn hier INT8 zur Anwendung kommt, dürften Alt-AMD-GPUs im Vorteil sein ggü. Alt-nVidia-GPUs (sofern ich mich recht erinnere).
Ergänzend vielleicht noch: Der zeitliche Vergleich ist absolut unsinnig. DLSS1 war 2018/19, AMD kommt erst Mitte 2021 mit einer vergleichbaren Technik auf den Markt, da kann man sich schlecht mit angestaubter Technik vergleichen nur um irgendwelchen möglichen Schelten zu entgehen. Der Stand jetzt und schon seit dem letzten Jahr ist schlicht DLSS2 und dagegen werden sich auch bspw. Epic und Intel vergleichen lassen müssen.