[...] Genau aus dem Grund wäre mir ein zeitnaher Release von RSR lieber/wichtiger ! Besser Open Source als prioritär. Auch wenn dann NV Fans die Argumentation weg fällt, weshalb der teure Preis ihrer Karten schon "in Ordnung" ist/sei. [...]
Das hier präsentierte hat nichts mit OpenSource vs. Proprietär zu tun. Zumal es aus Sicht von AMD auch keine echte Wahlmöglichkeit gab, denn mit einer proprietären, rein auf AMD-GPUs beschränkten Lösung wären sie mit Ansage vor die Wand gefahren, da sie dafür einen viel zu kleinen Marktanteil auf dem PC haben.
Das OpenSource ist in diesem Kontext zudem per se eher ein BuzzWord, weil sich so gut wie kein Entwickler die Arbeit machen wird hier Hand anzulegen, sondern die Implementation wird as-is verwendet, was einfach eine Frage der Effizienz ist. Und darüber hinaus legt auch nVidia keinem Entwickler Steine in den Weg, bzw. im Gegenteil, auch hier könnte ein Entwickler das zugrundeliegende NN gar noch spezifisch für seinen in der Entwicklung befindlichen Titel weitertrainieren aber auch das macht hier praktisch keiner aus dem gleichen Grund.
Ergänzend noch, dass der höhere Preis weniger was mit einem derartigen Einzelfeature zu tun hat, sondern schlicht dem Gesamtpaket und der Markt gesteht dem Marktführer nun einmal derartiges zu. Erst wenn die Konkurrenz hier nVidia signifikant unter Druck setzen kann, ändert sich auch etwas am Preis. *) AMD kann das offensichtlich nicht, anscheinend erst recht nicht aktuell, wo sie andere Produkte fertigungstechnisch für wichtiger erachten, also bleibt abzuwarten ob AMD und Intel in Kombination hier im 2.HJ nVidia mehr unter Druck setzen können werden.
*) Und ob das in nächster Zeit gelingen wird, ist noch vollkommen unklar. Beschränkt man sich nur auf AMD vs. nVidia könnten selbst die Top-RDNA3-MCM-Karten ggf. in diesem kleinen, oberen Segment punkten, während nVidia im Großteil des Marktes möglicherweise weiterhin vollends konkurrenzfähig sein könnte mit Lovelace ... man wird sehen was Ende Q3 bzw. in Q4 passieren wird.
Heißt also, dass FSR2 nur mit RDNA3 funktioniert oder ist es wie bei Intels XeSS und wird auf dedizierter Hardware nur beschleunigt?
Nimmt man CapFrameX' Twitter-Teaser mit hinzu, dann wird der FSR-Nachfolger weiterhin universell auf sämtlicher (halbwegs aktuellen) GPU-Hardware laufen.
Da RDNA hier aktuell aber bzgl. ML und MatrixOperationen im Hintertreffen ist, darf man annehmen, dass sich RDNA3 dieses Problems annehmen wird. Ob das komplett dedizierte Funktionseinheiten sein werden oder nur weitere architektonische Optimierungen, die den Durchsatz weiter erhöhen, muss man abwarten (kann dem einfachen Endanwender aber auch relativ egal sein).
Wenn die Open Source Variante aber schlechter ist, was sie aktuell nun mal ist, fällt das Argument nicht weg.
Das "schlechter" ist hier schwierig zu halten bzw. hängt von der konkreten Implementation ab. Grundsätzlich kann man bspw. DLSS und XeSS auf einer AMD-Karte implementieren und es führt zu exakt den gleichen qualitativen Ergebnissen. Aufgrund teilweise fehlender, direkter HW-Unterstützung würde es hier nur etwas langsamer berechnet werden, d. h. der relative Fps-Zugewinn würde etwas niedriger ausfallen.
"Schlechter" könnte es erst werden, wenn ein Entwickler den zwangsweisen PerformanceDrop verringern möchte zulasten der Qualität. Intel zeigte auf seiner Teaser-Slide zu XeSS aber schon, dass ein Wechsel auf eine DP4-fähige Hardware nur mit einem vergleichsweise kleinen PerfDrop einher geht.
*) Bei nVidia ist die Abschätzung etwas schwieriger, da sie Vergleichsmaterial aus naheliegenden Gründen nicht freigeben, obwohl die erste DLSS2-Beta-Version auf Turing noch rein über die Shader implementiert wurde.
Was man lediglich in die Waagschale werfen kann ist, dass die Tensor Cores extrem leistungsfähige und flexible MM-Einheiten sind und dass es sich um dedizierte, zusätzliche Funktionseinheiten auf dem Chip handelt, die gar in Teilen noch parallel zu den regulären Shadern arbeiten können. Darüber hinaus kann man jedoch ebenso abschätzen, dass das Inferencing nur einen Teil des gesamten DLSS-Workloads ausmacht, während für den Rest natürlich dennoch die Shader herangezogen werden.
Vermutlich wird nVidia so schnell keine vergleichende Implementation bereitstellen, sodass in einigen Monaten nur der Vergleich gegen Intels XeSS bleibt, das relativ ähnlich zu arbeiten scheint (genaueres wird man nach der GDC wissen, da Intel hierzu auch einige TechTalks abhält). Da Intel absehbar freizügiger mit den Informationen ist, darf man dann von hier ausgehend Rückschlüsse in Richtung DLSS stellen.