Ich finde schon das deine Behauptung das impliziert hat, wo die Vermutung aufgestellt wurde, dass wegen den Mangel an dedizierten HW-Einheiten, FSR nicht ohne Grund auf ein AI-Modell verzichtet.
Falls man allerdings über die Shader-ALUs insgesamt nur geringfügig langsamer rechnet, dann wäre es aus Hardwareperspektive praktisch grundlos gewesen bzw. die Gründe finden sich dann woanders.
Leider haben wir hauptsächlich nur Marketingfolien von Nvidia und jetzt Intel in diesem Bezug, ohne Praxisergebnisse erscheint das jetzt schwer abschätzbar, vor allem wie du angesprochen hast, dürfte es auf den Inference-Teil ankommen.
Je, anspruchsvoller es wird, desto mehr dürften die Matrix-Einheiten Vorteile bringen.
Bei FSR gibt es zwei mögliche Gründe m. M. n., bzw. es könnten gar auch beide gleichzeitig zutreffen.
a) Zum einen AMDs mangelndes KnowHow/Erfahrung im Bereich AI *) und/oder mangelnde Ressourcen für die Erstellung eines derartigen Ansatzes zum jetzigen Zeitpunkt.
b) FSR war auch insbesondere für die Konsolen mitgedacht und die verfügen nun einmal über deutlich weniger CUs und takten niedriger. Das macht auch was aus, denn da kann man zwangsweise nicht zu viele Ressourcen drauf verwenden, weil das sonst kontraproduktiv wird.
Ergänzend könnte man noch vermuten, dass AMD unbedingt den Support der Alt-GPUs (die dahingehend noch schwächer auf der Brust sind) gegen das deutlich etabliertere DLSS benötigte. Vielleicht nicht ganz abwegig, aber hier würde ich dann doch eher vermuten dass die oberen beiden Punkte relevanter sein dürften.
Darüber hinaus, es steht vollkomen außer Frage, dass nVidia DLSS in der Form auch als vermarktungstechnisches Argument nutzt (ist letzten Endes auch ihr gutes Recht), aber die dedizierten HW-Einheiten, die gar eingeschränkt parallel arbeiten können, sind zweifellos ein Pluspunkt der Architektur. Das ist nun mal nicht von der Hand zu weisen.
@Olstyle: Das "dramatisch" ist ja schon wieder sehr auslegungsfähig. Wie bekannt sein sollte, nutzte eine erste Beta-Implementaiton in einem id-Titel die Shader für DLSS2 und nicht die Tensor Cores. D. h. natürlich geht das grundlegend, langsamer wird es aber grundsätzlich, da die Tensor Cores diesbezüglich hier weitaus durchsatzstärker sind.
Darüber hinaus vermeide ich es hier in dem Kontext auch bewusst irgendwem vorzuschreiben was er/sie als langsam, ausreichend schnell oder schnell zu empfinden hat, weil das subjektiv ist. Und bei Diskussionen rund um Supersampling in dieser Art sollte klar sein, dass man da nur über absolut gesehen kleinere Schwankungsbereich spricht, da der Supersampling-Pass grundlegend nur einen vergleichsweise kleinen Anteil an der Frametime haben kann.
*) Bevor jetzt wieder Mitleser anfangen zu weinen: relativ gesehen zu nVidia und Intel.
Interessant wird nun auch zu spekulieren sein, was Intels XeSS langfristig mit AMDs möglicher FSR-Weiterentwicklung oder -Nachfolge machen wird. Vermutlich wird man an einem AI-Ansatz (bzw. genauer ML/DL) zwecks besserer Leistung/Qualität nicht vorbei kommen, wenn jetzt aber auch noch Intel eine bereits gute Implementation frühzeitig abliefert, die zudem frei verfügbar sein soll, wäre da am Ende nur noch wenig Luft bzw. Bedarf für noch eine weitere Variante, zumal auch angeblich Microsoft selbst an einem AI-basierten Upscaling arbeitet.
Einfach mal abwarten. Grundsätzlich ist man nun schon gut bedient. Der Großteil nutzt derzeit eh nVidia-Hardware und wird auch kein allzu großes Problem mit deren DLSS-Politik haben. Für den Rest (wobei natürlich mit gewissen Einschränkungen) stehen FSR und möglicherweise als leicht bessere Alternative XeSS zur Verfügung. Man darf auf jeden Fall auf erste Tests gespannt sein, wobei das genaugenommen selbst aktuell noch bei FSR/DLSS eher problematisch ist, bei der geringen Auswahl/Vergleichsmöglichkeit an Dual-Implementationen.
In Anlehnung an Olstyle kommt aber auch hier schon wieder der sehr subjektiv auslegungsfähige Aspekt hervor, denn es ist ja letzten Endes keinesfalls so, dass FSR mit seinen ein, zwei höchsten Modi unbrauchbar wäre, ganz im Gegenteil.