• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Fidelity FX Super Resolution: Source Code bereitgestellt, neue Spiele plus Support für Unreal Engine und Unity

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Fidelity FX Super Resolution: Source Code bereitgestellt, neue Spiele plus Support für Unreal Engine und Unity

AMDs DLSS-Konkurrent Fidelity FX Super Resolution wurde wie versprochen als Source Code veröffentlicht. Außerdem teilen die GPU-Bauer mit, dass FSR nun auch in ersten Versionen für die Unreal Engine und Unity verfügbar ist. Auch die Liste der unterstützten Spiele wird größer.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Fidelity FX Super Resolution: Source Code bereitgestellt, neue Spiele plus Support für Unreal Engine und Unity
 

CD LABS: Radon Project

Volt-Modder(in)
Das wichtige wäre, sowohl hier als auch bei DLSS, dass sich auch darum gekümmert würde beides in frühere Builds zu integrieren. Bzw. wäre es noch besser, eine Art Engine-Herstellermod zu entwickeln, mit der es nachträglich reingepatched werden kann.
Auf den beiden Engines basieren nun einmal Massen an potentiellen Klassikern, bei denen es gleichzeitig sehr unwahrscheinlich ist, dass die Devs weitere Updates liefern würden --- und gute Performance und gutes Antialiasing benötigt nunmal quasi jeder Titel mit 3D-Grafik.
 

Bauchklatscher

Komplett-PC-Käufer(in)
Warum soll DLSS verschwinden?
Weil es eine proprietäre Lösung ist, die mitunter auch noch oft schlecht implementiert wird.
Ich hätte nichts dagegen, wenn beides in jedem Spiel Standard ist.
Nvidia wird DLSS früher oder später freigeben und es wird einen gemeinsamen Standard geben.
Nur gegen eine "geteilete" Spiele-Welt hätte ich etwas.
Also das was wir aktuell haben.
Also die potenziell bessere Technik (DLSS) gegen einen universalen Ansatz.
 

ZeroZerp

Freizeitschrauber(in)
...also doch lanczos...
Das hat man ja schon lange gemunkelt.
War aufgrund der bis jetzt gezeigten Darbietung nicht anders zu erwarten und ist letztendlich die einzige nicht temporal und mittels AI funktionierende, sinnvolle Screenspace- Variante . Im positiven wie im negativen Sinne....

Damit ist aber auch klar, dass die Variante dead end ist, genauso wie damals DLSS 1, was es als Entwickler wieder etwas schwierig macht, sich darüber zu freuen
Denn es wird sicher eine andere, inkompatible Variante im Nachgang erscheinen.

Kommt einem langsam als ein Manöver, geboren aus der Not vor, um Zeit zu gewinnen.
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Hoffentlich setzt sich FSR schnell und unkompliziert durch, damit DLSS schnell vom Markt verschwinden darf.
Das wird so sicherlich nicht eintreffen, insbesondere da der überwiegende Großteil aller PC-Gamer auf nVidia-Hardware spielt, die mit jeder neueren, verkauften Karte auch DLSS-Funktionalität nutzen können und die NextGen in 2022 wird zweifellos ebenso wieder Tensor Cores mitbringen, d. h. nVidia hat hier überhaupt keinen Grund DLSS fallen zu lassen.
Abgesehen davon sieht das anscheinend selbst Microsoft so, denn hier wiesen kürzliche Stellenausschreibungen darauf hin, dass die an einem eigenen AI-basieren Upscaling-Algorithmus arbeiten.
 

ZeroZerp

Freizeitschrauber(in)
Hoffentlich setzt sich FSR schnell und unkompliziert durch, damit DLSS schnell vom Markt verschwinden darf.
FSR und DLSS haben technisch nichts miteinander zu tun, außer dass sie aus einem kleinen Bild ein großes machen.
Das ist wie der Vergleich zwischen Auto und Flugzeug-> Beides bewegt sich irgendwie fort....
 
Zuletzt bearbeitet:

Korben06

Kabelverknoter(in)
DLSS wird nicht sobald verschwinden. Solange DLSS bei der Qualität FSR einen (egal wie großen oder kleinen) Schritt voraus ist, bleibt DLSS erhalten, als "Premium" Option (etwas bessere Qualität, aber nur bei Premium-Titeln die sich die Technik leisten können), während FSR Richtung "Standard" gehen wird.
Ähnliche Entwicklung wie bei G-Sync und Adaptive-Sync... ich meine da gibt nvidia auch nicht auf, weil es seine G-Sync-Lizenzen für die schönen grünen Sticker verkaufen kann und es eben ein Kaufargument für ihre GPUs ist. (wobei ich persönlich eher Monitore mit Adaptive-Sync kaufe weil die eben bei beiden Hersteller funktionieren. Oft hat man einen Monitor ja über mehrere GPU Generationen).
Sollte FSR aber je DLSS ein- oder sogar überholen was das Ergebnis angeht... dann macht es schlicht keinen Sinn für Entwickler beide Techniken einzubauen (es sei denn nvidia "sponsort").
Aber das wird noch einige Jahre dauern, wenn es denn so kommt. Denke ich.
nvidias Motivation das DLSS besser funktioniert als FSR ist groß: es ist einfach ein Kaufargument für ihre Grafikkarten. Das wird man so schnell nicht aufgeben und weiter Geld reinpumpen.
 

rumpeLson

Komplett-PC-Aufrüster(in)
Schön, dass FSR nun langsam Verbreitung findet.
Dass es sich um einen effizienteren Lanczos Algorithmus handelt, finde ich gar nicht weiter schlimm. FSR 1.0 soll primär eine Überbrückung zu einer solideren (und komplett neu entwickelten) Lösung darstellen. Gerade für höhere Auflösungen scheint das Konzept ja auch aufzugehen.

Total Banane finde ich jedoch die gewählten Presets. Hier sieht man eindeutig, dass man Nvidia in entsprechenden Benchmarks etwas entgegen setzen möchte, auch wenn die Presets unterhalb von Quality eher nicht benutzbar erscheinen. Für WQHD würde ich mir eher noch einen Modus oberhalb von Ultra Quality wünschen, der dann 15-20% Mehrleistung bringt.
 

raPid-81

Software-Overclocker(in)
DLSS wird nicht sobald verschwinden. Solange DLSS bei der Qualität FSR einen (egal wie großen oder kleinen) Schritt voraus ist, bleibt DLSS erhalten, als "Premium" Option (etwas bessere Qualität, aber nur bei Premium-Titeln die sich die Technik leisten können), während FSR Richtung "Standard" gehen wird.
Kein Entwickler bezahlt für DLSS, wenn dann fließt Geld und Support von NV an die Entwickler. NV ist mehr daran gelegen die Technik zu verbreiten als die Entwickler das Feature brauchen.

Ähnliche Entwicklung wie bei G-Sync und Adaptive-Sync... ich meine da gibt nvidia auch nicht auf, weil es seine G-Sync-Lizenzen für die schönen grünen Sticker verkaufen kann und es eben ein Kaufargument für ihre GPUs ist. (wobei ich persönlich eher Monitore mit Adaptive-Sync kaufe weil die eben bei beiden Hersteller funktionieren. Oft hat man einen Monitor ja über mehrere GPU Generationen).
DLSS vs FSR ist nicht vergleichbar mit G-Sync vs Freesync. Das erste Feature-Set muss in Spiele implementiert werden, das zweite läuft immer wenn man die entsprechende Grafikkarte / Monitor Kombination besitzt.

Sollte FSR aber je DLSS ein- oder sogar überholen was das Ergebnis angeht... dann macht es schlicht keinen Sinn für Entwickler beide Techniken einzubauen (es sei denn nvidia "sponsort").
In den meisten Engines gibt es bereits nativen DLSS Support (oder der nächste Engine-Release bringt den Support mit). FSR zieht langsam nach mit den Engines. Somit werden wir in Zukunft vermutlich viele Spiele mit Support für beides sehen. Dann werden die NV-Nutzer nach Qualität entscheiden, die AMD Nutzer haben immerhin FSR.

Aber das wird noch einige Jahre dauern, wenn es denn so kommt. Denke ich.
nvidias Motivation das DLSS besser funktioniert als FSR ist groß: es ist einfach ein Kaufargument für ihre Grafikkarten. Das wird man so schnell nicht aufgeben und weiter Geld reinpumpen.
Der deep-learning Ansatz ist einfach gesagt überlegen, deswegen wird Intel da vermutlich auch eine Lösung bringen. Wer weiss, vielleicht wird das auch auf Tensor-Cores aufbauen, da könnte man sich eine Coop NV/Intel vorstellen.
 

Bärenmarke

Software-Overclocker(in)
Der deep-learning Ansatz ist einfach gesagt überlegen, deswegen wird Intel da vermutlich auch eine Lösung bringen. Wer weiss, vielleicht wird das auch auf Tensor-Cores aufbauen, da könnte man sich eine Coop NV/Intel vorstellen.

Ne das wird intel nicht, wieso sollten sich auch? Sie haben, sowie auch AMD gegen Ende des Jahres, etwas viel besseres und das nennt sich FPGA, da brauchen sie keine Tensorcores ;-)
Von daher könnten ohne weiteres alle drei Hersteller einen KI gesteuert Ansatz verfolgen über die nächsten Jahre.
 

Schinken

Software-Overclocker(in)
Weil es eine proprietäre Lösung ist, die mitunter auch noch oft schlecht implementiert wird.
Alles ist mal schlecht implementiert. Einfach alles. Zum proprietären Theme siehe unten.
Nvidia wird DLSS früher oder später freigeben und es wird einen gemeinsamen Standard geben.
Dann wärs auch nicht mehr proprietär. Fänd ich gut.
Also das was wir aktuell haben.
Also die potenziell bessere Technik (DLSS) gegen einen universalen Ansatz.
Ja genau. Deswegen hoffe ich aber nicht dass DLSS verschwindet, sondern dass ich die Wahl kriege.
Ob das ein sehr realistischer Wunsch ist, davon habe ich nichts gesagt.

Die zweitbeste Option in meiner Wunschwelt ist dann zumindest FSR in allen Spielen. Schlicht weil ich das benutzen kann.
 
Zuletzt bearbeitet:

blautemple

Lötkolbengott/-göttin
@PCGH_Raff
Es gibt seit heute den ersten Titel der DLSS und FSR anbietet:

Das Spiel taugt imo zwar nicht, aber alleine das macht es jetzt interessant ^^
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Cool. Aber einer der wenigen Titel, die wir weder im Bestand haben, noch jemand gekauft hat. :ugly:

MfG
Raff
 

gerX7a

BIOS-Overclocker(in)
Ne das wird intel nicht, wieso sollten sich auch? Sie haben, sowie auch AMD gegen Ende des Jahres, etwas viel besseres und das nennt sich FPGA, da brauchen sie keine Tensorcores ;-)
Von daher könnten ohne weiteres alle drei Hersteller einen KI gesteuert Ansatz verfolgen über die nächsten Jahre.
Intel wird keine FPGAs in ihre CPUs einbauen, das ist bei denen schon "ein alter Hut" und das Thema haben sie in der letzten Zeit eher im Gegenteil wieder zurückgebaut.
Für AI hat Intel AVX-512 sukzessive erweitert und jetzt kommt auch noch AMX dazu, dass den Durchsatz auf der CPU noch einmal bis zu verdoppeln können soll, die HBM2-Varianten von Sapphire Rapids dürften vermutlich ebenso primär auf AI-Workloads abziehlen und als dedizierte Lösung kommt Xe-HPC mit anscheinend immenser AI-Leistung hinzu.
FPGAs direkt auf der CPU scheinen vorerst Geschichte zu sein bei Intel und stattdessen wird es dedizierte Lösungen in Form der Agilex- und insbesondere Stratix-FPGAs geben. (Und Intel hat schon längst entsprechende Funktionseinheiten im Stratix 10 NX, nur nennen die diese hier "Tensor Block" und die sind vermutlich weitestgehend auf das Inferencing ausgelegt.)

FSR musste grundsätzlch "leichtgewichtig" ausgelegt sein, da AMD hier vorrangig die Konsolen-SoCs im Auge halten musste, die bestenfalls über 52 CUs verfügen und langsamer takten als die dedizierten RDNA2-GPUs, d. h. ohne spezielle Ausführungseinheiten kann man da nicht übermäßig viel Rechenleistung für verplanen, weil das am Ende sonst kontraproduktiv wird.
Abgesehen davon ist FSR eh nur eine von vielen Lösungen. Ganz neu von Epic ist deren TSR, das ebenso hochgradig auf die NextGen-Konsolen hin optimiert ist. Microsoft arbeitet anscheinend ebenfalls an einem AI-basierten, eigenen Ansatz und bei Intel liest man in Verbindung mit Xe-HPG von einem "XeSS" als Codenamen, wobei es hierzu aber noch keine Details gibt. Deren Xe-Architektur verfügt entgegen RDNA2 jedoch auch über eine erhöhte Inferencing-Leistung und wird mit angepasster Technik da vermutlich auch besser performen können. Man darf gespannt sein ob RDNA3 sich vielleicht etwas mehr in Richtung ML bewegen wird.
Aber auch hier wird man absehbar den Gedanken an FPGAs in Consumer-GPUs vorerst streichen können, Xilinx hin oder her. Abseits dessen sind FPGAs für AI-Workloads auch nicht unbedingt der heilige Gral. Bei Xilinx kommen die lediglich zwangsweise aus der Richtung, weil FPGAs deren Kerngeschäft sind, der größe Boom in der Industrie jedoch mittlerweile im ML-Markt stattfindet und dementsprechend versucht man da sein KowHow zu transferieren.
Sieht man sich jedoch die ganzen KI-StartUps an, von denen einige mit sehr erfolgreichen Produkten aufwarten, verwendet von denen keiner FPGAs, sondern die verwenden für ihre AI-Produkte alle dedizierte, selbstentwickelte Designs. ;-)
 
Zuletzt bearbeitet:

Korben06

Kabelverknoter(in)
Kein Entwickler bezahlt für DLSS, wenn dann fließt Geld und Support von NV an die Entwickler. NV ist mehr daran gelegen die Technik zu verbreiten als die Entwickler das Feature brauchen.
Es gibt auch andere Kosten: allen Interviews von Entwicklern die ich bisher gelesen habe zufolge ist DLSS weitaus aufwendiger zu implentieren als FSR -> höhere Entwicklungskosten.
DLSS vs FSR ist nicht vergleichbar mit G-Sync vs Freesync. Das erste Feature-Set muss in Spiele implementiert werden, das zweite läuft immer wenn man die entsprechende Grafikkarte / Monitor Kombination besitzt.
Kann man durchaus einer gewissen Ebene vergleichen: G-Sync/DLSS läuft ausschließlich mit nvidia Hardware, Adaptive-Sync/FSR sind offen.
In den meisten Engines gibt es bereits nativen DLSS Support (oder der nächste Engine-Release bringt den Support mit). FSR zieht langsam nach mit den Engines. Somit werden wir in Zukunft vermutlich viele Spiele mit Support für beides sehen. Dann werden die NV-Nutzer nach Qualität entscheiden, die AMD Nutzer haben immerhin FSR.
Siehe Kosten. Nur weil DLSS von den Engines untersützt wird, ist es nicht per Drag&Drop implementierbar (FSR kommt dem aber offenbar sehr nahe). Liegt natürlich auch an der Technik.
Der deep-learning Ansatz ist einfach gesagt überlegen, deswegen wird Intel da vermutlich auch eine Lösung bringen. Wer weiss, vielleicht wird das auch auf Tensor-Cores aufbauen, da könnte man sich eine Coop NV/Intel vorstellen.
Das wird sich dann ja zeigen. Ich bin gespannt.
 

ZeroZerp

Freizeitschrauber(in)
Es gibt auch andere Kosten: allen Interviews von Entwicklern die ich bisher gelesen habe zufolge ist DLSS weitaus aufwendiger zu implentieren als FSR -> höhere Entwicklungskosten.
Hast Du Links zu den Interviews der Entwickler, wo angemerkt ist, dass DLSS weitaus aufwändiger zu integrieren sei als FSR? ich lese nur immer davon, dass FSR einfach und in 1-2 Tagen zu intergrieren sei....

Dazu:
“NVIDIA DLSS 2.0 basically gives our players a free performance boost, without sacrificing image quality” said Russ Bullock, President at Piranha Games. “It was also super easy to implement with NVIDIA’s new SDK, so it was a no brainer for us to add it to MechWarrior 5.”

oder


Die einzige Aussage, die in deine kerbe schlägt, sehe ich hier:

Kann man durchaus einer gewissen Ebene vergleichen: G-Sync/DLSS läuft ausschließlich mit nvidia Hardware, Adaptive-Sync/FSR sind offen.
Dafür hast Du mit G-Sync Mindeststandards, wobei Du mit Adaptive- Sync nicht wirklich blind sagen kannst, welche Qualität bzw. welchen Arbeitsbereich Du erhältst.

Siehe Kosten. Nur weil DLSS von den Engines untersützt wird, ist es nicht per Drag&Drop implementierbar (FSR kommt dem aber offenbar sehr nahe). Liegt natürlich auch an der Technik.
Auch FSR kommt dem nicht nahe, da Du das nicht beliebig in Deiner Renderpipeline einbauen musst und auch hier diverse Vorgänge vor- bzw. nachgelagert werden müssen. Wie bei DLSS eben auch.
Das wird sich dann ja zeigen. Ich bin gespannt.
Dass er überlegen ist zeigt sich doch schon die ganze Zeit. Es ist nur die Frage, ob man die bessere Technik aus welchen Gründen auch immer einer schlechteren, dafür einer vermeintlich weiter zu verbreitenden Technik opfern will.

Ich bin dafür, dass beide Techniken bestehen bleiben. So hat der User die Wahl.
Was in diesen Diskussionen komplett verkannt wird ist, dass FSR in der jetztigen Form erstens nicht mehr besser werden kann (das ist der Preis, den man für eine einfachere Integration nebst der geringeren Qualität zahlt) und zweitens, dass die Verfahren FSR und DLSS sich gegenseitig nicht ersetzen können.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Es gibt auch andere Kosten: allen Interviews von Entwicklern die ich bisher gelesen habe zufolge ist DLSS weitaus aufwendiger zu implentieren als FSR -> höhere Entwicklungskosten.
Wie @ZeroZerp sagt, bitte Quellen dazu. In der UE4+5 dauert es 5 Minuten DLSS zu integrieren. In Unity und diversen anderen Engines (Snowdrop, IDTech, Frostbite, Anvil, Disrupt, REDEngine, Cryengine, RAGE) sieht es genau so aus oder kommt mit dem nächsten Release. Da muss AMD erst mal nachlegen, soweit ich weiss wird FSR bisher in 1-2 Engines nativ unterstützt (UE + Unity).

https://www.computerbase.de/2021-07...e-sowie-unity-und-als-open-source-verfuegbar/

In Unity gibt es FSR in einer Beta-Version von Unity 2021.2 HDRP, während die Technologie zwar nicht direkt in der Unreal Engine integriert ist, aber mittels des von AMD zur Verfügung gestelltem Patches in die UE 4.26 eingebaut werden kann.

Kann man durchaus einer gewissen Ebene vergleichen: G-Sync/DLSS läuft ausschließlich mit nvidia Hardware, Adaptive-Sync/FSR sind offen.
Ja, kann man so vergleichen, dabei aber bitte nicht außen vor lassen:
- G-Sync ist durchweg besser als Freesync (unterstützer Hz Bereich)
- DLSS ist qualitativ besser als FSR (FSR ist gut bei 4K Ultra Quality, DLSS ist im Quality Mode in jeder Auflösung überlegen)

Siehe Kosten. Nur weil DLSS von den Engines untersützt wird, ist es nicht per Drag&Drop implementierbar (FSR kommt dem aber offenbar sehr nahe). Liegt natürlich auch an der Technik.
Doch, es ist genau so: drag and drop. Siehe hier:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.


Das wird sich dann ja zeigen. Ich bin gespannt.
Worauf bezieht sich das "wird sich zeigen"? Dass deep-learning Ansätze überlegen sind wird sich nicht zeigen, das weiss man bereits. Siehe diverse Tests der Fachmagazine.
 

Bärenmarke

Software-Overclocker(in)
Sieht man sich jedoch die ganzen KI-StartUps an, von denen einige mit sehr erfolgreichen Produkten aufwarten, verwendet von denen keiner FPGAs, sondern die verwenden für ihre AI-Produkte alle dedizierte, selbstentwickelte Designs. ;-)

Ich weiß zwar nicht, was dein langer Monolog mit meinem Beitrag zu tun haben soll, aber offensichtlich hast du da nicht so den Durchblick und scheinst dich mit FPGAs auch nicht wirklich auszukennen. Denn lustigerweise setzt ein deutsches Startup eher auf FPGAs ;-)

Und je nach Anwendung sind FPGAs der sehr wohl im Vorteil und auch begehrt, google und du wirst viel finden.


Intel wird keine FPGAs in ihre CPUs einbauen, das ist bei denen schon "ein alter Hut" und das Thema haben sie in der letzten Zeit eher im Gegenteil wieder zurückgebaut.

Gut, dass DU weißt was intel machen wird. Gerade mit ihrem neuen Big Little Ansatz, wäre es für sie einfacher FPGAs zu integrieren. Zumindest AMD sieht darin einen sehr vielversprechenden Ansatz, we will see

Für AI hat Intel AVX-512 sukzessive erweitert und jetzt kommt auch noch AMX dazu, dass den Durchsatz auf der CPU noch einmal bis zu verdoppeln können soll, die HBM2-Varianten von Sapphire Rapids dürften vermutlich ebenso primär auf AI-Workloads abziehlen und als dedizierte Lösung kommt Xe-HPC mit anscheinend immenser AI-Leistung hinzu.

Zum einen muss man die neuen Erweiterungen erstmal in Software unterstützen und zum anderen scheinst du wirklich absolut keine Ahnung von FPGAs zu haben....

Allein die bessere Energieeffizienz spricht für FPGAs, von daher wäre intel sehr blöd, wenn sie ihre FPGA Sparte vernachlässigen, zumal sie sie auch teuer eingekauft haben.

FPGAs direkt auf der CPU scheinen vorerst Geschichte zu sein bei Intel und stattdessen wird es dedizierte Lösungen in Form der Agilex- und insbesondere Stratix-FPGAs geben. (Und Intel hat schon längst entsprechende Funktionseinheiten im Stratix 10 NX, nur nennen die diese hier "Tensor Block" und die sind vermutlich weitestgehend auf das Inferencing ausgelegt.)

Als Custom Design für die Superrechner wäre die Kombination vermutlich durchaus gefragt, wobei man natürlich auch extra Karten dafür nehmen kann. Bzw. würde es sich für Server als Securitycenter anbieten, da man es bei BUGs einfacher flashen kann. Auch wenn intel aktuell kein Produkt angekündigt hat, so dumm werden sie nicht sein und nicht auch damit weiter zu forschen, die Ressourcen haben sie.

FSR musste grundsätzlch "leichtgewichtig" ausgelegt sein, da AMD hier vorrangig die Konsolen-SoCs im Auge halten musste, die bestenfalls über 52 CUs verfügen und langsamer takten als die dedizierten RDNA2-GPUs, d. h. ohne spezielle Ausführungseinheiten kann man da nicht übermäßig viel Rechenleistung für verplanen, weil das am Ende sonst kontraproduktiv wird.

Und das hat was mit meinem Post zu tun? Nichts.

Abgesehen davon ist FSR eh nur eine von vielen Lösungen. Ganz neu von Epic ist deren TSR, das ebenso hochgradig auf die NextGen-Konsolen hin optimiert ist. Microsoft arbeitet anscheinend ebenfalls an einem AI-basierten, eigenen Ansatz und bei Intel liest man in Verbindung mit Xe-HPG von einem "XeSS" als Codenamen, wobei es hierzu aber noch keine Details gibt. Deren Xe-Architektur verfügt entgegen RDNA2 jedoch auch über eine erhöhte Inferencing-Leistung und wird mit angepasster Technik da vermutlich auch besser performen können. Man darf gespannt sein ob RDNA3 sich vielleicht etwas mehr in Richtung ML bewegen wird.

Microsoft wird auch den Ansatz von AMD nutzen, wieso sollten sie auch was eigenes verwenden... Immerhin nutzen sie RDNA Hardware und selber noch Geld reinzustecken, da wären sie ja schön blöd, wenn das so auch gut funktioniert.


Aber auch hier wird man absehbar den Gedanken an FPGAs in Consumer-GPUs vorerst streichen können, Xilinx hin oder her. Abseits dessen sind FPGAs für AI-Workloads auch nicht unbedingt der heilige Gral. Bei Xilinx kommen die lediglich zwangsweise aus der Richtung, weil FPGAs deren Kerngeschäft sind, der größe Boom in der Industrie jedoch mittlerweile im ML-Markt stattfindet und dementsprechend versucht man da sein KowHow zu transferieren.

Sie sind für AI Workloads wesentlich besser wie GPUs aber macht nichts ;-) Und zusammen mit dem Chipletansatz wäre dies ein durchaus plausibler Ansatz, da man die Funktionalität für Raytracing usw. auslagert. Aber mit RDNA 3 wird das definitiv nicht kommen, das wäre viel zu früh. Aber was im Detail kommt wird man dann sehen, nur sollte man halt FPGAs nicht unterschätzen, damit lässt sich so einiges realisieren und durch die neuen programmiermöglichkeiten von Microsoft und Xilinx, kann man einfach C code schreiben, welcher dann umgesetzt wird, was die Sache wieder vereinfacht.
 
Oben Unten