News AMD FSR 3: DLSS-3-Konkurrent mit Frame Interpolation soll angeblich bald erscheinen

FSR 3 soll gegenüber DLSS3 nicht nur mit einem, sondern mit bis zu vier interpolierten Bildern arbeiten können.
So zumindest das vollmundige Versprechen. Glaube ich jedoch erst, wenn ich es sehe. Bei DLSS 3 FG wird nur ein Frame interpoliert und das lässt die Latenz bereits drastisch steigen, wie soll das bitte bei 4 Frames aussehen? So ganz ohne Nutzung der "KI-Kerne" von RDNA3? Sorry, aber das klingt zu gut um wahr zu sein. Und wenn es zu gut klingt um wahr zu sein, ist es das meistens auch.

FSR 3 wurde im November 2022 zusammen mit RDNA3 angekündigt, seitdem herrscht verdächtige Stille darum. AMD verliert kein Wort darüber und inzwischen haben wir Mitte August 2023.
 
Abwarten.. im Moment alles nur gerüchte und Wunschdenken..
es braucht ja auch Spiele die es unterstützen...
Im Idealfall ist FSR3 dann eigentlich ein FSR2 plus "FG im Treiberpaneel". (per HotKey on/off)
Wunschdenken= falls man FG beliebig zuschalten kann, .... gehts evtl. schon in allen FSR2-Games

Nachteil: FG geht dann nur auf AMD-Grakas zu aktivieren
(Das machts evtl. fürs Treiberteam etwas einfacher mit der Implementierung)
 
Zuletzt bearbeitet:
Da können die RTX30 Besitzer ein Lied von singen.
Ich hab mir erst eine 6950 XT geholt (für 670 Euro) und bin sehr zufrieden damit, befürchte aber, das FSR 3 nicht verfügbar sein wird. Denke mal die KI-Kerne der RDNA3 GPUs sind genau dafür gemacht und eben jene fehlen den RDNA2 GPUs.
RDNA hat keine "KI-Kerne" bzw. verfügt immer noch über keine dedizierten ML-Funktionseinheiten.
Es gibt ein paar erweiterte "Verdrahtungen" in den Shadern, die den ML-Durchsatz (Matrixoperationen) verbessern, mehr aber auch nicht. Dedizierte Hardware besitzen nur Intel und nVidia in ihren GPUs.

Ich fände es am Besten, wenn AMD FSR3 nur auf RDNA 2/3 beschränken würde.
Die Grünen haben ja ihre gewollte und gefeierte Exklusivität mit DLSS3, und jenen könnte FSR3 eh nix recht machen.
Die Frage ist, wie viel Rechenleistung zur Verfügung stehen muss auf einer GPU um das sinnvoll nutzen zu können, sprich, dass diese Technik auch tatsächlich einen echten Mehrwert bei vertretbarer Qualität bietet ... wobei das dann zudem auch noch auflösungsabhängig ist, da in 4K rd. 2,25x so viele Pixel beobachtet und extrapoliert werden müssen i.V.z. QHD. *)

Darüber hinaus im allgemeinen Kontext ist deine "Forderung" jedoch vollkommener Unsinn. AMDs GPU-Marktanteil ist viel zu klein. Würden die ihr FSR ausschließlich für ihre GPUs anbieten oder nur auf RDNA2 oder gar nur RDNA3 beschränken, würde sich "quasi kein Mensch" und kein Entwickler dafür interessieren (hier ist bestenfalls eine technische Begründung hinnehmbar, sprich RDNA2 oder ältere Hardware hat schlicht zu wenig freie Rechenleistung zur Verfügung, etc.).
Zudem, das was "die Grünen" machen ist nicht vergleichbar mit dem was AMD machen kann. Beispielsweise die freie Verfügbarkeit von FSR ist schlicht ein Diktat des Marktes ... dass AMDs Marketing das anders zu verkaufen versucht, ist verständlich, kann aber nicht über die tatsächlichen Beweggründe bzw. deren Marktsituation hinwegtäuschen.
Am Ende ist diese Verfügbarkeit ja auch für den Markt insgesamt von Vorteil, sollte einen aber keinerfalls zu einer Fehleinschätzung bzgl. AMDs Absichten verleiten. Die wollen auch nur unser Geld.


*) Die Frage ist aber natürlich auch wie AMD die Frame Generation technisch implementiert. Vielleicht verwenden die auch ein "einfacheres" Verfahren, wobei dann aber natürlich die Frage nach der Qualität bleibt. Am Ende wird man abwarten müssen was sie hier abliefern werden ... und schlussendlich bleibt für so manchen aber selbst bei etwas schwächerer Qualität i.V.z. DLSS2/3 dass das immer noch besser ist als eine derartige Technik gar nicht zur Verfügung zu haben, sprich nicht die Wahl zu haben. ;-)

**) Und in einem zweiten Schritt bitte ebensowenig nicht die freie Verfügbarkeit mit Open Source verwechseln. Auch hier versucht AMDs Marketing natürlich das irgendwie positiv zu verkaufen, jedoch kein Entwickler hat Zeit, Lust und das Budget hier eine eigene oder auch nur relevant modifizierte Variante selbst zu implementieren. Hier wird lediglich das Referenzdesign von AMD genutzt und as-is eingebunden, sprich es ist vollkommen irrelevant ob das Open Source ist oder auch nicht. ;-)

Nimmt man es genau, dann kann AMD auch in diesem engeren Sinne keinen Vorteil anbieten, denn DLSS kann auch vom Entwickler feingetuned werden und dieser könnte eigene Trainigsläufe für ein customized NN speziell auf Basis des Contents seines gerade in der Entwicklung befindlichen Titels absolvieren um ein speziell auf seinen Titel zugeschnittenes NN anbieten zu können.
Aber auch hieran hat kein Entwickler interesse, weil das universell von nVidia bereitgestellte NN bereits von so guter Qualität ist, dass sich der Mehraufwand für einen Entwickler i.d.R. nicht lohnt, sodass mir hier auch kein einziger Titel bekannt wäre, bei dem der Entwickler/Publisher damit wirbt.
Darüber hinaus würde ein solches customized NN für DLSS zudem mit nVidia's Updates kollidieren, denn die liefern in gewissen Intervallen ein aktualisiertes NN mit ihrem Treiber aus und da dürfte man dann rätselraten ob dieses neue, universell trainierte NN nun bei diesem Titel einen Mehrwert bieten wird oder dem alten, individuell auf diesen Titel hin tranierten NN vom Entwickler dennoch unterlegen sein wird. Auf derartigen Spekulatius will man sich hier grundlegend nicht einlassen, da modernes Game-Development schon so ausreichend komplex geworden ist, sodass man sich hier komplett auf nVidia bzgl. DLSS verlässt.
 
Zuletzt bearbeitet:
RDNA hat keine "KI-Kerne" bzw. verfügt immer noch über keine dedizierten ML-Funktionseinheiten.
Es gibt ein paar erweiterte "Verdrahtungen" in den Shadern, die den ML-Durchsatz (Matrixoperationen) verbessern, mehr aber auch nicht. Dedizierte Hardware besitzen nur Intel und nVidia in ihren GPUs.
Um die Recheneinheiten besser auslasten zu können, hat AMD die VGPR (Vector General-Purpose Registers) um 50 % größer gestaltet. Jede Compute Unit verfügt zudem über zwei nicht näher beschriebene KI-Einheiten, die einfache INT8- und BFLOAT16-Berechnungen schneller ausführen können.

Ist einwenig mehr wie von Dir beschrieben, ändert aber nichts an der Situation.
 
Um die Recheneinheiten besser auslasten zu können, hat AMD die VGPR (Vector General-Purpose Registers) um 50 % größer gestaltet. Jede Compute Unit verfügt zudem über zwei nicht näher beschriebene KI-Einheiten, die einfache INT8- und BFLOAT16-Berechnungen schneller ausführen können.

Ist einwenig mehr wie von Dir beschrieben, ändert aber nichts an der Situation.
Ist das, was ich vereinfachend als "zusätzliche Verdrahtungen in den Shadern" bezeichnet habe. Bringt mehr Durchsatz, kommt aber nicht an dedizierte Funktionseinheiten heran.
Hier steht AMD noch deutlich hinten an, letzten Endes haben sie aber auch nicht die Marktanteile um nennenswerte Chipfläche ihrer Consumer-GPU-Chips in ML-spezifische Funktionseinheiten umzuwandeln. Ob der Marktdruck dafür in 2024 mit RDNA4 ausreichend hoch sein wird, wird man abwarten müssen, vielleicht wird es eher nur ein erwartbares, iteratives Upgrade der Architektur, wobei so ganz vorstellen kann ich mir das bzgl. RDNA4 und zumindest Raytracing nicht, den spätestens dann wäre AMD bzgl. neuer HighEnd-Hardware komplett abgeschrieben ... ***) oder schlimmstenfalls ist das der Grund für die Gerüchte, dass es kein RDNA4-HighEnd geben soll? Ich hoffe nicht bzw. dass hier lediglich was fehlinterpretiert wurde, denn markttechnisch ist es mit der mangelnden Konkurrenz durch AMD so schon problematisch genug mit nVidia und gänzlich ohne jedwede Konkurrenz wird es nur noch schlimmer ...

*) Zur Performance, AMD ist hier deutlich schwächer aufgestellt, holt aber zumindest mit RDNA3 deutlich auf. THW hat hier mal Stable Diffusion getestet. Mit einer kleinen Sample Size von 512x512 wird AMDs Topprodukt bereits von der 4070 Ti mit mehr als +7 % Mehrleistung geschlagen. Die 4080 ist dagegen bereits rd. +22 % schneller, die 4090 ist gar +50 % schneller. RDNA2 ist dagegen weit abgeschlagen und bei dieser Art Workload grundsätzlich nicht mehr der Rede wert. (Mit höherer Sample Size fallen AMDs GPUs noch weiter zurück.)
Das nächste Problem ist nVidia's Optical Flow Unit, eine Hardware-Einheit, die es seit Turing gibt. In Turing und Ampere ist diese in etwa vergleichbar durchsatzstark, mit Ada hat nVidia den Durchsatz der Einheit jedoch verdoppelt (und zusätzliche Funktionalität, konkret kleinere Grid Sizes implementiert). Auch hier wird die Frage sein, wie AMD das Fehlen einer solchen Einheit kompensieren wird bzw. welche Kompromisse dies erforderlich machen wird bzw. anders herum betrachtet, was diese Hardwareeinheit zur Gesamtleistung des kompletten Algorithmus beiträgt.

**) Als Anmerkung: Obiger ML-Performance-Test via Stable Diffusion ist erst mal spezifisch für Stable Diffusion und ggf. gar auch nur eine Momentaufnahme. Ob sich bzgl. dem hier diskutierten Anwendungszweck Frame Generation implementationstechnisch einige Haken und Abkürzungen schlagen und nehmen lassen, wird man abwarten müssen. Wenn FSR3 verfügbar sein wird, wird sich ein genauerer Blick darauf zweifellos lohnen.
Und am Ende, je nachdem wie weit hinunter AMD es technisch begründet anbieten kann, ist es grundlegend für den Anwender immer zu begrüßen eine Wahl zu haben als auf bestimmte Technologien verzichten zu müssen ...

***) Sieht man sich die ML-Leistungszugewinne von RDNA3 ggü. dem deutlich schwächeren RDNA2 an, dann könnte es bzgl. RDNA4 aber auch sein, dass die Erhöhung der Shader-Anzahl und der damit verbundene ML-Leistungszuwachs zumindest für Gaming-spezifische, "einfachere" Anwendungsgebiete bereits ausreichend sein könnte, sodass AMD vorerst weiterhin keine Notwendigkeit sieht dedizierte ML-Hardware zu implementieren. Man darf gespannt sein, welchen architektonischen Weg hier AMD ob des immensen Kostendrucks gehen wird ... und hoffen, dass jüngste Gerüchte bzgl. RDNA4 kompletter Unsinn waren. ;-)
 
Zuletzt bearbeitet:
Die haben aber echt lange gebraucht um es zu kopieren XD
Stell Dir mal vor, es würde auf Anhieb auf vielen ollen Grakas supi funzen(x), dann würde man schlecht die 6950 und Bigger verkaufen können.
Bis September wird man wohl die 6950+6800xt soweit verkauft haben, das Platz für N32 ist.

(x) mit 2x Zwischenframes hätte man dann schon mit 48fps evtl. ne 144fps-Anzeige
 
Zuletzt bearbeitet:
September ist nicht Q4 :D
Bei Release wird es dann eher "soon" nachgereicht.
Und MLD lag schon sehr häufig daneben. Denk dran, Q4 ist einfach nur ein aktuelles Gerücht. ;)

Meine Meinung bezieht sich auch nicht explizit auf dieses Gerücht hier. :)


Wenn's dann anfangs ausschließlich auf RDNA3 läuft, kann man bei einem der größten Releases der letzten Jahre in Benchmarks Nvidia ordentlich die Rücklichter zeigen - so wie Nvidia es aktuell halt mit DLSS3 macht.
 
  • Like
Reaktionen: QIX
Kann mir nicht vorstellen das FSR3 exklusiv für die RDNA 3 Architektur ist. Schließlich ist AMD auch Haus und Hoflieferant sowohl für die Playstation 5 als auch die Xbox Series X, welche noch RDNA 2 haben. Die wird man sicher mit einbeziehen wollen um hier direkt einen riesigen Markt zu erreichen. Damit könnte man aus dem Stand dann Nvidia "überholen" was die Verbreitung angeht und man würde auch die Studios deutlich dazu animieren die Implementierung von FSR in ihren Spielen forcieren. Wahrscheinlicher ist das FSR3 auf mindestens beiden Architekturen läuft, es aber natürlich einen Performance Unterschied gibt je nachdem welche Hardware die Berechnungen vornimmt.
 
Zuletzt bearbeitet:
Ich fände es am Besten, wenn AMD FSR3 nur auf RDNA 2/3 beschränken würde.
Damit FSR3 ganz in der Bedeutungslosigkeit versinkt, weil fast niemand für < 20% Marketshare entwickelt?
Ganz smarter Wunsch von dir...nicht.

Die Grünen haben ja ihre gewollte und gefeierte Exklusivität mit DLSS3, und jenen könnte FSR3 eh nix recht machen.
Niemand hat das je gewollt. Du verbreitest mal wieder massivst Unfug.
DLSS wird nicht für seine Exklusivität gefeiert, sondern für seine Qualität, aber den Unterschied sieht man mit dicker roter Nickelbrille nicht, kann ich verstehen ;)

FSR 3 soll gegenüber DLSS3 nicht nur mit einem, sondern mit bis zu vier interpolierten Bildern arbeiten können.
Das ergibt keinen Sinn. Damit hättest du eine Latenz aus der Hölle, wenn 4 von 5 Frames generiert werden.

Die AI Einheiten von RDNA 3 finden wohl keine Verwendung, für diese sieht AMD letzten Gerüchten nach in der Zukunft wichtigere Aufgaben vor.
Müssen sie aber wohl, weil sonst die Leistung sinkt. Irgendwas muss die Zwischenframes ja berechnen. Wenn es die AI Einheiten nicht tun, dann die Shader(?) und die haben auch noch andere Dinge zutun.
Also entweder sinkt die Leistung bzw. das Leistungsplus ist nicht so krass wie bei FG oder aber die Qualität leidet massiv darunter.

*) Die Frage ist aber natürlich auch wie AMD die Frame Generation technisch implementiert. Vielleicht verwenden die auch ein "einfacheres" Verfahren, wobei dann aber natürlich die Frage nach der Qualität bleibt. Am Ende wird man abwarten müssen was sie hier abliefern werden ... und schlussendlich bleibt für so manchen aber selbst bei etwas schwächerer Qualität i.V.z. DLSS2/3 dass das immer noch besser ist als eine derartige Technik gar nicht zur Verfügung zu haben, sprich nicht die Wahl zu haben. ;-)
Naja, wenn man sich die Kritik gegen FG so anschaut, dann muss man mindestens gleichziehen, weil es sonst "schrott" für viele ist.
Es ziehen sich ja selbst heute noch etliche aus dem roten Lager an der Latenz und den angeblichen Artefakten von FG hoch.
 
Zuletzt bearbeitet:
Der Trend gefällt mir nicht, Grafikkarten brauchen inzwischen viel zu viel Strom und Leistung gibt es nur mit Cheatereien mit DLSS / FSR usw. Ich hoffe das Phillips mal die Hand aufhält mit absurden Lizenzgebühren und Strafzahlungen wegen Patentverletzungen durch Frame Generation, das mal wieder an einer Leistung gearbeitet wird.
 
@gerX7a Hab ich da etwas völlig missverstanden oder liegst du evtl falsch?

Die RDNA3-Architektur bietet bereits KI-Beschleunigung durch WMMA-Matrix-Multiplikationen (ein ähnlicher Block wie NVIDIA Tensor- und Intels XMX Engine-Einheiten).
Quelle: https://www.igorslab.de/amd-spricht...pcs-in-spielen-durch-ki-intelligenter-machen/

Über diese Art der KI-Beschleunigung verfügen RDNA1/2 m.W.n. eben nicht.

Ich hoffe ja inständig, das auch zumindest RDNA2 in vollen Zügen von FSR3 profitieren wird, nur glaube ich es halt angesichts o.g. Sachverhaltes eher weniger oder eben nur eingeschränkt bzw. mit niedrigerer Performance.
 
@elpsychodiablo schrieb:
Ich hoffe das Phillips mal die Hand aufhält mit absurden Lizenzgebühren und Strafzahlungen wegen Patentverletzungen durch Frame Generation, das mal wieder an einer Leistung gearbeitet wird.
Meinst du dieses abgelaufene Patent? Bin ja kein Patentanwalt, aber ich würde nicht zahlen. :haha:

Die Idee Frames aus Bewegunsvektoren zu generieren gibts seit den 70ern. Jeder Videocodec macht das. Der eigentliche Trick ist die Bewekungsvektoren aus den vorhergehenden Frames vorherzusagen. Auch das machen Videocodes zu einem gewissen Grad. Allerdings werden hier vom Encoder Korrekturdaten eingebettet. Den Luxus hat man bei Framegeneration in Echtzeit nicht. Dafür gibt's die Möglichkeit auf Daten aus der Engine zurückzugreifen. Z.B. Tiefeninformationen.
 
Zuletzt bearbeitet:
Ich bin mal so frei und behaupte, dass es nicht unterhalb der RDNA3 funktionieren wird. Technisch ist es eh fraglich, wie es "konkurenzfähig" zu DLSS3 werden soll, aber wenn ich bei AMD in der Hebelposition sitzen würde wäre das für mich ein Möglichkeit RDNA3 besser zu verkaufen. Wenn eine RX 7900XTX plötzlich 150-200% schneller als eine 6900XT ist, warum sollte man dann den alten Prügel noch kaufen? Schnell noch eine Abwrackprämie drauf, dass die alten RDNA2 schnell rausverkauft werden und dann nur noch RDNA3 verkaufen.
 
FSR 3.0 kommt raus, damit AMD behaupten kann, dass man dlss eh nicht braucht in Starfield. (Upscaler -check ; framegeneration - check )
Ob die AMD Aussage dann stimmt oder nicht ist irrelevant.
 
Meinst du dieses abgelaufene Patent? Bin ja kein Patentanwalt, aber ich würde nicht zahlen. :haha:

Die Idee Frames aus Bewegunsvektoren zu generieren gibts seit den 70ern. Jeder Videocodec macht das. Der eigentliche Trick ist die Bewekungsvektoren aus den vorhergehenden Frames vorherzusagen. Auch das machen Videocodes zu einem gewissen Grad. Allerdings werden hier vom Encoder Korrekturdaten eingebettet. Den Luxus hat man bei Framegeneration in Echtzeit nicht. Dafür gibt's die Möglichkeit auf Daten aus der Engine zurückzugreifen. Z.B. Tiefeninformationen.
Jo Kollege, das Zitat in deinem Beitrag ist nicht von mir. Korrigier mal bitte auf @elpsychodiablo, der das geschrieben hat
 
  • Haha
Reaktionen: QIX
FSR 3 soll gegenüber DLSS3 nicht nur mit einem, sondern mit bis zu vier interpolierten Bildern arbeiten können.
Also performancetechnisch verspreche ich mir da schon viel und einer einhergehenden Latenz soll man viel Aufmerksamkeit bei Team Red schenken, um diese so gering wie möglich zu halten.
DLSS3 kann angeblich auch bis zu 4 Bilder.. man verzichtet aber aufgrund der Latenz darauf
Kann mir nicht vorstellen das FSR3 exklusiv für die RDNA 3 Architektur ist. Schließlich ist AMD auch Haus und Hoflieferant sowohl für die Playstation 5 als auch die Xbox Series X, welche noch RDNA 2 haben. Die wird man sicher mit einbeziehen wollen um hier direkt einen riesigen Markt zu erreichen.
die PS5 sowie Xbox .. also auch RDNA2 und 3 wurden geplant da war Framegeneration noch gar nicht bekannt bei AMD..
im moment wird versucht es auf RDNA3 lauffähig zu bekommen weil die RX7000er eigene KI einheiten dafür haben..
ich denke erst mit der nächsten Xbox/playstation gen wird das ganze überhaupt einzug halten in die Konsolen
 
FSR3 wirkt(e) bei der Ankündigung wie etwas, dass man in den paar Monaten, nachdem Nvidia FG offiziell gemacht hatte, schnell zusammengeschustert hat, um wenigstens "zeigen" zu können, dass man etwas ähnliches hat. Oder anders gesagt: Es war initial gar nicht vorgesehen, auch nicht als Feature für RDNA3.

Natürlich würde FG bei Nvidia auch auf Grafikkarten vor Ada funktionieren. Die Frage ist aber halt nicht, ob es funktionieren würde, sondern wie gut. Wenn das mehr schlecht als recht der Fall ist, dann hab ich davon nichts.

Ada ist von Anfang an mit FG im Hinterkopf konzipiert und entwickelt worden, bei RDNA3 würde ich da in Bezug auf FSR3 wie gesagt ein dickes Fragezeichen hintersetzen. Insofern gehe ich fest davon aus, dass FSR3 auch nur auf RDNA3 laufen wird. Denn das wird AMD schon vor genug Herausforderungen stellen, FSR3 dort irgendwie sowohl mit entsprechendem Performancezuwachs, als auch der visuellen Komponente zum Laufen zu kriegen. FG ist am Ende dann eben der Gradmesser, an dem sich AMD messen (lassen) muss.

Was AMD im Übrigen aber definitiv braucht, ist ein Reflex-Konkurrent. Denn FSR3 ohne einen solchen zu bringen, wäre schon reichlich naiv. Andereseits ist es AMD, insofern...
 
Zurück