News AMD FSR 3: Gerüchte um 4 interpolierte Zwischenbilder

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD FSR 3: Gerüchte um 4 interpolierte Zwischenbilder

Über Github kommen Details zu FSR 3 (Fidelity FX Super Resolution 3) von AMD und dessen Frame Generation, wie sie DLSS 3 bietet. Die neuen Details scheinen darauf hinzudeuten, dass die kommende Technologie auf der Treiberseite aktiviert werden könnte und mehr als ein interpoliertes Zwischenbild erzeugen wird.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD FSR 3: Gerüchte um 4 interpolierte Zwischenbilder
 
Interessant. Ich hatte vor ein paar Tagen ein Interview mit Nvidia. Da kam eine solche potenzielle Herangehensweise für ein zukünftiges DLSS-3.0-Update zur Sprache ("warum nicht 2, 3 oder noch mehr Zwischenbilder von der KI erzeugen lassen?")

EDIT: Frisch aus dem (leicht sucky KI-)Transcript:
(Das ist btw. eins der vielen Details, die ich in Print u.a. aufgrund Platzmangel weglassen musste – das Interview in Textform ist über 20 DIN-A4-Seiten lang. Er spekuliert an dieser Stelle außerdem ausdrücklich. Das habe ich im Print-Interview weitestgehend ausgelassen.)
1684868307304.png


(Seine Antwort auf die letzte Frage da war übrigens "I hope they will" – ich mag den Kerl. Auch wenn das vielleicht ein wenig PRy war. Sein Job ist allerdings nicht PR, das ist der von den drei anderen da, die aufpassen mussten, dass er ja nichts falsches ausplaudert^^ – das ist allerdings ziemlich Standard und im Grunde überall so. Auch im zweiten Interview, das neben dem da im Print-Artikel erscheint.)

Gruß,
Phil
 
Zuletzt bearbeitet:
Das kaufe ich ihm nicht ab.
Ich habe ihn gehört! Den Sack Reis, der gerade umfiel. ;)

@Topic Ich finde gut, dass man bisher einen offeneren Ansatz wählte und auch weiter behalten will. Das ist immer gut für uns als User. Siehe die Sache mit adaptive sync, wo man bei NV immer behauptete, dass man dafür spezielle Module bräuchte, die obendrein auch noch zertifiziert sein und deswegen teuer bezahlt werden müssten, nur um die Funktion dann nach dem Freesync Durchbruch per Treiber auch für non-Gsync-Monitore freizuschalten. Man stelle sich nur vor so etwas würde mit DLSS passieren...
 
Man muss ja irgendwann die Inputs von Maus und Tastatur verarbeiten und darstellen, insofern stelle ich es mir sehr schwierig vor mehr als einen Frame einzufügen, auch was motion vektors betrifft. Mal schauen. Könnte dennoch spannend werden.
 
Das kaufe ich ihm nicht ab.

AMD war relativ schnell zur stelle, von daher ist das durchaus wahrscheinlich. Die Sache mit den Zwischenbildern liegt ja nahe. Das mit den mehren Bildern habe ich ebenfalls vor einiger Zeoit gesagt. Die nächsten Schritte wären dann ein vollständiges integrieren in Hardware (dann hat man endlich keine negativen Auswirkungen auf die Leistung und ein generieren der Bilder, die in der Zukunft liegen. Dann kann man sogar die Latenz besiegen.
 
Ich glaube ihm das durchaus. Gerade die aktuellen Konsolen fallen beim Thema Raytracing etwas ab. Dies könnte auch einer der Gründe sein es auf älterer Hardware funktionsfähig bekommen zu wollen.

Warten wir einfach mal ab. All zu lange kann es ja nicht mehr dauern bis man mehr/ genaueres erfährt.
 
AMD war relativ schnell zur stelle, von daher ist das durchaus wahrscheinlich.
Ich sage nicht, dass sie erst zur Ankündigung damit anfingen, aber erst, als sie davon Wind bekamen. Ich bin mir sicher, dass es eine Reaktion auf FG ist. Hätte Nvidia das nicht gebracht, hätten sie FSR3 nicht angekündigt.
 
Ich sage nicht, dass sie erst zur Ankündigung damit anfingen, aber erst, als sie davon Wind bekamen. Ich bin mir sicher, dass es eine Reaktion auf FG ist. Hätte Nvidia das nicht gebracht, hätten sie FSR3 nicht angekündigt.

Das ganze liegt eben sehr nahe. Fernseher machen das schon seit einer kleinen Ewigkeit. Es ist einfach eine tolle Möglichkeit, mehr Bilder zu bekommen, bei einem geringen Aufwand.

Bei FSR1 und 2 konnte man gut sehen, dass sie erst nach DLSS1 mit der Entwicklung begonnen haben. Da passt auch der Zeitplan ganz gut.
 
Das ganze liegt eben sehr nahe. Fernseher machen das schon seit einer kleinen Ewigkeit. Es ist einfach eine tolle Möglichkeit, mehr Bilder zu bekommen, bei einem geringen Aufwand.
Dafür dauert mir die Entwicklung aber zu lange. FSR3 kann man gegen Ende des Jahres erwarten, also über 1 Jahr später. Das klingt einfach stark danach, dass man kurz vor der Veröffentlichung der 4090 (1-2 Monate) davon Wind bekam und unbedingt ein Konkurrenzfeature dazu brauchte.
 
Kann gerne kommen - ist zwar nur copy/paste von Nvidia, aber das kennt man ja. Stört mich nicht weiter, funktionieren muss es! Ich gebe FSR 3 jedenfalls eine Chance. Ich hoffe, dass man es genauso unabhängig von Super Resolution (FSR 2) nutzen kann, wie das bei Nvidia's Techniken der Fall ist.

Da lachen sie wieder, die 2 Fanboys. Strafft Euch mal, Jungs. :rollen:
 
Zuletzt bearbeitet:
Interessant. Ich hatte vor ein paar Tagen ein Interview mit Nvidia. Da kam eine solche potenzielle Herangehensweise für ein zukünftiges DLSS-3.0-Update zur Sprache ("warum nicht 2, 3 oder noch mehr Zwischenbilder von der KI erzeugen lassen?")

Gruß,
Phil
Wie genau soll das eigentlich funktionieren? Die Berechnung eines Zwischenbildes kostet bei FG doch aktuell ca 3ms (??). Da ist bei Bildraten jenseits der 60fps nicht unbedingt ewig viel Spielraum für mehr Zwischenbilder oder habe ich gerade einen Denkfehler?
 
Dafür dauert mir die Entwicklung aber zu lange. FSR3 kann man gegen Ende des Jahres erwarten, also über 1 Jahr später. Das klingt einfach stark danach, dass man kurz vor der Veröffentlichung der 4090 (1-2 Monate) davon Wind bekam und unbedingt ein Konkurrenzfeature dazu brauchte.

1 Jahr ist ein bisschen kurz, zumal der Zeitplan ja eigentlich eher von etwas über einem halben Jahr die Rede war. Wenn sie davon Wind bekommen hätten, dann würde ich eher zwei Jahre und mehr erwarten, bis sie etwas praxistaugliches auf den Markt bringen können.

Bei FSR war es ja so. Da hat es auch etwa 2 Jahre gedauert, bis FSR 1 kam und das war mehr ein (durchaus guter) Notnagel. Bis sie mit FSR2 dann ähnliches, wie Nvidia vollbringen konnten, hat es nochmal etwas gedauert. Also eher drei Jahre.

Fernseher machen nichts vergleichbares.

Die Grundidee ist ähnlich, die Ausführung ist bei DLSS3 natürlich erheblich komplexer.
 
AMD war relativ schnell zur stelle, von daher ist das durchaus wahrscheinlich. Die Sache mit den Zwischenbildern liegt ja nahe. Das mit den mehren Bildern habe ich ebenfalls vor einiger Zeoit gesagt. Die nächsten Schritte wären dann ein vollständiges integrieren in Hardware (dann hat man endlich keine negativen Auswirkungen auf die Leistung und ein generieren der Bilder, die in der Zukunft liegen. Dann kann man sogar die Latenz besiegen.

Die Latenz wirst du damit nicht los werden! Das ist mit einer Zwischenbild-Berechnung auch einfach nicht möglich.
Es müssen ja immer schon zwei Bilder da sein, um neue Bilder zu berechnen, die dazwischen liegen.
Das bedeutet, dass man immer mindestens einen Frame hinterher hinkt, der anstatt ihn direkt auszugeben, zur Berechnung zurückgehalten wird.

Daher ist für mich Frame Generation auch nicht sinnvoll einsetzbar, um überhaupt flüssige Bildraten zu erreichen.
Ich persönlich finde, dass Frame Generation erst so ab 100 FPS Sinn macht, um z.B. auf 120 Frames zu "boosten".
Bei unter 60 FPS ist die Latenz einfach zu groß und die Artefakte bei nicht strikt linearen Bewegungen stören doch erheblich. Und das wird mit noch mehr berechneten Zwischenbildern doch nur schlimmer.

Fernseher machen nichts vergleichbares.

Klar machen TVs seit mehr als 10 Jahren eine (art) Zwischenbild-Berechnung. Was meinst du, warum bis vor einiger Zeit TVs noch mit weit über 1000 Hz beworben wurden, obwohl die Panels max. 60 Hz schafften.
Motion Smoothing, Motion Flow, Motion Clarity, TrueMotion oder wie die Hersteller das alles nennen...
LG wirbt doch sogar mit ihren AI-Prozessoren für Upscaling und Zwischenbild-Berechnung.

Das ganze liegt eben sehr nahe. Fernseher machen das schon seit einer kleinen Ewigkeit. Es ist einfach eine tolle Möglichkeit, mehr Bilder zu bekommen, bei einem geringen Aufwand.

Bei FSR1 und 2 konnte man gut sehen, dass sie erst nach DLSS1 mit der Entwicklung begonnen haben. Da passt auch der Zeitplan ganz gut.

Aus den oben genannten Gründen sind die ganzen Zwischenbild-Berechnungen in den Spiele-Modi der TVs aber immer deaktiviert. Bei Filmen geht das noch relativ gut, da bei einem kontinuierlichem Video die Latenz nicht stört. Beim Gaming kann aber eine plötzliche Bewegung/Drehung/Aktion von dir nicht exakt vorhergesehen werden.
 
Ich finde es total spannend und lustig, dass AMD mit FSR 3 nvidia diesmal sogar überholen könnte, und man braucht dafür nicht mal unnötigerweise ein neue Hardwaregeneration (wie bei nvidia) zu erwerben.

Selbst wenn FSR3 "nur" auf AMD-GPU's laufen würden, wäre es trotzdem noch deutlich konsumentenfreundlicher eine Implementierung auch auf Vorgängerversionen zu machen, anstatt wie nvidia DLLS 3 künstlich auf die RTX40er-Reihe zu beschränken, weil sie sonst kaum noch Verkaufsargumente hätten - Marketingtechnologie nenne ich sowas immer ?

Zudem sind die aktuellen Konsolen inkl. Steam-Deck alle auf RDNA2 weshalb FSR3 wohl mit ziemlicher Sicherheit jedenfalls diese Generation rückwärts unterstützen wird.
 
Am sinnigsten wäre es, wenn die CPU und die GPU jeweils abwechselnd ein komplettes Bild berechnen würden, sofern das ginge, also richtige Bilder (nicht nur Zwischenbilder), welche bei denen die Steuerungseingaben der User berücksichtigt werden.

Erst dann wäre der Inputlag wirklich weg.
 
Zurück