News Kombinierte Bildgenerierung: Frame Generation und AFMF sorgen gleichzeitig für dreifache Fps

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Kombinierte Bildgenerierung: Frame Generation und AFMF sorgen gleichzeitig für dreifache Fps

Wenn im selben System eine Radeon- und eine Geforce-Grafikkarte verbaut sind, können Nvidias Frame Generation und AMDs Fluid Motion Frames gleichzeitig verwendet werden. Das sorgt in Cyberpunk 2077 fast für die dreifache Bildrate - der Ansatz hat aber Probleme.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Kombinierte Bildgenerierung: Frame Generation und AFMF sorgen gleichzeitig für dreifache Fps
 
Das ist es! Hier wird gerade Geschichte geschrieben!!!

Wir sind am punkt angelangt wo FPS nicht nehr gleichbedeutend mit guter Performance steht!.

Es ist vergleichbar mit dem Tag als Multicore prozessoren erschienen sind!

Denn da verlor man den zusammenhang von CPU Auslastung 100% = CPU Limit.

Heute kommen immer wieder leute und begreifen nicht wieso sie mit 10% cpu Auslastung im cpu limit sein können!

Und von heute an kommen dann "unwissende" Leute und fragen sich, wieso sich ihr Spiel trotz 400 fps so schrecklich "unperformant anfühlt!

Weil das spiel nativ nur mit 20 fps läuft!

Denkt an diese Worte, wenn wir in einigen Jahren DLSS 10.0 haben!
 
Die Idee hat eigentlich Zukunft. Eine Karte kümmert sich um die Berechnung des Bildes, die andere übernimmt das ganze Upscaling und die Framegeneration. Man könnte es auch mit einem Spezialchip lösen, aber für den Übergang wäre das auch etwas.

2 × 2 = 3? Wenn das so schlecht skaliert, möchte ich gar nicht erst wissen, wie es um die Latenzen gestellt ist. Aber wenn man noch eine ordentliche Portion doppeltes Upscaling mit dazunimmt, sagen wir 360p auf 2160p, könnten die Artefakte vielleicht als moderne Kunst durchgehen.

Wenn man bedenkt, dass das ganze absolut nicht optimiert ist und die Geschichte dann auch noch richtig zusammengewurstelt ist, dann sind 75% des Möglichen schon eine ganz gute Größe. FSR 3 erreicht da z.b. selbst auf einer RX 7900XTX "nur" 80% und damit ist man ja (zu recht) zufrieden gewesen.

Das ist es! Hier wird gerade Geschichte geschrieben!!!

Wir sind am punkt angelangt wo FPS nicht nehr gleichbedeutend mit guter Performance steht!.

Nein, die wurde mit der GeForce 6 geschrieben, denn du hast die Microruckler vergessen.

Es ist vergleichbar mit dem Tag als Multicore prozessoren erschienen sind!

Denn da verlor man den zusammenhang von CPU Auslastung 100% = CPU Limit.

Heute kommen immer wieder leute und begreifen nicht wieso sie mit 10% cpu Auslastung im cpu limit sein können!

Deshalb betrachtet man auch immer die Last auf den einzelnen Kernen. Wenn es dir nicht passt, dann kannst du auch die anderen Kerne deiner CPU deaktivieren. BTW: ein 13900K und diese Aussage? Man sollte meinen, dass solche Leute einen weiten Bogen um E Kerne machen.

Denkt an diese Worte, wenn wir in einigen Jahren DLSS 10.0 haben!

Tja, da ist die Frage, was die Alternative sein soll, Gemecker ist es (für mich) jedenfalls nicht.

Ich persönlich nehme dann lieber den FSR oder DLSS 10 Hyper Performancemodus, der aus den 20 nativen FPS per Upscaling ganz ansehnliche 110FPS in 8K macht. Dann berechnet es auch noch drei Frames in di Zukunft, sodass dann knapp 400FPS entstehen, die sich, dank Vorausberechnung auch wie etwa 360FPS anfühlen, die ich auf meinem 8K360 Gamingmonitor anzeigen kann.

Aber du kannst ja weiterhin bei 20FPS bleiben und dich darüber freuen, dass alles nativ ist.
 
Deshalb betrachtet man auch immer die Last auf den einzelnen Kernen. Wenn es dir nicht passt, dann kannst du auch die anderen Kerne deiner CPU deaktivieren. BTW: ein 13900K und diese Aussage? Man sollte meinen, dass solche Leute einen weiten Bogen um E Kerne machen.
Es geht hier nicht um mich! Ich spreche hier über andere Leute, welche hier im Forum nach Hilfe suchen.

Ich selbst weis schon wie ne cpu funktioniert!

Tja, da ist die Frage, was die Alternative sein soll, Gemecker ist es (für mich) jedenfalls nicht.

Ich persönlich nehme dann lieber den FSR oder DLSS 10 Hyper Performancemodus, der aus den 20 nativen FPS per Upscaling ganz ansehnliche 110FPS in 8K macht. Dann berechnet es auch noch drei Frames in di Zukunft, sodass dann knapp 400FPS entstehen, die sich, dank Vorausberechnung auch wie etwa 360FPS anfühlen, die ich auf meinem 8K360 Gamingmonitor anzeigen kann.

Aber du kannst ja weiterhin bei 20FPS bleiben und dich darüber freuen, dass alles nativ ist.
habe ich irgebdwo gemekkert?

ich selbst feiere es ja gerade ab!

mein ganzer Post ist ironisch zu verstehen!

Weil ich jetzt schon weis, dass es Leute geben wird in Zukunft die die zusammenhänge nicht mehr verstehen werden.

Und dann hier Hilfe suchen (im Forum)
 
Die Latenz ist sicher unangenehm.

Aber wenn speziell Nvidia ihre Hardwareschnittstelle dafür (Optical Flow Accelerator) künftig noch besser optimiert dürfte es nicht unwahrscheinlich sein dass man mit einem nativem Bild zwei künstliche erzeugt und die Latenz nur minimal steigt.
 
Die Idee hat eigentlich Zukunft. Eine Karte kümmert sich um die Berechnung des Bildes, die andere übernimmt das ganze Upscaling und die Framegeneration. Man könnte es auch mit einem Spezialchip lösen, aber für den Übergang wäre das auch etwas.



Wenn man bedenkt, dass das ganze absolut nicht optimiert ist und die Geschichte dann auch noch richtig zusammengewurstelt ist, dann sind 75% des Möglichen schon eine ganz gute Größe. FSR 3 erreicht da z.b. selbst auf einer RX 7900XTX "nur" 80% und damit ist man ja (zu recht) zufrieden gewesen.

FSR3 auf der Haupt-GPU belastet auch zu einem gewissen Teil Einheiten, die eigentlich echte Frames rendern sollten. Hier läuft aber AFMF auf einem Prozessor, der ohne dieses Feature nur Bilder durchreichen würde und somit seine gesamte Ressourcen für die Interpolation bereitstellen kann. Da wäre eigentlich eine saubere Verdoppelung der Geforce-Ausgabe zu erwarten. Und die wiederum liegt mit Frame Generation meist 80-90 Prozent über der echten Rendergeschwindigkeit.

Ich bin ehrlich gesagt am Rätseln, wie man das überhaupt auf weniger als Faktor eingebremst bekommt. Im Prinzip muss die Geforce durch das komplexe Setup derart ausgebremst werden, dass Frame Generation nur noch +50 Prozent bringt (was eine klare Latenzsteigerung bereits vor der zweiten Bearbeitungsstufe bedeuten würde), denn was soll die Radeon denn anders machen als eine saubere Verdoppelung? Zwischen jedes zweite Frame-Paar nichts dazwischen interpolieren? Oder jeden dritten Frame, den die Geforce anreicht, komplett in die Tonne treten? Beides würde nicht nur eine sehr ungleichmäßige Auslastung auf der AMD-GPU bedeuten, sondern auch zu miserablem Pacing führen, denn die erste Karte spuckt die Frames ja in gleichmäßigen Abständen ohne Rücksicht auf den virtuellen "Monitor" aus:
Code:
(GF: Geforce-Frame, gerendert; FG: Frame-Generation-Frame; RG: von Radeon via AFMF ergänztes Bild)
 tatsächlich gerendert: >---GF--------------GF--------------> 
von Geforce ausgegeben: >---GF------FG------GF------FG------> (verdoppelt)
aus Radeon, Variante A: >---GF--RG--FG------GF--RG--FG------> (insgesamt verdreifacht aber unspielbar)
aus Radeon, Variante B: >---GF--RG--FG--RG----------FG--RG--> (insgesamt verdreifacht aber unspielbar)
aus Radeon, verdoppelt: >---GF--RG--FG--RG--GF--RG--FG--RG--> (hypothetisch: echt vervierfacht)
aus Radeon, mit Bremse: >---GF----RG----FG----RG----GF----RG> (insgesamt verdreifacht, in dem 25 Prozent weniger echte Frames zweimal verdoppelt werden)
 
Wäre so was auch auf nem Laptop möglich? AMD/Intel- IGP und GraKa, welche ja beide bei vielen Laptops am internen Display angeschlossen sind. Performance ist erst mal zweitrangig.
 
Witziges Experiment.

Aber einfacher ist es auf einer Radeon FSR3 + FMF zu aktivieren und dann AFMF zusätzlich drüber zu bügeln, ganz ohne teure NV-Hardware einbauen zu müssen :)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
So gerechnet: also DLSS verdoppelt die FPS, und dann macht FSR etc... also davon nochmals 50% oben drauf.

Könnte es sein, das bei soviele Ziwschenbildern schlicht und einfach dann echte Daten fehlen, um mehr Zwischenbilder zu berechnen?

Diese Art der Berechnung braucht doch irgendwie auch ein paar Anhaltspunkte wo die Bewegung eingentlich hin soll, oder nicht?

Aber vil. liege ich auch falsch, war nur so ein Gedanke.
 
Die Latenz ist sicher unangenehm.

Aber wenn speziell Nvidia ihre Hardwareschnittstelle dafür (Optical Flow Accelerator) künftig noch besser optimiert dürfte es nicht unwahrscheinlich sein dass man mit einem nativem Bild zwei künstliche erzeugt und die Latenz nur minimal steigt.
Die ersten Angaben zu Blackwell klangen schon sehr offensichtlich danach (x-fach mehr Frames mit DLSS bei weniger als 50% mehr Rohleistung).
 
Zurück