News FSR 3: AMD gibt Fluid Motion Frames per Treiber auch für Radeon RX 6000 frei

Hast du denn dahingehend Erfahrungswerte?
Ich bringe damit das Jutter in Cyberpunk weg.

Also Basis-fps sind auch +/-30fps mit PathTracing und UHD FSR2B, was halt eine schlechte Ausgangslage ausserhalb der Spezifikationen ist, egal ob bei NVidia oder AMD :ugly:

Was halt bleibt ist das Tearing. Da muss AMD betreffen VSync/VRR noch liefern.
 
Ich bringe damit das Jutter in Cyberpunk weg.

Also Basis-fps sind auch +/-30fps mit PathTracing und UHD FSR2B, was halt eine schlechte Ausgangslage ausserhalb der Spezifikationen ist, egal ob bei NVidia oder AMD :ugly:

Was halt bleibt ist das Tearing. Da muss AMD betreffen VSync/VRR noch liefern.
Was nutzt du dabei als Setting, wäre interessant für mich das in Pagonia oder BG3 zu testen.
 
Warum VRR in den Titeln mit Antilag+ bei mir sauber funktioniert aber laut anderen Testern nicht ist mir zumindest erst mal ein Rätsel. Evtl. liegt es an meine FSPremium Monitor, evtl. nehm ich das vermeintliche Tearing aber auch bei hohen Fps mit nem 240 Hz Panel einfach nicht wahr.
FSpremium beschreibt normalerweise nur die Kompatibilität mit HDR.. bzw bringt ein eigenes tonemapping mit.
Der freesync metadata Block beschreibt die sync rate und das HDR tonemapping

Ändert aber nichts am Sync per se.. das funktioniert genauso wie bei nicht Freesync Premium pro Monitoren.

Wenn du allerdings n 240hz Monitor hast (zb n Odesssey G7) dann kannst du das natürlich auch einfach mit genug hz zuscheissen ohne tearing zu sehen..
Die LCDs schmieren ab 150hz eh alles zusammen
 
- Zu niedrige Fps damit zu kompensieren kann ich nicht empfehlen, vor allem ohne AntiLag+. Das Ergebnis ist gruselig, zumindest nach meinem Empfinden. Schade, das wäre sonst wirklich ne nette Sache um langsamen Systemen wieder Beine zu machen.
Damit wäre es aber Stand jetzt ziemlich nutzlos?
Ausreichend FPS noch schneller zu machen kann ja kaum der Sinn der Sache sein.
Mal abgesehen davon, das es wohl nicht ausreciht einfach einen Schalter umzulegen sondern man X Sachen beachten muss.
Aber gut, ist ja eh noch "Preview" :ugly:
 
Warum geht ihr überhaupt noch auf bestimmte Leute ein? Die stehen bei mir längst auf ignore eben weil ich so negativen Quatsch nicht lesen will und sowas keine Beachtung verdient. Und für so Sätze "ihr geringverdiener die ihr euch keine nvidia Karte leisten könnt" sollte es eine Auszeit im Forum geben. Das fällt in anderen Foren und Chats unter Hatespeech und offensive/insulting behavior.. Das mal nebenbei..

Ich hab es ja bei Cyberpunk mal ausprobiert und bin aber wieder davon weg, weil das inputlag zu hoch ist bei den 30 fps. Wenn man dazu Antilag+ nutzen könnte, aber das kann ich nicht vergleichen. Und FSR3 nativ ist auch deutlich besser vom Feeling. Aber es ist interessant sowas überhaupt anzubieten und je nach Spiel hat es sicher seine Berechtigung. Vermutlich aber nicht in Shootern.
 
Damit wäre es aber Stand jetzt ziemlich nutzlos?
Ausreichend FPS noch schneller zu machen kann ja kaum der Sinn der Sache sein.
Mal abgesehen davon, das es wohl nicht ausreciht einfach einen Schalter umzulegen sondern man X Sachen beachten muss.
Aber gut, ist ja eh noch "Preview" :ugly:
Ist doch bei nvidia auch so.
Wenn du 60fps hast, kannst du auf 120fps pushen. Was einfach noch ein Bonus ist und du vielleicht dann die hz des Monitor ereichst.
Wenn du nur 30 fps hast, ist das immer unbrauchbar, egal ob bei nvidia oder amd.
 
Damit wäre es aber Stand jetzt ziemlich nutzlos?
Ausreichend FPS noch schneller zu machen kann ja kaum der Sinn der Sache sein.
Mal abgesehen davon, das es wohl nicht ausreciht einfach einen Schalter umzulegen sondern man X Sachen beachten muss.
Aber gut, ist ja eh noch "Preview" :ugly:
Ja dafür ist die Technk schlicht nicht geeignet. Ich wunder mich immer wie so mancher sich damit z.B. Pathtracing in Cyberpunk schön säuft. Meiner Meinung nach ist Technik lediglich dazu zu gebrauchen auf die Zielfrequenz des Panels zu pushen und da einen Benefit von zu erhalten. Das gefriggel derzeit ist auch super nervig, wobei man natürlich sagen muss dass es schon feine Sache ist die Option zu haben es ÜBERALL einzuschalten.
Vermutlich aber nicht in Shootern.
Überraschenderweise läuft es in Borderlands 2 bei mir wie gesagt Premium. Dürfte rein ne Sache der Fps sein und AntiLag+ ist in nem Shooter Pflicht.
 
Also was ich hier so lese lass ich das lieber bleiben mit dem preview Treiber....
Auf VRR kann ich notfalls verzichten mit dem 165Hz Monitor. Aber wenn ich laut Anzeige 160 fps habe, sich aber bescheiden anfühlt, kann ich es auch bleiben lassen.
Ich lehne mich zurück und warte wie sich das entwickelt.
 
Zuletzt bearbeitet:
Weiß jemand, wie das in VR ist? Speziell bei Flug Sims?
Super schnelle Bewegungen macht man da ja nicht.

Wenn man damit save auf die 90 FPS kommt und einfach mehr Puffer hat, wäre das ein riesen Ding.

(DCS oder IL-2 auf HP Reverb G2)
 
Also was ich hier so lese lass ich das lieber bleiben mit dem preview Treiber....
Auf VRR kann ich notfalls verzichten mit dem 165Hz Monitor. Aber wenn ich laut Anzeige 160 fps habe, such aber bescheiden anfühlt, kann ich es auch bleiben lassen.
Ich lehne mich zurück und warte wie sich das entwickelt.
Ich würd das abhängig davon machen ob einer der gespielten Titel Unterstützung für AntiLag+ hat.
Weiß jemand, wie das in VR ist? Speziell bei Flug Sims?
Super schnelle Bewegungen macht man da ja nicht.

Wenn man damit save auf die 90 FPS kommt und einfach mehr Puffer hat, wäre das ein riesen Ding.

(DCS oder IL-2 auf HP Reverb G2)
Interessante Frage. Leider hab ich keine passende Hardware dazu.
 
Was nutzt du dabei als Setting, wäre interessant für mich das in Pagonia oder BG3 zu testen.

Im Moment bin auf dem Stand, dass das Jutter bei der AFMF-Beta wegzukriegen ist, wenn scanline sync eingeschaltet wird, egal mit welchem Wert. Was ich noch testen will ist, ob man das Tearing noch etwas zämen kann mit anderen Werten und ob der "Anti-Jutter" tatsächlich von den eingegebenen Werten her unabhängig ist oder nicht.

Was aber klar ist, spätestens ab 35 und weniger Baseframes zerreisst es das Bild mehr oder weniger zwangsläufig sehr unangenehm stark, die Interpolation funktioniert da dann nur schlecht, wenn überhaupt. AMD (und auch NVidia) geben nicht ohne Grund eine empfohlene Mindestbaseframerate an. Je kleiner die Bewegungen zwischen zwei echten Frames ist, desto geringer ist die Gefahr für eine auffällig fehlerhafte Interpolation wie man es von den TVs her kennt.
Wer also mit +/- 30 fps nativ zockt, ist derzeit klar besser beraten, weiter mit den nativen 30fps zu zocken, statt mit ohne Bewegungsvektoren interpolierten 60fps, oder alternativ die Grafiksettings runterzudrehen. Ausser die Person ist sehr leidensfähig was Tearing und Co. angeht.

Edit: In CP2077 sollte Motion Blur auf niedrig stehen, und nicht ausgeschaltet werden. Das scheint das Bild etwas zu stabilisieren. Ohne Motion Blur wird das Bild gefühlt deutlich stärker zerhäckselt. Bei scanline sync hab' ich das Gefühl, dass es keine Rolle spielt, ob man 1, 117 oder sonst was eingibt. Das Bild leidet immer unter zerrissenen Kanten.
 
Zuletzt bearbeitet:
Ja genau. Jetzt schon 100fps mit 4090
"Gamechanger" impliziert Breitenwirkung. Das "Game" an sich wird komplett und unwiederbringlich verändert.

Die 4090 ist aber für weniger als 1% der Zocker da.
Und Pathtracing ist zwar ganz nett aber es bringt im Vorzeigespiel schlechthin (Cyberpunk) lediglich ein kleines bischen hübschere Optik. Wenn die Lichverhältnisse gerade mitspielen.
Und die 100fps hast du mit unausgereifter Frame Generation.

Bis 51% der Zocker einen besseren, weil echt gamechangerigen Effekt sehen, vergehen mal eben ganz locker noch 10 Jahre.
 
"Gamechanger" impliziert Breitenwirkung. Das "Game" an sich wird komplett und unwiederbringlich verändert.

Die 4090 ist aber für weniger als 1% der Zocker da.
Und Pathtracing ist zwar ganz nett aber es bringt im Vorzeigespiel schlechthin (Cyberpunk) lediglich ein kleines bischen hübschere Optik. Wenn die Lichverhältnisse gerade mitspielen.
Und die 100fps hast du mit unausgereifter Frame Generation.

Bis 51% der Zocker einen besseren, weil echt gamechangerigen Effekt sehen, vergehen mal eben ganz locker noch 10 Jahre.

PathTracing in Cyberpunk 2077 bringt verglichen zu RayTracing Psycho vor allem unscharfe Matschbirnen als eine der Kosten für eine für mich stimmigere und natürlichere Ausleuchtung mit weniger Fehlern. Egal ob man es mit 1 Ray oder 6 Ray berechnen lässt. Mit NVidias RR kann das zwar teilweise kompensiert werden, aber auch wieder nur zu anderen Kosten.
 
Was aber klar ist, spätestens ab 35 und weniger Baseframes zerreisst es das Bild mehr oder weniger zwangsläufig sehr unangenehm stark,
Gegenfrage:
Wieviel Besitzer von 60Hz-Monis haben überhaupt die Freesyncrange per CRU auf 34Hz runtergesetzt?
Bei meinem ollen Moni ist default 40-60Hz.(viele 72-75Hz Monis bei min 48Hz)

Da würde ich also immer 40Hz+Puffer als nativ Fps haben wollen, bevor ich mit FMF experimentiere.
(Das wäre immer noch deutlich niedriger als von AMD empfohlen =55+ bzw. 70+ nativFps je nach Resi)

edit: hab jetzt mal FS=34-60Hz eingestellt (siehe Anhang)
(k.A. obs der Treiber überhaupt akzeptiert, ... da steht immer noch 40-60Hz, ... das wäre noch nice to have, das AMD
die CRU-Settings übernimmt)
 

Anhänge

  • FS-Range in CRU.jpg
    FS-Range in CRU.jpg
    87,2 KB · Aufrufe: 10
  • Treiber FS-Range.JPG
    Treiber FS-Range.JPG
    48,4 KB · Aufrufe: 8
Zuletzt bearbeitet:
Ja dafür ist die Technk schlicht nicht geeignet.
Genau dafür ist die Technik eigentlich da. Niedrige FPS die sonst unspielbar und träge waren mit Technik auf eine vernünftige Basis zu stellen. Das klappt mit VRR, guten Latenzen auf der 4090 in Pathtracing wunderbar. 70 oder 80 FPS noch flüssiger zu machen lohnt finde ich weniger..

AMD (und auch NVidia) geben nicht ohne Grund eine empfohlene Mindestbaseframerate an.
Die unterscheidet sich deutlich zwischen AFMF und Nvidias Frame Gen. AMD empfiehlt glaube ich 70 Nvidia 30 bis 40 FPS. In Cyberpunk oder Flugsimulator läuft DLSS3+ FG auch mit 30 FPS Basis absolut sauber, das ist doch gar nicht vergleichbar mit AMDs kaputter Treiberlösung.
Die 4090 ist aber für weniger als 1% der Zocker da.
Hier im Forum sind's doch 30% oder nicht?
Und Pathtracing ist zwar ganz nett aber es bringt im Vorzeigespiel schlechthin (Cyberpunk) lediglich ein kleines bischen hübschere Optik.
Ich finde den Sprung sehr groß, ein rasterbasierter Ansatz kann das nicht mehr leisten.
Und die 100fps hast du mit unausgereifter Frame Generation.
Frame Gen funktioniert in Cyberpunk absolut Bombe. Im Grunde immer dieselbe Argumentation, sieht keiner, kann keiner nutzen, Nvidias Frame Gen unausgereift, aber AMDs Frickellösung.
 
Zuletzt bearbeitet:
Nvidia empfiehlt 30 bis 40 FPS.
Quelle?
(macht vllt. auch nen Unterschied, obs mit Freesync oder Gsync läuft, wg. der unteren Gsync-Range!?)

bezgl. AMD würde ich mal denken, das sich ein RX6600-Besitzer schon mit 55 Fps in FHD@FMF wohl fühlt mit
im Overlay angezeigten 105fps
(als Framelimiter geht bei Treiber-FMF das RTSS-Tool ganz gut, dort dann die 55fps einstellen)

Je nach Moni, kanns sein, das EnhancedSync aktiviert werden muss, wenn die FMF-fps > als die maxHz vom Moni sind.
Vsync soll generell nicht verwendet werden.
 
Zuletzt bearbeitet:
Zurück