Special FSR 3 und die Fluid Motion Frames im Test: AMDs Frame Generation und ein potenzielles Killer-Feature für Radeons

Sei mal bitte nicht so schreibfaul und erkläre richtig, ob Du FSR1 oder FSR2 oder FSR3 meinst.

btw.
DLSS1 war auch nicht der Burner.

Bald sind wir schlauer wenn Pandora kommt.(Snowdrop-Engine mit FSR3+FMF klingt gut)
Ich finde die Bildqualität von FSR hinkt egal in welcher Version, DLSS etwas hinterher, aber auch FSR ist gut genug.

Beim Spielen sieht man die Unterschiede meistens nicht so deutlich.

Bei AW2 kann ich kaum einen Unterschied zwischen DLSS Q und B in WQHD wahrnehmen.
 
Zuletzt bearbeitet:
Ich bin mit meiner 6800 die gerade mal 2 jahre alt ist auf Upsampling angewiesen in neueren Games und wenn NV es viel besser macht, weg damit !
Zum Launch der 6800 gabs noch kein FSR2/3+FMF/AFMF.
Ich kann mich nicht beklagen über die kostenlosen neuen Features.
(da liefert AMD mehr als ich damals beim Kauf gedacht hätte)

Welche NV-Graka würdest Du denn Heute für den 6800-Preis von 409€ bekommen?
 

Anhänge

  • SF2.jpg
    SF2.jpg
    589,7 KB · Aufrufe: 40
  • MW3_3.jpg
    MW3_3.jpg
    1 MB · Aufrufe: 40
Zuletzt bearbeitet:
@PCGH_Phil
Hast du den Beitrag richtig gelesen?
Ich würde das mit Nein beantworten, denn so habe ich das verstanden: Wenn er einen 120Hz Monitor hat, kann er doch auf 60fps begrenzen und mit FMF auf 120fps Bildausgabe pumpen. Dann regelt Freesync / Adaptivesync noch und alles ist gut. Warum sollte er dafür zwingend einen 180Hz Monitor benötigen?
Hätte er jetzt einen 90Hz Monitor, sähe das anders aus.
Ja, das geht.

90 Fps waren da halt das Beispiel. Damit müsste man eventuell etwas rumprobieren, oder ein Framelimit nehmen, damit es auf einem 120-Hz-Display ohne Tearing funktioniert.

Gruß,
Phil
 
"Die AMD-Treiber-Frame-Generation ist also aktuell noch recht stark im Wandel und setzt ein wenig Auseinandersetzung und Herumprobieren mit diversen Einstellungen und Optionen voraus."

Jesus, Maria und Josef !
Ein "Horror" für jeden DAU da draußen. Und jene dürfte es mehr wie Sand in der Wüste Gobi davon geben.
Für uns "Nerds" ja ganz nett, aber wer will sich so ne Frickelei denn freiwillig an tun ? Ich nicht :rollen:
 
Damit müsste man eventuell etwas rumprobieren, oder ein Framelimit nehmen, damit es auf einem 120-Hz-Display ohne Tearing funktioniert.
Das klingt mir eher nach VRR am TV per HDMi, oder!?

Am normalen DP hab ich keine Probleme mit AFMF-Fps > Hz vom Moni.(hatte da auch ES probiert)
(ob dann ES tatsächlich aktiv ist, who knows)


btw.
Beim Erscheinen von AFMF war auch nur der erste Versuch etwas buggy bezgl. Tearing, die neueren Versionen nicht mehr.
Und nach m.E. ist auch schon 60fps/120afmf fluffig in 4k, ... die von AMD genannten 70fps brauchts
in vielen Games nicht unbedingt.
(das direkt in Spiele intergrierte FMF ist natürlich in Bewegung noch besser als das AFMF ohne Bewegungsvektoren)
 
Zuletzt bearbeitet:
Ich kann mich nicht daran erinnern, dass DLSS so positiv angenommen wurde wie FMF in diesem Thread.
Bei DLSS sprach man von "Fake Frames", man hat sich über die Latenz echauffiert und konnte in jedem gerenderten Frame irgendwelche Artefakte ausmachen.

Ist das alles auf einmal kein Thema mehr, wenns von AMD kommt?
Jetzt schließt sich der Kreis ;-)
 
Du bist da was ganz heißem auf der Spur ;)
Wundert mich jetzt aber nicht, dass du mal wieder für AMD Partei ergreifst und persönlich wirst. Differenzierte Posts sind bei dir eher Mangelware.

Ich denke das ist das Problem. In solchen foren sind leider viele Fanboys unterwegs die das Wort "Objektiv" o. "Neutral" nicht kennen. Das sind meistens Kinder oder Erwachsene ohne Partner, Real Life usw
Ich bin mir sicher das niemand der ein normales Leben führt, sich so benehmen würde und man hätte auch nicht die Zeit für.

DLSS arbeitet deutlich besser, schnelleres Raytracing, unproblematische Treiber für neue und alte games.
Ich bereue den kauf meiner 6800xt.
Leider funzen viele ältere Games nicht so richtig.

RTX308012GB war um gerade mal fünfzig euro teurer damals. Ich könnte mir in den allerwertesten beißen.
 
Ich denke das ist das Problem. In solchen foren sind leider viele Fanboys unterwegs die das Wort "Objektiv" o. "Neutral" nicht kennen. Das sind meistens Kinder oder Erwachsene ohne Partner, Real Life usw
Ich bin mir sicher das niemand der ein normales Leben führt, sich so benehmen würde und man hätte auch nicht die Zeit für.

DLSS arbeitet deutlich besser, schnelleres Raytracing, unproblematische Treiber für neue und alte games.
Ich bereue den kauf meiner 6800xt.
Leider funzen viele ältere Games nicht so richtig.

RTX308012GB war um gerade mal fünfzig euro teurer damals. Ich könnte mir in den allerwertesten beißen.
Dann verkaufe sie doch und hole dir eine Nvidia.
Die 3080 sollte man auf Grund der Inkompatibilität mit aktuellen Games doch hinterhergeworfen bekommen.
Aber ich würde vorher noch gucken, ob die alten Games denn auf der 3080 laufen sonst geht da am Ende gar nichts, wäre ja auch schade.
 
Zum Launch der 6800 gabs noch kein FSR2/3+FMF/AFMF.
Ich kann mich nicht beklagen über die kostenlosen neuen Features.
(da liefert AMD mehr als ich damals beim Kauf gedacht hätte)

Welche NV-Graka würdest Du denn Heute für den 6800-Preis von 409€ bekommen?
Naja, die 6800 kostete damals auch 580€. Plus Inflation und Euro könnte man aktuell vielleicht umgerechnet auch von heute 650€ sprechen. Also eine RTX4070.
Dann verkaufe sie doch und hole dir eine Nvidia.
Die 3080 sollte man auf Grund der Inkompatibilität mit aktuellen Games doch hinterhergeworfen bekommen.
Aber ich würde vorher noch gucken, ob die alten Games denn auf der 3080 laufen sonst geht da am Ende gar nichts, wäre ja auch schade.
Welche Inkompatibilität?
 
Du schreibst ja selbst, dass jeder Mensch seine eigene Wahrnehmung hat. Das gilt aber auch für den "gewaltigen Unterschied" zwischen 60 und 120 fps. Ich bin zum Beispiel überhaupt nicht in der Lage, einen optischen Unterschied zwischen 60 und 120 fps zu erkennen und würde keinen Blindtest bestehen. Nur am Input Lag kann ich einen Unterschied feststellen. Daher ist Frame Generation für mich wahrscheinlich auch komplett nutzlos. Leider bin ich außerdem extrem empfindlich, was Tearing angeht, das macht mir beim kleinsten Auftreten direkt die Immersion kaputt. Das könnte entsprechend auch für FG-Artefakte gelten.
Vermutlich nehme ich am Ende lieber nur die Latenzverbesserer ohne Frame Generation mit. Es kommt aber natürlich auf einen Versuch an. Bei Gelegenheit probiere ich das mal aus.
Es ist richtig was du schreibst und ich "weiß" es gibt leute die sehen es nicht.
Aber du musst zugeben es ist für jemanden der einen gravierenden Unterschied sieht sehr schwer nachzuvollziehen das es eine andere Person nicht sieht.
Ich habe gestern im Anschluss zu meinem Post zum Beispiel Division 2 auf WQHD 144fps gestellt statt wie üblich auf UHD 75fps und im Vergleich auch auch andere Grenzen wie 30, 50, 60fps probiert es ist ein so massiver effekt das selbst meine Frau die NIE Videospiele spielte, nie Konsolen etc einen gut erkennbaren Unterschied sieht. Also hat es auch nichts mit "geübten" Videospieler-Augen zu tun.

Ich persönlich würde es Ansatzweise vergleichen mit dem "Soap-effekt" sprich einen Film von den Amis oder ne Europäische/Deutsche Produktion meist auf den Öffentlichrechtlichen wie z.B. ZDF. Den man maßgeblich verstärken kann wenn man den "jutter" am TV erhöht.

Aus diesem Grund schrieb ich "gewaltiger unterschied" im besten wissen das es Leute gibt die dies nicht gut wahrnhemen.
Ich gehe auch gar nicht mehr ins Kino oder schaue Filme in standard ca. 24p weil dort eben Daumenkino herrscht
ohne Zwischenbildberechnung kann ich Filme gar nicht genießen. Als ich diese Technik vor vielen Jahren das erste mal sah war es ein großer "AHA- effekt" und bekamm richtig Kribbeln

Ich habe paar Videos auf Youtube begutachtet, sieht genauso mies aus wie FSR1-2 und ist DLSS maßloss unterlegen.
Es sind sich praktisch alle Reviewer einig.
Das war meine letzte AMD karte.

Ich bin mit meiner 6800 die gerade mal 2 jahre alt ist auf Upsampling angewiesen in neueren Games und wenn NV es viel besser macht, weg damit !
Aber wusstest du denn nicht schon bei kauf wie viel die Karte leistet? Oder hast du dich blind auf Upscaling Software als "Lebensverlängerer" verlassen? Die 6800 war nie mehr als Mittelklasse, und sie leistet in ihrer Klasse-- was so FHD bis WQHD mit ca "Hohen-Maximalen" Details bei akkuraten fps (50+) ist --- bis Heute nen super Job! Und das sogar schon OHNE FSR

Die 7900XTX ist auch meine Erste AMD Karte. Natürlich ist es keine 4080/4090 aber Das, wusste ich auch vor dem Kauf

Ich denke sehr viele lassen sich im Bezug auf die Realleistung extrem Blenden von der Tatsache das durch gutes aber nicht perfektes upscaling plötzlich jede Karte von der Einsteigerklasse an, als UHD-Maxed Out-Karte vermarktet wird.

AMD hat nicht nur später angefangen mit RT und Upsacling und ist darum gut eine Generation zurück, nein sie haben auch nur einen Bruchteil des Budgets. --Hab grad spontan keine Aktuellen Zahlen.
 
Zuletzt bearbeitet:
Sei mal bitte nicht so schreibfaul und erkläre richtig, ob Du FSR1 oder FSR2 oder FSR3 meinst.

btw.
DLSS1 war auch nicht der Burner.

Bald sind wir schlauer wenn Pandora kommt.(Snowdrop-Engine mit FSR3+FMF klingt gut)
völlig egal ob FSR 2 oder 3 .. sind beide gleichwertig schlecht von der qualität... das einzige was sie mit FSR 3 gemacht haben ist die Kompatibilität mit FMF hergestellt.. Optisch hat sich da gar nix getan

DLSS war am Anfang nicht der Burner das Stimmt..
und nun kannst du ohne Probleme DLSS -balanced.. teilweise je nach spiel sogar DLSS Performance mit FSR- Quality gleichsetzten von der Optischen Qualität her..
und dabei problemlos 20-30% mehr FPS rausholen weil man mit der Renderauflösung viel Tiefer kommt bevor es anfängt wie FSR- Quality auszusehen
 
...und was NVIDIA auch immer wieder so kommuniziert hat....
Und warum machen se es nicht? Oh ja, natürlich ganz schlechte Performance und so.. Is klar. :schief:
"Die AMD-Treiber-Frame-Generation ist also aktuell noch recht stark im Wandel und setzt ein wenig Auseinandersetzung und Herumprobieren mit diversen Einstellungen und Optionen voraus."

Jesus, Maria und Josef !
Ein "Horror" für jeden DAU da draußen. Und jene dürfte es mehr wie Sand in der Wüste Gobi davon geben.
Für uns "Nerds" ja ganz nett, aber wer will sich so ne Frickelei denn freiwillig an tun ? Ich nicht :rollen:
Wird zu kompliziert präsentiert.
Einschalten, vsync aus und genießen. fertig.
 
Zuletzt bearbeitet:
"Die AMD-Treiber-Frame-Generation ist also aktuell noch recht stark im Wandel und setzt ein wenig Auseinandersetzung und Herumprobieren mit diversen Einstellungen und Optionen voraus."

Jesus, Maria und Josef !
Ein "Horror" für jeden DAU da draußen. Und jene dürfte es mehr wie Sand in der Wüste Gobi davon geben.
Für uns "Nerds" ja ganz nett, aber wer will sich so ne Frickelei denn freiwillig an tun ? Ich nicht :rollen:
Ich! Zwar ist es komfortabel etwas einfach aktivieren zu können und es läuft, aber mehr Spaß hat man doch beim tweaken, ausprobieren, sich hineinfuchsen, oder? Also bei mir ist das so. Nur für den Markt ist das nichts. Das sollte klar sein, aber es ist ja noch gar nicht erschienen. Wir reden hier über inoffizielle Preview Treiber die auf der normalen Treiberserviceseite gar nicht angezeigt werden.
völlig egal ob FSR 2 oder 3 .. sind beide gleichwertig schlecht von der qualität... das einzige was sie mit FSR 3 gemacht haben ist die Kompatibilität mit FMF hergestellt.. Optisch hat sich da gar nix getan

DLSS war am Anfang nicht der Burner das Stimmt..
und nun kannst du ohne Probleme DLSS -balanced.. teilweise je nach spiel sogar DLSS Performance mit FSR- Quality gleichsetzten von der Optischen Qualität her..
und dabei problemlos 20-30% mehr FPS rausholen weil man mit der Renderauflösung viel Tiefer kommt bevor es anfängt wie FSR- Quality auszusehen
Vielleicht ist meiner ichill frostbite einfach zu kalt, aber bei mir nehmen sich DLSS und FSR im Großteil der Spiele nicht viel. Wo FSR flimmert und weiße Ränder an Partikel zaubert, schmiert DLSS mehr und letzteres finde ich persönlich mindestens gleich schlimm. Hast du FSR eventuell nur auf einer GeForce ausprobiert? Vielleicht ist das ja noch immer ab und an so wie zum Release damals, als die 1070 nicht die gleiche Bildgüte bei fsr erreicht hat wie die radeon. Das sollte zwar gegessen sein, aber wer weiß.
Was bekannt ist, ist die Abhängigkeit von der Auflösung. Also wo man bei 1080p noch einen klaren Unterschied zu Gunsten von DLSS sieht, ist das unter 4k nur noch schwer auszumachen. Welche Auflösung fährst du denn?
 
Zuletzt bearbeitet:
Zurück