Special FSR 3 und die Fluid Motion Frames im Test: AMDs Frame Generation und ein potenzielles Killer-Feature für Radeons

...ganz viel Senf...

DLSS arbeitet deutlich besser, schnelleres Raytracing, unproblematische Treiber für neue und alte games.
Ich bereue den kauf meiner 6800xt.
Leider funzen viele ältere Games nicht so richtig.
Kannst du mal Beispiele nennen? Auf der RX6950XT hab ich sogar Die Fugger II gespielt von 1996, sowie das erste Unreal Tournament und Gothic. Bei mir ging das. Vielleicht ist das Problem ja wo anders zu finden...

Was die 3080 betrifft, da haste nichts verpasst. Ich hatte mehrere und das war keine schlechte Karte, aber abseits von RT fährst du mit der RX unterm Strich mindestens genauso gut.
 
Naja, die 6800 kostete damals auch 580€. Plus Inflation und Euro könnte man aktuell vielleicht umgerechnet auch von heute 650€ sprechen. Also eine RTX4070.
Wow!
Ist Dein Einkommen sooo gestiegen und die Lebenshaltungskosten so niedrig, das Du jetzt gleichmal
dermaßen in die Vollen gehen würdest?

Da gäbs auch ne 7800xt@539€ + 32GB DDR4 für sooooviel Knack.
(wenn man denn das alte Sys noch aufhübschen möchte und RT keine Rolle spielt)

btw.
Machts überhaupt Sinn, jetzt noch ne NV-Graka zu kaufen, bevor die SUPER da sind?
(nicht das Du dann in 2,5 Jahren schon wieder aus anderen Gründen aufrüsten musst)
 

Anhänge

  • 7800xt@539€.JPG
    7800xt@539€.JPG
    16,3 KB · Aufrufe: 53
Zuletzt bearbeitet:
Wow!
Ist Dein Einkommen sooo gestiegen und die Lebenshaltungskosten so niedrig, das Du jetzt gleichmal
dermaßen in die Vollen gehen würdest?
1,035 * 1,059 ... knapp 10% mehr, darum geht es aber nicht. ;)

Ich meine die Inflation liegt auch bei knapp über 10%, über den Zeitraum.

Da gäbs auch ne 7800xt@539€ + 32GB DDR4 für sooooviel Knack.
Warum so viel Knack, um direkt Details abzuschalten.
(wenn man denn das alte Sys noch aufhübschen möchte)
Nicht falsch verstehen, man kann sich bei Neukauf auch direkt sich entscheiden auf die beste Optik zu verzichten.

Dann kann auch gut und günstiger zu AMD greifen. Wer aber heute die maximale Optik haben will, kauft eine RTX4000. Zumindest ab der 4070 ist das so.

Bevor ich auf diese Details verzichte, gebe ich lieber etwas mehr aus.
 
In nem AMD-News-Thread über "RT = must have" zu fachsimplen finde ich OT.
(oder welcher Schmarrn sollen die max.Details sein, die Du abstellen musst)

Der typische AMD-Käufer interessiert sich für Rasterperformance.
Zusammen mit FSR3+FMF schauts gut aus für ne 7800xt@4k.
Da braucht man kaum Was reduzieren.
 
Dann kann auch gut und günstiger zu AMD greifen. Wer aber heute die maximale Optik haben will, kauft eine RTX4000. Zumindest ab der 4070 ist das so.

Bevor ich auf diese Details verzichte, gebe ich lieber etwas mehr aus.
Ähm... maximale Optik schloss schon immer auch maximale Auflösung mit ein. Hier mal der aktuelle Leistungsindex UHD.
1000003762.png

Da ist die 4070 langsamer als die Jahre alte Radeon RX6800XT, oder die 3080.
 
Zuletzt bearbeitet:
Jo,
Wenn die 4070 nicht mal in der Phantom-Techdemo an die 7800xt ranreicht, dann kanns in den nächsten Jahren nur
schlechter werden. (da fehlt entweder Rohpower oder Bandbreite oder Beides)

Das man in Zukunft mehr Upsampler-Quality statt Nativ sehen wird, scheint mir dabei gesetzt.
(ist jetzt nichts Übles, was die max.Details verringert)
 

Anhänge

  • PL@4kFSRquality.JPG
    PL@4kFSRquality.JPG
    52,2 KB · Aufrufe: 52
Zuletzt bearbeitet:
Ich für mein teil wäre schärfer auf dieses grafische Meisterwerk und hier schneidet RTX4070 deutlich besser ab als meine.
url https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/6.html

Also kann man auch genauso gut sagen das 6800 die Rohleistung ausgeht, absoluter quatsch was du da behauptest.
Wie nennt man das, cherry pics ? Das machst du gerade, nicht gerade erwachsen, extrem kindisches verhalten.

Rasterizing, was sol damit sein ? RTX6800XT muss sich der RTX4070 minimal geschlagen geben, kopf an kopf duell.
url https://www.computerbase.de/2023-04...chmarks_mit_und_ohne_raytracing_in_1920__1080

Schneller ist die AMD karte jedenfallls nicht.

Screenshot 2023-10-31 at 17-13-53 Alan Wake 2 Performance Benchmark Review - 30 GPUs Tested.png
 
Jo,
Wenn die 4070 nicht mal in der Phantom-Techdemo an die 7800xt ranreicht, dann kanns in den nächsten Jahren nur
schlechter werden. (da fehlt entweder Rohpower oder Bandbreite oder Beides)

Das man in Zukunft mehr Upsampler-Quality statt Nativ sehen wird, scheint mir dabei gesetzt.
(ist jetzt nichts Übles, was die max.Details verringert)
Du meinst das?
 

Anhänge

  • Screenshot_20231031-172509257 (1).jpg
    Screenshot_20231031-172509257 (1).jpg
    187,2 KB · Aufrufe: 59
Also um die eigene Achse drehe ich mich in AW2 schon oft schnell.
OK, Natürlich spielt nicht jeder gleich . Und wie schon mal erwähnt. Man muss es selbst ausprobiert haben um darüber wirklich zu Urteilen zu können.

Es ist aber grundsätzlich der Internen Version unterlegen. Dafür ist es für jedes spiel zu nutzen. Allerdings sollte man mind. einen 120hz Monitor besitzen, besser noch mehr. Um nicht aus dem FPS/Hz bereich zu rutschen.
 
Ich für mein teil wäre schärfer auf dieses grafische Meisterwerk und hier schneidet RTX4070 deutlich besser ab ...
Dann schau Dir mal statt 1080p lieber 1440p@Upsampling RASTER an: siehe Anhang
(denke schon, das der 4070 hier und da ein paar Körner fehlen)

Damit ist eigentlich schon viel zu viel über NV-Hardware gesprochen worden, die gar nicht hier in den AMD-Thread
gehört.
Schönen Abend noch!
 

Anhänge

  • AW2@1440p-UpQuality.JPG
    AW2@1440p-UpQuality.JPG
    61,5 KB · Aufrufe: 58
Zuletzt bearbeitet:

Anhänge

  • Bench 2023.jpg
    Bench 2023.jpg
    297,8 KB · Aufrufe: 45
Irgendwie vermisse ich auf den letzten Seiten den Bezug zum Artikel. Das Pro und Kontra von spezifischen Karten könnt ihr gerne in den x-tausend dazu passendem Threads diskutieren.
:offtopic:
 
Wäre ganz nett wenn AMD FSR 3/FMF noch etwas optimieren würde. Aber och wichtiger wäre wohl die Qualität von FSR zu verbessern, denn die ist wirklich gruselig. Also ich verzichte lieber auf Settings wie RT etc die die Framerate derart nach unten drücken das ich FSR benötigen würde. Als das ich zum jetzigen Zeitpunkt optische Leistungsburner einschalten würde.
Ich habe jetzt etwas mit HYPR-RX rumgetüfftelt und für mich ist es ziemlich nutzlos.
Je nach Szenario, entweder ist meine GPU für Rasterizing zu stark oder ich stelle testweise RT oder 4k/8K ein und die Bildraten gehen soweit runter das es nutzlos wird.

Ich denke das ist ehr ein Future für High-Frame gamer ohne "Pro" zu sein. Nvidia Karten mit stärkeren RT-Kernen würden von HYPR-RX wesentlich mehr/Großflächiger Profitieren. Dann nennen wir es einfach HYPR-RTX..^^

Die Idee dahinter ist super die Umsetzung trifft aber nur wenige vermute ich. Grade auch weil FSR (alle stufen) doch ehr zu meiden ist für Enthusiasten, die auf geile Optik statt -trotz schärfe Regler- matschige Geometrie stehen.
 
Zuletzt bearbeitet:
Es ist richtig was du schreibst und ich "weiß" es gibt leute die sehen es nicht.
Aber du musst zugeben es ist für jemanden der einen gravierenden Unterschied sieht sehr schwer nachzuvollziehen das es eine andere Person nicht sieht.
Ich habe gestern im Anschluss zu meinem Post zum Beispiel Division 2 auf WQHD 144fps gestellt statt wie üblich auf UHD 75fps und im Vergleich auch auch andere Grenzen wie 30, 50, 60fps probiert es ist ein so massiver effekt das selbst meine Frau die NIE Videospiele spielte, nie Konsolen etc einen gut erkennbaren Unterschied sieht. Also hat es auch nichts mit "geübten" Videospieler-Augen zu tun.

Ich persönlich würde es Ansatzweise vergleichen mit dem "Soap-effekt" sprich einen Film von den Amis oder ne Europäische/Deutsche Produktion meist auf den Öffentlichrechtlichen wie z.B. ZDF. Den man maßgeblich verstärken kann wenn man den "jutter" am TV erhöht.

Aus diesem Grund schrieb ich "gewaltiger unterschied" im besten wissen das es Leute gibt die dies nicht gut wahrnhemen.
Ich gehe auch gar nicht mehr ins Kino oder schaue Filme in standard ca. 24p weil dort eben Daumenkino herrscht
ohne Zwischenbildberechnung kann ich Filme gar nicht genießen. Als ich diese Technik vor vielen Jahren das erste mal sah war es ein großer "AHA- effekt" und bekamm richtig Kribbeln
Ich stimme dir vollkommen zu. Ich kann an einer Hand abzählen, wie oft ich in meinem ganzen Leben ins Kino gegangen bin, weil mir das Geruckel auf den Keks geht (und die allgemein schlechte Bildqualität sowie der viel zu laute Ton). Manche finden das wiederum gerade gut, aber die meisten bemerken es gar nicht.
Ich spiele (und arbeite) aktuell auf einem 28" UHD-Monitor auf 80 cm Sitzabstand, weil ich WQHD als unerträglich pixelig empfinde. Meine Freundin hingegen spielt auf Full HD im gleichen Abstand und kann praktisch keinen Unterschied feststellen.
Außerdem gehöre ich zu den wenigen Leuten, die in den meisten Fällen (in UHD) das Bild von FSR-Q besser finden als das von DLSS-Q (letzteres sieht für mich irgendwie immer verschmiert aus und es stört mich sehr, dass entfernte Details viel zu stark betont werden und damit viel näher wirken als sie sind).

All diese Aspekte verdeutlichen meinen Punkt: Auch wenn die Unterschiede noch so gewaltig sind, ist die subjektive Wahrnehmung ganz Unterschiedlich. Deshalb bringen mit persönlich >60 fps überhaupt keinen Mehrwert (da ich den Unterschied nicht sehe), wenn sich am Input Lag nichts ändert.
 
Ich stimme dir vollkommen zu. Ich kann an einer Hand abzählen, wie oft ich in meinem ganzen Leben ins Kino gegangen bin, weil mir das Geruckel auf den Keks geht (und die allgemein schlechte Bildqualität sowie der viel zu laute Ton). Manche finden das wiederum gerade gut, aber die meisten bemerken es gar nicht.
Ich spiele (und arbeite) aktuell auf einem 28" UHD-Monitor auf 80 cm Sitzabstand, weil ich WQHD als unerträglich pixelig empfinde. Meine Freundin hingegen spielt auf Full HD im gleichen Abstand und kann praktisch keinen Unterschied feststellen.
Außerdem gehöre ich zu den wenigen Leuten, die in den meisten Fällen (in UHD) das Bild von FSR-Q besser finden als das von DLSS-Q (letzteres sieht für mich irgendwie immer verschmiert aus und es stört mich sehr, dass entfernte Details viel zu stark betont werden und damit viel näher wirken als sie sind).

All diese Aspekte verdeutlichen meinen Punkt: Auch wenn die Unterschiede noch so gewaltig sind, ist die subjektive Wahrnehmung ganz Unterschiedlich. Deshalb bringen mit persönlich >60 fps überhaupt keinen Mehrwert (da ich den Unterschied nicht sehe), wenn sich am Input Lag nichts ändert.
Waaaas? Wie kann man denn Kino nicht mögen? Allein schon der Ton...
Ich sehe die Einzelbilder auch, aber für mich gehört das eben dazu. Allerdings kenne ich auch noch schwarz-weiß-Fernsehen und auch das ging für mich klar.

Beim Rest bin ich bei dir. Mir geht's da ganz genauso. Das scheint aber eher die Ausnahme zu sein. Die meisten User scheinen das aber nicht zu differenzieren.
 
Ähm... maximale Optik schloss schon immer auch maximale Auflösung mit ein. Hier mal der aktuelle Leistungsindex UHD.
Anhang anzeigen 1441976
Da ist die 4070 langsamer als die Jahre alte Radeon RX6800XT, oder die 3080.
Erst maximale Details und dann Auflösung;).
Das ist meine Ansicht. Aber klar einige scheinen neue GPU s für das Gestern zu kaufen, für mich ok.


Spaß bei Seite.
Jeder hat seine eigenen Prioritäten usw.
Der eingeht lieber auf 4k, ein anderer auf RT, wieder andere auf 1080p 240hz usw.

Das ist alles individuell!
Jeder kauft für sich die beste Option.
Aber letztendlich ist es so, das AMD nur der bessere Kauf ist, wenn man auf RT verzichten will.
Das ist alles.

Was aber absolut legitim ist. Ich meine, ich selbst überlege auch immer mal wieder stattdessen auf non RT, aber dafür 4k zu gehen mit einer 7900xtx.

Zu AMDs frame Generation habe ich mich schon positiv geäußert, bevor mir wieder irgendwer etwas Ansichten möchte.
Beste Optik setzt ja erstmal höchste Auflösung voraus.

Davon ab kann man auch darüber streiten ob Raytracing oder ein guter HDR-Monitor wichtiger für beste Bildqualität ist...
Ne, anders herum , ?

HDR und AMD ? Ich dachte das geht nur eingeschränkt.

Individuell.
Beste Optik in 1080p, in 1440p und 4k inkludiert immer RT, stand heute.

Achso, alles natürlich inkl. HDR für beste Optik.
 
[...]
HDR und AMD ? Ich dachte das geht nur eingeschränkt.
[...]

Das Einzige was mich in dieser Hinsicht nervt ist, dass die Video- und Screenshotfunktionen im Treiber HDR nicht in Bild- und Videodateien verarbeiten können. Hier schlampt AMD schon viel zu lange und es ist sehr überfällig, dass dort der HDR-Support endlich nachgereicht wird.
Aber dasselbe gilt auch für die Screenshot- & Co.-Funktionen von Windows (10), wo auch Microsoft keinen Deut besser ist. Da wäre man entsprechend auf Drittlösungen angewiesen.

Ansonsten funktioniert alles wie es soll. Bei mir läuft ständig UHD HDR 12bit rgb (full) 4:4:4 @120Hz.
Das kann aber fast kein Spiel mit HDR-Support ausnutzen (laufen intern augenscheinlich meist nur mit 8bit, hello banding!) und Filme sind davon erst recht meilenweit entfernt (da meistens maximal 10bit und dazu 4:2:2 oder gar nur 4:2:0).
 
Zurück