News AMD: Zwei Spiele mit FidelityFX Super Resolution 3 (FSR 3) ab heute

So oder so ist VRR damit hinfällig = inakzeptabel.
Man kann doch nicht einfach die letzten 10 Jahre Monitor Entwickelung in die Tonne schmeißen..
Gerade AMD die so stolz auf ihr Freesync sind (zurecht)

Klar man kann es brutforcen indem man einfach genügend Hz drauf scheißt mit nem 240/360hz Monitor.. aber das ist doch kacke

Wir sind doch keine Konsolen Spieler.

Wenn ich DLSS Framegen einschalte dann funktioniert das alles..
Kaum Inputlag, HDR und VRR

Das framepacing ist wohl sogar so beabsichtigt
 
Zuletzt bearbeitet:
Die 99% FPS fallen bei aktiviertem FMF 14% geringer aus, die AVG-FPS steigen dafür um 64%.
Die GPU-Auslastung und Leistungsaufnahme reduzieren sich bei aktiviertem FMF dazu jeweils um 8-10%.
Bin schon leicht positiv überrascht was AMD da aus dem Hut gezaubert hat :bier:
Hört bitte auf mit diesem Schwachsinn, ich hab das Feature jetzt in den verfügbaren 2 Spielen an einer aktuellen Radeon Karte getestet und es mit meiner Erfahrung mit Frame Generation ohne DLSS Pflicht verglichen.
Selbst in Spider Man Miles Morales, was meines Erachtens eher mäßig mit Frame Gen funktionierte ist deutlich besser und da hatte ich es nur teilweise angeschaltet.

Wie kann man nur so biased sein, das ist ja nicht zu glauben....
Es ist, wie man erwartet hat ein absoluter Schnellschuss, ohne HDR, Sync, Pflicht das schwache FSR zu aktvieren.
Dass man da "total überrascht" ist was AMD aus dem Hut zaubert, mit Frametimes aus der Hölle- wie wenn man eine zweite GPU ohne Framepacing einbaut, glaube ich nicht. Ist so einfach schrottig.
Dass ich dann sogar keine Möglichkeit habe, es in Kombination mit DLSS (oder auch XeSS) nutzen zu können, sondern nur mit FSR, ist komplett bescheuert und macht die Geschichte für alle, die keine Radeon besitzen, völlig nutzlos, weil es einfach nur schlecht aussieht.
Lies dir die Aussagen der AMD Sympahisanten zu DLSS durch und danach zu Frame Generation.
Hier gibt es etwas deutlich schlechteres und schwächeres inkl. FSR Pflicht!, das einfach nix bringt und trotzdem wirds gefeiert. :ugly:
Positiv ist, dass man (auf dem Papier) mehr fps hat und das ganze auf Standbildern toll aussieht.
Da bekommt man wirklich "Fake Frames".:D
 
Zuletzt bearbeitet:
Das framepacing richtet sich nach den aktuellen maximalen FPS.. die sind aber nie konstant.. selbst im Stillstand nicht..
Deswegen fluktuiert auch das framepacing so krass..

Offensichtlich fehlt eine synchronisation zwischen Realen und interpolierten frames..
Hier hilft nur ein Hartes FPS Limit wie es eigentlich nur RTSS hinbekommt. (Weder ingame noch treiberlimiter sind so genau)
Ich denke Mal man hat diese Synchronisation bewusst weggelassen weils den Inputlag weiter erhöht.

Man kann sich das vorstellen wie Black Frame Injektion am Monitor was auch nicht mit VRR funktioniert
 
Nein, scanline sync muss in RTSS aktiviert sein, damit das Pacing besser wird. Das ersetzt allerdings kein VSync/Freesync, das Tearing bleibt.
Das Framelimit ist egal, damit schafft man sich höchstens Zufallstreffer.

(A)FMF wird daher für Otto und Trudi Normalverbaucher:in erst brauchbar, wenn es zusammen mit Freesync funktioniert.
 
Man neigt dazu mit FMF extrem niedrige FPS hochzuschrauben, sollte dabei aber nicht vergessen, dass AMD bestimmt nicht grundlos eine 50-70 Grund-FPS Basis (@non FMF) empfiehlt.
Ich kann dir sagen, dass Frame Generation bei Cyberpunkt selbst bei "nur" 30 FPS Grundperformance einen ordentlichen Job macht, FMF bzw. FSR 3 erhöht in den zwei Spielen lediglich den FPS Counter ohne dabei das Spielgefühl zu verbessern.
Also anstatt um von 30 auf 60FPS zu kommen, ist FMF eher geeignet um von 60 auf 120FPS zu kommen.
Nein, weil dann ja der Imputlag zu stark ansteigt...
Die Bild-Quali und Bildflüssigkeit nehmen mit FMF dann defintiv extrem zu.
Nö. Definitiv bisher nur in Zwischensequenzen.
 
Dafür müssen Real und Fake Frames aber synchronisiert werden.. was die Latenz weiter erhöht

Funktionierendes VRR ist m.M. niedriger Latenz vorzuziehen. Wer minimale Latenz haben will, für irgendwelches eSport-Zeugs, kann dann VRR ja immer noch abschalten.
Es würde vermutlich schon viel helfen, wenn AMD die Ausgabe des synthetischen Frames auf die halbe Frametime der beiden vorangegangenen echten Frames timen würde. Der Monitor kriegt dann ja über die VRR-Tech den Impuls, wann er refreshen muss.

Ich kann dir sagen, dass Frame Generation bei Cyberpunkt selbst bei "nur" 30 FPS Grundperformance einen ordentlichen Job macht, FMF bzw. FSR 3 erhöht in den zwei Spielen lediglich den FPS Counter ohne dabei das Spielgefühl zu verbessern.[...]

Bei AFMF gilt das bei CP 2077 nicht ganz, es gibt aus dem Stehgreif aus dieser Preview-Version heraus durchaus eine gewisse Verbesserung, aber wirklich besser wird es erst mit aktiviertem scanline sync in RTSS. Bei schnellem Umblicken, lässt AMD allerdings noch absichtlich AFMF abschalten, was dazu führt, dass es dann natürlich keinen Nutzen hat.
 
unktionierendes VRR ist m.M. niedriger Latenz vorzuziehen. Wer minimale Latenz haben will, für irgendwelches eSport-Zeugs, kann dann VRR ja immer noch abschalten.
Der Punkt ist nur das "Esport-Zeugs" heute schon nativ im Bereich 200+ FPS @4K läuft.
Und hier sowieso jeglicher zusätzliche inputlag verteufelt wird.


Übrigens ist auch bei Nvidias Framegen bei ca 250 FPS Schluss da die framezeiten hier nativ bereits so gering sind das keine interpolierten frames mehr dazwischen passen
Nvidia braucht pro fakeframe auch 3-4ms

Sieht man schön an Diablo4..
Ne RTX4080 schafft problemlos 250FPS.. aktiviert man nun FG passiert nix mehr.. es werden keine 500fps daraus

Aber gerade VRR das dafür gemacht ist mit low framerates tearing frei zu Spielen zu deaktivieren ist Kontra produktiv.
Nicht jeder hat n 240/360hz Display um das per bruteforce flüssig zu bekommen
 
Bei AFMF gilt das bei CP 2077 nicht ganz, es gibt aus dem Stehgreif aus dieser Preview-Version heraus durchaus eine gewisse Verbesserung, aber wirklich besser wird es erst mit aktiviertem scanline sync in RTSS. Bei schnellem Umblicken, lässt AMD allerdings noch absichtlich AFMF abschalten, was dazu führt, dass es dann natürlich keinen Nutzen hat.
Aber bei Frame Generation, wo nur ein Bruchteil dieser Probleme auftraten, hat sich die Radeon Seite hier doch mit Kritik zugedeckt. Wo ist denn jetzt die Kritik? Das ist doch alles maximal unfertig und ich als Frame Gen Fan kann es gar nicht nutzen, weil so schlecht... das ist doch kein Zustand das so zu releasen.
 
Aber bei Frame Generation, wo nur ein Bruchteil dieser Probleme auftraten, hat sich die Radeon Seite hier doch mit Kritik zugedeckt. Wo ist denn jetzt die Kritik? Das ist doch alles maximal unfertig und ich als Frame Gen Fan kann es gar nicht nutzen, weil so schlecht... das ist doch kein Zustand das so zu releasen.

Meine Postings gelesen? Ich kritisiere etliche Punkte. Aber man muss nicht alles schwarz anpinseln, nur weil es unfertig ist. Eine Preview-Version ist schon in seiner Natur zwangsläufig unfertig.

Was aber tatsächlich nicht okay ist, das so in Spielen freizugeben, wo es ohne Tweaks kaum Nutzen bringt, resp. der Nutzen durch Jutter komplett aufgefressen wird, nur...

FG bei Nvidia hatte bei Release sehr wohl auch seine Probleme:
Inkompatibilität mit G-/VSync und Tearing mit aktiviertem FG war ebenso ein Thema.
In Plague Tale sahen Bewegungen flüssiger aus, das Spiel fühlt sich aber nicht flüssiger an und litt unter Stuttering und Tearing. (Also etwa das wie ich es mit AFMF in CP 2077 ohne RTSS scanline sync feststelle)
Dazu kommt, dass sich NVidias FG anfänglich offenbar teilweise auch kaum von Nativ unterscheiden liess.
 
Zuletzt bearbeitet:
VRR und FG bei Nvidia funktioniert von Anfang an einwandfrei. Was gerade auch in Verbindung mit Reflex als Pflicht für FG logisch ist. DLSS3 FG ist quasi von Anfang an darauf ausgelegt, mit VRR am besten zu funktionieren.
 
Das mit dem FMF + Reflex wage ich im Moment übrigens stark zu bezweifeln da FSR FMF seine eigene Render Swapchain mitbringt.. das ist ja mit einer der Gründe warum VRR/Vsync nicht funktioniert..
Und Reflex greift aktiv in die Swapchain ein.
Ich gehe jetzt Mal davon aus daß es zusammen nicht funktionieren wird.


Was bedeutet das alle bis auf RDNA3 mit dem zusätzlichen Input lag leben werden müssen
 
Zuletzt bearbeitet:
Meine Postings gelesen? Ich kritisiere etliche Punkte.
Ja, da hast du recht. Du warstt da aber auch nicht gemeint.
Nur als Beispiel: Ich hatte mit der 4070 in der Demo eine Latenz von 24ms und nachdem ich FSR +FG aktiviert hatte, stieg sie auf 63ms an.
Als nicht Radeon User ist FSR3 völlig für die Katz.
Aber man muss nicht alles schwarz anpinseln, nur weil es unfertig ist. Eine Preview-Version ist schon in seiner Natur zwangsläufig unfertig.
Ja, der Anfang ist gemacht, auch wenn einfach nur der FPS Counter erhöht wird, ohne sonstige Wirkung zu zeigen.
Was aber tatsächlich nicht okay ist, das so in Spielen freizugeben, wo es ohne Tweaks kaum Nutzen bringt, resp. der Nutzen durch Jutter komplett aufgefressen wird, nur...
Man braucht halt 1 Vorzeigespiel.

FG bei Nvidia hatte bei Release sehr wohl auch seine Probleme:
Inkompatibilität mit G-/VSync und Tearing mit aktiviertem FG war ebenso ein Thema.
Das konnte man allerdings komplett beheben.
 
Zuletzt bearbeitet:
Das was auf den Standbildern bei FSR3 schärfer ist, ist im Spiel 1:1 Filmmern. FSR flimmert wie verrückt, vor allem beim Gras. Selbst bei 100% Auflösung, ...
Kann ich nicht bestätigen. Bei Starfield funktioniert es eigentlich ganz gut.

Auch bei CB77 war es auf Quality echt gut. Nur bei den Raucheffekten hat man leichten Qualitätsabfall gesehen.

Wenn ich mir Tests anschaue hat man je nach Spiel Vor- und Nachteile der jeweiligen Techniken. DLSS hat zwar überwiegend die bessere Bildqualität, aber soo schlecht wie mach einer FSR2 darstellt ist es gar nicht.
 
Das konnte man allerdings komplett beheben.
Es gab mit FG und VRR nie Probleme. Ich weiß nicht, warum manch einer hier ein Thema aufmachen will, das keines war. Wo es anfangs damals Probleme mit FG gab, war bei Verwendung von V-Sync. Die VRR-Kompatibiliät war schon immer gegeben.

Kann ich nicht bestätigen. Bei Starfield funktioniert es eigentlich ganz gut.
Das ist vermutlich das klassiche Problem, wenn man keinen Vergleich ziehen kann. Die FSR-Implementation ist an sich in Starfield schon nicht berauschend, aber wenn man dann noch den Vergleich mit der DLSS-Mod zieht, sieht man erstmal, wie mies FSR eigentlich ist. In Cyberpunk sieht auf AMD sogar XeSS besser aus, als FSR.

FSR ist toll für Screenshots und Standbilder, die Spreu trennt sich aber erst in Bewegung vom Weizen. Deswegen verstehe ich auch immer nicht so ganz, warum etliche Leute irgendwelche Screenshots a la "das sieht voll toll aus!" posten. Klar sieht das toll aus, wenn man rumsteht. So spielt man aber Spiele halt nicht.
 
Die VRR-Kompatibiliät war schon immer gegeben.
Ja, war im Treiber einstellbar.
Für mich ist eines klar: AMD hat keine Pressemitteilungen rausgeschickt, um negative Presse und Nachfragen zu vermeiden und durch die Überraschung einen Hype zu erzeugen.
Bei manchen im Forum ist das Kalkül aufgegangen. Als Nv Frame Gen Nutzer löst das nur ein Schmunzeln bei mir aus. Es gibt "kaum" Kritik. Auch ein offener Standard kann es so nicht sein, da die Latenz sich fast verdreifacht.

Was ist denn nun @Cleriker? Super so wie es ist?

Für Strategiespiele und langsame Simulationen vielleicht gerade so das letzte Mittel.
 
Zuletzt bearbeitet:
Kann ich nicht bestätigen. Bei Starfield funktioniert es eigentlich ganz gut.

Auch bei CB77 war es auf Quality echt gut. Nur bei den Raucheffekten hat man leichten Qualitätsabfall gesehen.

Wenn ich mir Tests anschaue hat man je nach Spiel Vor- und Nachteile der jeweiligen Techniken. DLSS hat zwar überwiegend die bessere Bildqualität, aber soo schlecht wie mach einer FSR2 darstellt ist es gar nicht.


Man muss fairerweise dazu sagen, dass ich mit FSR bei 100% Auflösung getestet habe in der hoffnung, das beste Bild zu bekommen.

Wie ich jetzt bemerkt habe: stellt man auf FSR Quality, wird das Bild zwar ein wenig unschärfer, das Filmmern nimmt aber deutlich ab. Das Flimmern wird dabei nicht nur durch das etwas weichere Bild kaschiert, es ist auch in Bewegung definitiv weniger Flimmern vorhanden.

Der FSR Algorithmus scheint hier also bei 100% Auflösung einfach nicht gut zu funktionieren. Wahrscheinlich irgend eine Art von Oversampling. Bei DLSS gibt es dafür auch extra das AI Model mit dem Preset "F" das Entwickler für DLAA nutzen können, um eben genau dieses Oversampling zu vermeiden.

Der Unterschied DLSS Quality zu FSR Quality ist zwar immernoch deutlich, aber so ein extremer Unterschied wie FSR100% zu DLSS Quality ist es dann eben nicht mehr.

Ganz nüchtern betrachtet finde ich aber auch DLSS Quality in dem Spiel nicht besonders gut. Das LoD scheint auch falsch gesetzt zu sein.
 
Zuletzt bearbeitet von einem Moderator:
Zurück