News Kombinierte Bildgenerierung: Frame Generation und AFMF sorgen gleichzeitig für dreifache Fps

Mich würde interessieren wie die fake frames von amd und nvidia im vergleich zum original aussehen. Weil fg funktioniert bei cyberpunk und alan wake wirklich perfekt
 
1+

Leider ist das Video schon älter.
Mit aktuellem AFMF-Treiber sicher noch einfacher zu realisieren/stabilere Frametimes.

Vielleicht, leider hat er nicht die Treiberversion genannt. Aber ich finde die neuste 9.11-Version funktioniert generell schlechter als jene vom 13.10.

Was er auch nicht gecheckt hat ist, dass das Framepacing mehr oder weniger zwangsläufig kaputt geht, wenn die fps über das Monitorlimit hinaus schiessen.
 
2 × 2 = 3? Wenn das so schlecht skaliert, möchte ich gar nicht erst wissen, wie es um die Latenzen gestellt ist.
+1 … ganz mein Humor.

Also wer sich so einen Blödsinn freiwillig antun möchte, erschließt sich mir auch bei näherer Betrachtungsweise nicht einmal ansatzweise.

Aber da haben wir ja endlich die Lösung aller unserer Probleme.

Spiele einfach in nativen 480p rendern und per „KI“ auf 2160p (oder besser 2160i) aufblasen lassen und dann einfach ein halbes Dutzend Zwischenbilder dazwischen klatschen.

Grundvoraussetzung ist ja auch nur eine Grafikkarte für 2.000 Euro+ und dazu noch eine lahme Krücke aus der Radeon-Einsteigerklasse für 200 Euro.

Aber in der Kombination könnte man ggf. schon in der nächsten Generation mit 16K/60Fps-Gaming werben.

GPU-Hersteller lieben diesen Trick. ^^

Liebe Grüße und schönes Wochenende,
Sven
 
Eine 200€ RX7600 8GB packt in Star Citizen mit AFMF schon 400fps.
Während Reddit voll ist von leuten die mit Geforce GTX4090 nur 43fps haben, und andere Geforce User mit gleichen Karten sagen das sei normal.
Ich Spiele übrigens Star Citizen auf 1440p mit RSR upscaling von 1080p auf 1440p und habe mit meiner 300€ RX6700 nonXT 10GB auf Stationen 180fps und im Space bis zu 250fps in Star Citizen.
Mein AMD treiber sagt ich hab Average 135fps.
Andere Leute im ingame Chatt fragen immer wie das geht. Die haben Geforce GTX4070ti und GTX4080 und im schnitt unter 50fps.
Ich bin mal gespannt was meine 300€ AMD Karte dann erst mit AFMF für Frames raus hauen wird.
Nvidia brauch bei SC pro 10fps 100W.
AMD ist 2000% Effizienter.
 

Anhänge

  • RTX 4090 43fps in 1080p lol.jpg
    RTX 4090 43fps in 1080p lol.jpg
    85,7 KB · Aufrufe: 30
Eine 200€ RX7600 8GB packt in Star Citizen mit AFMF schon 400fps.
Während Reddit voll ist von leuten die mit Geforce GTX4090 nur 43fps haben, und andere Geforce User mit gleichen Karten sagen das sei normal.
Ich Spiele übrigens Star Citizen auf 1440p mit RSR upscaling von 1080p auf 1440p und habe mit meiner 300€ RX6700 nonXT 10GB auf Stationen 180fps und im Space bis zu 250fps in Star Citizen.
Mein AMD treiber sagt ich hab Average 135fps.
Andere Leute im ingame Chatt fragen immer wie das geht. Die haben Geforce GTX4070ti und GTX4080 und im schnitt unter 50fps.
Ich bin mal gespannt was meine 300€ AMD Karte dann erst mit AFMF für Frames raus hauen wird.
Nvidia brauch bei SC pro 10fps 100W.
AMD ist 2000% Effizienter.
An dem Screenshot von der RTX4090 sieht man es doch ganz deutlich:
Die 43fps in Städten in SC liegen weder an der Grafikkarte noch an der CPU. Beide langweilen sich nämlich und sind weit weg von ihren Möglichkeiten. Der Flaschenhals in SC in Städten und gut frequentierten Raumstationen ist der Server, der bei vielen Spielern im gleichen Raumabschnitt nur noch so wenige FPS schafft. Und was Du schreibst kann demensprechend nicht stimmen. Mit Frame Generation kannst Du aus 43 FPS nämlich auch höchstens 86FPS machen. Wie willst Du da auf 180FPS kommen? Plus, wenn die niedrigen FPS am Server liegen, können sich die verdoppelten FPS auch nicht flüssiger anfühlen als die realen 43 FPS - das Spiel kann einfach nicht schneller auf die Eingaben des Spielers reagieren, wenn der Server nicht mehr schafft.

Und noch zur Information:
Wenn der Server recht leer ist, dann kriege ich in SC mit meiner RTX 3070 bei 1440p und ingame Grafiksettings auf "very high" nativ 100FPS auch in Raumstationen und Städten. Ohne Upscaling, Framegeneration oder anderen Tricksereien. Keine Ahnung, ob das bei einer RTX 4090 höher ausfällt, denn mehr als 100FPS sind wahrscheinlich selbst bei leeren Server vermutlich Server-seitig nicht möglich.
 
Und was Du schreibst kann demensprechend nicht stimmen. Mit Frame Generation kannst Du aus 43 FPS nämlich auch höchstens 86FPS machen. Wie willst Du da auf 180FPS kommen?

1. Lern lesen. Ich nutze kein Frame Generation. Ich hab teilweise 260fps ohne Frame Generation.
2. Es stimmt. Hab Videos sogar davon weil Nvidia Fanboys wie du mir nicht glauben wollten.

Video 1 (Inspace 230fps)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Video 2 (Station 170fps)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Als ich meine Graka nach den Videos mal auf Standardtakt laufen lies, hatte ich gleich 20-30fps mehr in all diesen Szenarien. Daher komme ich auf 260fps.
Und andere AMD User in Reddit sagen meine FPS sind normal und üblich für Radeon GPU,s in Star Citizen und nichts besonderes. Teilweise haben da leute 400fps ohne FMF mit einer RX7900XTX.
Hier noch ein Bild meiner Treiberversion, damit du auch siehst meine Treiber Version hat gar kein AFMF.
Und wenn man AFMF an macht, dann werden die höheren FPS nicht im Show fps in Star Citizen angezeigt, sondern nur im AMD Treiber Overlay.
Bei meinen Screens und Videos siehst du aber die FPS direkt vom Spiel selbst, also das sind echte FPS und weder hat mein Treiber Fluid Motion Frames, noch nutzte ich dies.
Also bevor du mir das nächste mal Lügen unterstellst, mach deine Hausaufgaben.
 

Anhänge

  • 177fps seraphim station.jpg
    177fps seraphim station.jpg
    253,9 KB · Aufrufe: 16
  • 195fps asteroids.jpg
    195fps asteroids.jpg
    259,8 KB · Aufrufe: 16
  • amd 1.png
    amd 1.png
    15 KB · Aufrufe: 14
  • amd 2.png
    amd 2.png
    47,4 KB · Aufrufe: 15
  • driver version picture 2.jpg
    driver version picture 2.jpg
    128,7 KB · Aufrufe: 19
  • Star Citizen RX6700 98W.jpg
    Star Citizen RX6700 98W.jpg
    412,3 KB · Aufrufe: 21
  • SC FPS average driver 20.11 seraphim station bounty mission.jpg
    SC FPS average driver 20.11 seraphim station bounty mission.jpg
    117,9 KB · Aufrufe: 14
Zuletzt bearbeitet:
So gerechnet: also DLSS verdoppelt die FPS, und dann macht FSR etc... also davon nochmals 50% oben drauf.

Könnte es sein, das bei soviele Ziwschenbildern schlicht und einfach dann echte Daten fehlen, um mehr Zwischenbilder zu berechnen?

Diese Art der Berechnung braucht doch irgendwie auch ein paar Anhaltspunkte wo die Bewegung eingentlich hin soll, oder nicht?

Aber vil. liege ich auch falsch, war nur so ein Gedanke.

Hinsichtlich der Bildqualität führt der Mangel an echten Bildinformationen natürlich zu mehr oder minder sichtbaren Problemen. Aber auf die Framerate hat das keine Auswirkung: Die Radeon arbeitet ja nicht mit Hintergrunddaten, sondern nur mit den fertigen Frames. Das ist eine reine Zwischenbild-Interpolation, wie man sie beispielsweise auch von Fernsehrn kennt (einschließlich aller Nachteile). Wenn der Treiber nicht im Weg stünde, könnte man sicherlich auch noch eine zweite Radeon hinten dran hängen um noch einmal zu verdoppeln. Und dann noch einmal. Die Latenz würde jedesmal weiter zunehmen und die Wahrscheinlichkeit für Bildartefakte würde steigern, aber die Framerate sollte sich so lange jedesmal verdoppeln, bis die Zeit zwischen zwei Frames der vorrangehenden Stufe so kurz wird, dass die nachfolgende nicht mehr mit der Zwischenbild-Berechnung hinterherkommt – wenn ein Grafikarte noch an der Berechnung des Bildes "AB" zwischen eingehenden Frame A und B ist, wenn nach Frame C bereits Frame D eintrifft, dann wird man das nachfolgende Zwischenbild "BC" einfach weglassen und direkt am übernächsten "CD" arbeiten.

+1 … ganz mein Humor.

Also wer sich so einen Blödsinn freiwillig antun möchte, erschließt sich mir auch bei näherer Betrachtungsweise nicht einmal ansatzweise.

Aber da haben wir ja endlich die Lösung aller unserer Probleme.

Spiele einfach in nativen 480p rendern und per „KI“ auf 2160p (oder besser 2160i) aufblasen lassen und dann einfach ein halbes Dutzend Zwischenbilder dazwischen klatschen.

Grundvoraussetzung ist ja auch nur eine Grafikkarte für 2.000 Euro+ und dazu noch eine lahme Krücke aus der Radeon-Einsteigerklasse für 200 Euro.

Aber in der Kombination könnte man ggf. schon in der nächsten Generation mit 16K/60Fps-Gaming werben.

GPU-Hersteller lieben diesen Trick. ^^

Liebe Grüße und schönes Wochenende,
Sven

Wenn man die Versprechen der KI-Entwickler ernst nimmt, dann sollten wir in 5 Jahren soweit sein, dass man nur noch eine Skizze von der Start- und eine von der Endsequenz des Spiels braucht und alles dazwischen wird fotorealistisch interpoliert.^^
 
+1 … ganz mein Humor.

Also wer sich so einen Blödsinn freiwillig antun möchte, erschließt sich mir auch bei näherer Betrachtungsweise nicht einmal ansatzweise.

Aber da haben wir ja endlich die Lösung aller unserer Probleme.

Spiele einfach in nativen 480p rendern und per „KI“ auf 2160p (oder besser 2160i) aufblasen lassen und dann einfach ein halbes Dutzend Zwischenbilder dazwischen klatschen.

Grundvoraussetzung ist ja auch nur eine Grafikkarte für 2.000 Euro+ und dazu noch eine lahme Krücke aus der Radeon-Einsteigerklasse für 200 Euro.

Aber in der Kombination könnte man ggf. schon in der nächsten Generation mit 16K/60Fps-Gaming werben.

GPU-Hersteller lieben diesen Trick. ^^

Liebe Grüße und schönes Wochenende,
Sven
Ich erpack ja in einem cyberpunk selbst die Latenz nur durch frame generation alleine nicht....

Da hilft das flüssigste Bild nicht wenn sich die Maus nicht mehr flüssig anfühlt....

Könnte man sich daran gewöhnen? Bestimmt. Aber will ich das? Mit Sicherheit nicht!
 
Hier in live:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück