News RTX 5090 & Co.: Multi Frame Generation "sagt Zukunft vorher"

PCGH_Thilo

Größter PCGH-Fan
Teammitglied
Die Multi Frame Generation in DLSS 4 scheint das Killer-Feature für RTX 5090 und Co. sein. Nvidia-CEO Jensen Huang beantwortet dazu eine spannende Frage.

Was sagt die PCGH-X-Community zu RTX 5090 & Co.: Multi Frame Generation "sagt Zukunft vorher"

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Das ist echt nice. Werde vielleicht doch eine kaufen für den nächsten Eurojackpot :D

Aber mal echt. Wofür eigentlich noch Grafikkarten mit verschiedenen Leistungsstufen? Nimm einfach eine einfache und generier dir dein eigenes Spiel mit Hilfe von KI. Die KI kann das dann gleichzeitig für dich spielen.
 
Wenn sie es wirklich schaffen, das ganze aus den letzten Bildern und nicht erst aus dem nächsten, zu generieren, dann hätten sie den ultimativen Durchbruch erreicht. Damit kann man dann sogar quasi negative Latenzen erreichen. Das Problem ist nur, das ganze gut zu synchronisieren. Das Problem hat SLI/CF ordentlich zu schaffen gemacht, da man AFR verwendete.

Na dann muss ich doch eine kaufen, so weiß ich wo ich investieren kann.

Dafür gibt es doch die Whatsapp oder Telegramgruppen, für die immer Werbung gemacht wird.

Ich kann dir da deine Zukunft auch exakt vorhersagen: du wirst pleite sein und der Typ aus der Werbung wird sich den Arsch ablachen.
 
Wenn sie es wirklich schaffen, das ganze aus den letzten Bildern und nicht erst aus dem nächsten, zu generieren, dann hätten sie den ultimativen Durchbruch erreicht.
Bei VR ist das schlicht Stand der Technik
Und jetzt alle :ugly: ...
020de886-a406-4add-a327-1ce90210afd6_text.gif
 
Ist doch an sich auch eine Interpolation? Hier werden bereits vorhandene Positionsdaten zur Korrektur verwendet und keine Extrapoliert.
NV setz voraus dass die Bewegung die letzten X ms so weiter ging wie bis zu dem Moment als das letzte "echte" Bild generiert wurde (vermutlich, theoretisch könnten sie sich auch Bewegungsdaten für das nächste Frame "vorzeitig" von der Engine geben lassen), Oculus hat neuere Eingabedaten und nimmt die als Bewegungsvektor.
Am Ende extrapolieren aber beide ein zukünftiges Bild aus Bewegungsvektoren.
 
NV setz voraus dass die Bewegung die letzten X ms so weiter ging wie bis zu dem Moment als das letzte "echte" Bild generiert wurde (vermutlich, theoretisch könnten sie sich auch Bewegungsdaten für das nächste Frame "vorzeitig" von der Engine geben lassen), Oculus hat neuere Eingabedaten und nimmt die als Bewegungsvektor.
Am Ende extrapolieren aber beide ein zukünftiges Bild aus Bewegungsvektoren.
Ich sehe bei beiden nicht wo das eine Extrapolation ist. Du bildest in beiden Fällen anhand bereits vorhandener Daten dein Bild. Extrapolation wäre ja gerade anhand der vorhandenen Daten die Zukunft abzuschätzen, dass macht aber keines der beiden Verfahren.
Um bei dem Beispiel gerade zu bleiben: Statt auf aktuellere Positionsdaten zu setzen würde man anhand der Daten der vergangenen Positionen die aktuelle abschätzen und daraufhin ein Frame korrigieren/einschieben.
 

Multi Frame Generation "sagt Zukunft vorher"

Das ist also sowas wie die Sprungvorhersage einer CPU. Da bin ich echt auf die "Stall"-Effekte gespannt, wenn sich der Algorithmus irrt. Sind das dann Glitches, Artefakte oder Mikroruckler? Bei 4 Frames statt einem echten sollte das evtl. zu bemerken sein.
Ich denke mal, als erstes wird sich da sicher die Egoshooter-/eSport-Fraktion bemerkbar machen, sollte es so sein.

"Statt auf aktuellere Positionsdaten zu setzen würde man anhand der Daten der vergangenen Positionen die aktuelle abschätzen und daraufhin ein Frame korrigieren/einschieben."

Nur bewege aber nicht ich mich alleine, sondern auch andere Dinge bzw. Spieler evtl. unvorhergesehen. Wenn die Abschätzung nicht zutrifft wegen schnellster Bewegungsänderungen, kann ich mir durchaus vorstellen, daß die ganze Sache sich teigig und strange anfühlt.
 
Da hab ich auch Fragen. Bei schnellen Spielen, wie Shootern oder Rennspielen, weiss ich ja nicht. Bei Singleplayerspielen mag das ja gut klappen, aber wenn es unvorhersehbare Bewegungen gibt, könnte es schnell komisch aussehen.

Aber gut, dass die Abhängigkeit von Nvidia mit DLLS 4 weiter steigt. Nicht?!.

Weiss inzwischen echt nicht mehr, warum die Leute die Karten kaufen. Die 5070 hat sowieso zu wenig RAM. 5070 Ti is schon auch ziemlich teuer, 16 GB aber ok. Die 5080 wiederum hat mit 16 zu wenig. Aber das is wohl nen anderes Thema.^^
 
Dass DLSS 4 MFG gleichmäßigere Fps und auch eine niedrigere Latenz als DLSS 3 Frame Gen bieten kann, zeigte bereits ein Vorabtest mit Cyberpunk 2077.
Im verlinkten Artikel wird bzgl. DLSS3 FG nur die Steigerung der FPS-Rate angesprochen.
Bei der Latenz wird immer DLSS4 FG genommen, jeweils als 2x, 3x und 4x - und es steigt die Latenz um 4,9 und weitere 4,4 ms.

Das Widerspricht aber bereits einer anderen Angabe von NVIDIA, laut dem die Latenz von FG 2x zu 4x gar nicht steigt, sondern bei identischen 34ms bleibt - und angeblich 33ms ohne FG (und ohne Reflex).

Also besser auf unabhängige Tests von v.a. der PCGH warten.
 
Da hab ich auch Fragen. Bei schnellen Spielen, wie Shootern oder Rennspielen, weiss ich ja nicht. Bei Singleplayerspielen mag das ja gut klappen, aber wenn es unvorhersehbare Bewegungen gibt, könnte es schnell komisch aussehen.

Aber gut, dass die Abhängigkeit von Nvidia mit DLLS 4 weiter steigt. Nicht?!.

Weiss inzwischen echt nicht mehr, warum die Leute die Karten kaufen. Die 5070 hat sowieso zu wenig RAM. 5070 Ti is schon auch ziemlich teuer, 16 GB aber ok. Die 5080 wiederum hat mit 16 zu wenig. Aber das is wohl nen anderes Thema.^^
Du weißt doch.... du musst einfach mehr kaufen....
also auch mehr Grafikkarten, deshalb ist da so wenig Speicher drauf.
Kauf einfach zwei Karten (5080) dann hast du genug Speicher 😉.... und laut Jensen Lederjacke noch Geld gespart. (Bist ja dann ggf. immer noch günstiger unterwegs als mit einer 5090.)

Denk nur dran, dass du dann auch ggf. das doppelte DLSS 4 oder 5 Abo bezahlen musst, wenn sowas kommt.

Lederjacke braucht nämlich mehr Geld. 😉

Hardware über Software (DLSS, AFMF, etc.) zu verkaufen finde ich immer hart.
Ohne Upscaling wäre alles der neuen Generationen (AMD + Nvidia) keine großer Sprung außer der 5090 und das müssen uns AMD und Nvidia jetzt gut verkaufen.
 
NV setz voraus dass die Bewegung die letzten X ms so weiter ging wie bis zu dem Moment als das letzte "echte" Bild generiert wurde (vermutlich, theoretisch könnten sie sich auch Bewegungsdaten für das nächste Frame "vorzeitig" von der Engine geben lassen), Oculus hat neuere Eingabedaten und nimmt die als Bewegungsvektor.
Am Ende extrapolieren aber beide ein zukünftiges Bild aus Bewegungsvektoren.
Da bin ich dann aber einmal gespannt, wie gut das in Hektischen Spielen in Ego Perspektive funktioniert. Dei berühmte 180 Grad Wende um die eigene Achse müsste dann ja falsche Frames liefern, denn das lässt sich wohl nicht vorhersagen.
 
Ich sehe bei beiden nicht wo das eine Extrapolation ist. Du bildest in beiden Fällen anhand bereits vorhandener Daten dein Bild. Extrapolation wäre ja gerade anhand der vorhandenen Daten die Zukunft abzuschätzen, dass macht aber keines der beiden Verfahren.
Um bei dem Beispiel gerade zu bleiben: Statt auf aktuellere Positionsdaten zu setzen würde man anhand der Daten der vergangenen Positionen die aktuelle abschätzen und daraufhin ein Frame korrigieren/einschieben.

Die Bilddaten sind aber alt und aus diesen wird (zumindest bei Oculus/Valve/HTC) extrapoliert, wie das Bild in der laut jüngsten Bewegungsdaten aktuellen Position aussehen müsste.
Ich persönlich habe nie verstanden, warum Nvidia statt dieser seit Jahren bekannten Technik zunächst eine Interpolation, also 0er-Jahre-TV-Technik, implementiert hat.
 
Ich auch nicht. Als das anfing hab ich hier auch mit einigen so eine Diskussion geführt und da war noch der Großteil der Beteiligten der Meinung, dass das so nicht auf Akzeptanz stoßen wird. Der Markt hat aber anders reagiert und Nvidia einen Daumen hoch gegeben.
 
Die Bilddaten sind aber alt und aus diesen wird (zumindest bei Oculus/Valve/HTC) extrapoliert, wie das Bild in der laut jüngsten Bewegungsdaten aktuellen Position aussehen müsste.
Ich persönlich habe nie verstanden, warum Nvidia statt dieser seit Jahren bekannten Technik zunächst eine Interpolation, also 0er-Jahre-TV-Technik, implementiert hat.
Das ist aber weiterhin keine Extrapolation sofern das gerenderte Bild selbst keine Anpassung erfährt. Wir verschieben das Bild nur um Positionsvektoren die ich aber nicht extrapoliere sondern einfach via Abtastung gewinne. Das bleibt dann eine "Interpolation".
Extrapolation ist auch nicht so trivial wie man es glauben lässt. Interpolation ist inheränt stabil eine Extrapolation nicht. bei einer Interpolation ist die genaue Zeitunterteilung klar bei einer Extrapolation nicht. Interpolation ist hier schlicht besser zu handeln.
 
Wenn sie es wirklich schaffen, das ganze aus den letzten Bildern und nicht erst aus dem nächsten, zu generieren, dann hätten sie den ultimativen Durchbruch erreicht. Damit kann man dann sogar quasi negative Latenzen erreichen. Das Problem ist nur, das ganze gut zu synchronisieren. Das Problem hat SLI/CF ordentlich zu schaffen gemacht, da man AFR verwendete.



Dafür gibt es doch die Whatsapp oder Telegramgruppen, für die immer Werbung gemacht wird.

Ich kann dir da deine Zukunft auch exakt vorhersagen: du wirst pleite sein und der Typ aus der Werbung wird sich den Arsch ablachen.

Ohje du schon wieder mit deinen komischen Aussagen.

Wozu brauch ich ne WA oder TG Gruppe wenn mir die Karte die Zukunft vorher sagen kann ?!

Aber hatten wir ja schon im anderen Thread, lesen und verstehen ist für manche Leute halt schwer.
 
Das ist aber weiterhin keine Extrapolation sofern das gerenderte Bild selbst keine Anpassung erfährt. Wir verschieben das Bild nur um Positionsvektoren die ich aber nicht extrapoliere sondern einfach via Abtastung gewinne. Das bleibt dann eine "Interpolation".
Extrapolation ist auch nicht so trivial wie man es glauben lässt. Interpolation ist inheränt stabil eine Extrapolation nicht. bei einer Interpolation ist die genaue Zeitunterteilung klar bei einer Extrapolation nicht. Interpolation ist hier schlicht besser zu handeln.

Bei ASW werden auch Paralaxen innerhalb des Bildes angepasst und ATW müsste zumindest zwischen Szenen- und etwaigen relativ zum Headset fixierten (HUD-)Elementen unterscheiden (auch wenn man die in VR möglichst nicht nutzen sollte).

Wenn du den Ausdruck "Extrapolation" für einen angepassten Blickwinkel innerhalb einer zuvor gerenderten Szene ablehnst, weil zu wenig berechnet wird (ein Einwand, den man machen kann), ist "Interpolation" übrigens erst recht falsch. Für beides muss in gleichem Maße gerechnet werden – nur das die Bezugspunkte bei Interpolation halt aus Sicht des Zielwertes in verschiedene Richtungen liegen und bei Extrapolation in der gleichen. Die Unterteilung ist bei einer zeitlichen Betrachtung aber nie ein Problem. Man kennt die Zeitpunkte von Renderframe A, man kennt den Zeitpunkt von Renderframe B und man kennt den Zeitpunkt von Bonusframe C – vollkommen egal davon, ob C vor B ("Interpolation") oder nach B ("Extrapolation") liegt.
 
Zurück