News AMD FSR 3: Gerüchte um 4 interpolierte Zwischenbilder

Ok und ich darf hier nun meine Meinung nicht mehr äußern, wenn sie den Herrn ATREUSz nicht interessiert oder was willst du mir damit sagen?!
Ging eher darum das es doch völlig juck ist wann mit der Entwicklung begonnen wurde ?
Auch wenn ich Mercedes fahre stört es mich nicht das andere Hersteller auch Autos produzieren nachdem Karl Benz das Auto erfunden hat ^^
 
Da kommt aber optimalerweise dann kein weiterer, zusätzlicher Input-Lag dazu (bis auf die Zeit, die für das Erstellen der KI-Frames benötigt wird). Du brauchst ja trotzdem nur zwei voll berechnete Frames, die zurückgehalten werden müssen - daher kommt der Lag.

Ob du einen, zwei, drei oder dreitausend KI-Frames dazwischen erzeugen lässt, ist im Grunde egal (bis auf deren Berechnungszeit, die aber eben auch deutlich niedriger sein muss, als jene der voll erzeugten Frames, sonst bringt es nichts, dann kann man es gleich bleiben lassen).


EDIT: Könnte allerdings beim Frametime-Pacing etwas weird werden, wenn ein langer (der erste voll berechnete Frame), dann vier sehr kurze (die KI-Frames) und darauf wieder ein langer (der zweite vollberechnete) aufeinander folgen. Ganz unproblematisch ist das also trotzdem nicht.


Gruß,
Phil
Hat man einmal den Satz Vektoren um ein Zwischenbild zu erzeugen, kann man theorethisch beliebig viele Zwischenbilder daraus generieren. Was mir dabei aber Sorgen macht, sollten alle Zwischenbilder auf dem selben Satz Vekoren beruhen, haben auch alle die gleichen Fehler. Bei nur einem fehlerhaften Zwischenbild ist das bei DLSS3 ja scheinbar schon wahrzunehmen, aber sollten auf ein richtigs Bild 2-4 fehlerbhaftete folgen, stelle ich mir das ziemlich katastrophal vor.
 
Hat man einmal den Satz Vektoren um ein Zwischenbild zu erzeugen, kann man theorethisch beliebig viele Zwischenbilder daraus generieren. Was mir dabei aber Sorgen macht, sollten alle Zwischenbilder auf dem selben Satz Vekoren beruhen, haben auch alle die gleichen Fehler. Bei nur einem fehlerhaften Zwischenbild ist das bei DLSS3 ja scheinbar schon wahrzunehmen, aber sollten auf ein richtigs Bild 2-4 fehlerbhaftete folgen, stelle ich mir das ziemlich katastrophal vor.
Eine Herausforderung, sicherlich.
Bin auch teilweise deswegen ein wenig skeptisch. Wenn das alles so einfach wäre, wäre Nvidia wahrscheinlich nicht erst im Interview auf diese Idee gekommen. But we'll seen soon enough.

Gruß,
Phil
 
Ganz ehrlich, AMD soll aufhörten für NVidia Karten zu entwickeln.
Denke, das Geld kann man gut in andere Entwicklungen stecken. Wennschon, sollte das der Platzhirsch für wenigstens einmal machen.

... aber auf so einen selbstlosen Akt können wir lange warten.
 
Erstmal abwarten was AMD da zusammen Braut..

Und ob es nachher frame Interpolation ist (sprich zwischen 2 vorhandenen bekannten frames eingefügt wird wie beim Fernsehen mit Fluid Motion)
Gut möglich das hier 2 echte frames erzeugt werden und diese dann mit Verzögerung + interpolierten frames ausgegeben werden... so das man zusätzlich noch n verarbeitungslag hat.


Oder ob es frame Generation ist.. wo via KI geschätzt wird bevor das nächste echte Bild bekannt ist .


Merke
Frame Interpolation bedarf 2 echter frames um zwischenframes zu berechnen

Frame Generaton schätzt das nächste Bild bevor es da ist
 
Ganz ehrlich, AMD soll aufhörten für NVidia Karten zu entwickeln.
Denke, das Geld kann man gut in andere Entwicklungen stecken. Wennschon, sollte das der Platzhirsch für wenigstens einmal machen.

... aber auf so einen selbstlosen Akt können wir lange warten.

Du bis also gegen ein offenes Konzept, wovon auch ältere Karten stark profitieren können und so vor dem vorzeitigen obsolet bewahren?
Ich als Nvidia Besitzer finde es schon lange großartig, was AMD auf diesem Gebiet leistet und würde mir das auch von Nvidia wünschen.
Hätte AMD eine Konkurrenzfähigen NVENC Encoder, dann hätte ich schon längst gewechselt. Die Game Performance reicht schon lange, selbst für das viel überbewertete Raytracing.
 
Bin jedenfalls auf FSR3 gespannt.

Konnte vor Jahren schon die Zwischenbildberechnung des alten TVs von 2009 nutzen, um mit der R7 270X mit Ach und Krach noch paar Monate bis zu einer akzeptabel bezahlbaren FuryX zu überbrücken. Bei dem TV gab's allerdings maximal nur eine Frameverdopplung. Die Latenzen blieben zu meiner Überraschung allerdings ganz erträglich, jedoch zeichnete sich das Gerät auch so allgemein mit für damalige Verhältnisse sehr niedrigen Latenzen aus. In GTA V, wo ich das hauptsächlich einschaltete, fielen mir dabei eigentlich nur die üblichen paar kleinen Grafikartefakte beim Autofahren um das Auto auf, wie man es von der TV-Interpolation so kennt.

Allerdings zeigt die Entwicklung der Menschen über die Jahre hinweg auch, dass schnell an mehr Bilder gewöhnt wird und heutzutage oft nicht vorstellbar ist, mit weniger als 60fps zu spielen. Wenn ich bedenke, dass zu Zeiten von Final Fantasy 7 gelockte 15fps durchaus öfters vorkamen. Herrlich war auch die ständige Argumentation, dass die Augen eh nicht mehr als 25 Bilder erkennen können würden und HFR bei Filmen mit 48fps anfänglich sehr ablehnend diskutiert wurde, weil es zu flüssig wirke :ugly:

Btw. @PCGH:
AMD hat nun seit über einen Monat keinen neuen Treiber mehr veröffentlicht. Wo bleibt denn der Speku-Artikel wie bei HoLe darüber, ob AMD nun die Treiberentwicklung komplett einstellt, statt nur bis zu RDNA2? ;)

Du bis also gegen ein offenes Konzept, wovon auch ältere Karten stark profitieren können und so vor dem vorzeitigen obsolet bewahren?
Ich als Nvidia Besitzer finde es schon lange großartig, was AMD auf diesem Gebiet leistet und würde mir das auch von Nvidia wünschen.
Hätte AMD eine Konkurrenzfähigen NVENC Encoder, dann hätte ich schon längst gewechselt. Die Game Performance reicht schon lange, selbst für das viel überbewertete Raytracing.

Ich denke bis ein proprietärer NVidia-Codec von AMD unterstützt wird, wirst Du schwarz. Wir Radeon-Nutzer kommen aber mit AV1, AVC und HEVC ganz gut zurecht zum Streamen und Aufzeichnen, oder für privates "Cloud"-Gaming auf einem mobilen Gerät.
 
Zuletzt bearbeitet:
Es kommt auf das Bild und die Latenz an. Nicht auf die kleine Anzeige links oben, die dir eine Zahl anzeigt.
Richtig, aber auch die Bildqualität. Und Artefakte in Kombination mit höherer Latenz kann je nach Spiel und AnwenderIn durchaus als störend empfunden werden. Dann lieber eine kleinere Zahl links oben.
 
Du bis also gegen ein offenes Konzept, wovon auch ältere Karten stark profitieren können und so vor dem vorzeitigen obsolet bewahren?
Ich als Nvidia Besitzer finde es schon lange großartig, was AMD auf diesem Gebiet leistet und würde mir das auch von Nvidia wünschen.
Hätte AMD eine Konkurrenzfähigen NVENC Encoder, dann hätte ich schon längst gewechselt. Die Game Performance reicht schon lange, selbst für das viel überbewertete Raytracing.
Ganz genau!
Man muss auch sehen , dass der Laden läuft.
Gerade bei Nichtkunden wie dir wird es klar, dass man nicht immer nur geben kann und dafür nichts erhält.

AMD hatte auch meiner GTX1080 etwas Power eingehaucht. Gleichzeitig kostet Entwicklung Geld.

Gerade die NV Fanboys erwarten zuviel von einer Firma die nie Ihre Unterstützung erhält.
Absurd, dies mit den Möglichkeiten von NV zu vergleichen die sich praktisch nie an Standarts hält oder offen legt, geschweige denn für die Konkurenz entwickelt.
 
Zuletzt bearbeitet:
Richtig, aber auch die Bildqualität. Und Artefakte in Kombination mit höherer Latenz kann je nach Spiel und AnwenderIn durchaus als störend empfunden werden. Dann lieber eine kleinere Zahl links oben.
Je länger je mehr muss man beim Vergleich aufpassen. fps ist schon lange nicht mehr gleich fps.

Frame times und min und min1% fps spielen eine viel wichtigere Rolle heute.

Wenn sich diese mit DLSS3 FG und FSR3 nicht verbessert, bringt es nicht mehr viel.

Bin jedenfalls auf FSR3 gespannt.
....

Allerdings zeigt die Entwicklung der Menschen über die Jahre hinweg auch, dass schnell an mehr Bilder gewöhnt wird und heutzutage oft nicht vorstellbar ist, mit weniger als 60fps zu spielen. Wenn ich bedenke, dass zu Zeiten von Final Fantasy 7 gelockte 15fps durchaus öfters vorkamen. Herrlich war auch die ständige Argumentation, dass die Augen eh nicht mehr als 25 Bilder erkennen können würden und HFR bei Filmen mit 48fps anfänglich sehr ablehnend diskutiert wurde, weil es zu flüssig wirke :ugly:

Btw. @PCGH:
AMD hat nun seit über einen Monat keinen neuen Treiber mehr veröffentlicht. Wo bleibt denn der Speku-Artikel wie bei HoLe darüber, ob AMD nun die Treiberentwicklung komplett einstellt, statt nur bis zu RDNA2? ;)



Ich denke bis ein proprietärer NVidia-Codec von AMD unterstützt wird, wirst Du schwarz. Wir Radeon-Nutzer kommen aber mit AV1, AVC und HEVC ganz gut zurecht zum Streamen und Aufzeichnen, oder für privates "Cloud"-Gaming auf einem mobilen Gerät.

Ich kann mich gut erinnern an die 48 Bilder. Es war dann nicht mehr so wie man es sich von einer Hollywood Produktion gewöhnt war und stiess deswegen auf Ablehnung.
Zu dumm, ich fand es grossartig und stellte mir einen schnellen KungFu Film vor mit der Technik, in dem nicht alles wie verwischt aussah.
Blieb ein Traum.
Spähter wurde auch bei Spielen von einem Cineastischen Erlebnis gesprochen, das ich nicht lache.

Codecs.
NVidia hat die Nase minim aber erkennbar vorn beim ältesten und schlechtesten Codec von allen in der Qualität. So what?
Warum man den noch nutzen sollte? Da gibt es doch nur noch Twitch die nichts anderes unterstützen. Korrigiert mich wenn ich falsch liege.
Andere Frage, wieviele der Gamer streamen?
Spielt ein minimer Unterschied wie dieser eine Rolle? Nein.
Wenn dann sollte AMD vorne liegen wegen ihrer in den Treiber integrierten Software!
 
Ich denke bis ein proprietärer NVidia-Codec von AMD unterstützt wird, wirst Du schwarz. Wir Radeon-Nutzer kommen aber mit AV1, AVC und HEVC ganz gut zurecht zum Streamen und Aufzeichnen, oder für privates "Cloud"-Gaming auf einem mobilen Gerät.
NVENC ist kein Codec, sondern der HW-Encoder.
 
Wenn ich mir die Zeit für das Encoden von H265 in 4K anschaue, dann wird mir leicht übel gegen den NVENC.
Beim lokalen Gamestreming mit der Shield ist das nicht zu verachten.

Warte mal Shield.... .
Ist das nicht das Handheld von NVidia, das keiner gekauft hat?
War das so ähnlich wie "AMD Link", mit dem Unterschied, dass damit jedes Gerät genutzt werden kann?

Du hast recht, was die Zeiten angeht.
Wie viel war der Unterschied?
Könnte es sein, dass es in etwas, Beispiel: 1:15h vs 1h , waren?
 
Warte mal Shield.... .
Ist das nicht das Handheld von NVidia, das keiner gekauft hat?
War das so ähnlich wie "AMD Link", mit dem Unterschied, dass damit jedes Gerät genutzt werde kann?
Diese softwareschnittstelle bei NV kannst du auch per Moonlight ansteuern und es wie AMD Link auf allen Geräten nutzen. Läuft im Gegensatz zu AMD Link auch auf meinem Android TV flüssig. Zumindest in 1440p und 10Mbit. Bei AMD Link waren 1080p und 5 Mbit das höchste der Gefühle. Und ja, in der verbesserten 23.2.1 Version. Vorher ging es garnicht
 
Reden wir jetzt von frame Interpolation oder frame Generation?
Das erste ist wie beim Fernseher um etwas flüssiger darzustellen was low framerate hat...
Nett um zb 30hz content auf 60hz zu interpolieren.. aber mehr auch nicht..nix anderes wie Fluid Motion um n Video auf n high refresh display zu "glätten"


Das andere erzeugt aktiv frames im spielgeschehen

Für mich klingt das jetzt eher nach ersteren.. was zwar nett ist.. aber nicht so berauschend wie frame Generation

"Frame Generation" ist nur Marketing-Buzzword für Interpolation mit EYEI!!!. So als hätten alle vorherigen Ansätze strunzdoof gewürfelt. GPUs haben gegenüber Fernsehern zwar den großen Vorteil, dass sie Objektbewegungen nicht allein aus Bildvergleichen rekonstruieren müssen, sondern sie teilweise direkt aus dem Geometrieteil der Engine erhalten, aber am Ende wird dennoch interpoliert, wo Farbklecks A auf halber Strecke zwischen Frame 0 und Frame 1 war.

Da kommt aber optimalerweise dann kein weiterer, zusätzlicher Input-Lag dazu (bis auf die Zeit, die für das Erstellen der KI-Frames benötigt wird). Du brauchst ja trotzdem nur zwei voll berechnete Frames, die zurückgehalten werden müssen - daher kommt der Lag.

Ob du einen, zwei, drei oder dreitausend KI-Frames dazwischen erzeugen lässt, ist im Grunde egal (bis auf deren Berechnungszeit, die aber eben auch deutlich niedriger sein muss, als jene der voll erzeugten Frames, sonst bringt es nichts, dann kann man es gleich bleiben lassen).


EDIT: Könnte allerdings beim Frametime-Pacing etwas weird werden, wenn ein langer (der erste voll berechnete Frame), dann vier sehr kurze (die KI-Frames) und darauf wieder ein langer (der zweite vollberechnete) aufeinander folgen. Ganz unproblematisch ist das also trotzdem nicht.


Gruß,
Phil

Die Generation der KI-Frames beginnt erst, wenn man die beiden Render-Frames hat, also auch deren zeitlichen Abstand kennt. Es sollte also kein großes Problem sein, die Spanne dazwischen gleichmäßig in KI-Schnipsel zu teilen. Der weiße Elefant im Raum ist aber die Frage nach dem Sinn: Während zusätzliche KI-Frames den Lag nicht beeinflussen, würden KI-Frames statt Render-Frames das sehr wohl machen. Mit ×4 könnte man also echte 60 Fps auf 240 statt auf 120 aufblasen, bei gleichbleibender Latenz. Aber sich 240 statt 120 Fps wünscht, macht das ja meist wegen einer besseren Latenz und die könnte "DLSS x4.0" nicht bringen. Ebensowenig kann man damit 15 Fps in etwas spielbares verwandeln.

Zumal der im Gegenzug durch Reflex rausgenommene, allgemein vermeidbare Lag eine absolute Größe darstellt. Ich hatte mal überschlagen, dass ein normaler Triple-Buffer-anySync-Render vier Bildausgabezyklen braucht, bis ein Handlungsanlass aus der Engine zu sehen und wenn der Spieler dann reagiert, vergehen noch einmal drei Zyklen, bis man das Ergebnis sieht. Also bei 100 echten Fps hätte man 70 ms Lag insgesamt, davon 30 ms zwischen zwei sichtbaren Ereignissen. Mit 100 Fps, die aus 50 Fps gefaked werden, steht es 10 zu 5 Zyklen respektive 100 und 50 ms. Wenn Reflex im Gegenzug zum Beispiel 20 ms vor dem Rendering einspart, bleiben netto 80 und 30 ms – der volle Round-Trip wird nur 10 ms länger und was man sieht läuft sogar genauso flott ab. Wenn dafür doppelt so GPU-vordernde Grafikeinstellungen laufen (also z.B. "mittlere Details" überhaupt spielbar werden) ein durchaus attraktives Angebot.

Würde man die 100 Fps aber aus 25 echten Frames hochrechnen, um auch mit einer eigentlich um Faktor vier zu schwachen GPU spielen zu können, würden 90 ms vergehen, bis man ein Ereignis aus der Engine überhaupt sieht und dann noch einmal 110 ms, bis die eigene Reaktion darauf in ein Bild einfließt. Aus 200 ms Round-Trip mittels Reflex 180 ms zu machen, wäre ein Tropfen auf den heißen Stein. Statt einer Latenzverschlechterung von 13 Prozent hätte man eine von 100 Prozent.
 
Warte mal Shield.... .
Ist das nicht das Handheld von NVidia, das keiner gekauft hat?
War das so ähnlich wie "AMD Link", mit dem Unterschied, dass damit jedes Gerät genutzt werden kann?

Du hast recht, was die Zeiten angeht.
Wie viel war der Unterschied?
Könnte es sein, dass es in etwas, Beispiel: 1:15h vs 1h , waren?

Ich sehe du kennst dich damit nicht so gut aus. Ich bin aber auch nicht
dein Privat Lehrer.Also wenn es dich wirklich interessiert, dann mach dich selber schlau.
 
Ich sehe du kennst dich damit nicht so gut aus. Ich bin aber auch nicht
dein Privat Lehrer.Also wenn es dich wirklich interessiert, dann mach dich selber schlau.
Nein ist ok, musst du nicht.

So ein Scheiss würde ich mir nie kaufen. Was für eine Geldverschwendung.
Man muss ja schon allen Müll von NVidia kaufen wollen, um sich auch das Teil zu holen.

Ich denke für mich, sind die Zeiten von Gameboy vorbei, darum brauche ich auch nichts für unterwegs und dann noch gestreamt.

Ich will es eher, um vielleicht dem Kollegen was zu zeigen oder so. Lange an der Stange kann mich dieses Gimix nicht halten, wenn die Maschine eh um die Ecke steht. Wenn ich es dann am Fernseher möchte, stecke ich es einfach da ein.
Keine Verzögerung, keine Kompression.

Was ich an der Technik wirklich interessant finde, sind die Zukunftsaussichten für VR. Streame jetzt auch auf meine OcculusQuest2. Das könnte noch sehr stark verbessert werden. Das hat es bitter nötig, egal mit welcher HW.
 
Zuletzt bearbeitet:
Nein ist ok, musst du nicht.

So ein Scheiss würde ich mir nie kaufen. Was für eine Geldverschwendung.
Man muss ja schon allen Müll von NVidia kaufen wollen, um sich auch das Teil zu holen.

Ich denke für mich, sind die Zeiten von Gameboy vorbei, darum brauche ich auch nichts für unterwegs und dann noch gestreamt.

Ich will es eher, um vielleicht dem Kollegen was zu zeigen oder so. Lange an der Stange kann mich dieses Gimix nicht halten, wenn die Maschine eh um die Ecke steht. Wenn ich es dann am Fernseher möchte, stecke ich es einfach da ein.
Keine Verzögerung, keine Kompression.

Was ich an der Technik wirklich interessant finde, sind die Zukunftsaussichten für VR. Streame jetzt auch auf meine OcculusQuest2. Das könnte noch sehr stark verbessert werden. Das hat es bitter nötig, egal mit welcher HW.
Also um dich jetzt nicht die ganze Zeit auf dem völlig falschen Weg zu lassen, mit Shield habe ich natürlich die Shield TV gemeint. Ich bin irgendwie nicht davon ausgegangen, dass die portable Shield Konsole heute noch ein Rolle spielt.
 
Zurück