News AMD zu Fluid Motion Frames: "Entweder wird Nvidia von unserer Lösung profitieren oder wahrscheinlich etwas Ähnliches tun müssen"

Für eine Interpolation sind Motion Vectors nicht zwingend notwendig. Sie machen es aber leichter.
So siehts aus.
Einfach mal den Unterschied zwischen Optical Flow und Motion Vector erklären lassen von GPT.

Optical Flow ist wie das Beobachten von Wolken, die sich über den Himmel bewegen. Es sieht, wie sich Dinge in einer Szene bewegen und verändern, wie in einem Videospiel oder einem Film.

Motion Vectors hingegen sind wie die Linien, die du auf einer Wetterkarte siehst, die die Windrichtung zeigen. Sie zeigen genau, wo und wie schnell sich jeder Teil eines Bildes von einem Frame zum nächsten bewegt hat.

Während Optical Flow dir also eine allgemeine Vorstellung davon gibt, wie sich Dinge bewegen, geben dir Motion Vectors genaue Details darüber, wie sich jeder Teil des Bildes bewegt. Beide sind auf ihre eigene Weise nützlich, besonders bei Dingen wie Videospielen und Videokompression.

Optical Flow misst die scheinbare Bewegung von Objekten innerhalb einer Szene, die detaillierter und nuancierter sein kann. Es ist rechenintensiv, weil es die Bewegung jedes Pixels im Bild analysiert.

Auf der anderen Seite sind Motion Vectors eine vereinfachte Darstellung von Bewegung, die typischerweise in der Videokompression verwendet wird. Sie sind weniger rechenintensiv, weil sie nicht jedes Pixel analysieren, sondern größere Blöcke von Pixeln.

Eien reine Optical Flow Lösung ist also niemals "gleichwertig" zu einer Lösung die beides kombiniert und auch noch in den renderprozess einbezogen wird. Das ist denke ich mal klar. DLSS3 und FSR3 nutzt ja beides (OF & MV) weil keines superior ist sondern einen Einsatzzweck hat.
 
Zuletzt bearbeitet:
In dem Artikel geht es um Treiberseitiges FMF,dessen Qualität du mit Nvidia FG vergleichst. Dann hat deine Aussage ja absolut keinen Bezug zum Thema wenn das nicht deine Aussage ist. Damit war mein "Versuch" ja erfolgreich. ;)
Wieder falsch. Meine Aussage war, dass Nvidia es nicht über den Treiber macht, weils beschissen läuft. Sie liefern nur Qualität ab und brachten deswegen FG.
 
Es geht ja nicht darum ob man es zuschalten kann, sondern ob es funktioniert.
Na beides eigentlich!
Erstmal hat AMD das als Alleinstellungsmerkmal (noch) und es funktioniert teilweise wohl schon ganz gut.
Ich stütze mich jetzt mal auf ein paar Aussagen von Usern die es erfolgreich getestet haben. Und natürlich gibt es auch negative Beispiele.
Aber das man FG bei nahezu JEDEM Spiel zuschalten kann ist theoretisch schon ziemlich interessant. Wenn es dann für das jeweilige Setting passt und funktioniert ist es doch noch besser.
Also ja...es geht schon darum das man es einfach zuschalten kann.
Wenn sie die Technik noch weiter verbessern können wird es vielleicht doch ein sehr sehr interessantes Feature.

Qualitativ wird es sicher nicht an die Spiel-integrierte FG rankommen. Das ist sicher.
Deswegen verstehe ich jetzt auch nicht die Vergleiche mit Nvidias FG Technik die integriert ist. Das sind zwei verschieden Paar Schuhe.
Die Kritik muss sich AMD bei FSR3 gefallen lassen.
 
5 Jahre RTX haben vor allem zu einer Sache geführt. Spiele ohne RTX schauen so gut aus wie nie, weil durch Echtzeit RTX einfach den Entwicklern eine Echtzeit Referenz zur Verfügung steht wie das Fake-Licht aussehen muss. Deswegen gibt es immernoch Sachen die nur RT kann, aber der Nutzen ist auch an Stellen vorhanden an denen sie Nvidia mit ihrer "kaufen & einbschalten" Strategie nicht wirklich gesehen hat.

Frame-Generation wird einen ziemlich ähnlichen Effekt haben. und das vermutlich an Stellen die man nicht erwartet. Um ein Beispiel zu nennen, viele Konsolen zielen bei Zwischensequenzen nur auf 30fps ab, was zuf Folge hat, dass auch in Echtzeit Zwischensequenzen höhere Details gefahren werden als im aktiven Spiel. Da hier ein Spieler nicht eingreift, könnte man mit Frame Generation die berechneten Frames auf 15 Stück drücken und hätte dann immer noch den 30fps Look von vorher. Gerade AMD als Lieferant der Konsolen muss so eine Technik derart abliefern, dass sie einfach im DevKit Update der Konsole läuft, sprich treiberseitig, der Entwickler muss keine KI trainieren, nur ein Flag setzen, fertig.

Wir müssen der Tatsache ins Auge sehen, dass 48fps im Hobbit Film als "TV-Look" abgekanzelt wurde und nicht "cinematisch" genug aussieht, wohingegen sich die Hobbit Computerspieler über weniger als 60fps beschweren. Es ist eine widersinnege Spaltung. Deswegen ist es ja ganz lustig was sich Nvidia und AMD an den Kopf werfen, aber am Ende machen immer noch die Entwickler die Spiele und zu welchem Zweck diese Entwickler die Werkzeuge von AMD und Nvidia einsetzen ist vielleicht ganz anders als sich das die Marketingabteilungen von Nvidia und AMD gedacht haben.
 
Anstatt damit zu prahlen, wer das bessere Upscaling oder die bessere KI-Lösung für Zwischenbilder hat, könnte man auch einfach potentere Karten herstellen, welche so einen Schwachsinn nicht nötig haben.
Beide Hersteller glänzen nicht damit, dennoch wird teilweise tierisch geprahlt, obwohl es nicht mehr als ein Armutszeugnis des Herstellers ist.
Seh ich eigentlich genauso , aber da kommen ja noch ganz andere sachen dazu.
Ich glaub umso mehr Leistung man aus ner Karte holt umso mehr Kühlung braucht man und umso mehr Energie verbraucht sie. Wobei man mit dem Verbrauch bischen entgegen kommen kann mit ner anderen Fertigung was aber auch nicht endlos Funktioniert....
Alleine wie Groß mittlerweile die Highend Karten sind -.- zum Kotzen ... Hab meine 7900 XTX gerade so ins Gehäuse bekommen.
 
Wir müssen der Tatsache ins Auge sehen, dass 48fps im Hobbit Film als "TV-Look" abgekanzelt wurde und nicht "cinematisch" genug aussieht, wohingegen sich die Hobbit Computerspieler über weniger als 60fps beschweren. Es ist eine widersinnege Spaltung.
Ich kann das auch gar nicht nachvollziehen. ^^ Ich jedenfalls schaue schon seit bestimmt fast 20 Jahren nur noch interpolierte 60 fps in filmen und Youtube. Das konnte schon die damalige Sony Röhre. ^^ Dieses Gestotter von 24p in Filmen konnte ich mir irgendwann nicht mehr antun. Sieht furchtbar aus.
 
Wieder falsch. Meine Aussage war, dass Nvidia es nicht über den Treiber macht, weils beschissen läuft. Sie liefern nur Qualität ab und brachten deswegen FG.
Ja und AMD FSR3-FG.
Und FMF über den Treiber ist noch nicht fertig entwickelt. Wird aber besser....
Nvidia hat gaaaar nix gebracht in der Hinsicht. Oder haben sie Treiberseitiges FG als Option?
Was also für ne Qualität? :D
Ich denke Nvidia wird noch ähnliches anbieten in Zukunft wenn die FMF Sache bei AMD eine gute Alternative wird bei Titeln wo kein FG integriert ist.
 
Ja und AMD FSR3-FG.
Und FMF über den Treiber ist noch nicht fertig entwickelt. Wird aber besser....
Nvidia hat gaaaar nix gebracht in der Hinsicht. Oder haben sie Treiberseitiges FG als Option?
Was also für ne Qualität? :D
Ich denke Nvidia wird noch ähnliches anbieten in Zukunft wenn die FMF Sache bei AMD eine gute Alternative wird bei Titeln wo kein FG integriert ist.

AFMF dürfte vor allem sehr interessant für low- und mid-Budget PC-Spieler werden, also die Masse. Und für die Masse ist es wichtig, dass ein Feature möglichst breit verfügbar ist. Für die ist es nicht mal allzu wichtig, dass die Bildqualität perfekt ist, sondern einfach, dass sie die Grafikkarte u.U. mit einem solchen Feature noch bisschen länger in erträglichem Masse nutzen können (auch unterhalb den minimal empfohlenen Bedingungen). Man sieht das ja schon an der allgemeinen Begeisterung vielerorts durch FMF-Mods weit ab jeglicher Perfektion, die nun Fake Frames zusehends auch auf ältere GPUs bringen. Selbst die dadurch tendenziell erhöhte Latenz ist da für viele zweit-, dritt- oder noch niederrangiger.
Für diese Zielgruppe könnten m.E. zudem die kommenden Super-APUs in Form von AMDs Strix Halo und Nachfolge-Chips sehr spannend werden, wenn man sich damit u.U. sogar gänzlich eine low-/mid-dGPU sparen kann. Ein zusehends besser funktionierendes AFMF da obendrauf ist dann ein ganz passendes Feature.

Aber das ist aus Sicht von einigen PC-Masterracer in ihrem Elfenbeinturm augenscheinlich relativ schwer verständlich.
 
FMF ist eine absolute Vollkatastrophe und ich bezweifle sehr stark, dass das momentan überhaupt irgendjemand nutzt.
"Vollkatastrophe" :stupid:

"überhaupt irgendjemand nutzt" :stupid:

Ganz oder garnicht, schwarz oder weiss, Weltuntergang oder Utopia.
Gibt's sonst noch Zwischenwerte oder nur Superlativen und Extremwert-Einstufungen?

---
Im Übrigen blocke ich jetzt jeden raus, der pubertär unreif unter drei Kommentare oder mehr (systematisch) zu einem Thema Lach-Emojis unter gegenläufige Meinung postet, um diese offensichtlich zu verhöhnen, obwohl diese weder sarkastisch noch humorvoll verstanden werden können.

Und Du hast gewonnen Lichtspieler2000! \o/

Was für eine Kindergarten.
 
Zuletzt bearbeitet:
"Vollkatastrophe" :stupid:

"überhaupt irgendjemand nutzt" :stupid:
Also ich habe sämtliche Tests dazu gelesen und es selbst probiert. Ich sage natürlich meine Meinung dazu und dabei bleibe ich, es sei denn AMD bringt mit dem neuen Treiber wirklich Verbesserungen.

Frametimes sind nunmal etwas das genauso wichtig sind wie die Höhe der FPS, wie auch die BQ und Tearing.

Ganz oder garnicht, schwarz oder weiss, Weltuntergang oder Utopia.
Richtig. Entweder das Spielgefühl wird besser oder halt nicht.

Im Übrigen blocke ich jetzt jeden raus, der pubertär unreif unter drei Kommentare oder mehr (systematisch) zu einem Thema Lach-Emojis unter gegenläufige Meinung postet,
Leider bietet das Forum keinen Daumen runter. Natürlich würde ich diesen nutzen, anstatt dem Smiley.
 
Die meisten neuen Spiele bekommen es aber, also ists kein Beinbruch.
Die meisten neuen Spiele bekommen es?
Steam hat letztes Jahr nen Rekord mit fast 14532 Spiele Releases aufgestellt...
70 davon können DLSS3 mit FG....
Also nicht mal 0,5% der Spiele aus einem einzigen Jahr.

Stimmt, bei weitem nicht alles AAA Spiele... aber wer behauptet, dass FG nur für diese gut ist?

Wenn FG ein Kaufargument ist, dann kann man den Kaufpreis ja einfach mal auf die Spiele runterbrechen, bei denen man wirklich FG nutzen kann - also die Spiele im eigenen Besitz... nicht die theoretisch möglichen Spiele.
Bei den meisten sind die Ergebnisszahlen deutlich im einstelligen Bereich.

Ich besitze genau ein Spiel mit DLSS Fähigkeiten... weil Blizzard ein absolutes Nvidia Fanboy Studio ist.
Ansonsten profitiert WoW absolut 0 von der Technik.... oder vom Ray Tracing, da man dank der Spielerzahl und Lichteffekte schneller im CPU, als im GPU Limit hängt.
 
Die meisten neuen Spiele bekommen es?
Steam hat letztes Jahr nen Rekord mit fast 14532 Spiele Releases aufgestellt...
70 davon können DLSS3 mit FG....
Also nicht mal 0,5% der Spiele aus einem einzigen Jahr.
Schrottspiele interessieren wen, außer irgendwelchen AMD huldigern, wenn sie mal wieder für Lisa Su im Forum kämpfen? :ugly:
Nvidia hat gaaaar nix gebracht in der Hinsicht. Oder haben sie Treiberseitiges FG als Option?
Was also für ne Qualität? :D
Richtig, genau das habe ich gesagt.
Nvidia hat nichts gebracht, weil es beschissen läuft und sie Qualität liefern wollen. Ich habe jetzt 3x das gleiche geschrieben und du checkst es immer noch nicht ;)

Ihr könnt AMD so viel feiern wie ihr wollt. Der neutrale User informiert sich vorher und stellt fest, dass Nvidia Qualität liefert und AMD schlecht kopiert ;)
 
Zuletzt bearbeitet:
na und glaubst du das ich zum spaß soviel geld für eine gpu ausgeb? da möchte ich auch dlss,rr,fg usw vernünftig nutzen. alle die sparsam bleiben wollen können e denn open source mist nutzen
die ersten zwei Generationen einer neuen Technologie sind freiwillig early adopter - und wissen sehr wohl (oder müssten es) dass es noch Zeit braucht. - "Nicht so hastig, kleine Hobbits."

Prognose:
Besser Nutzen kommt mit der 5090.
Vernünftig Nutzen mit der 6090.
 
Ich spiel gerne mal eine Runde Remnanat II und das gilt als Unreal 5 Hardwarefresser. Zudem hängt die 2080 an einem UWQHD Oled und spuckt nur 40 Frames aus. Aber Remnant II unterstützt DLSS und FRS und XeSS und wenn ich in der Basis herumlaufe und durch zwei Zäune schau, oder auf die Stromleitungen starre, ich erkenne beim besten Willen keinen Unterschied zwischen FRS, Xess und DLSS in diesem Spiel. Alle drei Modi liefern 60fps im Quality Mode und alle drei Modi sehen Fehlerlos aus, erst recht wenn die Action in den Leveln kracht.

Bei 60fps in einem Unreal 5 Spiel mach ich mir keinen Kopf über verschiedene Arten Zwischenframes zu erzeugen und ob die einen Mehrwert bieten. Das ist halt neu, das ist Hype, das macht lange Balken länger als jede blaue Pille und da stehen die Hersteller halt drauf.

Zwischen dem Spiel und Baldur's Gate 3 ist der unmittelbare Druck eine GPU zu kaufen nicht der Größte. Ich gehe so weit zu sagen, der Ausgang der Wahl in Taiwan hat noch eher Auswirkungen auf dem Kuaf, um nicht zu sagen, wenn diese Sh!#tshow ihren Lauf nimmt, kauf ich eher noch schnell eine dicke GPU weil es dann wieder eine Zeit chaotisch wird. Die GPU danach wird vermutlich dann von Zebronics gefertigt.
 
Die meisten neuen Spiele bekommen es?
Steam hat letztes Jahr nen Rekord mit fast 14532 Spiele Releases aufgestellt...

70 davon können DLSS3 mit FG....
Also nicht mal 0,5% der Spiele aus einem einzigen Jahr.

von den 14532 Spielen sind für mich weniger als 0,5% interessant ... von den Interessanten hab ich 4 gekauft - die waren interessanter noch und von den 4 hat jedes DLSS.

FG brauch ich nicht, hab nur eine 3090. FG ist somit aus meiner Sicht noch ein ziemlich uninteressantes Feature.
 
die ersten zwei Generationen einer neuen Technologie sind freiwillig early adopter - und wissen sehr wohl (oder müssten es) dass es noch Zeit braucht. - "Nicht so hastig, kleine Hobbits."

Prognose:
Besser Nutzen kommt mit der 5090.
Vernünftig Nutzen mit der 6090.
Dem Grundgedankengang, dass die Käufer von neuer Technik immer auch so eine Art Versuchskaninchen sind und viele Technik bei Release noch nicht ausgereift ist - neue Spiele stellen da inzwischen leider schon sehr häufig neue Rekorde der Unausgereiftheit bei Release und "Reifen beim Kunden" auf - stimme ich ja durchaus zu.

Allerdings würde ich sagen, das gerade bei dem Thema neue Features der Grafikkarten nVidia auch schon in der 2. Generation (also der RTX 3000 Serie) sowohl beim Upscaling per DSSL als auch beim Raytracing schon recht ordentlich abgeliefert hat. Wenn sie das so beibehalten, dann sollte die RTX 5000 Serie bei FG schon richtig klasse werden :-)

Wir als Spieler und Konsumenten haben damit aber immer noch ein Problem:
Da nVidia mit den neuen Features, die sie zweifelsohne auch zuerst entwickelt und auf den Markt gebracht haben, aktuell AMD jeweils eine Generation voraus ist, ist der Grafikkartenmarkt kein reiner Performance-Wettbewerb mehr (im Rasterizing ist inzwischen AMD teilweise nVidia sogar überlegen), sondern nVidia kann mit ihrem Vorsprung bei den neuen Features quasi die Preise bestimmen. Klar gibt es auch ein paar Kunden, die Raytracing und so nicht interessieren. Aber das dürfte für den Gesamtmarkt - teilweise auch wegen dem geschickten Marketing von nVidia und weil nVidia vorher auch schon der Platzhirsch war - wohl eher eine Minderheit der Käufer sein, die das Fehlen oder die Nachteile bei diesen neuen Features bei ihrer Kaufentscheidung nicht interessiert.

Sieht man m.E. auch ganz gut an den Preisen: Diese scheinen sich weniger nach Rasterizing-Performance und Speicherausstattung zu bilden, sondern mehr nach der Raytracing Leistung - sogar mit Einbezug von Frame Generation, obwohl das nun wirklich nur eher wenige Spiele unterstützen.

Von daher halte ich es für begrüßenswert, wenn AMD vielleicht auch mal wieder mit einem Feature, was für die Kunden interessant ist und welches nVidia nicht bietet, aufwarten kann. Ob treiberseitige Frame Generation, also in jedem Spiel zuschaltbar, zum aktuellen technischen Zustand schon dieses Feature ist, mag man anzweifeln. Aber AMD wird daran arbeiten (so wie alle Hersteller an allen Features weitertüfteln) und es wird vermutlich bald besser werden. Ob das reicht, um auf nVidia ausreichend aufzuholen, damit der Wettbewerb und damit auch die Preiskonkurrenz bei Grafikkarten zunimmt, kann ich nur hoffen. Es wäre schrecklich, wenn nVidia jetzt dauerhaft die Preise für neue Grafikkarten fast alleine festlegen könnte, weil die Konkurrenz ständig beim Featureset hinterherhinkt.
 
Zuletzt bearbeitet:
Zurück