Special FSR 3 und die Fluid Motion Frames im Test: AMDs Frame Generation und ein potenzielles Killer-Feature für Radeons

Einfach nur stumpf die gerenderte Auflösung zu vergleichen wird den komplexen Supersampling Systemen nicht mehr gerecht.
Ich denke Nativ rendern sollte nach wie vor der Fokus bleiben, weil es die tatsächliche Leistung ist. Aber es sollte als weitere Auswahl bei den Auflösungen eine Auswahl geben, wie die Leistung ist mit Framegeneration und DLSS Quality oder FSR Quality. Und wenn ein Titel eben FG unterstützt, dann sollte das auch verglichen werden. Das Treiber FG von AMD kann man dann auch wenns es final ist, bei den AMD dann immer reinnehmen, das wäre nur fair.

Ich bin gegen diese Vergleiche von DLSS P und FSR Q weil das ja angeblich vergleichbar sei. Hier sollte man dann wenn schon auch schon bei der gleichen Auflösung bleiben, denn der Benchmark ist ja eben über die Auflösung.
 
Hier tun manche als könnte man mit einer 7900XTX die Hälfte der Spiele nicht spielen...
Es liegt auch viel daran wie zB Screens/Videos peäsentiert werden.

Für ein seichtes Zwischendurch atte ich Robocop im Visier.
Nach dem Screen von @RX480
Robocop Rogue City@1800pFSR2balanced.jpg

und dem Video von einer RTX 4090
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
war ich mir nicht mehr sicher ob ich mir das antun muss....aber dann...die paar Euro...
Das Spiel sieht erheblich besser aus als das was der Screen und das Video vermitteln...auch mit der ollen RX 6800 mit einem 160W Setting

RTX 4090 1.jpg RoboCop Rogue City_2023.11.02-14.32.jpg
RTX 4090 2.jpg RoboCop Rogue City_2023.11.02-14.33.jpg
RTX 4090 3.jpg RoboCop Rogue City_2023.11.02-14.40.jpg

um was zu bewerben, sollte auch gezeigt werden was das Produkt kann
 
Ich fand das Spiel sah echt schlecht aus in den Videos die ich gesehen hab. Aber ich vermute man muss nur wieder mal mit Reshade ran und die Farben, Kontrast etc anpassen und RTGI drauf. ^^

Aber für 50€ is bisschen happig..
 
Welcher Monitor unterstützt denn 12bit Farbtiefe? Ich ärgere mich ja schon über die geringe Menge an Monitoren die 10bit nativ unterstützt.
Welchen Monitor nutzt du?

Welche Probleme sollen das sein mit HDR? Aus persönlichen Erfahrungen kann ich sagen, dass es in Battlefield 1, Battlefield V und FarCry 5, gut funktioniert hat auf der RX6950. Einzig dass wenn man aus Battlefield heraus tabt und in der Zeit der Nachtmodus von Windows anspringt, dann kann es passieren, dass es im Spiel plötzlich auch diesen Blaufilter drin hat. Einmal HDR aus und wieder an und weg ist der Effekt. Das würde ich jetzt nicht als problematisch einstufen.

LG OLED65C9 von 2019, das "Problem" dürfte allerdings sein, dass dieser TV das UHD120Hz12bit4:4:4-Bild zwar dank voller 48Gbps-HDMI-Leitung übertragen bekommt, und es auch verarbeiten kann, das Panel selbst scheint aber nur 10bit zu sein. Das müsste dann bei 12bit wenn dann quasi maximal mit 10bit+Dithering arbeiten können.
Ich kann letztlich die GPU mit diesem TV auf max. 12bit, min. 8bit einstellen, während der QLED-Zweitmonitor maximal 10bit zulässt, dafür bis auf 6bit runter geht.

In der Praxis dürfte es wegen der vermutlichen Panellimitierung ziemlich egal sein, ob man 10 oder 12bit einstellt. 10bit selbst hat schliesslich auch schon deutlich kleinere Abstufungen als 8bit. Ich stelle es aber halt einfach auf das maximal mögliche 12bit, weil es auch keine negativen Auswirkungen bei der GPU hat und es wenigstens eine Chance für zusätzliches Dithering gibt.
 
Ich denke Nativ rendern sollte nach wie vor der Fokus bleiben, weil es die tatsächliche Leistung ist. Aber es sollte als weitere Auswahl bei den Auflösungen eine Auswahl geben, wie die Leistung ist mit Framegeneration und DLSS Quality oder FSR Quality. Und wenn ein Titel eben FG unterstützt, dann sollte das auch verglichen werden. Das Treiber FG von AMD kann man dann auch wenns es final ist, bei den AMD dann immer reinnehmen, das wäre nur fair.

Ich bin gegen diese Vergleiche von DLSS P und FSR Q weil das ja angeblich vergleichbar sei. Hier sollte man dann wenn schon auch schon bei der gleichen Auflösung bleiben, denn der Benchmark ist ja eben über die Auflösung.
Zum ersten Punkt: Ich denke es wird in nahe Zukunft öfter die Option Nativ eigentlich nicht mehr geben. Warum auch nicht, wenn das Bild gut aussieht.

Zum zweiten Punkt: Verstehe den Ansatz, aber wo wäre das Fair, wenn die Bildqualität von DLSS B schon FSR Q wirklich erreichen würde.

Aber das ist nur meine Sichtweise ;)
 
Ich denke Nativ rendern sollte nach wie vor der Fokus bleiben, weil es die tatsächliche Leistung ist.

Nativ rendern wird es bald nicht mehr geben. Die Grafikkarten werden sich ihrer KI Fähigkeiten bedienen, wie der Bäcker dem Mehl.

Es gibt kein gutes Argument mehr für eine native Berechnung. Die schlagenden Argumente sind alle auf der Seite der KI Berechnungen.
 
@Thomas5010
Wieviel Prozent der Hardware einer modernen Karte sind spezielle KI-Cluster? Wenn die restlichen Komponenten also nicht mehr so wichtig werden, sollte die Hardware, also die nächsten physischen Karten, nicht mehr groß teurer werden. Da die Preise aber heftig gestiegen sind, für einen geringen Teil an KI, steht das für viele nicht mehr im Verhältnis zueinander. Also Preis und Hardware. Jetzt bleibt die Rasterperformance, also der grundsätzliche Rechendurchsatz aber die Grundlage für die KI-Ausgabeleistung. Sprich, wenn da zehn mal mehr gehen würde, dann hätte die darauf aufbauende KI eben auch viel mehr Möglichkeiten und das Ergebnis wäre größer.
Deshalb sollte die Rasterperformance immer weiter im Fokus stehen.
Ist doch auch klar. Aktuelle Spiele laufen nativ als Diashow. Stellt man DLSS/FSR ein, wird die Auflösung reduziert und mehr Bilder berechnet. Diese sähen grottig aus, würde die KI das Bild nicht nachberechnen/aufbereiten. Kommen wir so beispielsweise erst von 15 auf 60 fps, würde bei mehr Rasterperformance eben auch das Gesamtergebnis um den gleichen Faktor steigen. Im Beispiel x10, würden wir also von 150 auf 600fps kommen. Einfach nur mehr KI bringt aktuell nicht viel, wenn die Datenausgangslage (Raster) nicht mit steigt.

Viele haben sich beispielsweise von MCM versprochen dass diese Grundleistung wieder signifikant gesteigert wird. Warum nicht wieder mehrere GPUs auf einer Platine, oder beidseitig bestückt, oder wie zu Zeiten der 7950GX2 gar mehrere Platinen miteinander verbinden und die KI nutzen um die Probleme mit der Bildsynchronisierung von früher in den Griff zu bekommen?

Meiner ganz persönlichen Meinung nach, entwickelt sich die Nutzung von KI aktuell für uns enduser zu einer uns melkenden cashcow, ohne dass klassische Probleme angegangen, oder gar beseitigt werden die eine einfache Leistungssteigerung ermöglichen würden. Ja klar, aktuell steigert man hauptsächlich den ki Part, aber das eben zu Preisen die eine Verdoppelung, oder gar Vervierfachung der Hardware früher mitbrachten. Irgendwann kommt aber wieder der Punkt wo man die Hardware deutlich erweitern muss und dann haben wir uns an Preise gewöhnt die uns so schon nicht schmecken.

Man darf halt nicht vergessen, dass die Entwicklung eine KI echt teuer ist, aber wenn sie dann einmal steht und so wie hier, sich selbst trainiert und erweitert, sie eben kein Brot mehr frisst. Aktuell feiert man Kyi dafür, sich bessere und effizientere Chipdesigns auszudenken und auch hier spart man also fortwährend Kosten. Warum bitte wird diese Ersparnis also nicht durch krasse Leistungssteigerung zum gleichen Preis, oder durch gleiche Leistung zu günstigeren Preisen nicht bei uns umgesetzt?
Die Antwort ist klar.
Deshalb ist für uns Kunden die grundsätzliche Rechenleistung immer bessere/wichtiger als die der KI. Letztere ist vorrangig ein Werkzeug uns mit möglichst wenig Einsatz weiter und stärker zu schröpfen, leider.
 
Wenn ich Radeon Boost und RSR einschalte bekomme ich in RT Spiegelungen richtig viele Artefakte.
und sämtliche Schrift selbst das Pausenmenü hat bei jeder kleinsten Bewegung Retrografik die sich bei stillstand nach etwas weniger als einer Sekunde glättet...
Radeon boost funktioniert in Cyberpunk nicht. Kannst du vergessen. In anderen spielen funktioniert es einigermaßen gut.

Es ist aber auch nur ein Hilfsmittel um ein paar fps mit leichten Bildeinbussen zu generieren. Nur halt nicht in Cyberpunk, keine Ahnung wo da das Problem liegt. RSR funktioniert auch ohne boost. Ist aber blödsin es dort zu benutzen da es spiel interne upscaler gibt. Die ganzen Treiberfeatures sind auch nur für spiele welche es im Spiel nicht anbieten.
Ich fand das Spiel sah echt schlecht aus in den Videos die ich gesehen hab. Aber ich vermute man muss nur wieder mal mit Reshade ran und die Farben, Kontrast etc anpassen und RTGI drauf. ^^

Aber für 50€ is bisschen happig..
Ich habe die Demo gezockt und fand das Spiel wirklich gut. Nur gibt es die Demo nicht mehr. Wie so häufig wenn das Spiel erstmal Released ist. Warum auch immer.
 
Zuletzt bearbeitet:
Interessant wie sich das alles entwickelt,
früher hat man die Renderauflösung runter gestellt das man z.b. mit einer APU spielen kann und heute sind die Leute scharf drauf auf einer 1000€ (und mehr) Grafikkarte nicht Nativ spielen zu können sondern Upscaling zu verwenden.

Die Hersteller können noch mehr Geld an der Hardware sparen und somit den Gewinn maximieren während die Leute mit immer abenteuerlicheren Preisen zur Kasse gebeten werden.
 
Interessant wie sich das alles entwickelt,
früher hat man die Renderauflösung runter gestellt das man z.b. mit einer APU spielen kann und heute sind die Leute scharf drauf auf einer 1000€ (und mehr) Grafikkarte nicht Nativ spielen zu können sondern Upscaling zu verwenden.
Naja, das macht man mit einer APU immer noch, allerdings hat man heute die Möglichkeit durch Upscaling und FG ein besseres spielgefühl durch mehr fps oder höhere Bildqualität zuhaben. Von daher ist das besonders im unterem Bereich ein klarer Zugewinn.

und bei dgpus…. Was spricht gegen diese Option . Man hat heute auch 120-360hz Monitore, ist doch schön wenn man auch mit den Fps in die Bereich kommt.
 
Naja, das macht man mit einer APU immer noch, allerdings hat man heute die Möglichkeit durch Upscaling und FG ein besseres spielgefühl durch mehr fps oder höhere Bildqualität zuhaben. Von daher ist das besonders im unterem Bereich ein klarer Zugewinn.

und bei dgpus…. Was spricht gegen diese Option . Man hat heute auch 120-360hz Monitore, ist doch schön wenn man auch mit den Fps in die Bereich kommt.
Kann man machen ich bleib bei Nativ also bei mir 1440p und bevor mein I5 limitiert ist es die GPU.

Aber ich mag ganz gerne klare Grafik und keinen von 720p oder 900p hochgerechneten Rotz.
Dafür brauch ich keinen PC sondern kauf mir dann um 300€ eine Series S.


Alan Wake geht garnicht ohne FSR oder DLSS, deswegen nie gekauft sondern von der Szene.
Wenn ich vom Grafikmenü nicht Nativ spielen kann ist das für mich Dreck und weg.

ich will als PC Nutzer entscheiden wie ich das Spiel spiele,
aber nach dem Hype hab ichs mirr via Lets Play gegeben und das Spiel ist nur Mittelmaß,
da war ein Assasins Creed Odyssey ganz eine andere Welt (Und das ging mit Openworld noch auf einer PS4 mit HDD)

Aber auch da schon PS4 mit HDD vs PS4 mit SSD bei COD, die SSD regelt.
 
Zuletzt bearbeitet:
Ich bin gegen diese Vergleiche von DLSS P und FSR Q weil das ja angeblich vergleichbar sei.
Nicht nur angeblich, es ist so.
Das ist doch schon lange klar.
Hier sollte man dann wenn schon auch schon bei der gleichen Auflösung bleiben, denn der Benchmark ist ja eben über die Auflösung.
AI Optimized hat man bei AMDs AF auch nicht gelten lassen und hat auf HQ AF geschalten.
Also DLSS Performance vs FSR Quality.^^
 
Ich hab mir von GPT4 mal die Unterschiede von Motionvectoren und Optical Flow erklären lassen und es erstmalig verstanden. :daumen:

Damit werden einem auch die Unterschiede klarer zwischen dem Treiber FG und dem Ingame FG und wozu jeweils optical flow und motionvectoren benutzt werden.
Stell dir vor, du schaust einen Film. Dieser Film besteht nur aus einer Reihe von Standbildern (Frames), die sehr schnell nacheinander gezeigt werden. Dein Gehirn fügt diese Bilder zusammen, um die Illusion von Bewegung zu erzeugen.

Optical Flow ist, als würde dein Gehirn versuchen herauszufinden, wie sich die gesamte Szene von einem Frame zum nächsten ändert. Es betrachtet alles auf einmal und versucht, die allgemeine Bewegung zu verstehen.

Motion Vectors hingegen sind, als würde dein Gehirn sich auf ein einzelnes Objekt in der Szene konzentrieren und seine Bewegung von einem Frame zum nächsten verfolgen. Es ist ein fokussierterer Ansatz.

Der Vorteil von Motion Vectors besteht darin, dass sie genauere Informationen über die Bewegung spezifischer Objekte in der Szene liefern können. Dies kann sehr nützlich sein in Videospielen oder Filmen, in denen du eine realistische Bewegung für einzelne Charaktere oder Objekte erzeugen möchtest.

Im Gegensatz dazu gibt Optical Flow ein allgemeineres Gefühl für Bewegung, aber es ist möglicherweise nicht so präzise, wenn es darum geht, einzelne Objekte zu verfolgen.

Kurz gesagt, Motion Vectors geben dir ein detaillierteres und präziseres Verständnis von Bewegung, was in bestimmten Anwendungen wie Videospielen oder Filmen sehr nützlich sein kann.
 
Es gibt auch einige Paper zu dem Thema und Research.

Man darf also gespannt sein wie sich das entwickelt und in wieweit AMD hier noch verbessern kann. Optical Flow is sicher nicht ideal und Motionvectors sind immer besser, aber das Ende der Entwicklung bei optical flow Ansätzen wie Treiber AFMF ist natürlich noch nicht erreicht.

Ich hab mir heute mal diverse Researchpaper von AMD angeschaut und von GPT4 erklären lassen. Sehr interessant. Grade die Verbesserungen bei Raytracing und Denoising. Man hört ja immer nur von nvidia darüber und grade der Channel auf YouTube "TwoMinutePaper" scheint mir total nvidia biased zu sein.. :rolleyes: Ich wusste gar nicht, dass AMD da so aktiv ist.

Dabei hat AMD jede Menge interessante Research zu Denoising, Raytracing, Pathtracing und "Rayreconstruction" ähnlichen Ansätzen.


"Real-Time Rendering of Glossy Reflections Using Ray Tracing and Two-Level Radiance Caching" z.B.

Oder "Fused BVH to Ray Trace Level of Detail Meshes"

Die haben jede Menge Research da.
 
AMDs größtes Problem. Viele gute Ideen und Ansätze, aber nicht die menpower um die Kunden zu betreuen die es zwingen braucht um aus Partnerschaften Erfahrung zu generieren. Da ist Team Green einfach seit über zehn Jahren bedeutend breiter aufgestellt und einen Kunden zum Wechsel zu bewegen, das ist alles andere als einfach.
 
Naja, das macht man mit einer APU immer noch, allerdings hat man heute die Möglichkeit durch Upscaling und FG ein besseres spielgefühl durch mehr fps oder höhere Bildqualität zuhaben. Von daher ist das besonders im unterem Bereich ein klarer Zugewinn.

und bei dgpus…. Was spricht gegen diese Option . Man hat heute auch 120-360hz Monitore, ist doch schön wenn man auch mit den Fps in die Bereich kommt.
Gerade bei einigen antialising methoden muss ich sagen stimmt es schon, dass fsr und oder dlss teilweise echt viel besser aussehen. Fxaa bildet treppen und Kantenflimmern. Taa ist blurry as hell. Msaa ist in meinen Augen zwar besser aber hardwarehungrig wie sau.....

Je besser dlss und fsr werden desto mehr merke ich wie natives bild überschätzt wird. Mal abgesehen davon dass dich sowieso nichts am Spiel echt ist. Es ist sowieso alles künstlich generiert.
@Thomas5010
Wieviel Prozent der Hardware einer modernen Karte sind spezielle KI-Cluster? Wenn die restlichen Komponenten also nicht mehr so wichtig werden, sollte die Hardware, also die nächsten physischen Karten, nicht mehr groß teurer werden. Da die Preise aber heftig gestiegen sind, für einen geringen Teil an KI, steht das für viele nicht mehr im Verhältnis zueinander. Also Preis und Hardware. Jetzt bleibt die Rasterperformance, also der grundsätzliche Rechendurchsatz aber die Grundlage für die KI-Ausgabeleistung. Sprich, wenn da zehn mal mehr gehen würde, dann hätte die darauf aufbauende KI eben auch viel mehr Möglichkeiten und das Ergebnis wäre größer.
Deshalb sollte die Rasterperformance immer weiter im Fokus stehen.
Ist doch auch klar. Aktuelle Spiele laufen nativ als Diashow. Stellt man DLSS/FSR ein, wird die Auflösung reduziert und mehr Bilder berechnet. Diese sähen grottig aus, würde die KI das Bild nicht nachberechnen/aufbereiten. Kommen wir so beispielsweise erst von 15 auf 60 fps, würde bei mehr Rasterperformance eben auch das Gesamtergebnis um den gleichen Faktor steigen. Im Beispiel x10, würden wir also von 150 auf 600fps kommen. Einfach nur mehr KI bringt aktuell nicht viel, wenn die Datenausgangslage (Raster) nicht mit steigt.

Viele haben sich beispielsweise von MCM versprochen dass diese Grundleistung wieder signifikant gesteigert wird. Warum nicht wieder mehrere GPUs auf einer Platine, oder beidseitig bestückt, oder wie zu Zeiten der 7950GX2 gar mehrere Platinen miteinander verbinden und die KI nutzen um die Probleme mit der Bildsynchronisierung von früher in den Griff zu bekommen?

Meiner ganz persönlichen Meinung nach, entwickelt sich die Nutzung von KI aktuell für uns enduser zu einer uns melkenden cashcow, ohne dass klassische Probleme angegangen, oder gar beseitigt werden die eine einfache Leistungssteigerung ermöglichen würden. Ja klar, aktuell steigert man hauptsächlich den ki Part, aber das eben zu Preisen die eine Verdoppelung, oder gar Vervierfachung der Hardware früher mitbrachten. Irgendwann kommt aber wieder der Punkt wo man die Hardware deutlich erweitern muss und dann haben wir uns an Preise gewöhnt die uns so schon nicht schmecken.

Man darf halt nicht vergessen, dass die Entwicklung eine KI echt teuer ist, aber wenn sie dann einmal steht und so wie hier, sich selbst trainiert und erweitert, sie eben kein Brot mehr frisst. Aktuell feiert man Kyi dafür, sich bessere und effizientere Chipdesigns auszudenken und auch hier spart man also fortwährend Kosten. Warum bitte wird diese Ersparnis also nicht durch krasse Leistungssteigerung zum gleichen Preis, oder durch gleiche Leistung zu günstigeren Preisen nicht bei uns umgesetzt?
Die Antwort ist klar.
Deshalb ist für uns Kunden die grundsätzliche Rechenleistung immer bessere/wichtiger als die der KI. Letztere ist vorrangig ein Werkzeug uns mit möglichst wenig Einsatz weiter und stärker zu schröpfen, leider.
Naja. Wenn es denn so wäre, dass die ki features schuld an den teuren Grafikkarten wären... Sie sind es aber nicht. Nvidia fährt aktuell einen reingewinn von über 50% ein.....

Ich kenne kaum eine produzierende branche die so hohe margen hat.....

Sie verlangen schlichtweg mehr geld, weil sie gemerkt haben, dass sie es sich leisten können, weil wir dummen trottel ja trotzdem zu langen.

Dass die rasterisierung so langsam am ende ist hat übrigens auch nichts damit zu tun, dass KI einfach cooler ist. Man erreicht einfach so langsam das physikalische limit und muss daher zwangsläufig neue bessere technologien finden.... Die Transistoren sieht man doch heutzutage nur noch unter dem Mikroskop... Wie klein möchtest du es noch werden lassen?
 
Zuletzt bearbeitet:
Das ist subjektives Empfinden, ich verwende kein AA sondern eine hohe ppi.

Ich mag dieses Ausgewaschene nicht, ich steh auf scharfe Texturen und wenn diese Treppchen bilden von mir aus immer noch besser als ein Bild durch eine unscharfe Brille zu betrachten (nichts anderes ist AA, FSR und DLSS)
 
Zurück