News AMD zu Fluid Motion Frames: "Entweder wird Nvidia von unserer Lösung profitieren oder wahrscheinlich etwas Ähnliches tun müssen"

Bitte denk dran, dass die neuesten DLSS Features nur für Besitzer der 4000er Karten nutzbar sind.
Und im Vergleich zu allen vorhergehenden RTX Generationen zusammen hat die aktuelle Generation einen relativ kleinen Marktanteil.
Sie verkauft sich zwar gut, aber noch nie haben alle Gamer gleichzeitig neue Grafikkarten gekauft - sonst wären alte Hunde, wie die 1060, schon längst komplett verschwunden.

In Summe deckt DLSS als Ganzes einen irre großen Marktanteil ab.
DLSS3 mit FG ist im Vergleich dazu allerdings noch eine kleine Nische.
Dazu können es einfach viel zu wenige benutzen.

Jetzt gibt es die FMF von AMD, die quasi jeder benutzen kann... Damit bleibt zwar größtenteils der Teil der Community außen vor, der eine 4000er Karte besitzt - immerhin haben die DLSS3 mit FG - aber der Rest der Community kann die eigene Hardware deutlich länger benutzen, als jemals gedacht.
Vor allem bei den aktuell zu hohen Kartenpreisen ist das für viele einfach unglaublich viel wert.
Der absolute Großteil der Gamer hat noch immer ein Budget von €200-300.
Dafür gibt es entweder stärkere Gebraucht-GPUs, oder neuere am absoluten unteren Rand des Leistungsspektrums.

In den letzten 10 Jahren haben sich die GPU Preise immer mehr in Richtung "Wir sind eine exklusive Nische" verschoben - und das vollkommen losgelöst von jeglicher Inflation.
Vor 9 Jahren gab es die schnellste Karte von Nvidia für unter €550 - eine GTX 980.
Aktuell bekommst du für ähnliches Geld eine 4060 TI
Und das, wo es in der Elektronik mit jeder Generation mehr Leistung für weniger Geld gibt.
Es sei denn, es dreht sich um Grafikkarten...
Die 980 war aber nicht die schnellste der Generation, das war die 980ti, bzw. gab es nicht damals auch schon die zweit Titan..
Doch die Titan X war 2017 das war die schnellste und kostete vor neun Jahren für 1149€. Das wäre das Gegenstück zur 4090 und dann nehme die Inflation und den Wechselkurs dazu und du kommst zur 4090.

Problematisch ist das war und ist die Ausnahmekarte gewesen mit miserablen PLV. Heute hat man alle Karten darunter daran angepasst.
Nehme die 980 und die 980ti und beziehe das auf die 4080 und du hast Recht.

Es gibt schon ein paar Faktoren die die Preise für GPUs zurecht nach oben drücken. Aber ich denke auch das der Gewinn auch derbe hochgeschraubt wurde, bei RTX4000... AMD habe ich nicht drüber nachgedacht. Aber AMDs Karten bieten auch kein besseres PLV aktuell.


Das alles ist nicht schön, aber letztendlich denke ich das alles dabei bleiben wird.


Inflationsbereinigt und Wechselkursbereinigt müsste soweiso jeder heute so ehrlich sein und statt 560€ in 2015 auszugeben, heute auch bereit sein +39% auszugeben.

Das wären dann rund 780€. Damit ist man immerhin bei fast bei den günstigsten Modellen der 4070ti und der RX7900.

Wenn die Preise der RTX5000 und RX8000 aber auf einem ähnlichen Niveau bleiben, sieht es dank der hohen Inflation auch noch wieder, neutral etwas besser aus.


Das es dem Einzelnen nicht hilft ist mir klar, nicht jeder hat über die Jahre entsprechend mehr Lohn bekommen usw.
Aber der Einzelne hat auch nichts mit neutralität zu tun.

Ganz wichtig, ich will die Preise nicht verteidigen sondern nur darauf hinweisen das sich Inflation und eine schwache Weltwirtschaft ( oder anders aus unserer Sicht schwache deutsche WEltmarktsituation) nicht in Luft auflösen und ihre Folgen haben.
Sehr oft ist auch Quantität wichtig; wie z.B. beim Speicher :D
Gerne immer mehr davon, sofern die Leistung reicht ;)
 
Dann hast du noch nie cyber oder alan wake mit pt flüssig gespielt. Denn erst mit fg läuft es bei mir ruckelfrei
Natürlich nicht, eine 3090 kann auch kein nividia- FG, und was die 3090 nicht kann - brauch ich nicht. Und Alan Wake würde auf meiner SSD auch nur Staub ansetzen.

Und Cyber mit pt spielte ich mit ~50 fps, Reflex aktiv, DLSS Performance - was ausreichend flüssig war.
 
Natürlich nicht, eine 3090 kann auch kein nividia- FG, und was die 3090 nicht kann - brauch ich nicht. Und Alan Wake würde auf meiner SSD auch nur Staub ansetzen.

Und Cyber mit pt spielte ich mit ~50 fps, Reflex aktiv, DLSS Performance - was ausreichend flüssig war.
Vor 10 Jahren hatte ich immer gesagt: Alles unter 60 fps ist ruckeliger Mist.
Heute, 10 Jahre älter und weiser, sage ich: Alles unter 120 fps ist ruckeliger Mist.
 
Na, ich denke auch das es für schnelle mp Shooter weniger geeignet ist, aber selber ein Bild machen ist immer besser.
Ist aber auch meistens so, das ausgerechnet die schnellen MP Shooter eh schon mit über 100Fps laufen, da brau che ich auch kein Zwischenbildberechnung.
Viele würden den Unterschied nicht bemerken.
Aber es hängt auch davon ab, welchen PC und welchen Monitor sie haben.

Hier nun eine These, die ich aber anhand zu weniger Monitore hier nicht ausreichend testen kann. >_>
FG scheint besser zu laufen mit Monitore die eine niedriger Responsetime oder hoher Bildwiederholrate haben.
Und damit meine ich jetzt nicht ein TN mit 144hz, sondern entweder OLEDs oder TN jenseits der 240hz.
Es geht unter anderem um den "UFO" Test. Je mehr Motionblur man sieht, desto schlechter ist der Monitor für FG geeignet.
Dieses Motionblur bescheibt die Trägheit des Monitors zwischen 2 Bildern. Da FG unfertige Bilder einschiebt, könnte diese Trägheit ein unfertiges Bild länger als gewollt in den Vordergrund schieben.
Zumindest so meine These.
 
Die 980 war aber nicht die schnellste der Generation, das war die 980ti, bzw. gab es nicht damals auch schon die zweit Titan..
Doch die Titan X war 2017 das war die schnellste und kostete vor neun Jahren für 1149€. Das wäre das Gegenstück zur 4090 und dann nehme die Inflation und den Wechselkurs dazu und du kommst zur 4090.
;)
Zum Launch 2014 war die 980 die schnellste Karte.
Die Titan der Maxwell Generation war die X und startete 2015.


Die 980 TI startete auch erst 2015:

Bin um ein Jahr verrutscht.. der Jahreswechsel ist noch zu frisch ;).


Edit:
Und nochmal:
Elektronik wird normalerweise nicht mit der Inflation teurer, sondern mehr Leistung gibt es für immer weniger Geld.

Beispiel: Ein Samsung Galaxy A14.. oder von mir aus A13... gibt es nagelneu vom Händler für € 140... mit 5G für €170.
Das spielt in Leistungsklassen, die vor inzwischen 10 Jahren dem absoluten High End vorbehalten waren.
Fernseher, Bildschirme... all das, was 2014 noch teilweise vierstellig kostete, gibt es heutzutage für nen sehr niedrigen dreistelligen Betrag - von speziellen Profi Monitoren eventuell mal abgesehen.

Eine Sony Alpha 7II startete 2014 bei um die €2000 - eine deutlich besser ausgestattete Alpha 7 IV kostet aktuell ungefähr das gleiche. (Eine Alpha 7 V gibt es noch nicht.. deshalb muss die schon im Preis etwas gesunkene IVer Generation herhalten)

Vorletztes Weihnachten (also 2013) kaufte ich einen Legion 5 17AHC6H Laptop mit 5800H Prozessor, 16GB RAM, einer 3060 GPU (Grad nicht sicher, ob es die Spec mit 3060, oder 3070 war... Laptop ist grad nicht hier) für um die €1300... um meinen damals schon über 10 Jahre alten Acer Laptop mit Core 2 2410er CPU, AMD 6850 GPU mit 2 GB VRAM und 6GB RAM (grad am Laptop nachgesehen. Der steht hier noch rum) zu ersetzen. Um 2010 rum kostete mich das Teil auch um die €1300. (Das genaue Jahr weiß ich nicht mehr... ist schon ECHT lange her)
Beides übrigens 17" Laptops.


Wenn ich Mehrleistung in der Elektronik mehr oder minder überall für niedrigere, oder im schlimmsten Fall gleichhohe Preise, wie vor beinah 10 Jahren bekommen kann... weshalb soll ich dann akzeptieren, dass ausgerechnet GPUs die einzige Ausnahme darstellen?
 
Zuletzt bearbeitet:
Auf der einen Seite gebe ich dir recht. Es setzt sich nicht umbedingt die beste Technik um sondern die die ein breites Publikum anspricht. Nur hat Nvidia hier einen großen Hebel mit ihrer Marktposition. Sie decken viele Nutzer ab und sind durch ihren Vorsprung auch schon in diversen Produkten vertreten. Bis sich da ein Konkurrenzprodukt etabliert und dann DLSS in die Obsoleszenz treibt wird viel Zeit in Land fließen, wenn dies überhaupt passiert.
Da Nvidia ja immer mehr Features bringt und diese auch auf DLSS aufbauen glaube ich auch nicht dass wir da in den nächsten Jahren eine Änderung im Markt sehen.
Market Value of Gaming per platform:

Share of Nvidia-GPU solutions per platform:
 
Viele würden den Unterschied nicht bemerken.
Aber es hängt auch davon ab, welchen PC und welchen Monitor sie haben.

Hier nun eine These, die ich aber anhand zu weniger Monitore hier nicht ausreichend testen kann. >_>
FG scheint besser zu laufen mit Monitore die eine niedriger Responsetime oder hoher Bildwiederholrate haben.
Und damit meine ich jetzt nicht ein TN mit 144hz, sondern entweder OLEDs oder TN jenseits der 240hz.
Es geht unter anderem um den "UFO" Test. Je mehr Motionblur man sieht, desto schlechter ist der Monitor für FG geeignet.
Dieses Motionblur bescheibt die Trägheit des Monitors zwischen 2 Bildern. Da FG unfertige Bilder einschiebt, könnte diese Trägheit ein unfertiges Bild länger als gewollt in den Vordergrund schieben.
Zumindest so meine These.
Ich glaube nicht dass du da gerade FG beobachtest sondern einfach ein gutes vs schlechtes Panel.
FG soll ja möglichst unauffällig sein daher werden ja Prädiktionen mit vielzahl an Daten getroffen. Das würde bei niedrigen FPS ja sehr auffällig sein, denn gerade da werden Frames über längere Zeiträume eingeblendet.
Sowohl DLSS als auch FG dürften aber von hohen fps profitieren. Zum einen weil die Änderungen viel kleiner werden und damit auch die Fehler in der Prädiktion kleiner werden können und zum anderen weil die Fehler die vielleicht Auffällig sind, aufgrund der kurzen Präsentation der Frames von uns nicht mehr wahrgenommen werden können.
 
@ElliotAlderson NIS ist ein vollwertig entwickeltes Feature, FMF dagegen nicht.
Natürlich frickeln die da noch daran rum.
Und natürlich schaltet es bei krassen Kameraschwenks ab,wohl wegen der Qualität.Das ist halt ein Kompromiss der Technik (die noch in Entwicklung ist).
Ich glaube nicht, dass Treiber FMF sich noch steigern wird. Weil es wegen Optical Flow immer das gesamte Bild und alle Pixel betrachtet und bei schnellen Bewegungen da garantiert die Daten fehlen wird das so bleiben. Jede Wette.
 
Den Inhalt aus dem Kontext reißen und ein Extremum ohne anderen Vergleich dahinklatschen. Sehr gut. :crazy:

Als Inhaber einer 4090 kann ich dir versichern, dass z.B. Cyberpunk mit Ultra Settings und Pathtracing in WQHD @165 fps ohne DLSS + FG definitiv nicht im Rahmen des technisch Möglichen ist.
Selbst mit dieser "brachialen Leistung" kommt man den Anforderungen moderner Spielegrafik in einigermassen hoher Auflösung nicht hinterher.
Upscaling ist da und es wird bleiben, und je eher du das einsiehst und dich damit abfindest, desto weniger Stress und Ärger wirst du damit haben.
Leistung ist relativ.

Gibt es momentan irgendeine Zocker GPU, die in dem von dir oder dem über dir betrachteten Szenario auch nur Ansatzweise das hinbekommt, wozu deine GPU momentan in der Lage ist? Nein. Heisst das, dass es deshalb so ist, weil die Hersteller nichts besseres bauen können? Nein.

Pathtracing... High-End-Titel, dann auch noch @4K oder 2K. Da bricht heute jede GPU zusammen, dennoch ist die Leistung der 4090 hierbei "brachial", wenn man das mit dem Rest des Hauses oder des Konkurrenten vergleicht. Nur durch einen Vergleich ist es möglich, dieses Adjektiv zu vergeben. Solche Szenarien hat es immer gegeben und wird es auch weiterhin geben, weil Grafik immer aufwändiger wird. Die Kartenzusammenbrechoptionen von früher sind die Standardeinstellungen von heute.

Ging dabei aus meinem Kommentar hervor, dass Upscaling oder Framegen überflüssig ist? Nein.
Ging daraus hervor, dass es wenig bringt? Nein.
Ging daraus hervor, dass man es nicht brauchen wird? Nein.

Natürlich sind das sehr gute Mechaniken, die noch weiter verbessert werden. Insbesondere eine treiberseitige Lösung wie von AMD kann bei weiterem Ausbau hier ein echter Gamechanger werden.

Der Kern der Aussage war nur, dass es nicht an diesen Techniken allein liegen wird, Leistungssteigerungen zu erzielen. Außerdem noch, dass auch diese Techniken selbst Fortschritte in der Hardware benötigen. Allein dadurch brauchst du schon GPUs mit stärkerer Rohleistung bezogen auf die jeweilige Schaltung oder den jeweiligen Algorithmus. Das alles wird schließlich nicht irgendwie emuliert, sondern braucht auch potente Hardware, sei es lokal in deinem Rechner oder von dir entfernt in einem Rechenzentrum.
 
Zum Launch 2014 war die 980 die schnellste Karte.
Die Titan der Maxwell Generation war die X und startete 2015.


Die 980 TI startete auch erst 2015:

Bin um ein Jahr verrutscht.. der Jahreswechsel ist noch zu frisch ;).


Edit:
Und nochmal:
Elektronik wird normalerweise nicht mit der Inflation teurer, sondern mehr Leistung gibt es für immer weniger Geld.

Beispiel: Ein Samsung Galaxy A14.. oder von mir aus A13... gibt es nagelneu vom Händler für € 140... mit 5G für €170.
Das spielt in Leistungsklassen, die vor inzwischen 10 Jahren dem absoluten High End vorbehalten waren.
Fernseher, Bildschirme... all das, was 2014 noch teilweise vierstellig kostete, gibt es heutzutage für nen sehr niedrigen dreistelligen Betrag - von speziellen Profi Monitoren eventuell mal abgesehen.

Eine Sony Alpha 7II startete 2014 bei um die €2000 - eine deutlich besser ausgestattete Alpha 7 IV kostet aktuell ungefähr das gleiche. (Eine Alpha 7 V gibt es noch nicht.. deshalb muss die schon im Preis etwas gesunkene IVer Generation herhalten)

Vorletztes Weihnachten (also 2013) kaufte ich einen Legion 5 17AHC6H Laptop mit 5800H Prozessor, 16GB RAM, einer 3060 GPU (Grad nicht sicher, ob es die Spec mit 3060, oder 3070 war... Laptop ist grad nicht hier) für um die €1300... um meinen damals schon über 10 Jahre alten Acer Laptop mit Core 2 2410er CPU, AMD 6850 GPU mit 2 GB VRAM und 6GB RAM (grad am Laptop nachgesehen. Der steht hier noch rum) zu ersetzen. Um 2010 rum kostete mich das Teil auch um die €1300. (Das genaue Jahr weiß ich nicht mehr... ist schon ECHT lange her)
Beides übrigens 17" Laptops.


Wenn ich Mehrleistung in der Elektronik mehr oder minder überall für niedrigere, oder im schlimmsten Fall gleichhohe Preise, wie vor beinah 10 Jahren bekommen kann... weshalb soll ich dann akzeptieren, dass ausgerechnet GPUs die einzige Ausnahme darstellen?
Und du meinst du bekommst heute keine entsprechende Mehrleistung?

Auflösung, Details usw...

Hm, ich empfinde das nicht als ganz objektiv. Aber ich verstehe dich.


Zurück zur 4090 und dem Äquivalent, Nvidia hat sich halt anders aufgestellt und released heute direkt die größten Ausbauten der Generation. All das ändert nichts an der Aussage, das die Titan x vor 9 Jahren die schnellste war.
Außerdem habe einen ich dir schon für 980 zu 4080 zugestimmt.

Nur für eine 4090 wäre die Basis die Titan x;)
Die 980 TI startete auch erst 2015:
Das war vor 9 Jahren und das war die Aussage;).
Selbst wenn die 980 kurz die schnellste war, bleibt dennoch die Titan das Äquivalent zur 4090.
 
Und du meinst du bekommst heute keine entsprechende Mehrleistung?

Auflösung, Details usw...

Hm, ich empfinde das nicht als ganz objektiv. Aber ich verstehe dich.

Klar gibts Mehrleistung... aber nur gegen mehr Geld (Und das ausschließlich im Bereich der Grafikkarten).
Wenn man Intel außen vor lässt, gibt es auch bei CPUs bei jeder Generation mehr Leistung für gleiches, oder weniger Geld.

Das war vor 9 Jahren und das war die Aussage;).
Selbst wenn die 980 kurz die schnellste war, bleibt dennoch die Titan das Äquivalent zur 4090.
Da hatte ich mich ja Korrigiert.. Jahreswechsel und so... gemeint war eigentlich 2014.
 
Klar gibts Mehrleistung... aber nur gegen mehr Geld (Und das ausschließlich im Bereich der Grafikkarten).
Wenn man Intel außen vor lässt, gibt es auch bei CPUs bei jeder Generation mehr Leistung für gleiches, oder weniger Geld.
Ich denke das die Wahrheit irgendwo dazwischen liegt und man dazu neigt die Mehrleistung, unter den Tisch fallen zu lassen.
Da hatte ich mich ja Korrigiert.. Jahreswechsel und so... gemeint war eigentlich 2014.
Ändert immer noch nichts an dem Bezug Titan X zur 4090, nicht GTX980 zur 4090.
 
Zurück