AMD FSR 2.0: Implementierung in drei Tagen, unterstützt auch alte Nvidia-GPUs

Also ich bin nicht verarscht oder abgezockt worden. Ich wußte was ich kaufe. Du möchtest alles haben, weil du dich nicht mit verschiedenen Produkten auseinandersetzen möchtest.

DLSS kann im Prinzip jeder in sein Spiel implementieren, Nvidia stellt sogar den support dafür. Es geht sogar DLSS & FSR. Und wenn du aus "sympathie gründen" FSR vorziehst, so hast du ja keinen Nachteil und kannst weiterhin kaufen was du möchtest.

@Topic es wird in der Tabelle nur bis FHD aufgeführt. im Blick auf SteamDeck wäre es interessant ob es auch mit 720p funktioniert.
echt ich kann DLSS auch auf AMD und Intel GPUS verwenden, bzw. auch auf alten nvidia GPUS so wie FSR, GEIL, dat wusste ich gar nicht
 
Bei DLSS hat sich Nvidia mit mehr oder minder der Brechstange auf die eigenen Stärken gestützt - Machine Learning Forschung.
Damit war es dann auch die Lösung für alles - was bei DLSS 1.0 zu dutzenden bzw. hunderten Stunden Lernzeit pro Spiel auf deren Super Computer führte.
Ich kenn mich jetzt mit DLSS und FSR nicht so gut aus, daher mal zwei Verständnisfragen an die Profis hier im Thread:

1.) Bei DLSS 2 ist es doch so, das der KI-Algorithmus in einem Deep Learning Netzwerk von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Daten von seinen Spielpartien den Supercomputer von Nvidia zur Verfügung stellt?

2.) AMD geht ja bei FSR2 einen anderen Weg und will mithilfe von fortgeschrittene Algorithmen die Verhältnisse zwischen verschiedenen Frames und Auflösungen erkennen können. Und das ohne neuronales DL-Netz. D.h. die Algorithmen sind im AMD-Treiber oder Spiel integriert und sind in der Lage es mit einem Deep Learning Netzwerk und den Tensorcores einer RTX-Karte aufzunehmen? oO
 
Junge, lerne lesen. Sowas habe ich nicht geschrieben.
Dann überleg mal, wie sehr du auf seinen Beitrag eingegangen bist und was er schrieb im Vergleich zu dem, was deine Antwort aussagt.
Ich kenn mich jetzt mit DLSS und FSR nicht so gut aus, daher mal zwei Verständnisfragen an die Profis hier im Thread:

1.) Bei DLSS 2 ist es doch so, das der KI-Algorithmus in einem Deep Learning Netzwerk von Nvidia selbst mit Hilfe von Screenshots angelernt wird, oder? Wäre es denn technisch machbar, das der User hier quasi mithelfen könnte, indem er automatisch generierte Daten von seinen Spielpartien den Supercomputer von Nvidia zur Verfügung stellt?

2.) AMD geht ja bei FSR2 einen anderen Weg und will mithilfe von fortgeschrittene Algorithmen die Verhältnisse zwischen verschiedenen Frames und Auflösungen erkennen können. Und das ohne neuronales DL-Netz. D.h. die Algorithmen sind im AMD-Treiber oder Spiel integriert und sind in der Lage es mit einem Deep Learning Netzwerk und den Tensorcores einer RTX-Karte aufzunehmen? oO
1) Nein, weil Nvidia alles schon in einem bestimmten Format braucht und sich der Aufwand seit DLSS 2.0 schon deutlich reduziert hat. Bis du auch nur ein "neues" Bild liefern könntest, hätten die mit ihrem Wissen schon ein paar tausend mehr gefunden und eingekippt

2) Beim FSR 2.0 Ansatz liefert das Spiel Informationen über Tiefe, Farbe und Bewegung jedes Objekts (Vektoren) als Input. Ob Nvidia das als Input nehmen kann, liegt sehr daran, was sie zum Trainieren benutzen vs. wie es dann später im Spiel abgefragt wird (sie nutzen sicher eine ähnliche Zerlegung der Daten im Spiel, weswegen AMD schreibt, dass man FSR2 schneller implementieren kann, wenn DLSS schon im Spiel ist.)
 
Junge, lerne lesen. Sowas habe ich nicht geschrieben.
Wenn Nvidia Features künstlich auf Ihre Hardware wie GSYNC etc beschränkt ist es ein Nachteil für uns Kunden und grenzt an Kunden Verarsche, sag nur PhysicX was die mit Absicht auf CPUS langsamer gemacht haben

Welchen Vorteil für dich als Kund hat es, das Nvidia Ihre Features künstlich beschränkt?
 
Sie haben endlich auch einen Ultra Performance Modus integriert. Wäre echt toll, wenn das bei Anno 1800 noch auf meiner GTX 670 läuft. Dann könnte ich mir eventuell Hoffnungen auf 4K@Mitttel machen und das mit einer uralten GTX 670 2GB.

Sympathischer?
Kriegst du Geld von AMD, weil du so lieb bist und treu gegenüber diesem kapitalistischen Konzern?

Natürlich macht AMD das nicht aus Nächstenliebe, sondern weil sie nur damit Nvidia schlagen können. Wenn sie in der Position wären, dann würden sie das gleiche machen, wie Nvidia und versuchen ihre Position zu sichern.

Tatsache ist allerdings, dass der FSR Ansatz der kundenfreundlichere.

Was bringt dir das alles, wenn FSR dennoch den Kürzeren zieht gegenüber Nvidia. Moralisch überlegen, weil Nvidia böse? Was hast du persönlich davon, ob es Open Source ist?

Es engt einem bei Kauf nicht ein und das ist schon ein massiver Vorteil.

Man steht als Kunde eben dem Problem gegenüber, dass DLSS doch besser ist, man sich jedoch so man Nvidia bindet und seine zukünftigen Kaufoptionen massiv einschränkt, wenn sich DLSS durchsetzen soll.

Von daher sollte man FSR alles gute wünschen und dass es sich durchsetzt.

Da spricht der Fachmann :haha:

Abzocke ist etwas zu hart, aber Nvidia versucht mal wieder die Optionen seiner Kunden einzuengen und sie so ansich zu binden. So, wie es schon bei PhysX und GSync gemacht wurde.
 
Was passiert, wenn man ein Produkt immer weiter verdongeln lässt, sieht man grad sehr gut am Mac Studio... die verbauten SSDs sind keine SSDs, sondern "dumme" NAND Steckkarten. Der Controller sitzt auf dem Mainboard.
Tauschen ist nicht, weil jede Steckkarte per Key an den Mac gebunden ist, in dem sie verbaut ist.
Passen die nicht zusammen... kein Booten.

Wollen wir solche Verhältnisse auch beim PC?
Sicher nicht....
Daher sind offene Lösungen deutlich den verdongelten vorzuziehen.
 
Wenn Nvidia Features künstlich auf Ihre Hardware wie GSYNC etc beschränkt ist es ein Nachteil für uns Kunden und grenzt an Kunden Verarsche, sag nur PhysicX was die mit Absicht auf CPUS langsamer gemacht haben
Es macht einen Unterschied, ob ich Software für meine Hardware entwickle und die Hardware der Konkurrenz dabei nicht beachte oder etwas mit Absicht langsamer mache.
Btw. ist PhysX heute Standard in vielen Engines wie z.B. der UE4.
Danke @AMD das ihr meine GTX 1080 aufwertet, :daumen: der Hersteller ist dazu wohl nicht in der Lage, :daumen2:
Deine Karte hat keine Tensor-Cores, also bringt dir das auch nichts. Außerdem ist sie mittlerweile fast 6 Jahre alt, also lass doch mal die Kirche im Dorf.
AMD kümmert sich auch nicht wirklich um seine alten Karten, außer es gibt einen Shitstorm: https://www.pcgameshardware.de/AMD-...er-Resolution-Shitstorm-Polaris-Vega-1391515/
 
Gibt es für FSR 2.0 irgendwelche Optionen im Treiber ?
Und wo würde ich diese Option bei NVidia (bei meiner RTX 2080) finden ?
 
Bin ich der Einzige, der mit den vielen Abkürzungen verwirrt ist?

Letztens kam doch auch ein Update mit irgendeiner Abkürzung...mich verwirrt das nur >.<
 
Es macht einen Unterschied, ob ich Software für meine Hardware entwickle und die Hardware der Konkurrenz dabei nicht beachte oder etwas mit Absicht langsamer mache.
Btw. ist PhysX heute Standard in vielen Engines wie z.B. der UE4.

Deine Karte hat keine Tensor-Cores, also bringt dir das auch nichts. Außerdem ist sie mittlerweile fast 6 Jahre alt, also lass doch mal die Kirche im Dorf.
AMD kümmert sich auch nicht wirklich um seine alten Karten, außer es gibt einen Shitstorm: https://www.pcgameshardware.de/AMD-...er-Resolution-Shitstorm-Polaris-Vega-1391515/

Und genau das hat Nvidia gemacht
 

Und genau das hat Nvidia gemacht
Irgendein Typ behauptet irgendwas, was im selben Artikel auch direkt wieder entkräftet wird:
Bei PhysX sei die Programmierschnittstelle so entworfen worden, dass die Kontrolle über einzelne Threads der Entwickler der Anwendung übernimmt. Eines der besten Beispiele sei 3DMark Vantage, das 12 Threads nutzen kann, wenn PhysX im Software-Modus läuft. Die Unterstützung von Mehrkern-Prozessoren und die Art und Weise der Programmierung habe sich nie geändert.
Kurz gesagt: es liegt am Entwickler und nicht an Nvidia.
Du solltest mehr als nur die Überschrift lesen, bevor du deinen Nonsense veröffentlichst.

Der alleinige Vorwurf des Konkurrenten ist gleich ein Beweis??
Für einen hardcore AMDler ist alles ein Beweis.
 
Btw. ist PhysX heute Standard in vielen Engines wie z.B. der UE4.
Was aber ganz sicher nicht NV geschuldet ist sondern schlicht daran liegt, dass wir heute CPU Leistung im Überfluss haben.

FSR ist erstmal ein wichtiger und richtiger Schritt und hoffentlich eine ernstzunehmende Alternativ dazu DLSS, dann wird sich FSR in Windeseile durchsetzen, denn warum sollte ein Spieleentwickler dann noch DLSS implementieren, wenn FSR auf allen GPUs läuft, inkl. durchaus einige Generation alten GPUs.
 
Der alleinige Vorwurf des Konkurrenten ist gleich ein Beweis??

Es ist bewiesen. Nvidia hat die künstliche Bremse gelöst und dann lief es auch mit AMD Karten plötzlich genauso gut.

Ein erster Hinweis war damals die Tatsache, dass die PhysX Leistung unabhängig von der jeweiligen Graka war, jedoch nicht von der CPU. Hat man damals statt der kleinsten möglichen Graka eine dicke GTX 480 als alleinige PhysX Karte verwendet, so blieb die Leistung gleich. Hat man hingegen eine bessere CPU verbaut, so stieg auch die PhysX Leistung.

Kurz gesagt: es liegt am Entwickler und nicht an Nvidia.
Du solltest mehr als nur die Überschrift lesen, bevor du deinen Nonsense veröffentlichst.

Es ist bewiesen. Nachdem das raus kam hat Nvidia die Bremse entfernt und plötzlich hatten auch die AMD Karten volle Leistung.

Nach heutigem Stand gab es nie PhysX auf GPUs, das wurde alles von der CPU berechnet. Einmal besser und einmal schlechter. Für mich ist die interessante Frage, ob es jemals PhysX auf den Ageia Karten gab. Dafür spricht, dass PhysX auf Ageia Karten überproportional schnell lief, eine Garantie ist das jedoch nicht.

Nvidia hat einen Vorteil seiner Karten verkauft, den es so nicht gab. (sowas wie "Blast Processing")
 
Zurück