FidelityFX Super Resolution: AMD stellt sich der Qualitäts-Kritik

Nein, und? Was sagt das aus? Natürlich haben die AMD Käufer für dieses Feature bezahlt, in dem sie sich eine Karte gekauft haben ;)
Es bestreitet auch keiner, dass AMD ein auf Gewinnerziehlung gerichtete Unternehmen ist. Aber Dein Argument ist etwas schief und recht allgemeingültig, da es immer und auf jedes Unternehmen zutrifft.

Als ich meine Karte gekauft hatte, war von FSR weit und breit nichts zu sehen, geschweige denn überhaupt angekündigt. Insofern ist es für mich ein nettes nachträgliches gratis Feature.

Wenn ich Deine Argumentation auf den Kauf meiner gtx 1080 anwenden würde, dann müsste ich weinen, da ich NVidia mit meinem Kauf die Entwicklung von DSSL subventioniert hätte, aber nichts davon habe mit meiner Karte.
 
Ich versuch es nochmal anders. Durch den Kauf eines AMD Produktes, hast du die Entwicklung mitfinanziert bzw. indirekt auch bezahlt.

Wenn ich Deine Argumentation auf den Kauf meiner gtx 1080 anwenden würde, dann müsste ich weinen, da ich NVidia mit meinem Kauf die Entwicklung von DSSL subventioniert hätte, aber nichts davon habe mit meiner Karte.
Im Grunde ist es so, ja.
 
In erster Linie ist DLSS ein Softwareprodukt. Jeder Prozessor für den ein Kompiler oder eine passende Library existiert kann das Programm ausführen, zumindest aus rein technischer Sicht. Der Name des Produkts ist Bildverbesserung mit Methoden des Machine- und Deep Leanings. Jeder forscht an sowas. Nvidia, Intel, Facebook, Apple, Microsoft, Google, Adobe, Epic, die wollen alle diese Technologie haben, weil die in Zukunft so selbstverständlich sein wird wie bilineares und bikubisches filtern. Nvidia waren einfach die ersten die ein Produkt auf den Markt werfen konnten, das bei Konsumenten (wichtig!) Anwendung findet.

Aus Sicht des Marketing ist DLSS somit ein Alleinstellungsmerkmal, das dem Nvidia Produkt einen Mehrwert gibt, wenn die Kunden es für gut befinden. Solche Kalkulationen führen dann dazu, dass das Softwareprodukt an eine bestimmte Hardwareplattform gebunden ist. In der Geschäftswelt ein üblicher Prozess, die Gegenkultur dazu ist Open Source.

AMD steht also unter Zugzwang dem Kunden darzulegen, dass der DLSS "Vorteil" von Nvidia keine Rolle spielt. Diesen Zweck erfüllt FSR. Aber weil man einen einzelnen Schlag nicht mit einem einzelnen Gegenschlag erwidert, muss man weiterprügeln. Das ist dann der Teil an dem man als AMD die Software nicht proprietär macht. AMD muss nicht besser sein, sondern nur genug Zweifel streuen und den Konkurrenten den Rest überlassen.

Microsoft entwickelt DirectML ja nicht seit gestern und wenn man bedenkt, dass fast jeder Spiele PC ein WIndows PC ist, dann kann man sich schnell ausrechnen wie der Kampf DLSS gegen DirectML in 10 Jahren aussieht. Das eine wird ein DirectX Standard sein, das andere vom Markt verschwunden. Deswegen setzt Intel XeSS auch auf DirectML auf und nicht irgendeiner proprietären Nvidia Bibliothek. Auch Intel tritt nach, indem man XeSS auch für Linux portiert. Die wollen den Prozess beschleunigen bei dem sich DirectX ohne Extensions von Nvidia durchsetzt und Nvidia keinen Rückzugsraum im SteamOS oder ähnlichen Konstrukten geben.

AMD als Hoflieferant von Sony und MIcrosoft muss sich nur zurücklehnen und auf DirectML warten. FSR ist nur ein Lückenfüller, ein schneller linker Haken wenn man so will. Das wird Nvidia nicht ausknocken, es lässt sie aber wissen, dass man da ist.
 
Für das, dass ich FSR dank Extratools schon heute praktisch in jeder Software (window-modus vorausgesetzt und halt noch nicht ganz featurecomplete) benutzen kann, nehme ich eine anfängliche Qualität zwischen DLSS 1 und 2 für die erste Iteration gerne in Kauf, um damit Upscaling noch bisschen aufzuhübschen und den schmierigen TAA umgehen zu können :)

In dem Sinne bin ich gespannt, was da AMD die kommenden Jahre noch für Upgrades bringen wird.
 
...

naja aber im ernst: so dermaßen schlecht ist fsr ja nun wirklich nicht, wie man als unbedarfter hier schon wieder zu lesen bekäme. schämt euch. :P

Ich finde doch, sorry.
Und zwar genau so schlecht wie damals DLSS 1.0.

Als ich bei Battlefield das erste mal DLSS gesehen habe dachte ich es sei ein schlechter Scherz.

Für mich war DLSS gestorben, hätte nie damit gerechnet was dann passiert ist, im Leben nicht.
Das mag sein, dass das mit FSR genau so sein könnte.

Aber aktuell ist das einschalten dieser Technik ein extrem sichtbare Verschlechterung der Bildqualität.
Ein 1-klick Auflösungsreduzierer wenn man so will, absolut inakzeptabel und ja, einfach nur schlecht.
Für mehr FPS würde ich alle anderen Optionen dem FSR vorziehen. Warum sollte man sich auch selber das Bild so versauen, wenn man es nicht muss!?

Ich habe mir jetzt auch nicht das original Interview angesehen, aber so ein Schwachsinn kann ja nur von jemanden kommen, der für AMD arbeitet.
Warum ich Schwachsinn schreibe? Weil man hier den Eindruck gewinnt, wir wären alle doof und hätten keine Ahnung.
Und dabei geht es nicht mal um die Technik als solche, sondern wir haben doch alle Augen im Kopf.

FSR 2.0 bekommt gerne wieder eine neue Chance, aber FSR 1.0 ist aktuell keine nützliche Hilfe.
Bis dahin wünsche ich mir genau so viel Kritik wie "damals" DLSS 1.0 kassieren musste, denn nur so wird's besser.

Klar, der Ansatz und die Intention sind gut und auch richtig. Aber das ist ungefähr das Ergebnis, wenn man einen Freund fragt ob er beim tapezieren helfen würde, der das nur noch nie gemacht hat.
Also, es war jedenfalls gut gemeint... ;)
 
... Deswegen setzt Intel XeSS auch auf DirectML auf und nicht irgendeiner proprietären Nvidia Bibliothek. ...
Die Aussage ist falsch.
Karthik Vaidyanathan, Principal Engineer bei Intel erklärtz zu XeSS explizit, dass hier nicht DirectML genutzt wird, d. h. hier wird eine eigene, proprietäre SW-Layer für die ML-Prozessierung verwenden:
"We don’t use DirectML. See the kind of performance that you're looking at when it comes to real time ... ... things like that to extract that level of performance, and in its current form, DirectML doesn't meet those requirements, ..."
Mehr dazu hier : https://wccftech.com/intel-xess-interview-karthik-vaidyanathan/

AMD hatte schlicht keine andere Wahl als FSR 1 in der dargebotenen Form anzubieten. Ob die derzeit überhaupt genügend AI/ML-KnowHow inhouse haben, ist eine andere Frage aber alleine bereits die (markt)technischen Gegebenheiten schränkten ihren Handlunngsspielraum hier beträchtlich ein.
Einerseits konnte AMD hier nicht zu viele HW-Ressourcen veranschlagen für eine ordnungsgemäße Funktionalität, denn die Konsolen haben nur sehr beschränkte Ressourcen (nur 36 oder 52 langsamere CUs) und AMDs Hardware hat nichts zu den Tensor Cores vergleichbares in Hardware. Entsprechend hätte eine forderndere Implementation die Konsolen schnell ausgeschlossen und das konnte nicht AMDs Ziel sein.
Darüber hinaus nutzt nVidia ihr DLSS als verkaufsförnderndes Feature, etwas, das sie sich als Marktführer problemlos leisten können. AMD dagegen kann so etwas nicht. Hätten die ihre Technik versucht Radeon-exklusiv zu machen um in der gleichen Art zu agieren, wären sie untergegangen, weil sie viel zu kleine Marktanteile auf dem PC haben, d. h. am Ende blieb ihnen schlicht gar nichts anders übrig als hier die Open Source-Karte zu spielen. Das war das gleiche wie mit Mantle als Vulkan-Vorbereiter. Zuerst hat man mit DICE versucht ein Gegenstück zu nVidia's Marktdominanz aufzubauen, um die eigenen GPUs besser präsentieren zu können, dann kam DX12 jedoch zu schnell/früh in den Markt und man kam mit den zu beschränkten Ressourcen nicht mehr mit und es blieb ihnen nichts anderes übrig als die vorläufige Codebasis freizugeben und quasi der Khronos Group "zu spenden". Wenn AMD die Marktmacht von nVidia hätte, würden die auch ganz anders agieren; da sie davon aber extrem weit entfernt sind, können sie das schlicht nicht und müssen versuchen ihre Software auf anderem Wege zu verbreiten.
Bei Intel ist es ja nicht anders. Die hätten auch nichts dagegen ihr XeSS als verkaufsförnderndes Feature zu nutzen, jedoch wissen die, dass die aufgrund der vorerst sehr kleinen Martkbasis hier keine Chance gegen nVidia haben werden und damit gegen ihr DLSS. Entsprechend schlugen sie den gleichen Weg ein, eine frei verfügbare/anwendbare Technik (damit direkt gegen nVidia und AMD gerichtet), hier nur fortgeschrittener als das, wofür AMD so lange brauchte und auf ML basierend. Auch hier ist das kein Altruismus von Intel, ebensowenig wie bei AMD, sondern schlicht der Marktdominanz von nVidia geschuldet.
 
Zuletzt bearbeitet:
Was hat jetzt der Preis plötzlich mit einem Feature zu tun? Im übrigen liegen die RDNA2 Karten noch weiter über UVP als die Ampere Karten, also zieht Dein Argument quasi doppelt nicht. ;)
Wenn ich das bessere DLSS will muss ich eine NV Karte kaufen.
Der ebenfalls überzogene Preis einer RDNA 2 Karte den ich auch nicht zahlen würde spielt in dem Fall ja keine Rolle, mit der hätte ich ja auch nur FSR.
Für alle mit einer älteren NV Karte denen die aktuellen Preise nicht zusagen ist FSR daher ein super Feature, auch wenn es aktuell noch einige Schwächen hat.
 
Zuletzt bearbeitet:
Nein, und? Was sagt das aus? Natürlich haben die AMD Käufer für dieses Feature bezahlt, in dem sie sich eine Karte gekauft haben ;)
Die Entwickler von AMD arbeiten nicht für Luft und Liebe.

Also ich habe keinen Cent bezahlt. In einer solchen Situation ist AMD eben gezwungen, das Zeug zu verschenken, um zu verhindern, dass Nvidia einen Standard durchdrücken kann. Hat bei GSync schon funktioniert und davor bei PhysX (wobei sich das zum Teil ohne AMDs Einwirken erledigt hat).
 
Wie das? Soweit ich weiß, muss das vom Entwickler implementiert werden.

Indem die window-Ausgabe quasi gecaptured und danach upscaled wird. Das Bild wird also zuerst in der Ausgangsauflösung vollständig fertig gerechnet und erst danach upgescaled.

Suche dafür bsw. auf Steam nach dem Tool Lossless Scaling.
Das bietet auch HDR-Support.
Woran der Entwickler da aber noch arbeitet ist, dass auch Free-/Gsync unterstützt wird.
Und ich stelle fest, dass die Synchronisation zwischen Ausgabe und Monitor öfters noch nicht sauber verschränkt werden kann, was sich dann in niedrigen, unregelmässigen Frameraten äusserst. Da muss man gelegentlich etwas üben.

Der Vorteil ist dafür, dass man damit quasi alles upscalen kann. Von Windowsfenstern, über Officeprogrammen bis zu Videowiedergabe xD

Selbstredend ist damit nicht möglich die maximale Qualität von nativem FSR ist zu erreichen.
 
In erster Linie ist DLSS ein Softwareprodukt. Jeder Prozessor für den ein Kompiler oder eine passende Library existiert kann das Programm ausführen, zumindest aus rein technischer Sicht. Der Name des Produkts ist Bildverbesserung mit Methoden des Machine- und Deep Leanings. Jeder forscht an sowas. Nvidia, Intel, Facebook, Apple, Microsoft, Google, Adobe, Epic, die wollen alle diese Technologie haben, weil die in Zukunft so selbstverständlich sein wird wie bilineares und bikubisches filtern. Nvidia waren einfach die ersten die ein Produkt auf den Markt werfen konnten, das bei Konsumenten (wichtig!) Anwendung findet.

Aus Sicht des Marketing ist DLSS somit ein Alleinstellungsmerkmal, das dem Nvidia Produkt einen Mehrwert gibt, wenn die Kunden es für gut befinden. Solche Kalkulationen führen dann dazu, dass das Softwareprodukt an eine bestimmte Hardwareplattform gebunden ist. In der Geschäftswelt ein üblicher Prozess, die Gegenkultur dazu ist Open Source.

AMD steht also unter Zugzwang dem Kunden darzulegen, dass der DLSS "Vorteil" von Nvidia keine Rolle spielt. Diesen Zweck erfüllt FSR. Aber weil man einen einzelnen Schlag nicht mit einem einzelnen Gegenschlag erwidert, muss man weiterprügeln. Das ist dann der Teil an dem man als AMD die Software nicht proprietär macht. AMD muss nicht besser sein, sondern nur genug Zweifel streuen und den Konkurrenten den Rest überlassen.

Microsoft entwickelt DirectML ja nicht seit gestern und wenn man bedenkt, dass fast jeder Spiele PC ein WIndows PC ist, dann kann man sich schnell ausrechnen wie der Kampf DLSS gegen DirectML in 10 Jahren aussieht. Das eine wird ein DirectX Standard sein, das andere vom Markt verschwunden. Deswegen setzt Intel XeSS auch auf DirectML auf und nicht irgendeiner proprietären Nvidia Bibliothek. Auch Intel tritt nach, indem man XeSS auch für Linux portiert. Die wollen den Prozess beschleunigen bei dem sich DirectX ohne Extensions von Nvidia durchsetzt und Nvidia keinen Rückzugsraum im SteamOS oder ähnlichen Konstrukten geben.

AMD als Hoflieferant von Sony und MIcrosoft muss sich nur zurücklehnen und auf DirectML warten. FSR ist nur ein Lückenfüller, ein schneller linker Haken wenn man so will. Das wird Nvidia nicht ausknocken, es lässt sie aber wissen, dass man da ist.
Stimme ich vollkommen zu. Am Ende wird vermutlich derjenige die Nase im ML-Upscaling vorn haben, egal ob jetzt mit DLSS / FSR / XeSS / TSR, der die dafür nötigen Berechnungen am schnellsten durchführen kann. Und da hat Nvidia aktuell mit ihren Tensor Cores mittlerweile 2 Gens Vorsprung vor AMD. Intel hat diesbezüglich bestimmt auch ein Ass im Ärmel, ML-Beschleuniger findet man ja auch im Portfolio.


Indem die window-Ausgabe quasi gecaptured und danach upscaled wird. Das Bild wird also zuerst in der Ausgangsauflösung vollständig fertig gerechnet und erst danach upgescaled.

Suche dafür bsw. auf Steam nach dem Tool Lossless Scaling.
Das bietet auch HDR-Support.
Woran der Entwickler da aber noch arbeitet ist, dass auch Free-/Gsync unterstützt wird.
Und ich stelle fest, dass die Synchronisation zwischen Ausgabe und Monitor öfters noch nicht sauber verschränkt werden kann, was sich dann in niedrigen, unregelmässigen Frameraten äusserst. Da muss man gelegentlich etwas üben.

Der Vorteil ist dafür, dass man damit quasi alles upscalen kann. Von Windowsfenstern, über Officeprogrammen bis zu Videowiedergabe xD

Selbstredend ist damit nicht möglich die maximale Qualität von nativem FSR ist zu erreichen.
Aber da sprichst Du ja nicht mehr von FSR, sondern einer 3rd-Party-Lösung. Oder verstehe ich Dich falsch?
 
Aber da sprichst Du ja nicht mehr von FSR, sondern einer 3rd-Party-Lösung. Oder verstehe ich Dich falsch?
Fsr ist ein Upscaling Logarithmus der natürlich auch in 3party Tools benutzt werden kann. Hier z.b. das erwähnte loosless scaling Tool. Es gab aber auch schon Mods die FSR integriert hatten. Allerdings ist die Qualität etwas schlechter als wenn es vom Entwickler direkt ins Spiel implementiert wird. Da es früher zur Anwendung kommt als ein einfacher upscaler.
 
Es ist schon gut möglich dass wir in einigen Jahren ein standardisiertes Upscaling mit DLSS 2.0 Qualität haben, Voraussetzung ist jedoch auch die Hardwarebasis dafür, die Nvidia seit Turing (RTX 2000) mit Tensor Cores hat.
Intel geht auch einen anderen (offenen) Weg, bin gespannt wie der mithält.

Aber aktuell sind Tensorcores der Maß aller Dinge, und wenn AMD's RDNA3 diese nicht beinhaltet und FSR sich (deswegen) nicht verbessert, solange werden AMD GPU's für mich jedenfalls keine Option sein.
Ich habe DLSS sehr schätzen gelernt, es ist toll bei deutlich mehr Performance ein gleich gutes bzw in vielen Fällen sogar das bessere Bild zu bekommen.
 
Indem die window-Ausgabe quasi gecaptured und danach upscaled wird. Das Bild wird also zuerst in der Ausgangsauflösung vollständig fertig gerechnet und erst danach upgescaled.
Das ist aber nicht genau das, was FSR macht.

Fsr ist ein Upscaling Logarithmus der natürlich auch in 3party Tools benutzt werden kann.
Jaein. FSR ist ein Spatial upscaler. Upscaler ist nicht gleich upscaler.
 
Ich verstehe das rumgeheule vieler nicht was das angeht. Da wird uns allen so ein tolles Feature Präsentiert und kostenfrei zur Verfügung gestellt und trotzdem wird nur rumgemault.
Ich habe im Freundes- und Bekanntenkreis so viele Leute mit älteren Karten ala GTX 1050ti, GTX 1060, RX 570/580 und die sind alle super Begeistert davon und da Mault nicht ein einziger rum, im Gegenteil.
Alle durch die Bank weg super Happy das Sie das ein oder andere neue Spiel nun auch ordentlich mit den älteren und schwächelnden Karten spielen können, allen voran bei uns Anno 1800, Resident Evil Village, Far Cry 6 und Back4Blood, danke AMD. :daumen:

Und das sind meistens Leute die sich nicht mit Tools oder irgendwas auskennen, so wie die meisten Spieler.
Wenn ich die nicht ab und an mal an neue Treiber erinnern würde hätten die immer noch die Releasetreiber ihrer Karten drauf.
Die brauchen eine einfache Option im Optionsmenü wie bei AMD FSR und dann kriegen die das hin. :lol:
 
Es ist schon gut möglich dass wir in einigen Jahren ein standardisiertes Upscaling mit DLSS 2.0 Qualität haben, Voraussetzung ist jedoch auch die Hardwarebasis dafür, die Nvidia seit Turing (RTX 2000) mit Tensor Cores hat.
Intel geht auch einen anderen (offenen) Weg, bin gespannt wie der mithält.
Man benötigt aber keine Tensorcores um ein DLSS Algorithmus auszuführen. Er wird effizienter laufen aber Performance dürfte auch ohne Tensor Cores deutlich ankommen.

Meiner Ansicht nach ist auch das Argument das ML-Lösungen keine Konsistente Ergebnisse bringen vorgeschoben. Keiner zwingt sie den gleichen Weg zu bestreiten. Auch ein Ansatz wie ihn DLSS 2.0 verwendet dürfte mit "normalen" Algorithmen möglich sein. Ob dies aber besser oder einfach umzusetzen ist steht auf einem anderen Blatt.
Der einzige Pluspunkt den ich bei FSR wirklich sehe ist, dass er mit allen GPUs läuft, aber qualitativ ist das an einigen Stellen enttäuschend. Da würde ich lieber die Regler bedienen als FSR zu verwenden. Je nach Umstand holt man dort bereits einiges Raus und muss nicht mit den Nachteilen der niedrigen Auflösung leben.
 
Zurück