Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Hab jetzt mal das Video in 4K auf YouTube angeguckt (die Video-Quali hier auf PCGH ist irgendwo im letzten Jahrzehnt hängen geblieben), und auf der 6800 sieht Godfall ne ganze Ecke besser aus als auf der 1060, beides Quality-Mode. Scheint also doch eher ein Bug zu sein, der *hust* zufällig *hust* die Konkurrenz betrifft, oder AMD nutzt doch Hardware/Features, welche die 1060 schlicht nicht hat.
Dabei musst du immer bedenken, dass die Nvidia Karten für AMd nur Black Boxes sind. Da fehlt die Möglichkeit, so ganeu zu tunen, wie für die eigenen Produkte.
Jetzt muss Nvidia entscheiden, ob sie da noch mehr rausholen wollen... was wahrscheinlich mit nein beantwortet wird.
 
Und das blödeste was AMD passieren kann, was fast so aussieht momentan, ist dass die Spiele mit DLSS auf Turing besser laufen/aussehen (in Relation) als auf deren neuem Lineup mit FSR.

Auf 2-4 Jahre betrachtet behaupte ich, dass Spiele eher FSR einsetzen werden, weil die TensorCores für DLSS Verschwendung sind. Spezialisierte Machine- und Deep-Learning Hardware wird im Spiele PC super wichtig, aber nicht wegen Grafikoptimierung, sondern bei der NPC-KI, der Simulation der Welt (welcher NPC macht gerade was wo und warum), sowie Physikberechnungen. Da liegt wirklich die Zukunft der Nvidia Tensor Cores.

Momentan ist eh Kindergarten und keine Lieferbarkeit.
Nvidia will dass man für DLSS neue Karten kauft.
AMD lässt deren DLSS Konkurrent demonstrativ auf einer alten Nvidia Karte laufen.

Was soll man da sagen? Wenn ihr so viele Ingenieure wie PR Trolle hättet würdet ihr endlos 7nm in der Büroküche mit der Mikrowelle fertigen anstatt auf TSMC zu warten?
 
Dabei musst du immer bedenken, dass die Nvidia Karten für AMd nur Black Boxes sind. Da fehlt die Möglichkeit, so ganeu zu tunen, wie für die eigenen Produkte.
Jetzt muss Nvidia entscheiden, ob sie da noch mehr rausholen wollen... was wahrscheinlich mit nein beantwortet wird.
Hast die weiteren Kommentare anscheinend nicht gelesen, daher hier noch mal:

6800XT: Ultra Quality Mode (+60% FPS)
1060: Quality Mode (+41% FPS)

Da ist der FSR-Mode eine Stufe niedriger. Und keiner weiss was in der "Black Box" FSR für ein Upsampler je nach Mode läuft, vielleicht der ML-trainierte bei Ultra Quality und Standard bei allem darunter.
 
Tja schade dass kaum ein Spiel ne Option für Fidel FX hat. Nützt einem daher gar nichts. Ich glaub ich besitze zwei Spiele wo man das nutzen kann und selbst dann nur "an und aus". Es müsste eine globale Option geben für alle Spiele wo man sagen kann "nutze 1080p intern und scale auf 1440p" zb und dann startet das Spiel einfach in 1440p. Aber wo sollte es dann diese globale Option geben für nicht AMD Nutzer. Das bringt doch so alles nichts. Nur Augenwischerei mal wieder.
 
Na endlich wird dann Star Citizen 2032 auf der PS7 lauffähig.

PS. Falls es bisher noch nicht in den Kommentaren geschrieben wurde:

AMD FidelityFX Super Resolution is supported on the following AMD products: AMD Radeon™ RX 6000, RX 5000, RX 500, RX Vega Series graphics cards & all AMD Ryzen™ Processors with Radeon™ Graphics.

Quelle: https://gpuopen.com/fsr-announce/
 
Mit einem entsprechenden SDK wäre das Training eigentlich etwas, was die Entwickler wortwörtlich "im Schlaf" machen können: Abends die ohnehin für Rendering und Probespielen mit GPUs ausgestatteten Workstations auf "Training" schalten und bis zum nächsten Morgen hat sich das neuronale Netz mit ein paar Milliarden zusätzlicher LD-HD-Bildpaare selbst gefüttert.
Was auch das Schicke an der Anwendung "Upsampling in Spielen" ist.
Ground Truth kann das Spiel selbstständig erstellen. In den meisten ML Anwendungen braucht man dafür sonst (sehr sehr) viele Menschen.

Doof wird es halt wenn man eine sehr abwechslungsreiche Spielwelt hat (das schon erwähnt Psychonauts bräuchte eigentlich einen Satz Gewichte pro Level).

Und wie von mir schon mehrfach postuliert wird eine 100%ig allgemeine Lösung halt irgendwann schlicht TAA mit Lanczos Filter.
 
Zuletzt bearbeitet:
Ich kann mir irgendwie nicht vorstellen, dass FFSR nicht am Markt ankommen wird. Ist es nicht so, dass die Technik für die Konsolen äußerst wichtig sein wird, um UHD@120fps zu ermöglichen? Immerhin sind doch XBox und Playstation mit AMD Hardware ausgestattet. Wird schon für den einen oder anderen Vorteil sorgen.

Solange es sich nicht in die Richtung entwickelt, dass DLSS oder FFSR zur Voraussetzung für 60fps wird...
 
Interessant! Erzählst du uns auch, wieso du den Unterschied zwischen klaren und "vaselinigen" Kontaktlinsen so gut beurteilen kannst? :D
Eigentlich hab ich mehr Erfahrung damit, mir frisch geschnittenen Chili in die Augen zu reiben, was besonders clever ist, wenn man Kontaktlinsen trägt, weil die die Schärfe aufnehmen und daher auch nach dem Augenauswaschen oder alternativ stundenlangem Heulen noch ziemlich anständig brennen können - ich ess relativ gern scharf, das passiert mir erstaunlich oft beim Kochen (man sollte meinen, irgendwann lern ich es mal, bei besonders scharfen Chilis reicht allerdings nicht einmal Händewaschen wirklich aus).

Aber da wäre die Analogie eventuell missverständlich: Ich seh ja nicht scharf, wenn ich mir mit Capsaicin versehentlich die Optik tune, sondern heule und seh entsprechend unscharf...

Gruß,
Phil
 
Zuletzt bearbeitet:
Tja schade dass kaum ein Spiel ne Option für Fidel FX hat. Nützt einem daher gar nichts. Ich glaub ich besitze zwei Spiele wo man das nutzen kann und selbst dann nur "an und aus". Es müsste eine globale Option geben für alle Spiele wo man sagen kann "nutze 1080p intern und scale auf 1440p" zb und dann startet das Spiel einfach in 1440p. Aber wo sollte es dann diese globale Option geben für nicht AMD Nutzer. Das bringt doch so alles nichts. Nur Augenwischerei mal wieder.
Also entweder trollst du oder du stellst dir das ganze deutlich zu einfach vor. Der Spaß muss im Spiel implementiert sein, genauso wie DXR oder RTX / DLSS. Das Interface hat MS bereitgestellt, nun hat auch AMD die passende Software am Start, bzw bringt diese auf den Weg. Die Konsolen werden dem ganzen auf die Sprünge helfen. Außerdem gibt man seine Technologie auch noch (mal wieder) für die Konkurrenz frei, wo ist das also bitte Augenwischerei?
Hab jetzt mal das Video in 4K auf YouTube angeguckt (die Video-Quali hier auf PCGH ist irgendwo im letzten Jahrzehnt hängen geblieben), und auf der 6800 sieht Godfall ne ganze Ecke besser aus als auf der 1060, beides Quality-Mode. Scheint also doch eher ein Bug zu sein, der *hust* zufällig *hust* die Konkurrenz betrifft, oder AMD nutzt doch Hardware/Features, welche die 1060 schlicht nicht hat.
ja? RT zum Beispiel? Lisa hat es sogar gesagt dass dort AMD RT benutzt wird....
 
Zuletzt bearbeitet:
Also entweder trollst du oder du stellst dir das ganze deutlich zu einfach vor. Der Spaß muss im Spiel implementiert sein, genauso wie DXR oder RTX / DLSS.
Nein, eben nicht. Hier geht es nicht um KI upscaling, sondern nur um normales upscaling. Daher würde ich mir eine Option wünschen, die global für alle Games funktioniert. Der Treiber behandelt das Spiel dann zb in 720p scales es aber auf 1440p. So wie es zb diesen Pixel Upscaler im Intel Treiber gibt ab 10th gen oder was das war.
 
wenn es so einfach wäre hätte schon irgendjemand ein Programm als injector gebaut. Ein Upscaler sieht halt auch in vielen Fällen deutlich schlechter aus.
 
Nochmal Vergleiche ohne verlustbehaftete Komprimierung abwarten, aber das Ergebnis im High Quality Mode macht Hoffnung - vlt. noch ein Schärfefilter drüber legen.
 
Die Qualität ist eben einfach Schmutz, Anklang findet sowas bei mir sicher nicht!


Anhang anzeigen 1365608
Entweder die bessern nach, oder man kann auch einfach nen upscaler benutzen.
Deine Meinung ist für mich Schmutz!

Das Bild da ist von einer 1060. Das Ergebnis auf einem Konkurrenzprodukt. Zeig mir mal Vergleichsbilder von DLSS auf der 1060, oder Vega. Ach warte...
Alles was AMD hier zeigt ist mehr als Nvidia auf Pascal releast hat. Was hältst du denn von den Vergleichsbildern von den AMD eigenen Karten? Beantworte mal erst diese Frage, dann denk nochmal nach wie DLSS 1.0 ausgesehen hat und dann überleg mal was du hier für Murks fabrizierst.
 
Aber AMDs Ansatz hat [...] einen derart grossen Vorteil, dass sie DLSS verdrängen wird.
Das ist vorerst eher nicht abzusehen. DLSS ist schon relativ weit verbreitet und wird auf dem PC vorerst weiterhin bestehen. Sofern AMD-Jünger hier nicht einen geheimen Pakt geschlossen haben und Steam grundsätzlich fern bleiben oder kategorisch jedwede Steam-HW-Befragung verweigern, gibt es bereits mehr RTX-GPUs bei PC-Desktop-Gamern als es überhaupt AMD-GPUs insgesamt gibt (inkl. aller Alt- und mobilen GPUs), d. h. nVidia's Basis ist hier viel zu groß, als dass man die ignorieren könnte/würde.

Was aber korrekt ist, ist dass man erst mal echte Vergleiche abwarten muss, denn am Ende entscheidet die Qualität und Performance. Aber das wird für den Anfang vermutlich eher problematisch bleiben, da ich bei den ersten Veröffentlichungen und Patches nicht davon ausgehe, dass hier auch der eine oder andere Titel dabei sein wird, der zufälligerweise beide Techniken unterstützen wird. Entsprechend wird es vorerst immer etwas "ungenau" bzgl. Vergleichen sein. *)

Hinzu kommt, dass die Konkurrenzsituation bzgl. weiterer Produkte derzeit ebensowenig einschätzbar ist. Epic implementiert ihr Temporal Super Resolution mit der UE5 und Intel kommt anscheinend mit ihrem XeSS in den Markt.
Anmerkung am Rande: Es wirft per se Fragen auf, dass Epic eine eigene Implementation anbietet, anstatt unmittelbar auf AMDs Implementation zu setzen, also stellt sich die Frage, was gegen AMDs Technik spricht, insbesondere da Epic auch primär die Konsolen im Fokus hat?

*) Anmerkung am Rande: Das Auge lässt sich leicht durch vermeintliche Bildschärfe in die Irre führen und ein schärferer Bildeindruck wird pauschal als besser/qualitativ höherwertiger interpretiert. Wesentlich relevanter dürfte sein, was die Algorithmen an Details beisteuern/rekonstruieren können, hinzu kommt temporale Stabilität, etc.

Zeig mir mal Vergleichsbilder von DLSS auf der 1060, oder Vega. Ach warte...
Würde vermutlich genau so aussehen, wie auf den RTX-Karten, wenn man den Algorithmus sauber übernimmt oder aber die Beta-Implementation von DLSS2 verwendet, die nVidia damals noch über die reinen Shader rechnen lies (bei irgend einem id-Titel, wenn ich mich recht erinnere). Wird halt nur langsamer berechnet werden, weil die Tensor Cores hier einen Teil des Workloads beschleunigen ... die Frage ist halt wie viel langsamer und welcher Fps-Zugewinn bleibt dabei am Ende übrig?

Darüber hinaus lässt sich absehbar vermuten, dass bei leistungsschwächeren Karten AMDs Qualitätszugeständnisse größer ausfallen müssen, da hier Rechenleistung fehlt, während die Tensor Cores selbst bei den kleinen RTX-Karten dies deutlich besser kompensieren können werden.
Will man das Bild der GTX 1060 vergleichen, sollte man den gleichen Modus und dann gegen bspw. Vega 56 (oder eine noch kleinere Radeon) vergleichen. Letzten Endes weiß man ja noch nicht einmal wie genau hier gerechnet wird. Wenn hier INT8 zur Anwendung kommt, dürften Alt-AMD-GPUs im Vorteil sein ggü. Alt-nVidia-GPUs (sofern ich mich recht erinnere).

Ergänzend vielleicht noch: Der zeitliche Vergleich ist absolut unsinnig. DLSS1 war 2018/19, AMD kommt erst Mitte 2021 mit einer vergleichbaren Technik auf den Markt, da kann man sich schlecht mit angestaubter Technik vergleichen nur um irgendwelchen möglichen Schelten zu entgehen. Der Stand jetzt und schon seit dem letzten Jahr ist schlicht DLSS2 und dagegen werden sich auch bspw. Epic und Intel vergleichen lassen müssen.
 
Zuletzt bearbeitet:
Deine Meinung ist für mich Schmutz!
Das glaub ich gern, soviel wie du DLSS bei unsrem diskurs durch den Kakao gezogen hast.
Selbst bei nem sehr guten DLSS Spiel wie death stranding, hast du deshalb deine Nvidia Karte verkauft und jetzt verteidigst du FSR in einem schlechteren Zustand.

Ich allerdings empfand selbst die Asphalttexturen in death stranded schon störend unter DLSS quality.
Asphalt.PNG

Ich hab das gespielt und für mich waren die Asphalttexturen mit DLSS besser als NATIV.
Für dich ist das störend. Naja man muss dir wohl nicht alles glauben, was du dir so zurechtlegst! :-D
Das Bild da ist von einer 1060. Das Ergebnis auf einem Konkurrenzprodukt.
AMD sagt nicht, dass es auf Nvidia schlechter läuft und die Texturen müsstest du komplett als Schmutz empfinden wenn es dich bei death stranding stört! Da sieht man auch mit 4x zoom kaum nen Unterschied, ich behaupte keinen und hier ist das Unterschied sehr deutlich.

Was hältst du denn von den Vergleichsbildern von den AMD eigenen Karten?
1:1 das gleiche gegen ultra Quality.
Rest ist ja gefaked von AMD!
 

Anhänge

  • Asphalt.PNG
    Asphalt.PNG
    1 MB · Aufrufe: 7
Zuletzt bearbeitet:
Zurück