Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Die Qualität wird so ganz bestimmt nicht beleiben, sonst würde AMD keinerlei Konkorrenz zu NV herstellen können. Ich denke, da wird sich in den nä. 6-12 Mo. noch eine Menge tun.
Besonders gespannt bin ich auf die Auswirkungen mit meiner Vega. Die ist an sich eine tolle Karte mit viel Potential nach oben durch die Speicherbanbreite, HBM2 und HBCC. Vllt habe ich ja Glück? ;-)
Gruß T.
 
Klar, ust dafür vorgesehen. Wobei neue Engine ja schon eigene Lösungen haben. Siehe UE5 oder Zuletzt bei Resi 8 (was auf Konsolen fast hübscher aussieht bei Kanten als Nativ am PC).

Nur neue Nintendo Switch soll angeblich DLSS nutzen. Beim Chiplieferanten kein Wunder.


Bin gespannt was AMD Lösung bringt. An gute DLSS 2.0 Implementierung sollte es hoffentlich heranreichen. Ansonsten wird es noch bisschen dauern sich gegen hardwarebeschleunigte Lösungen durchzusetzen.

Zumindest gibt es immer mehr Optionen. Begrüße ich mehr als mit neuen GPU 400Watt zu verballern um nativ 4k zu erreichen.

Man kann auch einfach bei FullHD bleiben um den Stromverbrauch im Rahmen zu halten, dann braucht's auch keine Schummelsoftware.
 
Nachher kommt die Entschuldung von AMD zum Video, man hat die Seiten der Bezeichner vertauscht :lol: und all so WHAAAT?

Leute bleibt mal locker, das ist Version 1, wir haben auch noch keine Vergleichstests von PCGH & Co. gesehen bzw. verschiedene Spieltitel die beides integriert haben.

Mir wäre es grundlegend auch lieber, wenn GPUs weiterhin nativ rechnen, ohne Upscaling, aber die Zeiten neigen sich leider dem Ende entgegen, dafür ziehen höhere Auflösungen und Features wie Raytracing einfach zu viel Leistung.
 
Zuletzt bearbeitet:
Immer wieder niedlich, dass die Leute einfach nur die Bilder angucken und sagen: "ist unscharf" ohne zu bedenken, auf welcher GPU das entstanden ist und welche unglaublichen Möglichkeiten sich damit ergeben und vor allem, wie viele Nutzer dieses Feature erreichen kann, im Gegensatz zu DLSS. Dort haben wir die zwar relativ hohe Anzahl der RTX 2000 und 3000-Besitzer aber die ist trotzdem verschwindend gering im Vergleich zu den restlichen Grafikkarten, die insgesamt fast 100% aller GPUs ausmachen dürfte. Selbst iGPUs können das so nutzen...

Gerade die 1060 ist ein echt fieser Schlag gegen nV gewesen. Die am meisten verbreitete GPU und kann DLSS nicht nativ nutzen. Dass sie jetzt nur die Leistung der aktuellen Einstiegskarten hat, wenn überhaupt, muss man bei dem Bildern aber immer beachten. Das war vor 5 Jahren Mittelklasse für knapp 250 €, DLSS schafft aktuell keine einzige Karte unter 350 € (UVP muss man ja heutzutage leider immer dazu schreiben ^^) und auch das nur extrem eingeschränkt...
 
Kann ich dir eigentlich recht geben. Wir haben viel über Upscaling gelästert bei den Konsolen. Naja sollten wir jetzt sein lassen.
Es war kein Fehler, über traditionelles Konsolen-Upscaling gelästert zu haben. Wieso? Weil das eine völlige Billo-Lösung war, die es schon seit Ewigkeiten gab. Außerdem fehlten dort früher jegliche Wahlmöglichkeiten, was allerdings oft auch der fehlenden CPU-Performance (→ ResScale senken bringt zu wenig) und dem zu knappen Speicher (→ ResScale erhöhen bringt Probleme) geschuldet war.

Über dynamisches Upscaling, darüber hätte nie gelästert werden sollen. Also Upscaling, das auf einem FrameRateTarget basiert, denn das ist sehr vielversprechend und fehlt bislang bei DLSS auch. Es wäre viel komfortabler, bei einem Metro Exodus zu sagen, dass sich die Framerate bitte zwischen 80 und 100 FPS oder zwischen 60 und 80 oder 40 und 60 zu bewegen hat und das Spiel wählt dann den passenden Modus (im Sinne von: den passenden ResScaleFaktor) je nach Szene aus, als diesen je nach Map und Tageszeit selber wählen zu "müssen".
 
Immer wieder niedlich, dass die Leute einfach nur die Bilder angucken und sagen: "ist unscharf" ohne zu bedenken, auf welcher GPU das entstanden ist und welche unglaublichen Möglichkeiten sich damit ergeben und vor allem, wie viele Nutzer dieses Feature erreichen kann, im Gegensatz zu DLSS. Dort haben wir die zwar relativ hohe Anzahl der RTX 2000 und 3000-Besitzer aber die ist trotzdem verschwindend gering im Vergleich zu den restlichen Grafikkarten, die insgesamt fast 100% aller GPUs ausmachen dürfte. Selbst iGPUs können das so nutzen...

Gerade die 1060 ist ein echt fieser Schlag gegen nV gewesen. Die am meisten verbreitete GPU und kann DLSS nicht nativ nutzen. Dass sie jetzt nur die Leistung der aktuellen Einstiegskarten hat, wenn überhaupt, muss man bei dem Bildern aber immer beachten. Das war vor 5 Jahren Mittelklasse für knapp 250 €, DLSS schafft aktuell keine einzige Karte unter 350 € (UVP muss man ja heutzutage leider immer dazu schreiben ^^) und auch das nur extrem eingeschränkt...
Was soll das mit der GPU zu tun haben? Upscaler sehen auf jeder GPU gleich aus, nur die FPS unterscheiden sich. Die Screenshots und das Video zeigen eine sehr deutliche Unschärfe im FSR Bereich, das ändert sich nicht durch die verwendete GPU. Und ja, Screenshots und Video sind nicht hochauflösend, aber der Unterschied zwischen linker Seite / rechter Seite ist trotzdem bewertbar.
 
Yay, ich muss schon aufpassen mich nicht hypen zu lassen :D.
Bei den derzeitigen Preisen muss meine 1080 wohl noch länger ackern. Da ich vor kurzem auf 4K umgestiegen bin kommt mir FSR da gerade recht.
Mit den richtigen Einstellungen kann ich zwar in 4K spielen, oft genug aber an einigen Stellen trotzdem 30fps, was zwar spielbar für mich ist aber naja, mehr wäre besser. Oft genug kann ich das per Render scale lösen, bei 70 bis 80% sieht für mich noch gleich aus, dafür lande ich nicht unter 45fps und bin glücklich. Leider gibt's eben auch Spiele ohne und da hoffe ich auf FSR. Mir reicht ja oft ein kleiner Boost, 15 bis 20% mehr FPS und ich bin in allen Spielen glücklich.
Neue Kracher wie Cyberpunk ausgenommen aber neue AAA Spiele interessieren mich seit Jahren eh immer weniger und werden auch nicht innerhalb der ersten 2 Jahre geholt.
Bei 4k und der maximalen Qualitätsstufe werden kaum weniger als 15% FPS rumkommen und die Bildquälität sollte auch kaum in Mitleidenachaft gezogen werden (sonst könnte man es sich auch ganz sparen, das wär nen Flop oO).
So meine absichtlich tief gestapelten Hoffnungen.

Sorgen macht mir die Unterstützung in Spielen. Sollte da jetzt ähnlich wie bei DLSS tröpfchenweise ein Spiel nach dem anderen kommen ist ja wieder doch nur Zukunftsmusik und nichts für heute. Ich meine, die Spiele die ich besitze sind mir da viel wichtiger als, dass neue Spiele es unterstützen.
 
Du kannst auf jeder Grafikkarte eine sub native Auflösung auswählen. Das skaliert automatisch und beschleunigt enorm. Sieht halt entsprechen aus. Aber nicht viel schlechter als auf dem Screenshot. Der Sinn von DLSS ist ja nicht, dass die doppelten Frames rausspringen, weil man nur 50% der Pixel anpinselt. Der Sinn ist es, dass man trotz besserer Performance trotzdem nahezu dieselbe Bildqualität - von den verschwundenen TAA-Artefakten mal ganz abgesehen - bekommt. Und das sehe ich bei FSR momentan nicht ansatzweise.
 
Ein bisjen mehr als ein simpler Upscaler wird da schon hinter stehen,sonst müsste man es ja nicht in die Engine implementieren. Gibs da jetzt eigentlich Infos ob dass auf Direct ML aufbaut oder nicht?

Dass die 1060 gezeigt wurde,ist in anbetracht des Publikums nicht verwunderlich und ein rechtschlauer Schachzug. Entwicklerwollen primär eine breite Käuferschicht ansprechen, schließlich soll sich der Aufwand der Implementierung ja auch lohnen. Genau da setzt eben die Verwendung der 1060 an. Ob eine RDNA GPU da noch weitere Möglichkeiten hat da performanter zu laufen oder das besser zu rekonstruieren bleibt erstmal offen, auch wenn ich es für unwahrscheinlich halte.

Evtl. hat AMD auch aus dem bescheuerten 6700XT Launch gelernt, es ist deutlich effektiver fürdie Wahrnehmung wenn das Feature nachher besser ist als gedacht wie als wenn es schlechter ist als erwartet. Mit der Niveaustellung zur 3070 hatte man sich im beschriebenen Fall selbst ins Fleisch geschnitten. Normal hätte die GPU über den Erwartungen gelegen, mit dem Vergleich zur 3070 hat man sich die Karte selbst madig reklamiert.
 
Ein bisjen mehr als ein simpler Upscaler wird da schon hinter stehen,sonst müsste man es ja nicht in die Engine implementieren. Gibs da jetzt eigentlich Infos ob dass auf Direct ML aufbaut oder nicht?

Dass die 1060 gezeigt wurde,ist in anbetracht des Publikums nicht verwunderlich und ein rechtschlauer Schachzug. Entwicklerwollen primär eine breite Käuferschicht ansprechen, schließlich soll sich der Aufwand der Implementierung ja auch lohnen. Genau da setzt eben die Verwendung der 1060 an. Ob eine RDNA GPU da noch weitere Möglichkeiten hat da performanter zu laufen oder das besser zu rekonstruieren bleibt erstmal offen, auch wenn ich es für unwahrscheinlich halte.

Evtl. hat AMD auch aus dem bescheuerten 6700XT Launch gelernt, es ist deutlich effektiver fürdie Wahrnehmung wenn das Feature nachher besser ist als gedacht wie als wenn es schlechter ist als erwartet. Mit der Niveaustellung zur 3070 hatte man sich im beschriebenen Fall selbst ins Fleisch geschnitten. Normal hätte die GPU über den Erwartungen gelegen, mit dem Vergleich zur 3070 hat man sich die Karte selbst madig reklamiert.
kein ML. Seit dieser Aussage war eigentlich klar, dass das gegen DLSS keine Chance haben wird.
 
Das ist schon witzig, alle Leute sagen sie erkennen keinen Unterschied zwischen Streaming und einer Bluray, aber bei Spielen wo man eher weniger auf die Umgebung achten kann, ist es auf einmal ein riesen Problem.
Mir geht es sogar häufig so das ich beim zocken oft die Umgebung nicht richtig war nehme, da es oft genug die Situation gar nicht zulässt.
Ob es gut oder schlecht ist hängt vermutlich von Spiel zu Spiel ab und lässt sich ja gegeben falls ausschalten und damit kein Problem.
 
kein ML. Seit dieser Aussage war eigentlich klar, dass das gegen DLSS keine Chance haben wird.
kein ML? Ist schon bekannt wie FSR funktioniert? Oder woher hast du die Info?

Dass die 1060 gezeigt wurde,ist in anbetracht des Publikums nicht verwunderlich und ein rechtschlauer Schachzug.
Dem Stimme ich nur zu, egal wie schlecht es aussieht - sofern es besser aussieht als das Treibereigene Upsampling natürlich ;). AMD bietet da was für die Pascal Architektur an, was Nvidia nicht tut.
 
kein ML? Ist schon bekannt wie FSR funktioniert? Oder woher hast du die Info?
https://global.techradar.com/de-de/...egensatz-zu-nvidia-dlss-kein-machine-learning

Und hier noch mal im Youtube Video bestätigt von Scott Herkelman (Radeon VP):

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Gut finde ich jedoch den weiterhin offenen Ansatz, mutig von AMD dabei zu bleiben obwohl NV eisern proprietär bleibt.
Das ist doch aber auch die einzige Chance für AMD, sich gegen DLSS zu behaupten, oder überseh ich da was? Selbst wenn es ebenbürtig werden sollte (besser wage ich zu bezweifeln), ist DLSS einfach schon länger da, vom Herzblut der nVidia Jünger mal abgesehen. Meines Erachtens ist es nicht mutig von AMD, sondern der einzig logische Weg.


Abgesehen davon gehe ich mal stark davon aus das der AMD Ansatz ohne Deep-Learning auskommen wird, was ohnehin ein komplett bescheuerter Ansatz war und die Mehrheit an Games (vor allem Indis etc.) ausschließt.
Soweit ich das mitbekommen habe, basiert FSR durchaus auch auf Deep Learning, allerdings wird das nicht spielespezifisch eingesetzt. Frag mich grad aber nicht nach ner Quellenangabe, ich schau bei Gelegenheit mal, ob ich das nochmal finde.

edit: Ich sehe gerade über mir das gegenteilige Statement. Hm.

Ich frage mich was da seitens der 1060 schief lief. Das restliche gezeigte Material sah ja gut aus. Nur das von der 1060 nicht.
Auf den ersten Test mit Karten aus dem eigenen Haus bin ich wirklich gespannt.

Edit
Besitzt hier zufällig jemand das Spiel Godfall und eine 1060 und kann mal schauen ob die serienmäßig vielleicht schon Bildschwächen in diesem Titel aufweist?
Das bessere Bild mit den niedrigeren FPS ist doch ebenso von einer 1060, dann müsste sie diese Schwächen doch auch dort schon aufweisen. Mit den knappen 6gb Vram hat das aber nichts zu tun, oder? Ich meine, immerhin läuft der Kram auf 1440p und wir wissen noch nicht, wie FSR mit den Ressourcen einer Grafikkarte umgeht. Eventuell auch ein Treiberoverhead?
 
kein ML. Seit dieser Aussage war eigentlich klar, dass das gegen DLSS keine Chance haben wird.
Aktuell weiß man es nicht, da AMD keine Details zur Implementation bekannt gegeben hat. Beispielsweise golem.de geht weiterhin von einem AI-basierten Ansatz aus. Ob hier dann DirectML verwendet wird oder nicht, wer weiß.
Anmerkung: Das muss nicht zwingend mit früheren Aussagen von Herkelman kollidieren, da der ggf. auch eher auf die Frage, ob spezielle Hardware benötigt wird, geantwortet hatte, bzw. diese im Sinn gehabt haben könnte. Schlussendlich benötigt auch DLSS nicht zwingend spezielle Hardware, nVidia macht dies nur, weil es vertriebstechnische Vorteile hat und ein netter Nebeneffekt ist, dass der Inferencing-Teil über die Tensor Cores deutlich schneller prozessiert wird.

Hier wird man einfach abwarten müssen. Wäre auch hier ein NN im Spiel, könnte nVidia das auf seinen Treibern ebenfalls über die Tensor Cores routen (falls dies nicht DirectML, wenn es mit dabei ist, sowiso schon machen wird) oder aber ggf. sogar eine Art Transformation/Mapping auf sein DLSS vorzunehmen versuchen (wenn die Eingangsparameter und -daten ähnlich genug sind).
 
Hier wird man einfach abwarten müssen. Wäre auch hier ein NN im Spiel, könnte nVidia das auf seinen Treibern ebenfalls über die Tensor Cores routen oder aber ggf. sogar eine Art Transformation/Mapping auf sein DLSS vorzunehmen versuchen (wenn die Eingangsparameter und -daten ähnlich genug sind).
Nachher läuft FSR auf den NV Karten performanter, das wäre der Marketing Supergau für AMD. Ich denke daher dass man sich seitens AMD dahingehend abgesichert hat.
 
Das ist schon witzig, alle Leute sagen sie erkennen keinen Unterschied zwischen Streaming und einer Bluray, aber bei Spielen wo man eher weniger auf die Umgebung achten kann, ist es auf einmal ein riesen Problem.
Mir geht es sogar häufig so das ich beim zocken oft die Umgebung nicht richtig war nehme, da es oft genug die Situation gar nicht zulässt.
Ob es gut oder schlecht ist hängt vermutlich von Spiel zu Spiel ab und lässt sich ja gegeben falls ausschalten und damit kein Problem.
Kommt auch sehr auf den Titel an würde ich sagen.

Das ist aber kein Dementi dass es das nicht nutzt, sondern es wird lediglich darauf verwiesen dass es keine Vorraussetzung ist. Ein flexibler Ansatz ist hier durchaus denkbar um die Zugänglichkeit zu erhöhen.
 
Das ist aber kein Dementi dass es das nicht nutzt, sondern es wird lediglich darauf verwiesen dass es keine Vorraussetzung ist. Ein flexibler Ansatz ist hier durchaus denkbar um die Zugänglichkeit zu erhöhen.
Das denke ich auch, liest sich im folgenden auch so:

In May, AMD published a patent for “Gaming Super Resolution” that explained how the technology works. The patent revealed that AMD uses a hybrid supersampling approach that will combine linear and non-linear upscaling technology to achieve an image that retains as much detail as possible.

The patent explains that linear techniques through a neural network don’t take into account non-linear information, which “typically results in blurry and/or corrupted images.” AMD also called out “deep learning approaches” in the patent, saying that they result in “lost color and lost detail information” because they don’t incorporate important aspects of the original image.

So, AMD is using both. “The combination of the linear and non-linear upscaling facilitates both the preservation of color and larger scale features (large objects and shapes that are more easily perceived by the human eye) of the image from linear upscaling as well as the preservation of finer features (e.g., curved features and features that are not easily perceived in low resolution) of the image from non-linear upscaling.”

In short, there are two paths for the reconstructed image. The original low-res image will pass through a linear upscaling network and a non-linear upscaling network at the same time, extracting different bits of information through each path. FSR then combines these images to create a pixel grid, then expands on each pixel for a higher-res image. After some frame clean-up, you have your reconstructed image.

Quelle: https://www.digitaltrends.com/computing/what-is-amd-fidelityfx-super-resolution/
 
Nachher läuft FSR auf den NV Karten performanter, das wäre der Marketing Supergau für AMD. Ich denke daher dass man sich seitens AMD dahingehend abgesichert hat.
Naja, "Supergau", so weit würde ich dann nicht gehen. Wenn die Performance stimmt, hätte AMD sein Ziel erreicht, denn hierbei geht es im Wesentlichen darum die Konsolen "echt" 4K-tauglich zu machen. (Auf dem PC ist der Anteil an AMD-Hardware relativ gering und mit den ersten Vertriebsmonaten von RDNA2 hat sich die Situation gar eher verschlimmbessert.)

Aber ja, wäre ein NN im Spiel, könnte es tatsächlich sein, dass das auf nVidia-Hardware performanter läuft, aber hier wird man erst mal abwarten müssen, ob AMD nun tatsächlich auch einen AI-basierten Ansatz umgesetzt hat.

@Xaphyr: Ein Patent, das öffentlich wurde, heißt aber nicht, dass sie es auch implementierten, denn Patente werden im Zuge der Entwicklungsarbeit vielfach aufgegeben.
Am Ende war ich damals aber auch schon etwas überrascht, als diese "Kein-AI"-Aussage die Runde machte, denn die Detailrekonstruktion dürfte andernfalls schwierig werden, von daher würde ich tendenziell weiterhin davon ausgehen, dass man hier zum Teil AI-basiert arbeitet, möglicherweise aber zu einem kleineren Teil als bei nVidia.
Interessant werden, wenn es dann verfügbar ist, echte Vergleiche gegen DLSS werden, wobei die in erster Zeit jedoch problematisch sein werden, da es so schnell absehbar keine Titel geben wird, die beide Techniken implementieren werden, d. h. man wird sich vorerst immer Titel A mit FSR und Titel B mit DLSS ansehen, was eher hinderlich für einen Vergleich ist. Möglicherweise wird aber nVidia diese "Gap" frühzeitig vertriebsgetrieben zu schließen versuchen und "uns mit Vergleichen beglücken". ;-)
Immerhin kommt jetzt schon mal was und nicht erst zum Jahresende von AMD, was RDNA2 durchaus aufwertet.

In einer weiteren Runde interessant dürfte auch der Vergleich gegen Epics Temporal Super Resolution in der UE5 sein (wobei dann aber durchaus die Frage bleibt, warum Epic anscheinend eine eigene Technik implementiert, wenn doch AMDs Technik frei verfügbar sein soll und man hier angeblich bzgl. der Shader-Entwicklung gar eng mit AMD für die Umsetzung von TSR auf RDNA zusammenarbeitete?).

Und am Ende steht auch zudem XeSS im Raum, das angeblich in Verbindung mit Xe-HPG entwickelt wird und anscheinend eine weitere Technik für ein Upscaling anbieten wird.
 
Zuletzt bearbeitet:
Zurück