Fidelity FX Super Resolution: AMDs "DLSS" funktioniert auch mit Geforce-GPUs

Wer zum Geier hat bei AMD denn ausgerechnet dieses Bild zum Vergleich ausgesucht? Hätten die nicht wenigstens vorher den Motion Blur deaktivieren können? Der wirkt da am Rand und zeichnet sogar das native Bild grob unscharf (siehe die Pflanzen links zum Beispiel). Sieht ja aus als hätte ich mir Vaseline auf die Kontaktlinsen geschmiert...^^ Wie soll man das denn so beurteilen?

Im Video sieht's ja schon mal ganz gut aus, aber da macht einem die Kompression die Einschätzung ein bisschen schwer. Mal sehen, wie sich das tatsächlich in der Praxis schlägt. Und nett, dass auch alte GPUs unterstützt werden, die dürften angesichts der Leistung und der aktuellen Hardware-Preise wahrscheinlich auch recht deutlich (und eventuell auch noch über einen längeren Zeitraum) davon profitieren...

Gruß,
Phil

1622546514962.png
 
Zuletzt bearbeitet:
So richtig bewerten kann man es erst wenn sich die Hardware-Redaktionen drauf stürzen können. Aber ich bin gespannt, gerade der Ansatz ältere Hardware länger nutzen zu können dürfte für Viele (auch mich) deutlich interessanter sein als mit DLSS Raytracing auf einer >1000€ Karte auch in 4k nutzen zu können.

Da müssen sich die Qualitätseinbußen aber trotzdem sehr in Grenzen halten bevor es für mich in Frage kommt, normalerweise ist die Renderauflösung die letzte Grafikoption die ich runterdrehen würde.
 
Auf den ersten Blick sieht DLSS schon etwas besser aus. Dennoch gefällt mir der offene Standard und für den ersten Wurf ist die Qualität nun nicht so schlecht.

Krass finde ich allerdings, dass AMD mir als Besitzer einer GTX 1060 die Möglichkeit einräumt ihre Technik zu nutzen :what:
Nvidia war ja mit DLSS nicht so "freigiebig" :schief:
 
Ja einen hochwertigen downsampler hätte ich mir auch eher gewünscht, andereseits liefert AMD ja mit VSR da eigentlich schon das beste auf dem Markt.

Solange es hardware-ignorant komplett in der Spiele-Engine läuft, sollte man es eigentlich mit DSR/VSR kombinieren können. Also UHD-FSR-Bild berechnen lassen und via VSR auf FHD-Monitor ausgeben. Wenn sich eine Qualitätsstufe finden lässt, die mit exakt einem Viertel der Ausgabeauflösung rendert, müsste das selbst ausgehend von der bisherigen Qualität ganz passabel aussehen. Ich freue mich jedenfalls drauf, während mich upscaling von reduziertem Auflösungen eher wenig reizt.


Das ist schon witzig, alle Leute sagen sie erkennen keinen Unterschied zwischen Streaming und einer Bluray, aber bei Spielen wo man eher weniger auf die Umgebung achten kann, ist es auf einmal ein riesen Problem.
Mir geht es sogar häufig so das ich beim zocken oft die Umgebung nicht richtig war nehme, da es oft genug die Situation gar nicht zulässt.
Ob es gut oder schlecht ist hängt vermutlich von Spiel zu Spiel ab und lässt sich ja gegeben falls ausschalten und damit kein Problem.

Kein ungerechtfertigter Einwand, aber man muss die Art der Bildfehler unterscheiden: Bei Streaming stören vor allem Codierungsartefakte, die sich als Farbsäume oder Klötzlichenstrukturen äußern. Sowas ist selbst in Filmen offensichtlich, während ebenfalls resultierende Unschärfen (viel zu) oft in der ohnehin vorhandenen Tiefen- oder Bewegungsschärfe untergehen. In Spielen dagegen dient ein fein aufgelöstes Bild nicht nur dem Wohlgefallen, sondern auch dem Spielerlebnis. Die Umgebung nimmt man in Bewegung zwar nicht bis ins letzte Detail war, hoffensichtlich aber den Gegner, von dem gerade nur ein paar Pixel zu sehen sind – oder eben nicht, wenn er mit der Vegetation hinter ihm zu einem Blob verschwimmt.


Soweit ich das mitbekommen habe, basiert FSR durchaus auch auf Deep Learning, allerdings wird das nicht spielespezifisch eingesetzt. Frag mich grad aber nicht nach ner Quellenangabe, ich schau bei Gelegenheit mal, ob ich das nochmal finde.
Naja, "Supergau", so weit würde ich dann nicht gehen. Wenn die Performance stimmt, hätte AMD sein Ziel erreicht, denn hierbei geht es im Wesentlichen darum die Konsolen "echt" 4K-tauglich zu machen. (Auf dem PC ist der Anteil an AMD-Hardware relativ gering und mit den ersten Vertriebsmonaten von RDNA2 hat sich die Situation gar eher verschlimmbessert.)

Aber ja, wäre ein NN im Spiel, könnte es tatsächlich sein, dass das auf nVidia-Hardware performanter läuft, aber hier wird man erst mal abwarten müssen, ob AMD nun tatsächlich auch einen AI-basierten Ansatz umgesetzt hat.

"AI" ist auch nur ein Buzzword, über das man spätestens seit dem ersten C&C-Sammler lachen sollte. Ähnliches gilt für Machine oder Deep Learning: Letztlich bedeutet ein durch Training generiertes neuronales Netz nur "wir hatten keinen Bock, jemanden von Hand darauf optimieren zu lassen". In einigen Bereichen, in denen man nach zwei Jahrzehnten händischer Optimierung nicht wirklich am Ziel war, bringt das auch qualitative Fortschritte. Wichtig aber: "darauf", "in einige Bereichen" und vor allem "optimieren". Ein neuronales Netz kann nur dann einen Vorteil bringen, wenn es man auf Bilder bestimmten Inhalts und eben nicht allgemein trainiert.

DLSS ergänzt Bildinhalte, weil es ein gewisses Verständniss mitbringt, wie eine Szene im jeweiligen Spiel aussehen sollte. Bilderkennungsysteme identifizieren Fotoinhalte besser, weil sie wissen, welche Pixelkombinationen in der realen Welt plausibel sind und welche nicht. Aber beide geraten in Straucheln, wenn sie auf Ausnahmen von denen ihnen bekannten Regeln stoßen: Toll war das DLSS-1.0-Promomaterial mit Batman, wo leuchtende Laternen in der Stadtansicht an Stellen ergänzt wurden, wo es ausdrücklich dunkel sein sollte, weniger amüsant sind die Kameras sogenannter Auto-"Autopiloten", die auf kleine, relativ abstrackte Veränderungen an einem Tempolimitschild mit Tempo 90 innerorts reagieren. Da Spiele nahezu beliebige Inhalte haben können (vergleiche z.B. Elite, Psychonauts, MS FS und Mario Kart), währen solche Artefakte ohne spielspezifisches Training die Regel statt der Ausnahme beziehungsweise es wäre nur ein einfacher (temporaler) Upscaler möglich. Die Engine-seitige Implementierung legt aber nahe, dass bei FSR das Training durch die Spiele- und nicht die Treiberentwickler erfolgt.
 
Hmm. Als Fury Besitzer schaue ich wohl leider in die Röhre, schade. ;-(


Bin dennoch sehr gespannt wie das Ganze dann wirklich ausschaut.
 
@PCGH_Torsten Schön wäre es wenn man damit die unschärfe von TAA abmildern/beseitigen könnte. Das wäremir auch deutlich lieber als Drölftracing mit 50 statt 35Fps inFuddelfix Auflösung.
Hmm. Als Fury Besitzer schaue ich wohl leider in die Röhre, schade. ;-(


Bin dennoch sehr gespannt wie das Ganze dann wirklich ausschaut.
Ich denke die Fury wird supportet werden, auch wenn die nicht zwangsläufig mit erwähnt wird.
 
Auf den ersten Blick sieht DLSS schon etwas besser aus. Dennoch gefällt mir der offene Standard und für den ersten Wurf ist die Qualität nun nicht so schlecht.

Krass finde ich allerdings, dass AMD mir als Besitzer einer GTX 1060 die Möglichkeit einräumt ihre Technik zu nutzen :what:
Nvidia war ja mit DLSS nicht so "freigiebig" :schief:
Ja das bedeutet Open Source. Es kostet nichts und es kann jeder nutzen.
 
Unwahrscheinlich. Neben etwaigem Vorwissen aufgrund von Training ist temporale Verrechnung die Hauptinformationsquelle zumindest von DLSS (und somit noch eher von VSR), entsprechend leicht kommt es zu temporalen Artefakten. Man kann dem zwar entgegenwirken, aber das könnte man auch bei TAA... .
 
So richtig gut gefällt mir DLSS auch nur im Quality Modus und da reicht mir auch der gemäßigte fps Zuwachs. Mit Super Resolution wird das nicht anders sein. Keine Wunder erwarten, lieber dem Spiel den Schliff von 45 auf 60fps geben und gut ist.

Über die Konsolen und DirectX muss sich AMD nicht die Sorgen machen wie Nvidia. DLSS und RTX brauchen Marketing um sich zu etablieren. Das was AMD für Sony und MS macht ist schon längst Standard, wir wissen es nur noch nicht.
Ich sehe das mit dem Marketing anders. So gut wie jedes Spiel der "breiten Masse" hat DLSS oder bekommt es in Zukunft, genau wie Raytracing Features. Die Aussage mochte 2018 und 2019 noch zutreffen. Aber mittlerweile ist DLSS als Plugin in der UE4 und kann von jedem genutzt werden, Unity hat (meine ich gelesen zu haben) dasselbe vor. Wie viel Prozent der Indytitel nutzen diese Engines?
Ansonsten brauch man sich nur anschauen, was momentan rauskommt. Jedes Battlefield, Tomb Raider, Minecraft, Call of Duty, RDR2, Metro, Cyberpunkt, Watchdogs, Death Stranding und und und, von den kleineren Titeln mal ganz zu schweigen - es ist längt angekommen und fester Bestandteil. Und das blödeste was AMD passieren kann, was fast so aussieht momentan, ist dass die Spiele mit DLSS auf Turing besser laufen/aussehen (in Relation) als auf deren neuem Lineup mit FSR.
 
"AI" ist auch nur ein Buzzword, über das man [...]
Zweifellos, weil viele nicht verstehen worum es hierbei geht und der Industrie ist vermutlich auch gar nicht daran gelegen den Mythos um KI (bzw. in diesem Kontext genauer gesagt, ML oder noch konkreter vielfach DL) herum aufzuheben, weil sich alles KI-erweiterte heute als die Killerapplikation schlechthin zu verkaufen scheint, die angeblich jedwedes Problem lösen kann.
Zum Thema Hype, Missverständnissen, etc. erklärte Prof. Peter Liggesmeyer mal: "Wenn [diese DL-] KI-Systeme als 'neuronale statistische Datenanalysen' bezeichnet würden, was der Realität wesentlich näher käme, dann würde sich wahrscheinlich keiner Gedanken darüber machen [und man würde sich der aktuellen Technik mit einer realistischeren Erwartungshaltung nähern]."

Ergänzend zum Trainig: Das vermeintliche Patent gibt nichts über den Ort des Trainings her ... fiel hierzu eine Aussage in der Präsentation?
Darüber hinaus, wenn dieses nun wieder auf die Entwickler verlagert wird, wäre das genau das, was man ursprünglich DLSS als einen der Hauptkritikpunkte anlastete ... neben der technischen Implementation das zusätzlich aufwendige Traning pro Spiel, ggf. gar pro einzelnem Level, was den Entwickelraufwand natürlich beträchtlich erhöht.
Darüber hinaus, steht es aber auch DLSS-Anwendern frei das von nVidia frei Haus gelieferte NN weiter zu trainieren und an einen konkreten Titel anzupassen um noch etwas bessere Resultate zu erzielen, nur scheint das so gut wie keiner zu machen, weil der Arbeitsaufwand anscheinend in keinem Verhältnis zu dem steht, was deren NN (und Algorithmus) schon out-of-the-box zu liefern vermag.
Es wird auf jeden Fall interessant sein, das alles zu vergleichen und wie ich schon zuvor anmerkte, da kann man dann auch gleiche UE5's Temporal Super Resolution und Intel's XeSS mit hinzunehmen ... "Spieglein, Spieglein an der Wand, wer hat das schönste Upsampling im ganzen Land" :-D
 
[... AMD, als dann doch recht kleines Unternehmen ...]
Wot?!?
Noch nie in einen BIlanzbericht geschaut? Die sind kleiner als nVidia und erwirtschaften auch deutlich weniger (schlicht weil sie deutlich weniger ab/umsetzen) und gegen einen Riesen wie Intel braucht man diesbezüglich keinen Vergleich zu versuchen.
Hier sollte man nicht seine Präferenzen mit wirtschaftlichen Gegebenheiten verwechseln ;-) Wenn der Ryzen unterm Schreibtisch ordentlich seine Arbeit verrichtet ist doch alles gut, nur deshalb ändert sich nichts an den wirtschaftlichen Eckdaten zu AMD (oder aber an denen der Konkurrenten).
 
Zweifellos, weil viele nicht verstehen worum es hierbei geht und der Industrie ist vermutlich auch gar nicht daran gelegen den Mythos um KI (bzw. in diesem Kontext genauer gesagt, ML oder noch konkreter vielfach DL) herum aufzuheben, weil sich alles KI-erweiterte heute als die Killerapplikation schlechthin zu verkaufen scheint, die angeblich jedwedes Problem lösen kann.
Zum Thema Hype, Missverständnissen, etc. erklärte Prof. Peter Liggesmeyer mal: "Wenn [diese DL-] KI-Systeme als 'neuronale statistische Datenanalysen' bezeichnet würden, was der Realität wesentlich näher käme, dann würde sich wahrscheinlich keiner Gedanken darüber machen [und man würde sich der aktuellen Technik mit einer realistischeren Erwartungshaltung nähern]."

Ergänzend zum Trainig: Das vermeintliche Patent gibt nichts über den Ort des Trainings her ... fiel hierzu eine Aussage in der Präsentation?
Darüber hinaus, wenn dieses nun wieder auf die Entwickler verlagert wird, wäre das genau das, was man ursprünglich DLSS als einen der Hauptkritikpunkte anlastete ... neben der technischen Implementation das zusätzlich aufwendige Traning pro Spiel, ggf. gar pro einzelnem Level, was den Entwickelraufwand natürlich beträchtlich erhöht.
Darüber hinaus, steht es aber auch DLSS-Anwendern frei das von nVidia frei Haus gelieferte NN weiter zu trainieren und an einen konkreten Titel anzupassen um noch etwas bessere Resultate zu erzielen, nur scheint das so gut wie keiner zu machen, weil der Arbeitsaufwand anscheinend in keinem Verhältnis zu dem steht, was deren NN (und Algorithmus) schon out-of-the-box zu liefern vermag.
Es wird auf jeden Fall interessant sein, das alles zu vergleichen und wie ich schon zuvor anmerkte, da kann man dann auch gleiche UE5's Temporal Super Resolution und Intel's XeSS mit hinzunehmen ... "Spieglein, Spieglein an der Wand, wer hat das schönste Upsampling im ganzen Land" :-D

Mit einem entsprechenden SDK wäre das Training eigentlich etwas, was die Entwickler wortwörtlich "im Schlaf" machen können: Abends die ohnehin für Rendering und Probespielen mit GPUs ausgestatteten Workstations auf "Training" schalten und bis zum nächsten Morgen hat sich das neuronale Netz mit ein paar Milliarden zusätzlicher LD-HD-Bildpaare selbst gefüttert. Nichts von Hand machen zu müssen ist doch gerade das schöne an ML und ein entsprechendes Framework, dass man in die Engine integriert, stellt jetzt ja AMD bereit. Im Prinzip wäre damit sogar eine Bildverbesserung gegenüber dem herkömmlichen Spiel bei Rendering in nativer Auflösung möglich, denn so ein Vorabtraining beim Entwickler könnte eine speziell kompilierte Version mit den maximal aufgelösten Polygonmodellen nutzen, die aufgrund miserabler Performance und großem Speicherbedarf nie für menschliche Spieler ausgeliefert werden würde.

Das Problem bei DLSS 1.0 war dagegen, dass eben nicht die Entwickler, sondern Nvidias Treiberabteilung so etwas machen musste. Und während sich jeder Entwickler für sein Spiel interessiert und qualifiziert ist, da zusätzliche Routinen einzubauen oder bereits in frühen Stadien eine lauffähige Version ins Training zu schicken, hatte Nvidia wenig Muße, DLSS für mehr als ein 1-2 Dutzend fertige Titel überhaupt anzufassen.
 
Das Problem bei DLSS 1.0 war dagegen, dass eben nicht die Entwickler, sondern Nvidias Treiberabteilung so etwas machen musste. Und während sich jeder Entwickler für sein Spiel interessiert und qualifiziert ist, da zusätzliche Routinen einzubauen oder bereits in frühen Stadien eine lauffähige Version ins Training zu schicken, hatte Nvidia wenig Muße, DLSS für mehr als ein 1-2 Dutzend fertige Titel überhaupt anzufassen.
Ich denke der einzig richtige Ansatz wäre ein dezentralisiertes KI Learning, also so etwas wie Folding@Home und Konsorten. Vorteil der Entwicklung wäre dabei, dass man eben nicht aufwendig alle Workstations für viel Geld laufen lassen müsste. Vorteil wäre auch, dass eine riesige und geballte Userschaft bei Triple AAA Titeln binnen kürzester Zeit eine große Datenbasis legen würde. Ich denke, dass dies der Ansatz der Zukunft sein wird, denn es macht keinen Sinn (so verstehe ich DLSS 2.0), dass jeder User immer alles berechnen muss und es macht eigentlich auch keinen Sinn das Ganze zentral zu berechnen, da die Kosten dort wahrscheinlich recht schnell ins Unermeßliche steigen. Wenn aber bei einem Titel wie Battlefield 7 Mio Nutzer eine Datenbasis legen, dann wird man ganz schnell ins Gefilde kommen, die das Bild wirklich gut hochskalieren und eben die nötigen Infos haben.
 
Zurück