AMD Radeon RX 6000: Mit Super Resolution gegen Nvidia DLSS

Wenn man mit seinen Entscheidungen Kunden vergrault, dann hat man langfristig die falsche Strategie und schadet sich einfach selbst. Also schlicht Missmanagement. Aber das ist ein ganz anderer Aspekt.
Genau das mein ich damit. Klar "darf" Nvidia im Rahmen der Gesetze machen was sie wollen.
Man muss aber nicht alles gut finden. In meinem Fall ist das die Speicherbestückung und auch, langfristig gesehen, der damit verbundene Elektroschrott.
 
Genau das mein ich damit. Klar "darf" Nvidia im Rahmen der Gesetze machen was sie wollen.
Man muss aber nicht alles gut finden. In meinem Fall ist das die Speicherbestückung und auch, langfristig gesehen, der damit verbundene Elektroschrott.
Proprietäre Features anzubieten vergrault keine Kunden. Bestimmt nicht.

Es verärgert nur Kunden anderer Hersteller die diese Features nicht haben aber gerne hätten.
 
Wird wie bei G-Sync vs. Freesync werden, am Ende wird auch NVIDIA Superresolution unterstützen, da es einfach eine viel größere Verbreitung finden wird.....

mfg Ratha
 
RTX 3080 Nivea Edition anyone? :lol:

DLSS war doch eigentlich "nur" ne Erfindung seitens Nvidia, um eine gewisse RT performance halbwegs zu erreichen.
Verstehe gar nicht warum AMD da irgendetwas vergleichbares anbieten muss, sofern die "normale" performance reicht, um z.B. 4k mit 60FPS zu befeuern :ka:
RT ist immer noch eine Randerscheinung, bzw. sogar nur eine Randnotiz in manchen Spielen, als Pfütze oder ähnlichem. Ist natürlich total wichtig dort eine realistische Spiegelung zu bestaunen, während einem der Gegner einfach mal dutzende Kugeln um die Ohren jagt :ugly:
 
DLSS ist ja nur ein weiterer Upscaling-Mechanismus.
Das ist ja per se nichts Neues.

Aber DLSS ist eben ein Marketingname. Das besondere soll sein: Es wird also ein Deep-Learning-Algorithmus eingesetzt.
Zur Erinnerung, am Ende von Deep-Learning hat man eine parametrisierten Algorithmus.
Und es gibt dann eben für jedes Spiel einen eigenen Parametersatz.
Bislang fand ich die Kommentare zur Bildqualität nicht so euphorisch.
So oder so, auch DLSS kann aus 4k keine 8k machen, in dem Sinne, dass Details dazukommen.
Auch wenn das einige glauben.

Der Informationsgehalt ist derselbe wie bei 4k.

Das ist faktisch falsch.
 
Sowas wird erst interessant, wenn es flächendeckend, Spiel-unabhängig funktioniert und nicht pro-Spiel implementiert werden muss.
Deshalb ist DLSS auch praktisch nahezu irrelevant, viel mehr noch als Raytracing.
 
Das ist faktisch falsch.
Dann kannst Du das ja auch bestimmt mit Fakten begründen?

Es gibt ja dieses Marketing-Video von nVidia mit Death-Stranding:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Demnach läuft Death-Stranding in 4k bei 30 FPS. Dann schaltet man DLSS 2.0 ein und dann greift die DLSS-2.0-Magie und man hat auf einmal 60 FPS und bessere Texturen.
Verrückt.

Was passiert bei dieser "Magie" wirklich?
Mit DLSS 2.0 ON wird das Spiel dann nämlich intern mit einer niedrigeren Auflösung als 4k berechnet (FullHD, WQHD, wahrscheinlich WQHD) und auf 4k hochskaliert und man bekommt dann also doppelt soviel FPS.

Das ist nun wirklich nichts besonderes. Auch nicht, dass man einen ML-Algorithmus benutzt.
Ist halt auch nur ein Algorithmus. Aber wenn die Buzz-Words AI oder ML fallen, werden alle ganz heiß.

Alternativ könnte ja auch die Auflösung auf WQHD ändern und den es den Monitor skalieren lassen.
Das sieht aber nicht so gut aus.
Nichts anderes passiert in meinem Heimkino, wenn ich eine BR von meinem UHD-Player skalieren lasse statt vom TV, weil der Algorithmus vom UHD-Player es besser macht.

Nun wird hier impliziert, dass die Texturen genauso gut seien. Das ist natürlich
informationstheoretisch UNMÖGLICH!
Aber es geht hier ja nur um den subjektiven Bildeindruck.
Und durch einen Katenschärfer soll es nun aber so wirken, dass das Bild sogar besser aussieht als in nativ 4k.

DLSS 2.0 for Dummies:
Rechnen in niedriger Auflösung -> Mehr Frames -> Hockskalieren mit ML-Algorithmus -> Schärfen

Wenn Du aber noch detaillierte Informationen hast wäre es nun an der Zeit diese mitzuteilen.

Die Aussage "Faktisch falsch" ist in sich selbst völlig leer.
 
Zuletzt bearbeitet:
DLSS 2.0 ist das gleiche KI-Modell für alle Spiele.
Das stimmt nicht. Der grundlegende ML-Algorithmus ist der gleiche, muss aber für jedes Spiel, das unterstützt werden soll, mit Nvidias Supercomputer neu trainiert werden. Deswegen gibt's DLSS 2.0 schließlich auch nur für ein paar Spiele. Ich hoffe aber, dass irgendwann eine allgemeine Lösung kommt. Das wäre klasse für die Spieler.

Edit
Whoops, nochmal nachgelesen und das stimmte nicht, Mea Culpa. Die Limitierung auf ein paar Spiele kommt also daher, dass die Spieleentwickler es integrieren müssen.
 
Edit
Whoops, nochmal nachgelesen und das stimmte nicht, Mea Culpa. Die Limitierung auf ein paar Spiele kommt also daher, dass die Spieleentwickler es integrieren müssen.

Das ist auch genau das, warum ich nicht verstehe, das die Gaming Branche sich nicht zusammenschließt und Nvidia und AMD (Microsoft und Sony) die Pistole auf Brust setzt und sich weigert proprietäre Standards umzusetzen und klar offene Standards fordert.

Wer soll es bitte in Zukunft leisten, 2 verschiedene RT Systeme und 2 verschiedene Upscaling zu implementieren, die Kosten explodieren doch einfach, weil man dazu Mann/Frau Stunden benötigt. Als Spieleentwickler würde ich durchdrehen. M.M. nach sind proprietäre Standards keine Lösung bei Gaming, das hat schon G-Sync und Freesync gezeigt und hier bei der Technik kann AMD alleine wegen den Konsolen auf alle Fälle mit der MArktmacht von Nvidia locker mithalten.
 
Nichts anderes passiert in meinem Heimkino, wenn ich eine BR von meinem UHD-Player skalieren lasse statt vom TV, weil der Algorithmus vom UHD-Player es besser macht.
Einen konventionellen Algorithmus einens Blu-Ray-Players mit dem einem neuronalen Netzwerk des Weltmarktführers in der KI-Technik zu vergleichen ist lächerlich.

Nun wird hier impliziert, dass die Texturen genauso gut seien. Das ist natürlich
informationstheoretisch UNMÖGLICH!
Wie erklärst du dir dann, dass es KIs gibt, die Gesichter erzeugen können, komplett ohne input?
 
Haben sich nicht MS und AMD grad zusammen geschlossen was die neue XBox angeht? :what:
So nach dem Motto F*** Nvidia und "suck fony"? (wer die anspielung versteht, bekommt 1000 likes von mir!! :lol:)
 
Nichts anderes passiert in meinem Heimkino, wenn ich eine BR von meinem UHD-Player skalieren lasse statt vom TV, weil der Algorithmus vom UHD-Player es besser macht.

Das ist ja auch ein statischer Algorithmus, dem keine sich permanent weiterentwickelnde und auf extrem hochauflösende Bilder trainiere KI zugrunde liegt.
Der Unterschied ist, das DLSS bei höherer Performance besser aussehen kann als die höhere native Auflösung.
(Was deshalb möglich ist, da auch die höhere native Auflösung letztlich nur eine mathematische Annäherung an ein Idealbild ist, errechnet von den Recheneinheiten der Grafikkarte, und nicht das Idealbild. Man möchte sich aber letzterem annähern, nicht ersterem. Sprich ein KI-hochberechnetes Bild sieht der nativen Auflösungnatürlich nicht ähnlicher als diese selbst, bei guter Implementierung aber vielkeicht dem eigentlich angestrebten Idealbild. Das übersehen viele Leute.)

Dieses Ergebnis (Performance- UND Qualitätsgewinn) ist meines Wissens neu bei DLSS.


Haben sich nicht MS und AMD grad zusammen geschlossen was die neue XBox angeht? :what:
So nach dem Motto F*** Nvidia und "suck fony"? (wer die anspielung versteht, bekommt 1000 likes von mir!! :lol:)

Tschoatsch Meikl?
 
Zuletzt bearbeitet:
Einen konventionellen Algorithmus einens Blu-Ray-Players mit dem einem neuronalen Netzwerk des Weltmarktführers in der KI-Technik zu vergleichen ist lächerlich.


Wie erklärst du dir dann, dass es KIs gibt, die Gesichter erzeugen können, komplett ohne input?

Puhhh, da ist ja jemand ganz schön verblendet. Auf dem Schulhof mag ja so eine Art der Beweisführung funktionieren, aber doch nicht hier.

Letzten Endes geht es dabei nur darum eine unbekannte Funktion möglichst gut zu approximieren (meistens auch linear), um dann gute Vorhersagen zu berechnen.

Auch da steckt gar nicht so viel Magie drin, wie Laien immer glauben.
Und ein ML-Prediction muss mind. eine lineare Regression schlagen, sonst ist das unnötiger Aufwand.

Ich empfehle Dir mal einen Kurs beim HPI.
Das ist ja auch ein statischer Algorithmus, dem keine sich permanent weiterentwickelnde und auf extrem hochauflösende Bilder trainiere KI zugrunde liegt.
Der Unterschied ist, das DLSS bei höherer Performance besser aussehen kann als die höhere native Auflösung.
(Was deshalb möglichist, da auch die höhere native Auflösung letztlich nur eine mathematische Annäherung ist, errechnet von den Recheneinheiten der Grafikkarte, und nicht das Idealbild.)
Dies ist neu bei DLSS.


Tschoatsch Meikl

Statischer Algorithmus
Mathematische Annäherung
Recheneinheiten

Wow. Gesprochen wie ein wahres Wunderkind.
 
Zuletzt bearbeitet:
@AncientDoomSlayer: DLSS 2 ist deutlich weiterentwickelt und verwendet Vektorinformationen und auch Pixelinformationen aus etlichen aufeinanderfolgenden Frames für die Aufwertung eines einzelnen Frames *) und kann daher tatsächlich weitestgehend korrekte Details hervorbringen, die in einem einfachen nativen Rendering gar von der Rasterisierung und dem nachgelagerten AA weggebügelt werden. Das ist nicht mit einem simplen Upscaling in der Bildbearbeitungssoftware oder auch im BR-Player vergleichbar.

*) Ein wesentlicher Punkt hierbei ist, dass selbst leichte Perpektivenveränderungen von Frame zu Frame leichte Bildunterschiede hervorbringen und unterschiedliche Detais im jeweiligen Raster (das durch die Renderauflösung bestimmt wird) rendern, über die die Details für das Upscaling extrapoliert werden können.

Beispiele:
A) 540p nativ
b) 540p auf 1080p mit DLSS2
C) 1080p nativ mit AA
D) 1440p

Mit klassischen Verfahren gibt es keinen sinnvollen Weg von A) auf B). Die Vektorinformationen sowie die diversen Frames, die zu diesem Bild führten enthielten jedoch ausreichend Informationen um beträchtliche Details rekonstruieren zu können, sodass man hier selbst mit 540p als Ausgangsmaterial arbeiten kann. (B entstand nicht schlicht aus A, sondern aus den Frames A, A-1, A-2, A-3, usw.)

dlss_demo.png


@xxRathalos: Der GSync/Freesync-Vergleich ist unzutreffend. Du hast faktisch geschrieben, dass BMW seine Produktion aufgeben muss um Mercedes'e zu fertigen. ;-) Wird es jetzt deutlicher? Faktisch versucht AMD nun etwas Eigenständiges zu implementieren, dass dem entspricht, was nVidia schon vor gut zwei Jahren einzuführen begann und innerhalb der letzten 9 Monate beträchtlich weiterentwickelt hat.(AMD hat es nicht umsonst vermieden, einen konkreten Termin an die Ankündigung zu hängen. Einerseits wusste man, dass man etwas Vergleichbares ankündigen muss, weil man andernfalls einen handfesten Nachteil bei hohen Auflösungen hat, aber man ist anscheinend noch nicht so weit sich jetzt schon mit einem Termin aus dem Fenster lehnen zu können und ebenso klar sollte sein, dass man mit einer Lösung, die nur qualitativ zu DLSS1 vergleichbar ist, besser erst gar nicht in Erscheinung treten sollte.)

@FlorianKl: Die Aussage bzgl. des Trainingsbedarfs in Verbindunng mit DLSS2 ist nach wie vor falsch. DLSS2 verwendet ein universelles, spiel- und contentunabhängiges Netzt, dass Entwickler direkt in ihre Titel implementieren und ad hoc nutzen können ohne es trainieren zu müssen. Das ist ja einer der wesentlichen Vorteile von DLSS2. Und da das NN unabhängig ist, kann nVidia dieses unabhängig davon weiterentwickeln und mit bspw. einem neuen Treiber ein Update ausrollen. (Ein Patch wird erst notwendig, wenn sich was am API der jeweiligen Version ändert, so bspw. mit dem kürzlich eingeführten DLSS 2.1, das eine signifikante Funktionserweiterung erfuhr oder mit einem irgendwann kommenden DLSS 3.0.)

nVidia entwickelt dieses Netz natürlich auf seinem Supercomputer weiter und schlussendlich steht es Entwicklern auch weiterhin frei das Netz dennoch individuell anzupassen auf ihren konkreten Content/ihren Titel, jedoch werden das voraussichtlich nur noch wenige machen, weil die Basisqualität bereits so gut ist, dass das den Mehraufwand auf Entwicklerseite kaum noch rechtfertigt.

(Sehe gerade, dir ist der Fehler schon selbst aufgefallen.)

Allgemein ist DLSS eine in jeder Hinsicht zu begrüßende Technik (ebenso gleichermaßen das Äquivalent von AMD, wenn es mal kommt und völlig egal wie sie es nennen werden), denn die Technik hilft die grundsätzlich immer zu knappen Rechenressourcen zumindest zu einem gewissen Grad zu übergehen.
Dass die Technik noch nicht fehlerfrei ist, ist offensichtlich, jedoch liefert sie bereits jetzt für den Großteil des Contents hervorragende Ergebnisse. Man darf gespannt sein, wann man final das Gröbste raushaben wird, wie bspw. die stellenweisen Schlieren der Hochspannungsleitungen in DS, etc. AMD musste hier schlicht reagieren, weil sie ansonsten den Anschluss verpassen würden.
Anschließend noch, ob man diese AI-basierten Algorithmen über die universellen ALUs oder spezielle Einheiten berechnet spielt keine Rolle; letzteres ist natürlich performanter, weshalb hier nVidia mit seinen Tensor Cores auch einen leichten Vorteil hat, aber auch hier zeigte nVidia bereits in seiner Beta-Phase zu DLSS2 eine Implementaiton noch über die regulären CUDA Cores. Über die Tensor Cores wird es halt deutlich schneller, weil jeder zusätzliche Rechnenschritt in der Renderpipeline natürlich einen Impact hat und auf die FPS drückt, d. h. der Impact darf nicht zu hoch sein, damit die Verwendung dieser Technik einen echten Mehrwert bietet (also in Form signifikant höherer FPS).
Vielleicht hat AMD ja seine RDNA2-Architektur auch ein wenig erweitert, nicht mit speziellen HW-Einheiten wie nVidia, aber vielleicht mit einer operativen Unterstützung wie es Intel bspw. in Xe mit DP4A implementiert hat, was hier ML/AI-Algorithmen deutlich zu beschleunigen hilft. Einfach mal abwarten. Da AMD grundsätzlich noch nicht bereit war über ihr Supersampling zu reden, weil sie noch nicht so weit sind, gab es voraussichtlich auch keinen Grund ein derart mögliches Detail hervorzukramen.
 
Sinnvoll wäre ein einheitlicher Standart diese propitären Lösungen werden auf Kurz oder Lang wieder abgestellt. Alle Spieleentwickler die auch für die Konsolen programmieren werden sowieso eher auf AMD programmieren und AMD wird als Background Direct ML benutzen .
 
Puhhh, da ist ja jemand ganz schön verblendet. Auf dem Schulhof mag ja so eine Art der Beweisführung funktionieren, aber doch nicht hier.
Verblendet?

Ich setze mich jeden Tag damit auseinander und habe locker 30 verschiedene Super Resolution models mit ESRGAN/BasicSR (https://github.com/xinntao/BasicSR) trainiert.
Ich weiß wovon ich rede. Und dass GANs nichts mit Blu-Ray-Playern zu tun haben.
 
Zurück