Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Nvidias KI-gestützte Bildglättung hatte im Jahr 2018 einen schweren Start, weder die optischen Ergebnisse noch die Performance wussten vollends zu überzeugen. Rund eineinhalb Jahre später soll alles besser werden: Nvidia präsentiert stolz DLSS 2.0, eine wesentlich flexiblere, hübschere und teilweise sogar performantere Weiterentwicklung von DLSS. PCGH fasst zusammen, auf was sich Besitzer einer Geforce RTX 20 freuen können.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ich bin ja absolut kein Fan vom Ansatz für DLSS.
Klar, kann bei den Spielen, auf die es trainiert wurde, sicher helfen.
Aber sobald man irgendein anderes Spiel nimmt, bringt es einem überhaupt nichts.

Das mag zwar auch bei anderen Features so zu sein, wie z.B. Raytracing, aber dort liegt die Kontrolle, ob ein Feature implementiert wird, beim Entwickler.
Bei DLSS hingegen muss man hoffen, dass NVidia das Spiel für so wichtig einschätzt, dass man dafür Rechenzeit aufwendet.
Gefällt mir gar nicht, dass am Ende der Treiberentwickler entscheidet, wie schön das eigene Spiel aussehen kann.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Mein Bluray-Player konnte das auch schon.
DVD reingeschoben, sieht auch viel besser aus, ist aber beileibe nicht mit der qualitativ hochwertigen Originalaufnahme in Originalauflösung vergleichbar.
Es ist wie es ist: niedrige Auflösung, mit Upkaling per KI-Unterstützung.
Wer auf Qualität steht, fährt immer die native Auflösung vom Bildschirm.
Man nimmt ja auch keinen 144hz Monitor, läßt dann aber aus Performancegründen das Spiel nur mit 30fps berechnen, und ein KI-Chip soll dann wieder die fehlenden Zwischenbilder nachberechnen udn einfügen.
Das ist genau das, was jeder TV-Fernseher macht.
Man drückt auf den Knopf, und schon werden aus extrem ruckelnden 24P-Kinofilmen geschmeidig flüssig laufende Kamerafahrtenansinchten gezaubert.
Man erkennt aber, dass da nachgeholfen wurde.
Manchmal erkennt man sogar schlimme Bildfehler, wenn das in Szenen nicht perfekt umgesetzt werden kann.
Und genau das passiert mit DLSS nämlich auch.
Damit begibt man sich auf Konsolenniveau, wo viel getrickst wird, um mit möglichst wenig Leistung annähernd gutes Bildmaterial hinzukriegen.
Ich will jetzt nicht sagen, das sman es nicht nutzen darf, aber ich möchte nur davor warnen, dem Marketinggeschwätz glauben zu schenken, udn sich für viel Geld eine leistungsschwache RTX Karte zu kaufen, die dann die Erwartungen nicht erfüllen kann udn wird.
Das ist nur eine Kompromisslösung für die, die auf Qualität verzichten können.
Aber mal ehrlich, da verzichte ich lieber auf einige Raytracing-Spielerein und lasse dafür die Grafikdetails zumindest auf Hoch.
Ich habe mir das AMD Video angeschaut, wo die ganze Welt nur aus Chromoberflächen zu bestehen scheint.
Wäre das mit 80% weniger Spiegelfläche udn das nur als Fake gewesen, ich hätet es nicht mal im Spiel bemerkt und wahrgenommen, weil man da eigentlich nicht drauf achtet.
Und selbst in den ganzen Slidervergleichsbildern udn Videos sehe ich oft nur mit Text, was was sein soll, wenn es um Beleuchtugn und Schattierung geht.
Es hat manchmal kaum mehr Einfluss als dieses HBAO+ Gedöns.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

2D-Image-Resampling ist wesentlich simpler als 3D-Echtzeitgrafik. Was DLSS 2.0 in Wolfenstein Youngblood zaubert, ist durchaus beeindruckend. Umso gespannter bin ich, was in Mechwarrior 5 und Control noch zu holen ist - Letzteres hat bereits ein gutes DLSS.

MfG
Raff
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Umso gespannter bin ich, was in Mechwarrior 5 und Control noch zu holen ist - Letzteres hat bereits ein gutes DLSS.

Deswegen hätte ich mich eher über eine Integration in Metro gefreut, denn dort ist DLSS immer noch meh...

Mein Bluray-Player konnte das auch schon.

Guter Witz, ich musste herzhaft lachen.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Mein Bluray-Player konnte das auch schon.
Das ist genau das, was jeder TV-Fernseher macht..

Ääähhh nein, einfach nein.

Das Upscaling und hinzufügen von berechneten Zwischenframes in Videos mit DeepLearning in 3D-Spielen zu vergleichen ist etwa so wie zu sagen mein Bobbycar konnte auch schon im Kreis fahren, der 911Turbo ist gar nicht besser.

Klar muss man bei solchen Methoden immer darauf achten wo sie funktionieren, wo nicht und zu welchem Preis man sich wo was erkauft, keine Frage - aber DLSS mit Videoupscaling zu vergtleichen ist so weit von der Realität weg wies nur sein könnte.


Ohne jetzt ein DLSS-Fan zu sein möchte ich mal am Rande anmerken, dass ein DLSS-Bild in Einzelfällen tatsächlich BESSER aussehen kann als ein natives 4K-Bild (wenn Informationen aus den 16K-Bildern wiederhergestellt werden die im nativen 4K gar nicht vorkommen). Es ist nicht immer so, dass man hier mehr fps mit schlechterer Qualität erkauft.

Persönlich muss ich schon genau hinsehen um Unterschiede zu erkennen (Shadow of TR kann DLSS) - im Spielgeschehen sehe ich den Unterschied definitiv nicht. Wenns also den Unterschied macht ob ich nativ 50fps habe aber mit DLSS die 60 halte würde ichs rein spielerisch gesehen nutzen.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Zitat von Deathmachine
Klar, kann bei den Spielen, auf die es trainiert wurde, sicher helfen.
Aber sobald man irgendein anderes Spiel nimmt, bringt es einem überhaupt nichts.
----
gaussmath:
DLSS 2.0 greift doch gerade hier an und macht es besser.

Als Ergänzung: nVidia's neuer Ansatz verwendet ein universell trainiertes Netz. Das spezifische Training für ein Spiel entfällt. Entsprechend leichter kann nVidia zukünftig auch Updates ausrollen. Ungeachtet dessen müssen Entwickler den neuen, zur alten Version inkompatiblen Modus jedoch explizit implementieren.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ungeachtet dessen müssen Entwickler den neuen, zur alten Version inkompatiblen Modus jedoch explizit implementieren.
Inwiefern ist das so? Vom Prinzip hat sich ja nichts geändert. Die Funktionen heißen jetzt anders?!
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

@gaussmath
DLSS2.0 greift wie Raff auch schon geschrieben hat, mittlerweile auf einen haufen Framebuffer zu und nutzt zusätzlich z.B. aliasing bzw. sogar Fehlerartefakte dazu, um das Usprungsbild zu rekonstruieren.
Im Gegensatz zu DLSS1.0 steht fast kein Stein mehr auf dem anderen.
Dementsprechend ist das System schon ziemlich "verwoben" mit der Renderpipeline. Es wäre z.B. ein zu hoher Aufwand das "alte" DLSS bei Metro Exodus einfach mal so zu ersetzen.
Wobei natürlich immer gilt- Wo ein Wille ist, ist auch ein Weg. Es würde dem sowieso schon schönen Titel sicher sehr gut tun (Performance/Optik).

Im Unterschied zu DLSS 1.0 muss aber nicht mehr jedes Spiel getrennt trainiert werden. Der Inferencing- Datensatz ist universell und wird bei NVIDIA weiter trainiert bzw. mit Daten gefüttert.
Jedes Spiel, welches DLSS2.0 integriert, wird also zukünftig von weiterem Training automatisch mit jeder neuen Treiberstufe profitieren.
Es ist also alles nicht ganz das gleiche...

Vom Prinzip her, dass es explizit in die Engine implementiert werden muss, bleibt es beim Alten. Da liegst Du völlig richtig.

LG
Zero
 
Zuletzt bearbeitet:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

@ZeroZerp
Verstehe ich gerade nicht so richtig. Ich dachte, es wäre am Ende der Renderpipeline nachgelagert, also Post Processing. Wie kann das verwoben sein?
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ganz vom Tisch ist DLSS 2.0 für Retro Exitus nicht: https://www.pcgameshardware.de/Metr...SS-Version-kommt-erst-in-der-Zukunft-1344466/ :-)

Im Unterschied zu DLSS 1.0 muss aber nicht mehr jedes Spiel getrennt trainiert werden. Der Inferencing- Datensatz ist universell und wird bei NVIDIA weiter trainiert bzw. mit Daten gefüttert.
Jedes Spiel, welches DLSS2.0 integriert, wird also zukünftig von weiterem Training automatisch mit jeder neuen Treiberstufe profitieren.
Es ist also alles nicht ganz das gleiche..

Das ist meiner Meinung nach übrigens die wahre Win-win-Sache. Warum nicht gleich so?

MfG
Raff
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

@ZeroZerp
Verstehe ich gerade nicht so richtig. Ich dachte, es wäre am Ende der Renderpipeline nachgelagert, also Post Processing. Wie kann das verwoben sein?
Das war mal... Die Qualität und die Geschwindigkeit sind aus gutem Grund noch einmal eklatant gestiegen- Es werden viel mehr Daten rangezogen und frühzeitig/asymmetrisch durch die Tensor Kerne abgefrühstückt.
Was mich interessiert ist, ob sie, da die temporale Komponente dadurch deutlich entschärft werden konnte, das "Schneien" bei Control in den Griff bekommen haben. Das wäre schon erstaunlich und nochmal wirklich ein erheblicher Schritt nach vorne.

Das Video hier deutet das ab 0:13 stark an:
YouTube

LG
Zero
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Ääähhh nein, einfach nein.

Das Upscaling und hinzufügen von berechneten Zwischenframes in Videos mit DeepLearning in 3D-Spielen zu vergleichen ist etwa so wie zu sagen mein Bobbycar konnte auch schon im Kreis fahren, der 911Turbo ist gar nicht besser.

Klar muss man bei solchen Methoden immer darauf achten wo sie funktionieren, wo nicht und zu welchem Preis man sich wo was erkauft, keine Frage - aber DLSS mit Videoupscaling zu vergtleichen ist so weit von der Realität weg wies nur sein könnte.


Ohne jetzt ein DLSS-Fan zu sein möchte ich mal am Rande anmerken, dass ein DLSS-Bild in Einzelfällen tatsächlich BESSER aussehen kann als ein natives 4K-Bild (wenn Informationen aus den 16K-Bildern wiederhergestellt werden die im nativen 4K gar nicht vorkommen). Es ist nicht immer so, dass man hier mehr fps mit schlechterer Qualität erkauft.

Persönlich muss ich schon genau hinsehen um Unterschiede zu erkennen (Shadow of TR kann DLSS) - im Spielgeschehen sehe ich den Unterschied definitiv nicht. Wenns also den Unterschied macht ob ich nativ 50fps habe aber mit DLSS die 60 halte würde ichs rein spielerisch gesehen nutzen.

Auch die Bildscaler der Fernsehhersteller werden durch den Vergleich zwischen Vorlage und hochgerechnetem Bild vergessen. Wenn Nvidia künftig die spielspezifische Optimierung aufgibt, bleibt nur noch ein (dramatischer) Unterschied in der Umsetzungsqualität und stellenweise der Zugriff auf Pipeline-interne Informationen vor der Rasterisierung (also tatsächlich eine Art SS-Quote), aber der Grundgedanke ist 1:1 der Gleiche.

Weiß eigentlich jemand, was aus den ursprünglichen Plänen mit DLSS zur Bildverbesserung geworden ist? Niedrige Auflösungen halbwegs brauchbar hochzuskalieren wird immer einen Beigeschmack haben, aber alle bisherigen AA verfahren unterhalb von 4× SSAA kämpfen mit diversen Problemen und hier wäre DLSS das optimale Werkzeug, um die Untersampling-Artefakte aus nativ gerenderten Bildern zu entfernen. Ich glaube, sowas wurde auch einmal für "später" angekündigt.
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Das war mal... Die Qualität und die Geschwindigkeit sind aus gutem Grund noch einmal eklatant gestiegen- Es werden viel mehr Daten rangezogen und frühzeitig/asymmetrisch durch die Tensor Kerne abgefrühstückt.
Was mich interessiert ist, ob sie, da die temporale Komponente dadurch deutlich entschärft werden konnte, das "Schneien" bei Control in den Griff bekommen haben. Das wäre schon erstaunlich und nochmal wirklich ein erheblicher Schritt nach vorne.

Das Video hier deutet das ab 0:13 stark an:
YouTube

LG
Zero

Yep, Nvidia betonte bei der Präsenation genau diese neue temporale Stabilität.

Weiß eigentlich jemand, was aus den ursprünglichen Plänen mit DLSS zur Bildverbesserung geworden ist? Niedrige Auflösungen halbwegs brauchbar hochzuskalieren wird immer einen Beigeschmack haben, aber alle bisherigen AA verfahren unterhalb von 4× SSAA kämpfen mit diversen Problemen und hier wäre DLSS das optimale Werkzeug, um die Untersampling-Artefakte aus nativ gerenderten Bildern zu entfernen. Ich glaube, sowas wurde auch einmal für "später" angekündigt.

Wie im Artikel am Rande erwähnt, schweigt Nvidia bezüglich DLSS 2x. Ich tippe nach wie vor schwer darauf, dass das ein "Ampere"-Feature (oder wie auch immer die Gaming-Architektur heißen wird) sein wird.

MfG
Raff
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Mein Bluray-Player konnte das auch schon.
DVD reingeschoben, sieht auch viel besser aus, ist aber beileibe nicht mit der qualitativ hochwertigen Originalaufnahme in Originalauflösung vergleichbar.
Es ist wie es ist: niedrige Auflösung, mit Upkaling per KI-Unterstützung.
Wer auf Qualität steht, fährt immer die native Auflösung vom Bildschirm.
Man nimmt ja auch keinen 144hz Monitor, läßt dann aber aus Performancegründen das Spiel nur mit 30fps berechnen, und ein KI-Chip soll dann wieder die fehlenden Zwischenbilder nachberechnen udn einfügen.
Das ist genau das, was jeder TV-Fernseher macht.
Man drückt auf den Knopf, und schon werden aus extrem ruckelnden 24P-Kinofilmen geschmeidig flüssig laufende Kamerafahrtenansinchten gezaubert.
Man erkennt aber, dass da nachgeholfen wurde.
Manchmal erkennt man sogar schlimme Bildfehler, wenn das in Szenen nicht perfekt umgesetzt werden kann.
Und genau das passiert mit DLSS nämlich auch.
Damit begibt man sich auf Konsolenniveau, wo viel getrickst wird, um mit möglichst wenig Leistung annähernd gutes Bildmaterial hinzukriegen.
Ich will jetzt nicht sagen, das sman es nicht nutzen darf, aber ich möchte nur davor warnen, dem Marketinggeschwätz glauben zu schenken, udn sich für viel Geld eine leistungsschwache RTX Karte zu kaufen, die dann die Erwartungen nicht erfüllen kann udn wird.
Das ist nur eine Kompromisslösung für die, die auf Qualität verzichten können.
Aber mal ehrlich, da verzichte ich lieber auf einige Raytracing-Spielerein und lasse dafür die Grafikdetails zumindest auf Hoch.
Ich habe mir das AMD Video angeschaut, wo die ganze Welt nur aus Chromoberflächen zu bestehen scheint.
Wäre das mit 80% weniger Spiegelfläche udn das nur als Fake gewesen, ich hätet es nicht mal im Spiel bemerkt und wahrgenommen, weil man da eigentlich nicht drauf achtet.
Und selbst in den ganzen Slidervergleichsbildern udn Videos sehe ich oft nur mit Text, was was sein soll, wenn es um Beleuchtugn und Schattierung geht.
Es hat manchmal kaum mehr Einfluss als dieses HBAO+ Gedöns.
Schon andere User haben ja Schwächen von diesem Posting aufgezeigt, aber was mich besonders stört ist dieser Satz:
Wer auf Qualität steht, fährt immer die native Auflösung vom Bildschirm.
Oberhalb der nativen Auflösung zu arbeiten ist doch für die Output-Qualität nochmals besser. Diese Regel von dir ergibt entsprechend gar keinen Sinn.

Der Erstzustand von DLSS wirkte auf mich sehr enttäuschend, so langsam scheint es was zu werden. Ich würde es mir gerne angucken, aber leider ist der DLSS-Patch für BrightMemory noch nicht auf GOG gelandet. Alle anderen DLSS-Spiele gibt es mWn nur mit DRM.
Und, wie hier im Artikel ja auch angemerkt, fehlt von DLSS 2x nach wie vor jegliche Spur. Das halte ich für sehr schade.
 
Zuletzt bearbeitet:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Kurzzeitig dachte ich bereits das bereits der 1. April ist...ich glaub denen KEIN Wort!!! Erst wenn ich am heimischen Rechner, massive Vorteile in Bezug zur Bildanzahl und/oder Optik sehe, woran ich stark zweifle, werde ich meine Meinung überdenken.

Es geht schlichtweg physikalisch nicht, da können die mir sonstwas vom Pferd erzählen!
 
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

(...) Ich glaube, sowas wurde auch einmal für "später" angekündigt.
Wie im Artikel am Rande erwähnt, schweigt Nvidia bezüglich DLSS 2x. Ich tippe nach wie vor schwer darauf, dass das ein "Ampere"-Feature (oder wie auch immer die Gaming-Architektur heißen wird) sein wird.

MfG
Raff
Sollte sich diese Prognose bewahrheiten, dass es exklusiv für Ampere kommt, dann würde mir zum Ausgleich das Wort Verarsche in den Sinn kommen... :D
Denn damals haben sie gesagt:
In addition to the DLSS capability described above, which is the standard DLSS mode, we provide a second mode, called DLSS 2X.
Oder übersehe ich da eine von ihnen offen gelassene Lücke? :ka:
Quelle: NVIDIA Turing Architecture In-Depth | NVIDIA Developer Blog
 
Zuletzt bearbeitet:
AW: Wunderwaffe DLSS 2.0: Nvidia will mit überarbeitetem Algorithmus alles besser machen

Es geht schlichtweg physikalisch nicht, da können die mir sonstwas vom Pferd erzählen!
Hast Du das letzte Jahr geschlafen? Kannst die Technik schon nutzen: Deliver us the moon+Wolfenstein Youngblood.
Funktioniert einwandfrei-> Gleichwertiges Bild (mal minimal schlechter, auch mal besser), aber erheblich höhere FPS.

LG
Zero
 
Zurück