Nvidia DLSS: Dank Elden Ring, Destiny 2: The Witch Queen und Warhammer 3 nun bei 150 Spielen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia DLSS: Dank Elden Ring, Destiny 2: The Witch Queen und Warhammer 3 nun bei 150 Spielen

Wie der Grafikkartenhersteller Nvidia bekannt gegeben hat, gibt es mit Dying Light 2, Destiny 2: The Witch Queen, Warhammer 3 nun 150 PC-Spiele mit DLSS-Support.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia DLSS: Dank Elden Ring, Destiny 2: The Witch Queen und Warhammer 3 nun bei 150 Spielen
 
Ich kann mich mit beidem nicht anfreunden. Weder DLSS noch Raytracing. DLSS ist schlussendlich einfach ein interpoliertes Bild und damit immer schlechter als ein natives. Raytracing frisst nach wie vor zuviel Performance. Da ist mir ein natives Bild mit entsprechend hohen FPS nach wie vor lieber. Habe bei Dying Light 2 beides ausgeschaltet und bei 1440p um die 60 FPS mit einer 3070.
 
Ohhh Warhammer 3 Support klingt super. Mal gespannt das AA hat ja dort nun gewechselt.
 
Zuletzt bearbeitet:
Ich kann mich mit beidem nicht anfreunden. Weder DLSS noch Raytracing. DLSS ist schlussendlich einfach ein interpoliertes Bild und damit immer schlechter als ein natives. Raytracing frisst nach wie vor zuviel Performance. Da ist mir ein natives Bild mit entsprechend hohen FPS nach wie vor lieber. Habe bei Dying Light 2 beides ausgeschaltet und bei 1440p um die 60 FPS mit einer 3070.
Siehst du beim Modus Qualität wirklich einen Unterschied? Ich zumindest nicht.
Wenn es ein Spiel unterstützt schalte ich immer mindestens auf diese Stufe. Wenn die FPS dann über die 120Hz meines Monitors gehen habe ich zumindest Strom gespart :daumen:

DLSS bei Elden Ring finde ich jedenfalls schonmal sehr gut.
Ist man bei Warhammer 3 aber nicht eh eher im CPU-Limit? Die Reihe ist bisher an mir vorbei gegangen...
 
Siehst du beim Modus Qualität wirklich einen Unterschied? Ich zumindest nicht.
Wenn es ein Spiel unterstützt schalte ich immer mindestens auf diese Stufe. Wenn die FPS dann über die 120Hz meines Monitors gehen habe ich zumindest Strom gespart :daumen:

DLSS bei Elden Ring finde ich jedenfalls schonmal sehr gut.
Ist man bei Warhammer 3 aber nicht eh eher im CPU-Limit? Die Reihe ist bisher an mir vorbei gegangen...
Also wenn ich bei Warhammer 3 im CPU Limit hänge dann werde ich mal DLDSR + DLSS ausprobieren und damit das Bild aufhübschen. Bedingung ist nur, dass das UI vernünftig mitskaliert aber das liegt ja an dem wie das Spiel entwickelt ist.

Ich kann mich mit beidem nicht anfreunden. Weder DLSS noch Raytracing. DLSS ist schlussendlich einfach ein interpoliertes Bild und damit immer schlechter als ein natives. Raytracing frisst nach wie vor zuviel Performance. Da ist mir ein natives Bild mit entsprechend hohen FPS nach wie vor lieber. Habe bei Dying Light 2 beides ausgeschaltet und bei 1440p um die 60 FPS mit einer 3070.
Das ist ja das schöne am PC-Gaming. Man kann Optionen einfach ausschalten. Magst kein Motion-Blur oder temporale AA Lösungen? Raus damit und gut ist.

Raytracing wird früher oder später aber vermutlich der Standard werden und dementsprechend auch vorausgesetzt. Bis dahin sollten wir aber alle Grafikkarten haben die das mit Leichtigkeit schaffen.
 
Hab mich schon gefreut, dass Destiny 2 DLSS bekommen wird. Aber woher habt Ihr die Info?
Laut den Changelogs ist das nur ein GameReady Treiber für Withcqueen.
 
Ist schon sehr ironisch, dass DLSS immer wieder genutzt wird, um das Leben der schlampigen Programmierer zu erleichtern. Wie wäre es denn mal mit Optimierung bzgl. der entsprechenden Hardware?
Wozu braucht zum Beispiel ein Alan Wake Remastered oder auch ein Elden Ring DLSS?
Alan Wake ist uralt und auch die Grafik von Elden Ring bricht keine Rekorde!
Alan Wake stemmt locker ein Einsteiger PC und Elden Ring sollte locker auf auf einem Mid-Range PC laufen.
DLSS wurde doch letztlich für Raytracing eingeführt.
 
sicher das hier dlss gemeint ist für elden ring ? das wären große news und in den quellen liest sich das mehr nach treiber support für elden ring aber nicht dlss. teilweise manche der anderen titel dlss ja aber von elden ring sehe ich da eigentlich nix. könnte pcgh das eventuell mal aufklären ? sonst wäre der titel auch harter clickbait so am rande
 
sicher das hier dlss gemeint ist für elden ring ? das wären große news und in den quellen liest sich das mehr nach treiber support für elden ring aber nicht dlss. teilweise manche der anderen titel dlss ja aber von elden ring sehe ich da eigentlich nix. könnte pcgh das eventuell mal aufklären ? sonst wäre der titel auch harter clickbait so am rande
Wahrscheinlich falsch übersetzt, bzw ist der Originaltext auch ein bisschen missverständlich:

This new Game Ready Driver provides the best day-0 gaming experience for Elden Ring, GRID Legends, Total War: Warhammer III, and Martha is Dead featuring NVIDIA DLSS.

DLSS bezieht sich wohl nur auf Martha is Dead.
 
Wahrscheinlich falsch übersetzt, bzw ist der Originaltext auch ein bisschen missverständlich:

This new Game Ready Driver provides the best day-0 gaming experience for Elden Ring, GRID Legends, Total War: Warhammer III, and Martha is Dead featuring NVIDIA DLSS.

DLSS bezieht sich wohl nur auf Martha is Dead.
Hmm also wohl ne Falschinfo, na Bravo.
 
Ist schon sehr ironisch, dass DLSS immer wieder genutzt wird, um das Leben der schlampigen Programmierer zu erleichtern. Wie wäre es denn mal mit Optimierung bzgl. der entsprechenden Hardware?
Wozu braucht zum Beispiel ein Alan Wake Remastered oder auch ein Elden Ring DLSS?
Alan Wake ist uralt und auch die Grafik von Elden Ring bricht keine Rekorde!
Alan Wake stemmt locker ein Einsteiger PC und Elden Ring sollte locker auf auf einem Mid-Range PC laufen.
DLSS wurde doch letztlich für Raytracing eingeführt.
Das viel größere Problem hier ist, dass viele scheinbar keine Ahnung von Entwicklung in modernen 3D Engines haben und wie komplex verschiedene Systeme sind die mit den Anforderungen an modernen Spielen einhergehen. Aber es ist natürlich einfach außenstehend immer auf die "schlampigen" Programmierer zu schimpfen, welche mit DLSS rekonstruktion, Denoising von Raytracing und anderen "Tricks" versuchen die bestmögliche Optik aus dem verfügbaren Leistungsbudget rauszuholen.
 
Wozu braucht zum Beispiel ein Alan Wake Remastered oder auch ein Elden Ring DLSS?
Alan Wake ist uralt und auch die Grafik von Elden Ring bricht keine Rekorde!
DLSS glätet u.a. Kanten, also genau das was TAA, SMAA und FXAA auch tun. Kantenglättungstechniken findest du selbst in uralten Games, also wieso nicht DLSS nutzen, wenn es dabei auch noch die Bildqualität verbessert?
 
Ich bleibe doch lieber bei einer nativen hohen Auflösung, als mir teilweise das Gematsche mit DLSS anzuschauen.
Und ja, DLSS wurde parallel mit RT eingeführt, da die Karten RT nicht spielbar hinbekommen.
 
DLSS ist schlussendlich einfach ein interpoliertes Bild und damit immer schlechter als ein natives.
Eine solche Regel gibt es nicht. Bei Interpolation auf Basis von mehr Daten (die sowohl ein TAAU mit genügend Resscale als auch ein DLSS 2.X mit genügend hohem Faktor durchaus hat) ist es möglich, ein natives Bild zu übertreffen.

Es ist sogar denkbar, auch ohne mehr Daten eine Interpolation zu entwerfen, die das native Signal übertrifft. Das wiederum war das Konzept vom ursprünglichen DLSS...
...auch wenn das, wie allgemein bekannt, nicht aufgegangen ist.
 
Zuletzt bearbeitet:
man solte sich mal genau anschauen wie dlss funktioniert. in vielen fällen ist dlss besser als das native bild sogar. es hat mit manchen darstellungen probleme aber diese werden auch immer geringer mit jeder neuen dlss version. eventuell mal zb die digital foundry video zu dlss schauen. dort wird im detail genau gezeigt wo und wo nicht dlss das bild verbessert. tldr ich nutze dlss quality mode @1440p in jedem spiel das es hat. und nicht wegen der performance. die ist ein bonus. und wer glaubt das bild würde nur verschwommen werden hat einfach nicht mitbekommen das dlss 1.0 nicht das gleiche ist wie das aktuelle dlss. dlss ist nicht fxaa. dlss in seiner jetzigen form ist das beste was pc gaming passiert ist in den letzten 10 jahren

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
zb mal genau schauen und das ist schon 2 jahre her. habe jetzt keine lust 20 videos rauszusuchen aber richtig benutzt kriegt man ein bild das teilweise besser und teilweise schlechter ist als nativ und dabei oft einen großen performance bonus oben drauf. und wenn man sich mal richtig reinkniet merkt man schnell das die vorteile oft die nachteile überwiegen. ist auch stark abhängig vom spiel und dem richtigen settings. und jetzt bitte nicht mir erzählen das alles in dem video verschwommen ist. es ist ein showcase für die skallierbarkeit vom ultra performance mode. im quality mode und ab 1440p oder 4k ist es oft besser als das native bild. bestes AA was es gibt und auch noch um die 20-30% mehr frames. je nach game.

anfangs als dlss auf dem markt kam war ich auch nicht angetan und die ersten spiele wie zb ff15 und co waren die ergebnisse auch nicht schön. spielt aber mal was aktuelles in 1440p quality mode. es ist wie magie teilweise.

und dlss bei elden ring ist meine größte hoffnung weil fromsoftware bisher leider nicht in der lage war gutes AA zu implementieren.
 
Zuletzt bearbeitet:
Das viel größere Problem hier ist, dass viele scheinbar keine Ahnung von Entwicklung in modernen 3D Engines haben und wie komplex verschiedene Systeme sind die mit den Anforderungen an modernen Spielen einhergehen.
Mag in der Theorie stimmen, aber es interessiert niemand, in egal welche Branche, WIE man zu dem Ergebnis kommt, es zählt nur das Ergebnis und wenn das Schei ße ist, dann machen 1 Mrd RT Strahlen oder 100 Mio Gewinn das Ergebnis wohl nicht besser (vielleicht ist es ja sogar der Grund des Übels?)

Wenn ich mir die Optik eines DL2 anschaue, dann stelle ich fest - richtig schlechtes Performance/Optik Verhältnis > kaufe ich nicht (oder sehr spät)
Ein Cyberbug > kaufe ich nicht
Im Restaurant doch das selbe, ist das Steak Kohle, obwohl Rare bestellt > verkakt
Das DLSS oder fett Ketchup helfen kann... das ändert nichts am eigentlichen Problem.
 
DLSS wurde doch letztlich für Raytracing eingeführt.
Nein. Das Marketing von Nvidia hat zwar alles dafür getan, dass beides miteinander (und damit auch ausschließlich mit Nvidia) assoziiert wird. Aber konzeptuell haben DLSS und Raytracing keine Verbindung zueinander.
Aber es ist natürlich einfach außenstehend immer auf die "schlampigen" Programmierer zu schimpfen, welche mit DLSS rekonstruktion, Denoising von Raytracing und anderen "Tricks" versuchen die bestmögliche Optik aus dem verfügbaren Leistungsbudget rauszuholen.
Ich bin der erste, der sagt, dass DLSS 2.X (oder auch gerne eine weiterentwickelte Technologie) in allen Spielen etwas verloren hat. Doch in Bezug auf Alan Wake hat @ratmal86 einen Punkt: Das performed einfach unfassbar schlecht.
Ist schon sehr ironisch, dass DLSS immer wieder genutzt wird, um das Leben der schlampigen Programmierer zu erleichtern. Wie wäre es denn mal mit Optimierung bzgl. der entsprechenden Hardware?
Wozu braucht zum Beispiel ein Alan Wake Remastered oder auch ein Elden Ring DLSS?
Nichts desto trotz ist die "Wozu"-Frage Blödsinn. Sie "brauchen" DLSS, weil jedes Spiel DLSS vertragen kann. Das ist ein Effizienzfeature, aus der vorhanden Performance wird mehr Bildqualität rausgeholt. Das liegenzulassen kommt nicht in Frage.
 
Ich hoffe ja, dass DLSS den kürzeren zieht und sich FSR durchsetzt, das wäre langfristig besser für den Markt.

Weder DLSS noch Raytracing. DLSS ist schlussendlich einfach ein interpoliertes Bild und damit immer schlechter als ein natives.

1: Nein, ist es nicht. Es wird wesentlich mehr gemacht, als einfach nur interpoliert, sowohl bei DLSS als auch bei FSR.
2: Nein, ein DLSS Bild kann tatsächlich auch deutlich besser aussehen als die Native Auslösung, zumindest in den ersten zwei Stufen. Lediglich bei Ultra Performance sieht es wesentlich schlechter aus, als nativ, aber was will man von einem Bild, das von 720p auf 4K aufgeblasen wurde, auch schon erwarten?

DLSS wurde doch letztlich für Raytracing eingeführt.

Raytracing, leistungsschwächere Karten, 8K (irgendwann 16K), mehr FPS (nicht jedes Spiel bekommt stabil 360FPS hin). Such dir was aus, die Vorteile sind gigantisch (allgemein, nicht nur auf DLSS bezogen).
 
... gut. Die neue Version von DLSS kann doch einiges mehr, als bisher gedacht.
Aber müssten nicht alte Spiele oder Remastered Spiele, wie z.B. Alan Wake, nativ in 4K besser aussehen, wenn u.a. die Programmierer High-Res. Texturen einbauen.
 
Einfach gesagt lernt DLSS mit dem Spiel in einer sehr hohen Auflösung, lass es 16K sein. Dadurch weiß es wie es aussehen „soll“.

Zb eine Landschaft wo du im Hintergrund Strommasten siehst. Selbst hier kannst du in UHD Flimmern oder Treppenbildung haben. Gerade die Leitungen. DLSS weis aber wie das Bild eigentlich auszusehen hat und versucht dies zu verbessern. Je mehr Bildpunkte es zur Verfügung hat umso besser das Ergebnis.
 
Zurück