• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

DLSS 2.2 versus 2.1: Community-Vergleich bei Cyberpunk 2077 und Metro Exodus

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 2.2 versus 2.1: Community-Vergleich bei Cyberpunk 2077 und Metro Exodus

User haben sich angesehen, ob sich die Bildqualität in Cyberpunk 2077 und Metro: Exodus durch DLSS 2.2 weiter verbessern lässt. Tatsächlich gewinnen die Spiele leicht an Bildqualität. Doch ändert sich auch die Performance?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: DLSS 2.2 versus 2.1: Community-Vergleich bei Cyberpunk 2077 und Metro Exodus
 

Blowfeld

Freizeitschrauber(in)
Auch wenn viele DLSS schlecht reden, müssen wir bedenken, dass wir immer noch am ANFANG des KI Lernens im Gaming Segment stehen und dass die Technologie mit den Jahren besser und besser wird, während sie vom Markt weiter adaptiert wird. :daumen:
 

Mr.Floppy

PC-Selbstbauer(in)
Auch wenn viele DLSS schlecht reden, müssen wir bedenken, dass wir immer noch am ANFANG des KI Lernens im Gaming Segment stehen und dass die Technologie mit den Jahren besser und besser wird, während sie vom Markt weiter adaptiert wird. :daumen:
Also ich finde die Technik auch jetzt schon beeindruckend. Die visuellen Artefakte sind nicht so störend, als dass sie den Performancegewinn überwiegen, meiner Meinung nach.
 

Misanthrop68

PC-Selbstbauer(in)
Scheinbar muss man nur eine DLL austauschen ...
Danke für den Download Link.

Ich hab CP 2077 V 1.23 und die DSLL Datei (nvngx_dlss.dll) mit der Version 2.2 ausgetauscht. Spiel läuft ohne Probleme wie gehabt. Ob das was Grafisch gebracht hat, kann ich nicht sagen. Da ich keine direkten vergleiche machen kann. Mit Grafikeinstellung (UWQHD) auf Psycho und DSLL auf Qualität ist die Grafik sehr gut und flüssig bei ~50 FPS.
 

plusminus

BIOS-Overclocker(in)
Auch wenn viele DLSS schlecht reden, müssen wir bedenken, dass wir immer noch am ANFANG des KI Lernens im Gaming Segment stehen und dass die Technologie mit den Jahren besser und besser wird, während sie vom Markt weiter adaptiert wird. :daumen:

Wer redet es den schlecht ?

Doch nur die , die es nicht haben und auch in nächster Zeit nichts vergleichbares bekommen werden :schief:

Und ja die Qualität leidet ein klein wenig ,dafür bekommt man aber sehr viel Pervormance :daumen:

DLSS ist ja noch jung . ;)
 

ZeroZerp

Freizeitschrauber(in)
Hier ein weiteres Video, welches die Verbesserungen zeigt:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Weniger Ghosting / trails sind meines Erachtens völlig verschwunden...
Ein großer Fortschritt, behebt es doch eine der letzten Problemestellen von DLSS.

So sah das vorher aus:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

elmobank

Software-Overclocker(in)
Wer redet es den schlecht ?

Doch nur die , die es nicht haben und auch in nächster Zeit nichts vergleichbares bekommen werden :schief:

Und ja die Qualität leidet ein klein wenig ,dafür bekommt man aber sehr viel Pervormance :daumen:

DLSS ist ja noch jung . ;)
Selbiges gilt am mutmaßlich 22.06. für die AMD Fraktion. Dort erscheint der DLSS Pedant und wird beweisen dürfen, ob und wie der Opensourceansatz funktioniert.
Ob man das Feature dann nutzen möchte oder nicht, dass ist jedem selber überlassen.

In wie weit dann beide Methoden dann vergleichbar sind, dass wird sich zeigen, auch ob nvidia dann entsprechende Optimierungsarbeit im Treiber für die älteren Karten einbaut, die kein DLSS nutzen können.
 

plusminus

BIOS-Overclocker(in)
Selbiges gilt am mutmaßlich 22.06. für die AMD Fraktion. Dort erscheint der DLSS Pedant und wird beweisen dürfen, ob und wie der Opensourceansatz funktioniert.
Ob man das Feature dann nutzen möchte oder nicht, dass ist jedem selber überlassen.

In wie weit dann beide Methoden dann vergleichbar sind, dass wird sich zeigen, auch ob nvidia dann entsprechende Optimierungsarbeit im Treiber für die älteren Karten einbaut, die kein DLSS nutzen können.

Ja mal sehen was Amd da wieder zusammenzimmert , um wenigstens den Anschein zu wahren :D

Ist ein wenig wie Amd,s versuch auch bei RT mitzuhalten , obwohl Amd Karten nicht einmal wie Nvidia Karten über gleichwertig viele RT Kerne verfügen .
:schief:
 

elmobank

Software-Overclocker(in)
Ja mal sehen was Amd da wieder zusammenzimmert , um wenigstens den Anschein zu wahren :D

Ist ein wenig wie Amd,s versuch auch bei RT mitzuhalten , obwohl Amd Karten nicht einmal wie Nvidia Karten über gleichwertig viele RT Kerne verfügen .
:schief:
Bitte nicht so herablassend oder höhnisch, es ist die erste Version von RT, ebenso beim DLSS Pedant. Sowohl nvidia als auch AMD lernen nit der Zeit dazu.

Klar hat jeder seinen Favouriten und das ist auch gut so, nur muss man dann einen bereits guten Ansatz nicht sofort verteufeln oder schlecht reden - gilt für Dlss und Raytracing so. Dabei ist es unabhängig, welche Firma das auf den Markt bringt.

Der Ansatz von AMD ist halt spannend, da keine extra Einheiten benötigt werden und somit sogar nvidia Karten profitieren können (wenn nvidia es im Treiber optimiert).

Thema RT-Einheiten ist etwas komplexer, da nvidia und AMD einen anderen Ansatz verfolgen und dereb Stärke und Schwäche auch massive von der Optimierung abhängt.
 

olimon0

Komplett-PC-Käufer(in)
Das Ghosting hinter den Fahrzeugen hat mich wirklich immer gestört.
Ist jetzt wirklich viel weniger geworden.
 

Blackout27

Volt-Modder(in)
Hier ein weiteres Video, welches die Verbesserungen zeigt:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Weniger Ghosting / trails sind meines Erachtens völlig verschwunden...
Ein großer Fortschritt, behebt es doch eine der letzten Problemestellen von DLSS.

So sah das vorher aus:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Danke für den Vergleich. Das ist wirklich eine deutliche Verbesserung.
Genau diese Schlieren oder das wabbeln einiger Gebäude hat mich beim DLSS Test genervt.
Wenn das jetzt mit 2.2 behoben ist, spricht nichts mehr gegen DLSS :daumen: (sofern die Auflösung stimmt^^)
Ist ein wenig wie Amd,s versuch auch bei RT mitzuhalten , obwohl Amd Karten nicht einmal wie Nvidia Karten über gleichwertig viele RT Kerne verfügen .
:schief:

Ich wusste überhaupt nicht, das Sowohl AMD als auch Nvidia die identischen RT Kerne verwenden, sodass man diese rein von der Anzahl bewerten könnte...
 

owned139

BIOS-Overclocker(in)
Danke für den Vergleich. Das ist wirklich eine deutliche Verbesserung.
Genau diese Schlieren oder das wabbeln einiger Gebäude hat mich beim DLSS Test genervt.
Wenn das jetzt mit 2.2 behoben ist, spricht nichts mehr gegen DLSS :daumen: (sofern die Auflösung stimmt^^)
Hat auch vorher nur beim direkten hinsehen gestört. Habe es mit DLSS durchgespielt und im Spielverlauf fiel mir das gar nicht auf.
 

Bevier

Volt-Modder(in)
Danke für den Vergleich. Das ist wirklich eine deutliche Verbesserung.
Genau diese Schlieren oder das wabbeln einiger Gebäude hat mich beim DLSS Test genervt.
Wenn das jetzt mit 2.2 behoben ist, spricht nichts mehr gegen DLSS :daumen: (sofern die Auflösung stimmt^^)


Ich wusste überhaupt nicht, das Sowohl AMD als auch Nvidia die identischen RT Kerne verwenden, sodass man diese rein von der Anzahl bewerten könnte...
Naja, wenn wir das Argument von plusminus nehmen würden (und wir wissen wohl alle, wieviel oder bess r -wenig seine Aussagen wert sind) dann wäre AMD wohl allein von der Anzahl der spezialisierten Einheiten für RT-Berechnungen deutlich überlegen. Da stehen 72 CUs den "nur" 68 RT-Cores gegenüber (Vergleich RTX 3080 gegen RX 6800). Dass AMDs CUs nicht annähernd so leistungsstark wie nVidias RT-Cores sind, ist den meisten aber bewusst...
Interessant wird es erst ab der nächsten Generation,, dann hatten beide Firmen genug Zeit zum Testen ihrer jeweiligen Technik. Beim direkten Vergleich der ersten jeweiligen, ist AMD doch vorne, da kann es also auch noch deutlich besser werden...
 

Filben

Komplett-PC-Käufer(in)
Würde mir lieber einen Vergleich von PCGH wünschen... schon oft haben sich irgendwelche hochbewerteten Hinweise aus Reddit-Posts als Placebo herausgestellt, auch direkt im Fall von Cyberpunk.

Da gab's dann am Ende einen Performancegewinn nach einer ini-Einstellung, weil dann aus Versehen noch die Schattendarstellung reduziert wurde 🙄
 

gerX7a

BIOS-Overclocker(in)
... obwohl Amd Karten nicht einmal wie Nvidia Karten über gleichwertig viele RT Kerne verfügen .
:schief:
Hierzu kann man faktsich wenig sagen. Der Begriff "Raytracing Core" ist erst mal ein recht diffuses Gebilde und beide Hersteller imlementieren die Technik unterschiedlich. Bei nVidia handelt es sich hierbei um einen Funktiosnblock, der die Intersection-Berechnungen und BVH-Traversierung komplett übernimmt, AMD dagegen implementiert nur Intersection-Einheiten in ihren TMUs und die müssen schrittweise zusammen mit den ALUs arbeiten für die komplette Strahlverfolgung.
Leider bieten beide Hersteller keine direkt vergleichbaren Leistungswerte an, so bspw. die Peak-TFlops ihrer Intersection-Engines, sodass ein Vergleich hier schwer fällt und man nur von außen draufschauen und das Endresultat bewerten kann. Das Problem ist, dass hier die konkrete Ausrichtung einer Engine und die Implementation u. a. mit Blick auf die für lange Zeit einzig verfügbare Technik RDNA2 in der Anwendung duchaus benachteiligen kann, d. h. mit speziell auf RDNA2 zugeschnittenen Titeln könnte sich die beobachtete Leistung dieser Karten diesbezüglich noch verbessern, jedoch aktuell fehlen auch hier, abseits von Ausreißern, valide Vergleichsmöglichkeiten. Aktuell zeichnet sich lediglich vorerst das Bild ab, das Ampere's Raytracing-Inpementation im Mittel leistungsfähiger zu sein scheint, als das was RDNA2 bietet.
Ich würde vermuten einen "abschließenden" Vergleich wird man erst Mitte 2022 mit einer Neuerscheinung anstellen können, die auch explizit RDNA2 unterstützt und im besten Fall auch primär ein PC-Titel ist, d. h. hier wird im umgekehrten Fall nicht etwa nVidia explizit benachteiligt (sodass der Vergleich wieder hinfällig wäre).

Einzig was man als Indikation derzeit mit Standardsoftware versuchen kann hinzuzunehmen für eine grundsätzliche Einschätzung:
AMDs neue Version des Radeon ProRenderer's unterstützt explizit die RDNA2-Raytracing-Funktionalität, was RDNA2 ggü. der direkten Vorgeneration und auch i. V. z. Vega20 signifikant beschleunigt. Dennoch unterliegt eine RX 6900XT hier anscheinend grundsätzlich einer RTX 3090, die im ProRenderer lediglich mit einfachem OpenCL über die Shader/ALUs rendern muss.
Hingegen wenn man sich die Renderperformance von Ampere in Verbindung mit Cycles ansieht, einmal mit CUDA (Shader, Architekturvorteil aufgrund der zwei FP32-Einheiten) und einmal mit OptiX (implizite Verwendung der RT Cores), dann beschleunigen letztere das Rendering noch einmal beträchtlich (und obwohl Ampere bereits über verdoppelte FP32-Einheiten in den Shadern verfügt ).
Insofern würde ich grundsätzlich annehmen, dass die Raytracing-Rohleistung von Ampere grundlegend höher ist, als die von RDNA2 (das zudem auch noch deutlich höher taktet und damit rein architektonisch nochmals weniger Durchsatzstark zu sein scheint).
Wie sich das zukünftig beim Gaming auswirken wird, wird jedoch auch im Wesentlichen von der Unterstützung abhängen, d. h. die Rohleistung alleine ist nur ein Teil des Puzzels.

Was dagegen FSR anzubieten vermag, wird man erst mal abwarten müssen. Das bisher gezeigte Material gibt da wenig Aufschluss und Godfall ist zudem eine denkbar schlechte Wahl aufgrund seines Grafikstils gewesen.

ch wusste überhaupt nicht, das Sowohl AMD als auch Nvidia die identischen RT Kerne verwenden, sodass man diese rein von der Anzahl bewerten könnte...
Tun sie auch nicht, die Implementation ist komplett unterschiedlich und man darf gespannt sein, was bspw. Intel mit Xe-HPG anbieten wird, die hier eine "Raytracing-EInheit" pro EU-SubSlice der Architektur hinzugefügt haben und sich damit durchaus auf einem konkurrenzfähigen Niveau sehen.
Vergleichen kann man derzeit nur das Endergebnis, aber damit vergleicht man zu einem Großteil die Software-Seite und bekommt weitaus weniger belastbare Aussagen rein zur GPU-Architektur selbst.

seit wann gibts DLSS2.2?
Seit jetzt! :-D Kam mit Rainbow Six Siege ohne explizite Ankündigung auf den Markt und da das anscheinend API-kompatibel ist, kann man die zugehörige DLL wohl in den meisten Fällen in andere DLSS2.x-Titel übertragen und es scheint auch dort weiterhin zu funktionieren in Verbindung mit einem aktualisierten Grafiktreiber (der vermutlich auch ein aktualisiertes NN mitbringt).
 
Zuletzt bearbeitet:

owned139

BIOS-Overclocker(in)
Da stehen 72 CUs den "nur" 68 RT-Cores gegenüber (Vergleich RTX 3080 gegen RX 6800). Dass AMDs CUs nicht annähernd so leistungsstark wie nVidias RT-Cores sind, ist den meisten aber bewusst...
Der Vergleich hinkt aber gewaltig. Die CUs bei AMD sind für die Shader-Berechnungen zuständig. Die haben also einiges mehr zutun, als nur das Raytracing. Ampere hat RT Cores und zusätzlich noch Cuda Cores.
 

Blowfeld

Freizeitschrauber(in)
Selbiges gilt am mutmaßlich 22.06. für die AMD Fraktion. Dort erscheint der DLSS Pedant und wird beweisen dürfen, ob und wie der Opensourceansatz funktioniert.
Ob man das Feature dann nutzen möchte oder nicht, dass ist jedem selber überlassen.

In wie weit dann beide Methoden dann vergleichbar sind, dass wird sich zeigen, auch ob nvidia dann entsprechende Optimierungsarbeit im Treiber für die älteren Karten einbaut, die kein DLSS nutzen können.

Ich drücke hier AMD die Daumen, dass sie eine solide Technik auf die Beine stellen. Können langfristig nur alle von profitieren :)
 

MasterofHell

Komplett-PC-Aufrüster(in)
Seit jetzt! :-D Kam mit Rainbow Six Siege ohne explizite Ankündigung auf den Markt und da das anscheinend API-kompatibel ist, kann man die zugehörige DLL wohl in den meisten Fällen in andere DLSS2.x-Titel übertragen und es scheint auch dort weiterhin zu funktionieren in Verbindung mit einem aktualisierten Grafiktreiber (der vermutlich auch ein aktualisiertes NN mitbringt).


Hat das schonmal jemand bei Death Stranding versucht? Das spiel hatte mit DLSS ja so einige Stellen die geschmiert haben.
 

gerX7a

BIOS-Overclocker(in)
Google mal danach, die 2.2er-DLL läuft jedenfalls auch mit Death Stranding,; da hatte ich, wenn ich mich recht erinnere, schon was gesehen.
Das mit dem austausch der DLL ist aber nicht mehr als ein schneller "Hack". Ich würde vermuten, dass betreffende DLSS 2.x-fähige Titel im Rahmen ihrer regulären Patches implizit zukünftig eine aktualisierte DLL mitbringen werden sofern der Entwickler es nicht verschläft und der Entwickler bei seiner konkreten Implementation die Standard-Funktionalität ohne Individualisierungen übernommen hat, d. h. mit dem SDK und dem NN arbeitet, das nVidia out-of-the-box liefert. (Letzteres wird i. d. R. der Normalfall sein; kaum ein Entwickler wird sich den zusätzliche Aufwand machen und bspw. das eh schon universell nutzbare NN noch weiter auf seinen spezifischen Titel zu trainieren.)
 
Zuletzt bearbeitet:

MasterofHell

Komplett-PC-Aufrüster(in)
So wie es aussieht wurde das Schmieren dort etwas reduziert aber es scheint nicht komplett verschwunden zu sein. Es wäre nicht schlecht wenn die Datei auch bei DLSS 1.0 spielen funktionieren würde :)
 

Cleriker

PCGH-Community-Veteran(in)
Also das was man im Death Stranding Vergleich sieht, ist schon mal eine deutliche Verbesserung. Mir wäre ein Vergleich im qualitymode und mit höchsten Einstellungen aber lieber gewesen. Ich fand die Fragmentbildung hinter manchen Objekten, gerade bei wenig fps und viel Rechenaufwand am schlimmsten. Die Bodentexturen (wenn sie den Namen überhaupt verdient haben) im Video sind übel. Als wären die Terraindetails vollkommen unten.
 

gerX7a

BIOS-Overclocker(in)
So wie es aussieht wurde das Schmieren dort etwas reduziert aber es scheint nicht komplett verschwunden zu sein. Es wäre nicht schlecht wenn die Datei auch bei DLSS 1.0 spielen funktionieren würde :)
DLSS 2 und 1 arbeiten komplett unterschiedlich, eine derartige Überlegung verbietet sich daher von selbst.
Und dass nVidia an dem aufs Abstellgleis geschobenen DLSS 1 noch einmal Hand anlegen wird, dürfte bei der geringen Adaption sehr unwahrscheinlich sein, zumal da nicht viel rauszuholen ist, da dessen arbeitsweise dessen potentielle Leistung klar beschränkt und letzten Endes wäre das in dem Falle gar auch noch ein individuelles Pro-TItel-Tuning, also in keinster Weise wirtschaftlich.
 
Zuletzt bearbeitet:
Oben Unten