Special DLSS 3.5 live auf der Gamescom gesehen: Wir waren positiv überrascht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3.5 live auf der Gamescom gesehen: Wir waren positiv überrascht

Auf der Gamescom hatten wir und einige weitere ausgesuchte Redaktionen Gelegenheit, uns von Nvidias kommendem DLSS 3.5 einen eigenen Eindruck zu verschaffen. Anhand von Alan Wake 2, Portal RTX und dem Cyberpunk-Addon Phantom Liberty sowie einer Prise Half-Life 2 RTX konnten wir uns selbst von der Qualität von Nvidias spannender Technologie überzeugen. Eins vorweg: DLSS 3.5 ist live deutlich eindrücklicher als auf komprimiertem Bildmaterial.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3.5 live auf der Gamescom gesehen: Wir waren positiv überrascht
 
Genau das habe ich mir nach dem ersten Video dazu auch versprochen.

Man sah ja schon im Alan Wake Trailer, dass das nachleuchten verschwindet und die Artefakte beim Zaun verschwinden. Auch in Cyberpunk waren die Reflexionen plötzlich perfekt klar und nicht mehr mit Schlieren durchsetzt.

Alleine dieser heftige Qualitätssprung in den Videos lässt schon erahnen, wie das live aussehen muss und muss bedeuten, dass sämtliche dieser Probleme damit Geschichte sind.

Aktuell sieht man z.B. in Cyberpunk sowohl mit Pathtracing als auch mit den normalen Raytracing, insbesondere mit aktivierter Global Illumination, dass es zu dieser Flleckenbildung kommt und dass die Grafik stellenweise ein klein wenig verwaschen wirkt, obwohl eigentlich alles scharf ist. Das sind genau diese Denoising Artefakte, die eben auch für Detailverlust sorgen.

Man sieht das auch, wenn man Raytracing komplett deaktiviert, dass die Grafik plötzlich ein ganzes Stück knackiger wirkt. Mir ist das schon zum Release damals aufgefallen, aber mir war nie wirklich bewusst, dass es tatsächlich am Denoising liegt.

Wenn diese Bildqualität jetzt auch mit aktiviertem Raytracing möglich ist, dann hut ab. Das wird ein Gamechanger, weil wir damit nicht nur die Artefakte von klassischer Rastergrafik los sind, sondern zugleich die Artefakte von Raytracing bzw. Pathtracing. Zudem kann man in Zukunft darauf verzichten, die Raycounts hochzutreiben, um das Rauschen los zu werden, weil DLSS das bereits sehr gut kompensieren kann. Das ist wirklich krass. Hätte man weitergemacht wie bisher, wäre der Leistungszuwachs der kommenden GPU Generationen wahrscheinlich vollständig in höhere Raycounts geflossen. Aber jetzt ist das plötzlich nicht mehr notwendig. Mind = blown.

Toll, dass ihr das mit diesem Hands On eindruck tatsächlich bestätigen könnt.
Kanns kaum erwarten, das live zu begutachten.
 
Zuletzt bearbeitet von einem Moderator:
Bei DLSS1.0 im Zusammenhang mit RT dachte ich mir damals "WOW! Es ist ein erster Schritt, sber er lässt schon das Potential erahnen"
Jetzt mit CP2077 und DLSS3.5 sind wir da, wo die Technologie den Kinderschuhen entsteigt und für mich der Einstieg immer interessanter wird.
Los AMD und Intel holt auf, ich will nicht nur Nvidia zur Wahl haben
 
Bei DLSS1.0 im Zusammenhang mit RT dachte ich mir damals "WOW! Es ist ein erster Schritt, sber er lässt schon das Potential erahnen"
Jetzt mit CP2077 und DLSS3.5 sind wir da, wo die Technologie den Kinderschuhen entsteigt und für mich der Einstieg immer interessanter wird.
Los AMD und Intel holt auf, ich will nicht nur Nvidia zur Wahl haben
Verständlich aber man sollte nicht vergessen was für einen impakt pathtracing hat und es ohne dlss nicht möglich wäre
 
Das sieht schon echt sehr sehr gut aus. Die Farben sind echt super.
Was ich aber in Cyberpunk vermisse, obwohl die Grafik wirklich nen Hammer ist.... mir fiel auf, das es keinerlei Effekte gibt, wenn Regen auf die Erde fällt, wenn ich in Pfützen gehe oder springe, wenn ich durch Schlamm fahre... Vielleicht gibt es das irgendwann mal auch.
 
Die Bilder, die im anderen Artikel zur Verfügung gestellt wurden, habe ich verglichen und ich komme leider zum Ergebnis, dass DLSS3.5 am schlechtesten aussieht. Die nativ gerenderte Version halte ich für klar sichtbar die detaillierteste.

Ich würde mich über einen Artikel mit Vergleichsbildern an zufälligen Stellen aus verschiedenen Spielen freuen. Wie bei Smartphone-Video-Filtern kann man den Menschen auch mit "schöneren" Eindrücken ohne Risse in den Wänden oder nassen, an der Wand grüne Streifen hinterlassenden Schmodder sehr leicht täuschen. Dann empfindet man das Bild subjektiv ästhetischer, obwohl es objektiv weniger detailliert ist.
Edit: Auch wenn die Details grober gerendert wurden und dann hochskaliert wurden, können sie intensiver wirken. Das heißt aber nicht, dass mehr Details da wären, sondern sie sind unrealistisch intensiv ausgestaltet. So können kleine Risse größer aussehen als nativ gerendert, oder ganz unsichtbar werden.
Nur wenn man sich hinsetzt, und die Bilder wirklich Detail für Detail vergleicht, kann man sich einen objektiven Eindruck machen.
 
"Wir haben schon in mehreren Artikeln über die dort auffällige Artefaktbildung berichtet, diese ist mit DLSS 3.5 nahezu Geschichte."

So wie alle Feature Junkies immer Gebetsmühlenartig predigten, dass DLSS 3.0 "perfekt" sei (besser als Native) und NV jenes als das non + Ultra anprangerte, stellt sich mir just die Frage, wie kann man was Perfektes verbessern ?
Ach ja, mit Marketing. Im Umkehrschluss würde dies ja bedeuten, dass DLSS 3.0 doch nicht so "gut" war/ist.
Aber jetzt ist es "perfekt" oder NV ?
 
Version 3.5_v2, also schon die zweite ist jetzt raus. Kann man in jedem DLSS Game reinkopieren.
Bringt dir nur nicht viel, weil der Ray Reconstruction Part nicht angesprochen wird.

So wie alle Feature Junkies immer Gebetsmühlenartig predigten, dass DLSS 3.0 "perfekt" sei (besser als Native) und NV jenes als das non + Ultra anprangerte, stellt sich mir just die Frage, wie kann man was Perfektes verbessern ?
Weil nativ häufig nicht nativ ist, sondern TAA und das hat auch Fehler. Weniger Fehler > mehr Fehler.
Logisch oder?
 
"Wir haben schon in mehreren Artikeln über die dort auffällige Artefaktbildung berichtet, diese ist mit DLSS 3.5 nahezu Geschichte."

So wie alle Feature Junkies immer Gebetsmühlenartig predigten, dass DLSS 3.0 "perfekt" sei (besser als Native) und NV jenes als das non + Ultra anprangerte, stellt sich mir just die Frage, wie kann man was Perfektes verbessern ?
Ach ja, mit Marketing. Im Umkehrschluss würde dies ja bedeuten, dass DLSS 3.0 doch nicht so "gut" war/ist.
Aber jetzt ist es "perfekt" oder NV ?
Ich sehe dich immer nur meckern in NV oder Intel Artikeln.
20221213215528_1.jpg

Glaubst du das wäre möglich wenn du das Bild nur in Nativ berechnen lassen würdest? Und bitte an die Bild Kompression denken. Das ist ein jpg.
4x Downsampling (5x) mit DLSS 2.51 Quality. Direkt vor dem Bildschirm und in Bewegung traust du deinen Augen nicht mehr.
Die im Artikel erwähnten Artefakte die auftreten sind vom RayTracing. Wenn das Spiel kein RT hat dann ist DLAA oder Downsampling mit DLSS ungeschlagen. Sprich 1440p Bilschirm DLDSR 2,25x (4k) und dann durch DLSS von 1440p (Quality) hochrechnen lassen. Sollte auch mit FSR gehen.

Wäre NV in Sachen Downsampling und später mit hochwertigen upscaling nicht so vorwärts gepusht würden wir immer noch bei nativ ohne Taa oder sonstwas rumkriechen.

Und NEIN... KANTENFLIMMERN ist kein scharfes Bild sondern schlechtes AA.
 
Ich sehe dich immer nur meckern in NV oder Intel Artikeln.
Ich sehe euch (Dich und Liker) immer nur meckern wenn ich es wage zu meckern !
Das/Dein Bild sieht sehr lecker aus !!
Mein "meckern" gilt überwiegend den Huldigungen und Lobeshymnen mit den verwendeten Superlativen,
wie z.B. das Beste, gibt nix Besseres, Unerreichbar, das/die Schnellste etc. etc. und zu welchem Preis (€/FPS Verlust).
Zu behaupten etwas sei/ist SCHLECHT oder darüber zu "meckern" ob wirklich alles Gold ist was glänzt ist doch ein Unterschied ? Und Kritik sei doch erlaubt (gerecht od. zu unrecht, je nach Ansicht) ?
 
Wir haben schon in mehreren Artikeln über die dort auffällige Artefaktbildung berichtet, diese ist mit DLSS 3.5 nahezu Geschichte.
Ich weiß ja dass dich das eigentlich eh nicht interessiert und du nur stänkern willst, aber der Teil bezieht sich auf den Vergleich mit der nativen Darstellung. Es gibt also komplett ohne DLSS Artefakte und DLSS 3.5, bzw. eigentlich die Ray Reconstruction, bügelt die aus.
 
Ich weiß ja dass dich das eigentlich eh nicht interessiert und du nur stänkern willst,
Da haben wir ausnahmsweise mal einen gemeinsamen Nenner !
Mich interessiert es allerdings nur aus einem Grund nicht, da ich DLSS/FSR nicht verwende/unterstütze !
Bin einfach "Fan" von Native und für mich sind diese Feature lediglich "Werkzeuge" um eine schlampige Programmierung und GPU Bezeichnungen (60´er, 70´er usw.) zu verschleiern.
Gut ist es für ältere GPU´s, deren Besitzer sich aber eigentlich im Klaren sind, dass alles auf Max. eh nicht drin ist.
 
Bei den Bildern vom NV-Marketing, die ich verglichen habe, waren mit DLSS 2 und 3 die Beleuchtungseffekte und Spiegelungen reduziert, im Vergleich zum Original. Zudem war bei Details zu sehen, dass sie etwas grober, und dadurch etwas hervorstechender, dargestellt wurden - vermutlich, weil sie mit weniger Pixeln berechnet auch etwas klobiger daherkommen und das nicht ganz rausgebügelt werden kann. DLSS 2 und 3 würde ich mir ja auch, wenn ich zu wenige FPS habe, so wie es auf den Marketing-Bildern dargestellt ist, noch gefallen lassen, um die FPS in Ordnung zu bringen und mit kaum einem Unterschied noch zocken zu können. Im Prinzip ist das schon eindrucksvoll, auch wenn ich das native Rendering trotzdem etwas im Vorteil sehe - gerade da, wo viel Licht im Spiel ist.

Dass es keine Artefaktbildung in DLSS 3.5 gibt, kann ja sein, aber auf den Bildern vom Nvidia-Marketing ist DLSS 3.5 im Vergleich zu allem, was davor war, komplett unterirdisch. Man sieht die Details nicht mal mehr, weil sie einfach verwischt sind, die ganzen Farben sind unnatürlich, die Kanten, die im nativen Bild noch etwas angefressen waren, sind aalglatt gebügelt und ein Lichteffekt ist komplett weggelassen worden. Der matte Beton sieht aus, wie eine glattgeschliffene, spiegelnde Fläche... Es ist auch auffällig, dass NV mit 3.5 beim Screenshot noch 8% mehr FPS als 3.0 rausholt. Das kann ohne Qualitätsverlust nicht unendlich so gehen.
Mir fällt jetzt nicht ein, wie etwas beim Erstellen des Screenshots so falsch gelaufen sein kann, dass die Details verschwommen aussehen oder weggeglättet wurden - wenn das also tatsächlich die DLSS 3.5-Qualität sein soll, dann ist sie ganz sicher nicht besser als DLSS3, außer vielleicht in dem Punkt, dass z.B. keine Artefakte mehr da sind, aber auf Kosten anderer, sehr viel gravierenderer, Probleme.
 
Zurück