News Nvidia DLSS 3.7: Mehr Leistung und Upscaling-Qualität durch neue Voreinstellungen

die meisten hängen sich an den aussagen der Medien auf ala "sichtbare artefakte, blurry ecken" etc.
99% der User sehen im alltag all das gar nicht oder möchten sich das gerne einbilden das da iwas wäre, Hauptsache man hat ein Grund es schlecht zu reden.
Kann ich bestätigen. Ich nutze DLSS eigentlich immer. Anfangs mit der 2080, dann mit der 3080 und jetzt mit der 4080 + FG, wenn verfügbar. Ich zocke auf einem 3440x1440 144 Hz Monitor und hatte bisher nie irgendwas an der Bildqualität auszusetzen. Das erste und einzige Spiel, bei dem mir Smearing bisher aufgefallen ist, ist Dragon's Dogma 2. Dort liegt es aber nicht an DLSS, sondern viel mehr an der teilweise niedrigen Framerate und den Rucklern, bedingt durch die extreme CPU-Last und die schlechte Optimierung.
Es ist wahrscheinlich das beste Feature das Gamer jemals bekommen haben.
Nicht zu vergessen man kann alte DLSS Versionen gegen neue selbst tauschen oder mit simplen mods. Mache ich in Red Dead Redemption 2 zum Beispiel, weil das ur dlss dort grausam ist. Aber Updated fertig 100-120 fps in 4k.

Mir ist in jüngerer Zeit kein Spiel bekannt wo DLSS merklich Kompromisse bereitet. Selbst DLSS Performance in 2160p ist unfassbar gut.
Dazu habe ich mal eine Frage. Ich habe bisher nicht selbst an DLSS herumgespielt, aber ich habe gelesen, dass sich das nicht lohnt, weil der Algorithmus wohl teilweise angepasst werden müsste und das eigenständige ändern der DLSS Version daher oft zu Grafikfehlern wie Smearing und Ghosting etc. führt. Hast du auch solche Erfahrungen gemacht, oder lief bei dir immer alles problemlos? Wenn sich das lohnt und zu einem noch besseren Ergebnis führt, werde ich wohl zukünftig auch mal manuell bei einigen Spielen die DLSS Version aktualisieren.
 
Hat denn jemand die Verbesserungen bemerkt in der Praxis?
Jep.

Dazu habe ich mal eine Frage. Ich habe bisher nicht selbst an DLSS herumgespielt, aber ich habe gelesen, dass sich das nicht lohnt, weil der Algorithmus wohl teilweise angepasst werden müsste und das eigenständige ändern der DLSS Version daher oft zu Grafikfehlern wie Smearing und Ghosting etc. führt. Hast du auch solche Erfahrungen gemacht, oder lief bei dir immer alles problemlos? Wenn sich das lohnt und zu einem noch besseren Ergebnis führt, werde ich wohl zukünftig auch mal manuell bei einigen Spielen die DLSS Version aktualisieren.
Meine Erfahrungen dahin gehend sind eigentlich positiv. Ghosting und Smearing habe ich beim Austausch der Versionen nicht feststellen können.
 
keine Ahnung was ihr spielt aber was Cyberpunk angeht finde ich mit DLSS + 3 um welten besser als nur Nativ. gestochen scharfe Bilder dazu noch sehr flüssig.
 
hoffe bald auch DLSS 4
Kommt zu Release der RTX 5000´er Karten :crazy:
die meisten hängen sich an den aussagen der Medien auf ala "sichtbare artefakte, blurry ecken" etc.
99% der User sehen im alltag all das gar nicht oder möchten sich das gerne einbilden das da iwas wäre, Hauptsache man hat ein Grund es schlecht zu reden.
Du meinst in etwa so wie bei einem Vergleich DLSS3 vs. FSR3 ? :rollen:
Selbst eine 2060 reißt noch einiges dank DLSS.
Kann ich bestätigen.
 

Anhänge

  • Bench DLSS.jpg
    Bench DLSS.jpg
    265,1 KB · Aufrufe: 25
Zuletzt bearbeitet:
Nein, sieht es nicht.
Mehr fps .... ja. Die Bildqualität entspricht aber nicht der nativen. Die Verfahren werden immer besser, klar. Aber sie sind nur Krücken um die Kluft zwischen anspruchsvoller Softwareentwicklung und Hardwarerealität zu überbrücken. :D
Naja ich bemerke aber nichts davon, je höher die Ursprüngliche Auflösung desto schwieriger ist der Unterschied zu erkennen. Bei 4K Quality bemerke ich nix auch bei Performance muss ich wirklich konzentriert beobachten um ein Unterschied zu sehen. Es ist schon eine tolle Technologie, es geht ja nicht darum das es unbedingt besser oder gleich wie nativ sein sein muss, sondern das man mit guter Bildqualität Spiele flüssig genießen kann, bei gleichzeitig vielen hohen Grafikeinstellung. Wobei DLSS gegenüber Native schon in bestimmten Disziplin eine bessere Resultat gibt als Nativ.
 
hier sind immer so viele kommentare das dlss gleichwertig oder besser als nativ ist.

das ist vlt bei 4k der fall - bei 1440p sieht es bisher in jedem spiel schlechter als nativ aus. egal welche dlss version ich nutze.

Bist Du sicher, dass Du "Quality" eingestellt hast? Und bist Du sicher, dass Du Aliasing-Artefakte nicht mit Schärfe verwechselst?

Auch bei WQHD sieht DLSS Quality deutlich besser aus als 1440p-Native mit TAA aus. Selbst in Standbildern, ganz sicher aber bei bewegten Bildern.
 
Es sieht auch bei 4k schlechter aus als Nativ.
Noch jemand er Alias-Kanten als Schärfe missinterpretiert. Du schaltest vermutlich auch TAA aus, korrekt?

Wenn ihr ein wenig Englisch versteht, kann ich Euch nur dieses Video empfehlen:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ganz ehrlich, mich hat diese Thematik überhaupt nicht überzeugt.
Weder FSR noch VSR noch DLSS.

Ich mag es vollkommen, dass meine Grafikkarte letztendlich nativ arbeitet im Prinzip auf Standardeinstellungen

Aber hier ging es viel mehr um die Marktreife und meine Frage ist es tatsächlich hätte man nicht bei Release schon diesen aktuellen Stand haben können? Ja, Produkte müssen weiter entwickelt werden. Wie gesagt, manche stellen ihre Produkte gefühlt viel reifer in den Markt als andere.
Sorry aber dein erster Kommentar kommt eben einfach nur falsch rüber, also nimm es uns nicht übel, wenn du falsch verstanden wirst.

DLSS war zu Anfang in der Version 1.0 Verfügbar, also direkt mit dem Release der RTX 2000er Reihe. Da Hardwarebeschleunigung für RayTracing Effekte das erste mal in einer Grafikkarte implementiert wurde, aber der Hardware Hunger extrem Groß wurde, hat man mit einem Upscaler eben dagegen gehalten um überhaupt mit RT flüssig spielen zu können. Auch RT entwickelt sich weiter und verlangt auch mehr Ressourcen.

In der Version 1.0 war DLSS eben noch sehr schwach, also nicht sehr überzeugend und man konnte eben große Unterschiede erkennen. Mit der Zeit wurde es immer besser, ich glaube mit der Version 2.1 (glaube ich) erkannte ich gar keinen Unterschied mehr oder es war mir egal, weil das Resultat mit DLSS Performance scharf genug war. Ich überprüfe native nicht mehr sondern stelle Performance ein und bin mit dem Resultat extrem zufrieden. Denn genau darum geht es, ein gutes Bild zu haben und es muss nicht das schärfste Bild sein. Du redest über Nativ, aber viele danken upscaler Techniken um überhaupt flüssig spielen zu können, selbst FSR von AMD ist ein Segen. zB Forbitten West könnte ich nicht flüssig spielen bei 3440x1440 aber dank DLSS Performance ist alles flüssig und es sieht dabei extrem scharf aus. Es tut eben genau das, was es tun soll. Zock mal mit einer 4090 Cyberpunk mit Pathtracing und schalte DLSS ab :) dann verstehst du worum es geht.
 
Sorry aber dein erster Kommentar kommt eben einfach nur falsch rüber, also nimm es uns nicht übel, wenn du falsch verstanden wirst.
Ich verstehe deinen Text sehr gut, und danke für dein Feedback.
Es tut eben genau das, was es tun soll. Zock mal mit einer 4090 Cyberpunk mit Pathtracing und schalte DLSS ab :) dann verstehst du worum es geht.
Wahrscheinlich spiele ich keine Spiele, die es ohne DLSS nicht schaffen, daran könnte es liegen.
Mag ja sein, dass DLSS mit einer recht guten Basis auf den Markt gekommen ist, ich habe ja im Startpost fragend meinen Text verfasst.
Und das eine Entwicklung stetig stattfindet, ist mir auch klar.

Nur manchmal und das ist nicht nur bei DLSS so, wünsche ich mir mehr Marktreife.
Bei FSR z.B. werden oder wurden feine Haare so grottenschlecht dargestellt, das ich es ausgeschaltet habe, oder war das VSR ich weiß es nicht mehr genau.
Deshalb habe ich im Startpost bezweifelt, ob die Leistung von DLSS von Anfang an nicht auf diesem Niveau hätte sein können.
Also man kann ja sachlich antworten, so wie Du es auch gemacht hast,
und nicht persönlich werden wie manch andere gefrusteten Menschen.

Aber ich habe es verstanden, dass die Entwickelung von Beginn an solide war und man mit den Fortschritten zufrieden ist:daumen:
 
Ich verstehe deinen Text sehr gut, und danke für dein Feedback.

Wahrscheinlich spiele ich keine Spiele, die es ohne DLSS nicht schaffen, daran könnte es liegen.
Mag ja sein, dass DLSS mit einer recht guten Basis auf den Markt gekommen ist, ich habe ja im Startpost fragend meinen Text verfasst.
Und das eine Entwicklung stetig stattfindet, ist mir auch klar.

Nur manchmal und das ist nicht nur bei DLSS so, wünsche ich mir mehr Marktreife.
Bei FSR z.B. werden oder wurden feine Haare so grottenschlecht dargestellt, das ich es ausgeschaltet habe, oder war das VSR ich weiß es nicht mehr genau.
Deshalb habe ich im Startpost bezweifelt, ob die Leistung von DLSS von Anfang an nicht auf diesem Niveau hätte sein können.
Also man kann ja sachlich antworten, so wie Du es auch gemacht hast,
und nicht persönlich werden wie manch andere gefrusteten Menschen.

Aber ich habe es verstanden, dass die Entwickelung von Beginn an solide war und man mit den Fortschritten zufrieden ist:daumen:
Was DLSS 1.0 angeht, stimme ich dir zu, besonders bezüglich seines Releases und seiner Marktreife. Sie mussten es unmittelbar mit der Veröffentlichung der RTX 2000-Serie zur Verfügung stellen, damit Raytracing überhaupt vernünftig (flüssig) funktionierte. In diesem Punkt liegst du eigentlich richtig. Aber sie haben es mit Version 1.4 wieder auf Kurs gebracht, auch wenn das erst Monate später geschah und die anfänglichen Tester wirklich überzeugt hat. Von da an ging es stetig bergauf: Ghosting wurde mit den neueren Versionen minimiert, und schließlich kam sogar FrameGeneration hinzu. Es entwickelt sich kontinuierlich weiter und wird immer besser.
 
Was DLSS 1.0 angeht, stimme ich dir zu, besonders bezüglich seines Releases und seiner Marktreife. Sie mussten es unmittelbar mit der Veröffentlichung der RTX 2000-Serie zur Verfügung stellen, damit Raytracing überhaupt vernünftig (flüssig) funktionierte. In diesem Punkt liegst du eigentlich richtig. Aber sie haben es mit Version 1.4 wieder auf Kurs gebracht, auch wenn das erst Monate später geschah und die anfänglichen Tester wirklich überzeugt hat. Von da an ging es stetig bergauf: Ghosting wurde mit den neueren Versionen minimiert, und schließlich kam sogar FrameGeneration hinzu. Es entwickelt sich kontinuierlich weiter und wird immer besser.
Ja das sieht man gerrn das es Fortschritt gibt. Was allerdings sauer aufstösst ist das man für DLSS 4.0 dann auch wieder RTX 5000er Karten braucht. Ist schon hart für GF 1000 - 3000 Nutzer wenn sie die neuesten Techniken wollen, müssen sie Intel und AMD Software nutzen. Fast ein Armutszeugnis für NV und zeigt Einem wie kurzlebig NV HW ist.
 
Nein, sieht es nicht.
Mehr fps .... ja. Die Bildqualität entspricht aber nicht der nativen. Die Verfahren werden immer besser, klar. Aber sie sind nur Krücken um die Kluft zwischen anspruchsvoller Softwareentwicklung und Hardwarerealität zu überbrücken. :D
Naja teilweise Geschmackssache. DLSS hat vor allem in früheren Versionen gern mal kleine Details schärfer gezeichnet als sie waren. Das hieß mit DLSS waren oft mehr Details und diese leichter zu sehen als mit Nativ, vor allem 1080 oder 1440p. Technisch gesehen ein "Fehler" oder Artefakt aber mir hats gefallen.
 
@blautemple
Wie gesagt, da steht ja, wie du in meinem Text lesen kannst „ich habe das Gefühl“ aber eine bestimmte und auch eine solide Basis erwarte ich schon von einer Programmierung.
Wie kannst du das bewerten, du hast doch gar keine Nvidiahardware?
Und was sagst du zu den Firmwareupdates von AMD, die gefühlt jede Woche erscheinen? Ist wohl was anderes? ;)
 
lol. erst heute suchte ich nach DLSS 4 im internet und jetzt das :) super nachrichten. hoffe bald auch DLSS 4
kommt mit Blackwell
Nein, sieht es nicht.
Mehr fps .... ja. Die Bildqualität entspricht aber nicht der nativen. Die Verfahren werden immer besser, klar. Aber sie sind nur Krücken um die Kluft zwischen anspruchsvoller Softwareentwicklung und Hardwarerealität zu überbrücken. :D
im Prinzip ist das gesamte Renderverfahren bislang so zu beschreiben. Culling/Z Buffering, Filtering etc sind alles nur Tricks, weil die Hardware nicht genug Leistung mitbringt. Am ehrlichsten ist hier einfach Raytracing, aber da ist ja noch denoising...
 
Ich spiel so gut wie immer Nativ und wenn die FPS deutlich einbrechen sollten schau ich mal in DLSS Qualität rein und wenn's hart auf hart kommt + Frame Generation. Ich setze Bildqualität über Leistung. Wenn es nicht spielbar ist (<80fps) als Singleplayer muss man halt darauf zurückgreifen.
 
Auch da habe ich die Meinung man könnte es ausgereifter gestalten, siehe meine Vorposts.
Dann hast du sicher ein positives Beispiel. ;)

Ich spiel so gut wie immer Nativ und wenn die FPS deutlich einbrechen sollten schau ich mal in DLSS Qualität rein und wenn's hart auf hart kommt + Frame Generation. Ich setze Bildqualität über Leistung. Wenn es nicht spielbar ist (<80fps) als Singleplayer muss man halt darauf zurückgreifen.
Frame Generation verschlechtert die Bildqualität nicht und gerade deshalb müsstest du DLSS einsetzen, weil es Details hervorhebt, die ohne gar nicht zu sehen wären:

Aber hey, wozu Tests lesen, wenn man seinen Nonsense in Foren verbreiten kann?
 
Zurück