News Nvidia DLSS 3.5: Manuelles Upgrade möglich - Berichte über höhere Qualität

Da ich RTX 3000 Nutzer bin, habe ich Frame Gen nicht probieren können, aber die Latenz soll damit ja erheblich steigen. Das wäre für mich ein No Go oder merkt man da überhaupt nichts? Hoffe auch hier, dass die das später besser gelöst bekommen. Ich meine wenn ich 60fps habe und mit FG dann 120fps, was habe ich davon wenn die Latenz stark ansteigt? Ich kappiere den Sinn dahinter nicht, denn mehr FPS sollte auch die Latenz beim Spielen geschmeidiger machen, das tut FG aber eben nicht ^^
Im besten Fall hättest du eine Latenz wie mit 55-58 FPS, und ich verstehe auch nicht weshalb da so ein Hype drum gemacht wird.

Mehr FPS braucht man doch gerade dann, wenn diese im unspielbaren Bereich ist, nur das FG es nicht spielbarer macht.

Wenn dann demnächst FSR3 bzw. FMF sich in spielen verbreitet, kann dann auch jeder ohne RTX-40 es selbst testen.
Besitzer einer GeForce nutzen dann eben Reflex anstatt Anti-Lag(+). Wobei afaik, Reflex nur dann funktioniert wenn es im Spiel integriert wurde, scheint sogar eine kompatible Maus und Monitor zu benötigen - so interpretiere ich zumindest die Liste auf der NVIDIA-eigenen Seite, möglich das Maus & Monitor sich nur auf Latency Anazyler (also Messung) bezieht. Da ich eine Radeon nutze, kann ich das nicht prüfen.
Mag ja sein das Reflex effektiver ist als AMDs Anti-Lag (mal sehen wie es mit Anti-Lag+ aussieht), aber wenn es kompatible Spiele und sogar Peripherie braucht, hat es erhebliche Einschränkungen.
"Erheblich" liegt im Auge des Betrachters, für viele steigt die Latenz kaum spürbar weil Reflex seinen Teil beiträgt.
Reflex müsste man eigentlich getrennt betrachten, denn schließlich kann man Reflex auch ohne FG nutzen. Nur FG nicht ohne Reflex.
Also vergleichen: Reflex vs FG & Reflex. Nicht Ohne-Reflex vs. FG & Reflex.
 
Die vier Screenshots zur Gegenüberstellung des nativen Renderings mit den verschiedenen DLSS-Versionen im Artikel sind offizielles Marketingmaterial von Nvidia. Das sieht man an dem Schriftzug links unten.

Edit: Es hat sogar eine Dokumentennummer:
 
diese Nummerierung ist einfach nur verwirrend, meine 2060 unterstützt kein 3.0 aber 3.5, aber irgendwie auch nur zum Teil? Fragen über Fragen...

Du hast was falsch verstanden, auch deine Karte müsste DLSS 3.0 und auch 3,5 unterstützen, was sie NCIHT unterstützt ist Framegeneration kurz FG genannt, weil ihr dafür die moderne Hardwarekomponennten fehlen - laut NVIDIA, kann man glauben - oder nicht, dieses Feature ist auf jeden Fall unterhalb von Ada Lovelace Karten 4xxx gen. Karten geblockt.

Ich hoffe zur Aufklärung beigetragen zu haben. DLSS 3,5 zielt auf graphischen Fortschritt, nicht so sehr auf Leistung! Von daher sollen im besten Fall max. 10% mehr Leistung rauskommen und das auch nicht immer, manchmal sollen geringe Einbussen fest zustellen sein.
Aber ohne Test sage ich da mal nix abschliessendes dazu.
 
Da ich RTX 3000 Nutzer bin, habe ich Frame Gen nicht probieren können, aber die Latenz soll damit ja erheblich steigen. Das wäre für mich ein No Go oder merkt man da überhaupt nichts? Hoffe auch hier, dass die das später besser gelöst bekommen. Ich meine wenn ich 60fps habe und mit FG dann 120fps, was habe ich davon wenn die Latenz stark ansteigt? Ich kappiere den Sinn dahinter nicht, denn mehr FPS sollte auch die Latenz beim Spielen geschmeidiger machen, das tut FG aber eben nicht ^^
Ich habe das in Cyberpunk und im Portal Remix mal getestet und von der Latenz rein gar nichts gemerkt.
 
Da ich RTX 3000 Nutzer bin, habe ich Frame Gen nicht probieren können, aber die Latenz soll damit ja erheblich steigen. Das wäre für mich ein No Go oder merkt man da überhaupt nichts? Hoffe auch hier, dass die das später besser gelöst bekommen. Ich meine wenn ich 60fps habe und mit FG dann 120fps, was habe ich davon wenn die Latenz stark ansteigt? Ich kappiere den Sinn dahinter nicht, denn mehr FPS sollte auch die Latenz beim Spielen geschmeidiger machen, das tut FG aber eben nicht ^^
Das stimmt so nicht ganz, FG funktioniert nur mit Nvidia Reflex, also Du hast im Prinzip mit FG zwar 120 FPS, allerdings die Latenz von ~50 FPS (grob gesagt).
Damit fühlt sich ein Spiel wesentlich flüssiger an, aber halt nicht genauso "direkt" wie mit nativem 120 FPS.
In meinen Spielen war die Latenz nie wirklich ein störender oder gar auffallender Faktor, das mag bei kompetetiven Spielen aber sicher der Fall sein, aber dort hast Du ja auch ohne FG genügend FPS.
 
Da ich RTX 3000 Nutzer bin, habe ich Frame Gen nicht probieren können, aber die Latenz soll damit ja erheblich steigen. Das wäre für mich ein No Go oder merkt man da überhaupt nichts? Hoffe auch hier, dass die das später besser gelöst bekommen. Ich meine wenn ich 60fps habe und mit FG dann 120fps, was habe ich davon wenn die Latenz stark ansteigt? Ich kappiere den Sinn dahinter nicht, denn mehr FPS sollte auch die Latenz beim Spielen geschmeidiger machen, das tut FG aber eben nicht ^^

Frame Generation erfordert zusätzliche Berechnungen und hat daher immer eine höhere Latenz. Digital Foundry hat das auch schon in den ersten DLSS3 Spielen damals getestet. Da waren es dann mit DLSS2+Reflex irgendwas um die 25ms, DLSS2 ohne Reflex irgendwas um die 40ms und bei DLSS3+FG+Reflex irgendwas um die 50ms. Mehr als mit DLSS2 oder DLSS2+Reflex aber weniger als nativ (da waren es um die 70ms oder so).

Alles als Summe von Inputlag von Maus zu PC + Renderzeit + Displaylag vom Monitor.Ist es spürbar? Ja. ist es störend? Kommt darauf an aber welchem Inputlag man es als spielbar empfindet.

Ein Witcher 3 mit Raytracing wo selbst eine 4090 nur auf um die 40FPS kommt und ich mit einem Gamepad spiele stört mich die höhere Latenz aus FG nicht und die 70-80FPS die mir angezeigt werden schauen flüssiger aus.
 
Bin auch der Meinung, ein jedes Mal wenn ich den Duke 3D über den Bildschirm hetze und zuvor auf ein paar MAOAM Chilli/Ingwer rum kaue, dass das Bild auf mich irgendwie "schärfer" wirkt !

p.s. mit Himbeere ist es auch viel bunter.
 
Neu ist nicht immer das Beste. Ich habe noch nicht viel getestet, gestern abend konnte ich aber in Shadow of the Tomb Raider feststellen, dass DLAA im Preset F mit der DLSS 3.5 unter heftigem ghosting leidet, mit der DLSS 3.1.13 ist ghosting kein Thema.
Wie konntest du das testen, wenn das Spiel Ray Reconstruction nicht unterstützt und die Version offiziell noch gar nicht erhältlich ist?
 
Wie konntest du das testen, wenn das Spiel Ray Reconstruction nicht unterstützt und die Version offiziell noch gar nicht erhältlich ist?
Mein DLSS Swapper hat mir 2 versionen von DLSS 3.5 angeboten und ich habs halt getestet. Ray Construction muss ja nicht genutzt werden, um von anderen Vorteilen/Nachteilen der Version zu profitieren.
 
Zuletzt bearbeitet:
Die vier Screenshots zur Gegenüberstellung des nativen Renderings mit den verschiedenen DLSS-Versionen im Artikel sind offizielles Marketingmaterial von Nvidia. Das sieht man an dem Schriftzug links unten.

Edit: Es hat sogar eine Dokumentennummer:

Schau Dir mal das Video von Digital Foundry zu Ray Reconstruction an:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Typen sind Koryphäen was Bild Analyse angeht. Und die sind richtig beeindruckt von dem Feature. Aussagen wie "alle Texturen deutlich schärfer" und "es lief im DLSS Performance Mode, sah aber aus wie 4K" sind ziemlich eindeutig und entgegen dem was Du auf dem Screenshot sehen magst.
 
Eigentlich sprechen die nur über das Denoising der Raytracing-Reflektionen. Die Reflektionen sind definitiv schärfer und das bezweifle ich keinesfalls. Aber ich höre da auch heraus, dass sich niemand wirklich zum Rest äußert, sondern ausschließlich zum Raytracing und explizit wird auch gesagt, dass Raytracing-Spiele davon am meisten profitieren. Wenn jemand besonders sensibel ist, und niemanden verärgern will, kann man die Aussagen auch anders deuten. Auch "It takes DLSS to the next level" ist so eine Aussage, bei der die Worte wieder sehr überlegt gewählt sind. Auch "Image Quality" to the next level...
Die Aussagen sind alle richtig (oder zumindest nicht falsch), aber keiner sagt, ob es akkurater rendert (also z.B. näher daran, wie es in 16K aussehen würde) und ob er das besser oder schlechter findet.

Ich sehe auch im Video ansonsten leider das gleiche wie davor. DLSS3.5 sieht aus meiner Sicht so aus, als wolle es dafür sorgen, dass es Menschen ästhetischer rüberkommt, aber ich denke nicht, dass das im Sinne des Spiels war, dass z.B. Beton so sehr spiegelt. Die Kanten der Wand sind auch extrem gerade und glatt. Wenn NV da sehr viel "Denoising" per AI drauf gehauen hat, würde es auch erklären, warum schwach sichtbare Details (also mit sehr geringem Kontrast zum Hintergrund) so stark verwischen. Der Filter geht vermutlich davon aus, dass sie nur "Noise" wären.

Beim Cube sieht man wieder, dass die Noise vom Raytracing weg ist. Und das ist ja auch gut so und wieder ein Argument dafür, dass Raytracing-Effekte mit DLSS 3.5 tatsächlich genauer geworden sind. (Edit: Nachdem ich einige Bilder von nassen Straßen in der Nacht angeschaut habe, muss ich mich korrigieren. Es erscheint mir verglichen damit in DLSS 3.5 zu scharf.)
Aber ich bezweifle, dass das Muster auf dem Cube 100% symmetrisch sein sollte. Dass eine KI das Bild dermaßen invasiv korrigiert, und darauf überprüft ob geometrische Muster wie Kanten etc. 100% symmetrisch sind, und das Bild dann so begradigt, dass es nur noch 100%ige Formen gibt, das geht mir extrem zu weit und macht aus dem Spiel meiner Meinung nach ein anderes. Es hat dann nichts mehr mit Upscaling zu tun.
Also selbst wenn es Absicht gewesen wäre, dass die Herz-Textur absolut symmetrisch ist, und der Grafik-Designer etwas schlampig gearbeitet hat, ist das doch noch immer ein Teil des Kunstwerks und geht eine KI eigentlich nichts an. Ich zähle als Mensch auch nicht die Pflastersteine und trete nur auf jeden x-ten usw. Das ist nicht menschlich.

Edit: Wenn man das Video mit dem Cube anhält, sieht man im Original auch, dass der Edelstahl an den Wänden gesandstrahlt ist, und sehr viele kleine vertikale Streifen hat. Im DLSS 3.5-Bild ist wieder das alte Problem zu sehen: Die Streifen wurden verwischt, vermutlich weil sie einen zu geringen Kontrast hatten, um als Detail zu zählen und als Noise gewertet wurden.
 
Zuletzt bearbeitet:
Also wirklich, ihr solltet dem Hochscalieren keine so uneingeschränkte Befürwortung schenken, weil

1. dass die Software Entwickler nur ermutigt, die Optimierung immer mehr zu vernachlässigen.
2. es eigentlich als Alternative für schwache ältere HW gedacht ist.
3. mit 4080+ Ultrafurz, erkauft man sich, völlig unnötig, ein paar Frames mit einer verschlechterten Bild Qualität.
4. wie bei 1000te solcher Algorythmen zuvor, handelt es sich hier auch nur um eine verlustbehaftete Methode
5. KI hin oder her,es wird nie original Qualität erreicht werden. Das ist wie CD und Vinyl. Bestimmte leise feine Töne kacken bei digitaler Wiedergabe ab.
 
Zurück