News DLSS 3.5 kommt für alle Geforce-RTX-Karten - Das sagt das PCGH-Team dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS 3.5 kommt für alle Geforce-RTX-Karten - Das sagt das PCGH-Team dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "DLSS 3.5 kommt für alle Geforce-RTX-Karten ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS 3.5 kommt für alle Geforce-RTX-Karten - Das sagt das PCGH-Team dazu
 
Spannend wird auf jeden Fall wie tief der DLSS Denoiser eingebaut werden muss. Wenn das tatsächlich kein Fullscreen Effekt ist, wie alles was bisher DLSS heißt, wird das für den Entwickler ja doch spürbar komplexer. Vorallem weil man an ähnlicher Stelle ja noch den Fallback für AMD und Intel verbauen muss, den aber vielleicht anders beschicken will/muss.
 
Zuletzt bearbeitet:
DLSS 3.5 sieht vielversprechend aus und bin froh, um die technische Weiterentwicklung. Leider funktioniert diese verbesserte Denoiser nur in Verbindung mit DLSS und nicht mit nativer Auflösung. Ob er auch mit DLAA funktioniert, weiß ich nicht.
 
Schöne Show und Schein Mittel, da bin ich bei Torsten, Upscale bleibt Upscale. Es funktioniert und sieht auch gut aus aber native 4k sinds nicht. Bei Filmen nutzen sie das auch, es kommt halt drauf an wie gut es gemacht ist. Es ist halt auch der nächste, logische Schritt im mehr Leistung rauszuholen.
 
Und was bringt das?
Ich dachte, es muß speziell im Spiel unterstützt und freigeschaltet werden. Also Mehraufwand für die Entwickler als es das simple tauschen einer DLL Datei ist.
Ging auch eher darum, dass von Version 3.1 zu 3.5 sicher auch generelle Verbesserungen drin sind welche durch einfaches Austauschen der .dll per DLSSSwapper (welcher diese jedoch noch nicht drin hat) und Konfigurieren mit DLSSTweaks genutzt werden können.
 
Klingt alles sehr gut, bin aber auch von Herrn Vogel's Meinung angetan.
Mal schauen, wann sich die Spiele-Entwicklung deutlicher weg von menschlich generiert hin zu maschinell generiert entwickelt und wie "spannend & überraschend" dann Spiele noch werden können. Im Bereich der Optik / Darstellung ist der Trend ja schonmal sehr klar erkennbar. Ob das auf lange Sicht ausschließlich gut ist, wird sich zeigen.
 
Ich bin ja oft bei Torsten was Meinungen und Einschätzungen an geht, aber hier überhaupt nicht. Hier halte ich es mit Raff: Am Ende ist vollkommen egal wie "fake" oder nativ die Berechnung ist. Was zählt ist ein gutes Bild in ordentlichen FPS/€. Wenn den Weg dahin Tensorkerne statt Shadereinheiten ebnen dann ist das genau so gut wie anders herum.
 
Hier halte ich es mit Raff: Am Ende ist vollkommen egal wie "fake" oder nativ die Berechnung ist. Was zählt ist ein gutes Bild in ordentlichen FPS/€. Wenn den Weg dahin Tensorkerne statt Shadereinheiten ebnen dann ist das genau so gut wie anders herum.
Sehe ich auch so, Rastergrafik ist doch gerade erst recht zum größten Teil Fake und Trickserei. Das Ergebnis zählt ja eher.
 
Ich bin ja oft bei Torsten was Meinungen und Einschätzungen an geht, aber hier überhaupt nicht. Hier halte ich es mit Raff: Am Ende ist vollkommen egal wie "fake" oder nativ die Berechnung ist. Was zählt ist ein gutes Bild in ordentlichen FPS/€. Wenn den Weg dahin Tensorkerne statt Shadereinheiten ebnen dann ist das genau so gut wie anders herum.
Der Meinung bin ich auch, letztendlich zählt die Bildqualität.
Wichtig ist hierbei auch nicht zu vergessen dass eine gute Bildqualität mit Shadereinheiten sehr energieintensiv ist, man vergisst ja häufig wieviel Energie und Abwärme man durch schlaue Upscalinglösungen erspart.
 
Da ich mehr PVP Spiele spiel, sind diese ganze Upscaler und vorallem FrameGen/FluidMotion komplett egal.
Bei den Upscalern kann es passieren das etwas dazugedichtet wird, absolut unbrauchbar.
FG/FM steigern zwar die FPS, aber die Bilder sind nicht echt, also nicht aktuell und erhöhen die Latenz extrem, wobei da sehe ich bei AMD einen riesen vorteil mit AL/AL+.
"AbEr Es GiBt AuCh Nv-ReFlEx" mag ja sein, dass Reflex besser als AL ist, aber nachdem dieses Feature so extrem selten genutzt wird, hat es kaum eine Relevanz im Gaming.
Aber gut, diese ganzen KI Features muss man ja bringen, damit man kleinere Chips für höhere Preise auf den Markt bringt und sagt: "Hey, da haben wir einen riesen Leistungssprung, aber bitte schaut nicht auf die Details, sonst merkt man, dass wir euch nur abzocken"

Hmm, vllt. kamen diese Generation noch keine Karten für das Competetive Gaming raus, weil man da einfach nichts zu bieten hat, in der Rohleistung nunmal mehr Zählt, als KI-Feen-Zauber und eine menge Effekte, damit man mit augenwischerei die Fanboys/girls zum Verteidigen voran schickt
 
@K2MFR die Latenz ist mit Frame Generation niedriger als nativ und AMD wird an FG nicht rankommen, so viel steht fest.
Immerhin hat Nvidia Optical Flow Accelerator, um die Latenz so niedrig wie möglich zu halten. AMD hat sowas nicht ;)
 
Was interessiert die Latenz wenn der Inputlag so hoch ist durch Framegeneration. Schlechtestes Feature das ich jemals testen durfte.

Vielleicht wird es besser in der 2 oder 3 Generation des Features, aber momentan ist das einfach nicht gut. Da verzichte ich lieber auf ein paar FPS dafür habe ich eine direkte Eingabe. Auf AMD wird es wahrscheinlich noch schlimmer. DLSS alles schön und gut aber Framegen ist Kacke.
 
Auf ein paar FPS? Das geht schon in hohen 2 Stelligen Bereich...
Er hat dennoch recht. Frame generation ist grauenvoll unresponsiv und die höheren fps gleichen nicht mal annähernd das entstehende input lag aus.

In der Zeit von meiner Handbewegung bis sich die maus ingame bewegt kann ich zwei mal Augenzwinkern ohne dass was passierz ist....
@K2MFR die Latenz ist mit Frame Generation niedriger als nativ und AMD wird an FG nicht rankommen, so viel steht fest.
Immerhin hat Nvidia Optical Flow Accelerator, um die Latenz so niedrig wie möglich zu halten. AMD hat sowas nicht ;)
Das ist völliger Blödsinn.

Weder so angekündigt noch so in Wirklichkeit. Frame generation erhöht die latenz da die Grafikkarte zur Berechnung der Zwischenbilder Zeit benötigt. Da insgesamt mehr Bilder in dieser Zeit dargestellt werden sieht das Bild flüssiger aus aber von der Aktion zum Ergebnis der Aktion vergeht insgesamt sogar mehr Zeit.
Da ich mehr PVP Spiele spiel, sind diese ganze Upscaler und vorallem FrameGen/FluidMotion komplett egal.
Bei den Upscalern kann es passieren das etwas dazugedichtet wird, absolut unbrauchbar.
FG/FM steigern zwar die FPS, aber die Bilder sind nicht echt, also nicht aktuell und erhöhen die Latenz extrem, wobei da sehe ich bei AMD einen riesen vorteil mit AL/AL+.
"AbEr Es GiBt AuCh Nv-ReFlEx" mag ja sein, dass Reflex besser als AL ist, aber nachdem dieses Feature so extrem selten genutzt wird, hat es kaum eine Relevanz im Gaming.
Aber gut, diese ganzen KI Features muss man ja bringen, damit man kleinere Chips für höhere Preise auf den Markt bringt und sagt: "Hey, da haben wir einen riesen Leistungssprung, aber bitte schaut nicht auf die Details, sonst merkt man, dass wir euch nur abzocken"

Hmm, vllt. kamen diese Generation noch keine Karten für das Competetive Gaming raus, weil man da einfach nichts zu bieten hat, in der Rohleistung nunmal mehr Zählt, als KI-Feen-Zauber und eine menge Effekte, damit man mit augenwischerei die Fanboys/girls zum Verteidigen voran schickt
Und dein rumgehate ist ehrlich besser?!? Gerade die argumentationsart logische handkungen in Frage zu stellen ist echt wild. Dass man solche features nicht für competetive gamer bewirbt, wo sich da ja eine menge Tyoen rum tummeln mit ähnlichen denkweisen wie du.

Wenn ich Kondome verkaufen möchte gehe ich auch eher in den Swingerklub als in das Kloster.... Ist doch nur logisch.

So ein extremes Teufelszeug sind dann manche der features aber eben nicht. Gerade die Kantenglättung von dlss bzw dlaa ist um längen besser als faa/taa/msaa und dabei auch noch performanter als diese Methoden.

Das auch die Grafikkarten immer kleinere Sprünge machen ist ja der Physik geschukdet dennoch. Gerade die High End grafikkarten der 40er Generationen haben nochmal einen großen Sprung gegenüber der 30er gemacht. Auch in reiner rastarisierung.

Und gerade da manche leute die nachteile schlichtweg nicht erkennen können von dlss framegeneration und co. Die wären doof solche Features liegen zu lassen auch wenn es für mich meistens nichts ist.
 
Zuletzt bearbeitet:
Das ist völliger Blödsinn.
Nein.

Weder so angekündigt noch so in Wirklichkeit. Frame generation erhöht die latenz da die Grafikkarte zur Berechnung der Zwischenbilder Zeit benötigt. Da insgesamt mehr Bilder in dieser Zeit dargestellt werden sieht das Bild flüssiger aus aber von der Aktion zum Ergebnis der Aktion vergeht insgesamt sogar mehr Zeit.
Doch. FG erhöht sie und Reflex + DLSS senkt sie, dadurch ist sie in Summe niedriger:
Screenshot 2023-09-12 082209.jpg

Quelle: https://www.computerbase.de/2023-06.../2/#abschnitt_benchmarks_in_fhd_mit_dlss_2__3

Hier von Nvidia selbst: https://www.hardwareluxx.de/images/...nvidia-dlss3-update-briefing-00015_1920px.png
Aber wurde ja angeblich nicht so angekündigt :ugly:

In wenigen Ausnahmen ist sie gleichwertig bis minimal schlechter, aber kann mir niemand erzählen, dass man den Unterschied zwischen 28 ms und 33 ms merkt. Wer das glaubt, hört auch Gras wachsen.

Gibt genug Tests dazu, die das bestätigten, aber irgendwie scheint das nicht bei jedem angekommen zu sein.
Bevor du also das Gegenteil behauptest, informiere dich gescheit.
 
Zuletzt bearbeitet:
Zurück