Dr1val
Software-Overclocker(in)
Moin in die Runde,
ich bin eben gerade auf Youtube auf dieses Video von PCGH vom Februar gestoßen:
Für mehr Informationen besuche die Datenschutz-Seite.
(PCGH-Streitgespräch | 4K gegen 8K Auflösung | Wer braucht 500 Hz bei Gaming-Displays?).
Ich hatte es bisher noch nicht gesehen und es hat mich irgendwie zum Nachdenken angeregt. Allerdings geht es in dem Video ja eigentlich um Monitore und die Sinnhaftigkeit von gewissen Auflösungen und bestimmten Bildwiederholfrequenzen. - darauf spiele ich mit meiner Frage gar nicht an. Mir geht es vielmehr um die verschiedenen DLSS-Upscaling-Faktoren bei unterschiedlichen Auflösungen:
In dem Video wird ja eine Tabelle eingeblendet, die zeigt, dass die Renderauflösung bei einer eingestellten Auflösung von 7680x4320 ("8K") mit DLSS Ultra Performance dieselbe ist wie bei einer eingestellten Auflösung von 3840x2160 (UHD) mit DLSS Quality - nämlich 2560x1440 (WQHD).
In der Theorie mag das zwar stimmen, jedoch erreicht man in der Praxis in UHD mit DLSS Quality deutlich mehr FPS als in "8K" mit DLSS Ultra Performance, obwohl intern mit der gleichen Auflösung (WQHD) gerechnet wird, die dann halt entsprechend hochskaliert wird. Ich habe das eben selbst einmal in Death Stranding: Director's Cut verifiziert, welches ich gerade spiele:
Anhang anzeigen 4K.jpg
UHD mit DLSS Quality: ~ 120 FPS
Anhang anzeigen 8K.jpg
"8K" mit DLSS Ultra Performance: ~ 80 FPS
Meine Frage nun: Warum ist das eigentlich so? Ich erreiche in 8K mit DLSS Ultra Performance circa 50% weniger FPS als in 4K mit DLSS Quality, obwohl ja, wie schon erwähnt, jeweils mit der gleichen internen Renderauflösung gearbeitet wird. Auch wird in "8K" mehr VRAM veranschlagt und ich verbrauche mehr Strom (was ja ohne DLSS auch logisch wäre!).
Ich spiele auf einem 27" UHD Monitor mit 144 HZ (LG27GP950-B), auf welchem alleine 4K aufgrund der hohen ppi schon sehr scharf aussieht (kommt in den Screenshots von Steam jetzt gar nicht so rüber ). Obwohl das Ergebnis eigentlich gleich sein müsste, bilde ich mir ein, dass "8K" mit DLSS Ultra Performance (DSR-Faktoren mit 4.00x in der NV-Systemsteuerung aktiv) nochmal einen Ticken besser aussieht. Kann mich mal jemand bestätigen, falls ich mich nicht täusche und mir erklären warum das so ist? Ich will es nämlich verstehen. ^^
ich bin eben gerade auf Youtube auf dieses Video von PCGH vom Februar gestoßen:
Eingebundener Inhalt
Youtube
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst:
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.Für mehr Informationen besuche die Datenschutz-Seite.
Ich hatte es bisher noch nicht gesehen und es hat mich irgendwie zum Nachdenken angeregt. Allerdings geht es in dem Video ja eigentlich um Monitore und die Sinnhaftigkeit von gewissen Auflösungen und bestimmten Bildwiederholfrequenzen. - darauf spiele ich mit meiner Frage gar nicht an. Mir geht es vielmehr um die verschiedenen DLSS-Upscaling-Faktoren bei unterschiedlichen Auflösungen:
In dem Video wird ja eine Tabelle eingeblendet, die zeigt, dass die Renderauflösung bei einer eingestellten Auflösung von 7680x4320 ("8K") mit DLSS Ultra Performance dieselbe ist wie bei einer eingestellten Auflösung von 3840x2160 (UHD) mit DLSS Quality - nämlich 2560x1440 (WQHD).
In der Theorie mag das zwar stimmen, jedoch erreicht man in der Praxis in UHD mit DLSS Quality deutlich mehr FPS als in "8K" mit DLSS Ultra Performance, obwohl intern mit der gleichen Auflösung (WQHD) gerechnet wird, die dann halt entsprechend hochskaliert wird. Ich habe das eben selbst einmal in Death Stranding: Director's Cut verifiziert, welches ich gerade spiele:
Anhang anzeigen 4K.jpg
UHD mit DLSS Quality: ~ 120 FPS
Anhang anzeigen 8K.jpg
"8K" mit DLSS Ultra Performance: ~ 80 FPS
Meine Frage nun: Warum ist das eigentlich so? Ich erreiche in 8K mit DLSS Ultra Performance circa 50% weniger FPS als in 4K mit DLSS Quality, obwohl ja, wie schon erwähnt, jeweils mit der gleichen internen Renderauflösung gearbeitet wird. Auch wird in "8K" mehr VRAM veranschlagt und ich verbrauche mehr Strom (was ja ohne DLSS auch logisch wäre!).
Ich spiele auf einem 27" UHD Monitor mit 144 HZ (LG27GP950-B), auf welchem alleine 4K aufgrund der hohen ppi schon sehr scharf aussieht (kommt in den Screenshots von Steam jetzt gar nicht so rüber ). Obwohl das Ergebnis eigentlich gleich sein müsste, bilde ich mir ein, dass "8K" mit DLSS Ultra Performance (DSR-Faktoren mit 4.00x in der NV-Systemsteuerung aktiv) nochmal einen Ticken besser aussieht. Kann mich mal jemand bestätigen, falls ich mich nicht täusche und mir erklären warum das so ist? Ich will es nämlich verstehen. ^^