Frage zu DLSS (4K Quality vs 8K Ultra Performance)

Dr1val

Software-Overclocker(in)
Moin in die Runde,


ich bin eben gerade auf Youtube auf dieses Video von PCGH vom Februar gestoßen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
(PCGH-Streitgespräch | 4K gegen 8K Auflösung | Wer braucht 500 Hz bei Gaming-Displays?).

Ich hatte es bisher noch nicht gesehen und es hat mich irgendwie zum Nachdenken angeregt. Allerdings geht es in dem Video ja eigentlich um Monitore und die Sinnhaftigkeit von gewissen Auflösungen und bestimmten Bildwiederholfrequenzen. - darauf spiele ich mit meiner Frage gar nicht an. Mir geht es vielmehr um die verschiedenen DLSS-Upscaling-Faktoren bei unterschiedlichen Auflösungen:

In dem Video wird ja eine Tabelle eingeblendet, die zeigt, dass die Renderauflösung bei einer eingestellten Auflösung von 7680x4320 ("8K") mit DLSS Ultra Performance dieselbe ist wie bei einer eingestellten Auflösung von 3840x2160 (UHD) mit DLSS Quality - nämlich 2560x1440 (WQHD).

In der Theorie mag das zwar stimmen, jedoch erreicht man in der Praxis in UHD mit DLSS Quality deutlich mehr FPS als in "8K" mit DLSS Ultra Performance, obwohl intern mit der gleichen Auflösung (WQHD) gerechnet wird, die dann halt entsprechend hochskaliert wird. Ich habe das eben selbst einmal in Death Stranding: Director's Cut verifiziert, welches ich gerade spiele:
Anhang anzeigen 4K.jpg
UHD mit DLSS Quality: ~ 120 FPS

Anhang anzeigen 8K.jpg
"8K" mit DLSS Ultra Performance: ~ 80 FPS

Meine Frage nun: Warum ist das eigentlich so? Ich erreiche in 8K mit DLSS Ultra Performance circa 50% weniger FPS als in 4K mit DLSS Quality, obwohl ja, wie schon erwähnt, jeweils mit der gleichen internen Renderauflösung gearbeitet wird. Auch wird in "8K" mehr VRAM veranschlagt und ich verbrauche mehr Strom (was ja ohne DLSS auch logisch wäre!).

Ich spiele auf einem 27" UHD Monitor mit 144 HZ (LG27GP950-B), auf welchem alleine 4K aufgrund der hohen ppi schon sehr scharf aussieht (kommt in den Screenshots von Steam jetzt gar nicht so rüber :D). Obwohl das Ergebnis eigentlich gleich sein müsste, bilde ich mir ein, dass "8K" mit DLSS Ultra Performance (DSR-Faktoren mit 4.00x in der NV-Systemsteuerung aktiv) nochmal einen Ticken besser aussieht. Kann mich mal jemand bestätigen, falls ich mich nicht täusche und mir erklären warum das so ist? Ich will es nämlich verstehen. ^^
 
Ohne hier fundierte Kentnisse zu haben mal mein persönlicher Tip:

Bei 4k errechnest du aus 1px 2,25px, bei 8k errechnest du aus 1px 9px und aus denen wieder 2,25px. Das macht natürlich mehr Aufwand. Folglich braucht man mehr Rechenleistung und bekommt weniger fps. Und die ganzen Daten wollen ja auch irgendwo zwischengespeichert werden, folglich braucht man auch mehr Speicher.

Das 8k nochmal besser aussieht wird daran liegen das man halt nochmal supersampling betreibt.
 
Das ergibt Sinn, was Du sagst mit der Zwischenspeicherung! Daran habe ich noch gar nicht gedacht. Ja, der Rechenaufwand, der dahinter steckt aus einem Pixel mehrere zu generieren oder auch zusätzlich noch Downsampling zu betreiben, muss sich ja auch irgendwo niederschlagen. Man schaut natürlich meistens nur auf die Einstellungen, das fertige Bild und wieviel FPS man hat.

Interessanterweise ist auch das Plus an FPS, was man von DLSS Ultra Performance auf DLSS Performance in Relation zu beispielsweise DLSS Performance auf DLSS Quality gewinnt auch oft gar nicht so groß, wie man eigentlich erwarten würde. Das sieht man natürlich auch in der einen oder anderen Benchmark-Tabelle.
 
Zuletzt bearbeitet:
Ich halte grundsätzlich nichts von mehr als 120 FPS in Spielen. Je mehr FPS um so geringer ist die Qualität.

Je geringer die Qualität, um so weniger Atmosphäre ist im Spiel vorhanden damit man sich in diese Welt hinein denken/sehen kann.

4k ist der neue Standard, 8k wird es in ca. 10 Jahren soweit sein. Eben weil 4k@120 hz mit maximalen Einstellungen eine schwere Hürde sind.

Je weiter die Entwicklung der Spiele gehen, um so mehr grafische Features gibt es. Also die Last der Darstellung steigt enorm an.

Wenn man endlich mal runde pixel einführen würde, könnte man sich das Anti Aliasing sparen = mehr Performance für wichtigere Dinge.

Trotzdem muss ich derzeit in 4k mit AA Spielen :(
 
Anscheinend braucht der DLSS Anteil in der Pipeline bei Ultra Performance deutlich mehr Zeit. Zudem wird bei "korrekt" implementierten DLSS das LOD der Engine abhängig von der Zielauflösung verändert, auch da könnte etwas Leistung liegen bleiben. Bei DEM Leistungsunterschied dürfte natives UHD aber auch kaum weniger FPS bringen.
Gibt es eigentlich irgendwo einen Input-Lag Vergleich DLSS vs. nativ? Ich hab das schonmal irgendwo erwähnt: Aus Leistungssicht müsste zwischen Rendering und DLSS eigentlich ein Doublebuffer liegen so dass immer Bild n+1 schon gerendert wird während Bild n skaliert wird. Das würde aber den Lag etwas vergrößern.
 
Zuletzt bearbeitet:
Anscheinend braucht der DLSS Anteil in der Pipeline bei Ultra Performance deutlich mehr Zeit.
Bei DEM Leistungsunterschied dürfte natives UHD aber auch kaum weniger FPS bringen.
Ja, das kann sein. Ich spiele auch nicht in 8K mit Ultra Performance. Wollte halt nur mal gucken, was so geht, da das Spiel doch sehr gut optimiert zu sein scheint.

Nativ in UHD mit TAA habe ich auch gar nicht viel weniger FPS als mit DLSS Quality, so circa 100-105 FPS. Ich spiele trotzdem mit DLSS in diesem Spiel, weil mich das Flimmern an Kanten von Zäunen, Lampen usw. nervt und man das mit DLSS echt gut wegbekommt.
 
Made my day, runde Pixel.:lol:
Fast so gut wie, mehr fps=geringere Qualität.
Der neue Alienware Monitor verwendet die Pixel in einer Dreieck Aufstellung. Weshalb die Darstellung von Inhalten eine farbliche Veränderung hat, gegenüber der normalen Anordnung.

Runde Pixel wären sinnvoller da dadurch der Treppeneffekt (Aliasing) reduziert werden kann, ohne das dadurch Anti-Aliasing aktiviert werden muss, was enorm viel Leisgung kostet.

Mehr FPS erhält man meistens durch die Reduzierung von Effekten oder allgemein durch den Verlust von Grafik/Auflösung.


Das meine ich ernst, weil das genau so ist.


DLSS ist nichts anderes als eine reduzierung der Grafik in der diese künstlich (reduziert) dargestellt wird.
Anscheinend braucht der DLSS Anteil in der Pipeline bei Ultra Performance deutlich mehr Zeit. Zudem wird bei "korrekt" implementierten DLSS das LOD der Engine abhängig von der Zielauflösung verändert, auch da könnte etwas Leistung liegen bleiben. Bei DEM Leistungsunterschied dürfte natives UHD aber auch kaum weniger FPS bringen.
Gibt es eigentlich irgendwo einen Input-Lag Vergleich DLSS vs. nativ? Ich hab das schonmal irgendwo erwähnt: Aus Leistungssicht müsste zwischen Rendering und DLSS eigentlich ein Doublebuffer liegen so dass immer Bild n+1 schon gerendert wird während Bild n skaliert wird. Das würde aber den Lag etwas vergrößern.
Das Level of Detail fällt bei der UE5 weg, weshalb dies nur noch einen unbedeutende Teil ausmacht.

Das was am meisten Leistung kostet ist Schatten und Licht. Da hat DLSS die größte Hürde.

Siehe Raytracing, das ist eine Reflexion die auf Licht und Schatten aufbaut. In den meisten Spielen gibt es undynamische Haupt-Lichtquellen, während Nebenquellen temporär dynamisch sind.

Ein größeres Problem stellt der Speicher da. Ein Hochauflösender Stein kann schon 1gb Speicher ausmachen. Nicht multipliziert, je nach Variation.
Der Grund warum die Spiele immer mehr Festplattenspeicher brauchen.

Die beste Lösung dafür währe, wenn der PC die Textur selbst zusammensetzten (erfinden/ausdenken) könnte. So würde man die Limitierung des Speichers umgehen!
 
Zuletzt bearbeitet:
@Todesklinge Ich fürchte du hast meinen Post nicht verstanden und was DLSS tut auch nicht.
DLSS ist vollkommen egal wie das behandelte Bild gerendert wurde. Aber die Zielauflösung von DLSS wird bei manchen Spielen dafür genutzt zu ändern was VOR DLSS selbst passiert.
Nanite ist übrigens eine Umsetzung eines LOD Systems welche dem Entwickler(!) Arbeit abnimmt, aber nicht dessen Abwesenheit im Rendering.
 
@Todesklinge
Das sind keine Pixel, sondern OLEDs die so angeordnet sind.
Bau mal in nen LCD runde Pixel ein, das Bild wird bescheiden sein.

Ahja, man kann also nur bis 120fps und vollen Grafikdetails in Spielen haben.
Also musst du unbedingt immer alle regler nach rechts schieben.
Na dann viel Spaß mit dem Geruckle bei 30fps und weniger in vielen Spielen.
Es gibt halt Leute denen sind hohe fps wichtiger als der korrekt geworfene Schatten eines Blattes hinten rechts im Bild.
 
Ist ein Pixel nicht per Definition einfach nur ein Bildelement, sprich kleinste diskrete Einheit, die digital dargestellt wird? Ist ja erstmal irrelevant, ob dieser - nennen wir ihn "Punkt" - rund, quadratisch oder dreieckig ist. ^^

Ich kann sagen, dass ich ein Freund von DLSS in seiner aktuellen Ausführung (2.4?) bin. Und wenn man die Grafikpower hat, kann man ja sogar DLDSR 2.25x in Kombination mit DLSS Quality nutzen und ist dann quasi wieder bei seiner nativen Auslösung. Mit adäquater Nachschärfung je nach Spiel sieht das dann meiner Meinung nach sogar besser aus als alle anderen Kantenglättungsvarianten.
Ahja, man kann also nur bis 120fps und vollen Grafikdetails in Spielen haben.
Also musst du unbedingt immer alle regler nach rechts schieben.
Ich möchte tatsächlich beides, so gut es geht (~100-120 FPS & UHD oder 3840x1600), bin mir aber auch dessen bewusst, dass das bei grafischen Leuchtturmspielen zu ihrem Release mit der dann jeweils verfügbaren GPU-Generation schwer zu realisieren ist.

Als Ausgangspunkt arbeite ich mich im Grafikmenü eines Spieles schrittweise mit den Reglern von rechts nach links bis mir die FPS zusagen. Dann entscheide ich, ob ich das bei der Grafik dann spielen möchte oder eben nicht. Natürlich reicht auch ein "hoch" oder "sehr hoch" oft aus. Wenn ich ein Spiel unbedingt zu Release spielen will, dann schlucke ich natürlich die bittere Pille und verzichte auf Grafikdetails.

Bei so anspruchsvollen Grafikbrettern wie Cyberpunk 2077 oder Dying Light 2 ist das natürlich auch wesentlich schwieriger einen guten Kompromiss zu finden, gerade in 4K. Eben diese beiden Spiele werde ich daher beispielsweise auch erst mit der nächsten oder übernächsten Grafikkartengeneration spielen. Dann sind sie bestimmt auch fertig durchgepatcht, "optimiert", ihrer GOTY-Edition verfügbar und die Grafikpower wird da sein.
 
Zurück