AMD Radeon RX 6000: Mit Super Resolution gegen Nvidia DLSS

Schön gesagt, alles in der Theorie. In der Praxis schmeiße ich Control an , wähle in Fullhd DLSS aus und das Bild ist einfach schlechter! Bewegt sich der Charakter hin und her , hat man das Gefühl man hat einen 100ms Bildschirm. DLSS schliert und zwar nicht zu knapp!! Nur in 4K funktioniert das ganz gut, trotzdem bevorzuge ich Nativ wenn die FPS passen.
für FHD ist DLSS eigentlich nicht gedacht... dafür reicht bereits eine 2060 aus, nativ
 
Schön gesagt, alles in der Theorie. In der Praxis schmeiße ich Control an , wähle in Fullhd DLSS aus und das Bild ist einfach schlechter! Bewegt sich der Charakter hin und her , hat man das Gefühl man hat einen 100ms Bildschirm. DLSS schliert und zwar nicht zu knapp!! Nur in 4K funktioniert das ganz gut, trotzdem bevorzuge ich Nativ wenn die FPS passen.

Kann man doch nicht auf alle DLSS-Games verallgemeinern!

Und ich finde das DLSS-Bild in Control besser.
 
für FHD ist DLSS eigentlich nicht gedacht... dafür reicht bereits eine 2060 aus, nativ
Ist auch nur ein Beispiel, da behauptet wird es könne besser als Nativ sein. In FullHD ist das nun mal nicht der Fall, obwohl das natürlich eine Tolle Sache für High FPS bzw 144HZ+ Spieler wäre. Ich bin der Meinung , solange etwas rekonstruiert wird, gibt es immer irgendwelche Nachteile. Ich habe mit DLSS schon in 4K(Downsamling) gut experimentiert, aber jedes mal wenn ich auf Nativ wechsel, ist das Bild noch ein wenig Plastischer und klarer. Mit dem Nvidia Nachbearbeitungstool (ALT-F3) lassen sich übrigens mit DLSS auch noch einige gute Ergebnisse erzielen in Sachen Bildqualität.

Kann man doch nicht auf alle DLSS-Games verallgemeinern!

Und ich finde das DLSS-Bild in Control besser.
BFV, Control, TombRaider hatte ich bisher, Death Stranding steht zum durchzocken noch an. Bis jetzt ist das Bild überall ähnlich. Natürlich finde ich DLSS auch gut, gerade weil die 2080 überfordert ist Nativ 4K zu stellen, aber ich finde es einfach nicht besser vom Bild her:ka:
 
Zuletzt bearbeitet:
Ansichtssache... so oder so bleibt es selbst dann die derzeit beste AA-Methode.

Das tolle Quincunx-Anti-Aliasing der ersten Xbox natürlich mal ausgenommen, das ist noch besser, aber halt nicht mehr aktuell.
 
Mich nervt etwas, dass es die resolution Technik im Treiber nicht auch als downsampling gibt. Wieso nur upsampling? Ich spiele zb alle Spiele wo das möglich ist in render resolution 1280 auf einem 4k Monitor, und es sieht sehr gut aus. Dazu erfreut man sich an niedrigen Clockraten, Voltzahlen und Energieverbrauch.
 
Mich nervt etwas, dass es die resolution Technik im Treiber nicht auch als downsampling gibt. Wieso nur upsampling? Ich spiele zb alle Spiele wo das möglich ist in render resolution 1280 auf einem 4k Monitor, und es sieht sehr gut aus. Dazu erfreut man sich an niedrigen Clockraten, Voltzahlen und Energieverbrauch.
weils kein reines upsampling ist wie oft denn noch. sehr viele server rufen diese bilder ab und versuchen sie immer wieder zu verbessern. deshalb hat das 0 mit upscaling zu tun und es sieht sogut aus das ich sogar auf meinem 4k oled bei 1080p +dlss eingeschalttet habe um zu testen und es sah wirklich besser als natives 1080p aus und hatte ca 50% mehr leistung
 
weils kein reines upsampling ist wie oft denn noch. sehr viele server rufen diese bilder ab und versuchen sie immer wieder zu verbessern. deshalb hat das 0 mit upscaling zu tun und es sieht sogut aus das ich sogar auf meinem 4k oled bei 1080p +dlss eingeschalttet habe um zu testen und es sah wirklich besser als natives 1080p aus und hatte ca 50% mehr leistung
DLSS ist und bleibt AI-Upscaling. ;)

MfG
 
DLSS ist und bleibt AI-Upscaling. ;)
Es ist zweifelsfrei Upscaling, aber eines, das Informationen nutzt, die über die reine Renderauflösung hinausgehen. Alleine durch die temporale Komponente und das SubPixel-Shifting, durch das man Details, die sonst durch die geringere Auflösung verloren gehen würde, wieder rekonstruieren kann.

Zusammen mit dem neuronalen Netz wird dann das Bild sehr nahe an die eigentlich gewünschte Auflösung herangebracht. Es ist also schon ein wenig mehr als "nur" einfaches Upscaling.

Es ist also ein Mix aus Checkerboarding a la PS4 + Neuronales Netz zur besseren Rekonstruktion.

Und da letzteres auf der AMD HW mangels Tensor Kerne nicht so ohne weiteres nachbildbar ist, bin ich sehr gespannt, wie die AMD Lösung am Ende performt.
 
Einfaches Upscaling entwickelt sich auch nicht kontinuierlich durch "dazulernen" weiter, orientiert sich nicht an 16k, kat keine temporale Komponente und macht dies alles auch nicht contentabhängig.

Warum kann man diese Fortschritte nicht mal anerkennen?
Es scheint fast so, sls ob die Leute WOLLEN, dass die Technik für alle Zeit auf dem selben Level stehen bleibt, wie in einem BR-Player vor 10 Jahren.
 
Wozu braucht man dann einen 4K Monitor? Verstehe ich nicht.
Das ist mein 4k Laptop am Laptop. Natürlich würd ich mir nie ein 4k Monitor kaufen fürn PC. Aber so hab ich einen ruhigen laptop der kühl läuft.Nur wenige Spiele unterstützen in den Settings leider eine getrennte render Auflösung, WoW zB. So hat man ein 4k GUI aber eine intern bei 1280 gerenderte 3d engine, fällt jetzt nicht wirklich auf. Kantenglättung braucht man auch nicht mehr dann.
 
Und hier liegst du eben falsch. Es ist sehr wohl möglich, dass die Texturen genauso gut sind, es geht sogar auch deutlich besser, als das Original. Was nicht geht ist identisch, das kann man wirklich nicht machen.



Wenn du die beiden so miteinander vergleichst, dann zeigt es, dass du das ganze nicht wirklich verstanden hast.



Du hast da noch die Bewegungsanalyse und einen ganzen Haufen andere Dinge vergessen. Aber gut, wenn man wichtige Schritte wegläßt, dann wird alles so einfach...
Deine Fähigkeit zur Abstraktion ist nicht besonders weit entwickelt. Von Deinem Textverständnis ganz zu schweigen.
Es ist zweifelsfrei Upscaling, aber eines, das Informationen nutzt, die über die reine Renderauflösung hinausgehen. Alleine durch die temporale Komponente und das SubPixel-Shifting, durch das man Details, die sonst durch die geringere Auflösung verloren gehen würde, wieder rekonstruieren kann.

Zusammen mit dem neuronalen Netz wird dann das Bild sehr nahe an die eigentlich gewünschte Auflösung herangebracht. Es ist also schon ein wenig mehr als "nur" einfaches Upscaling.

Es ist also ein Mix aus Checkerboarding a la PS4 + Neuronales Netz zur besseren Rekonstruktion.

Und da letzteres auf der AMD HW mangels Tensor Kerne nicht so ohne weiteres nachbildbar ist, bin ich sehr gespannt, wie die AMD Lösung am Ende performt.
Was ist denn eigentlich ein Tensor?
Ich hätte angenommen, dass das Neuronale Netz nur zum Anlernen benutz wird,
also um den Parametersatz zu bestimmen.
Danach braucht man kein neuronales Netz mehr.
Oder nutzt DLSS 2.0 Reinforced ML?
Gibt es dazu einen Artikel?
 
Zuletzt bearbeitet:
Zurück