• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Radeon RX 6000: Mit Super Resolution gegen Nvidia DLSS

dampflokfreund

PC-Selbstbauer(in)
Steigt die RT Performance massiv und kann nativ dargestellt werden ist DLSS nicht mehr nötig.
Das sehe ich komplett anders.

Selbst wenn eine neue Karte rauskäme die Watch Dogs Legion in nativen 4K60 in Ultra mit RT darstellen kann, dann wird es nachfolgende Spiele geben, die herausfordernder für die Hardware werden. Du vergisst, dass Fortschritt nicht still steht und mit steigender GPU-Leistung auch die Hardwareanforderungen von neuen Spielen steigen werden und hierbei kann DLSS der Karte helfen wieder 4K60 in Ultra zu erreichen.

Und selbst in Watch Dogs Legion könnte man mit dieser Karte DLSS nutzen um über 100 FPS zu erhalten um damit einen High Refreshrate Monitor zu befeuern (CPU Limits lass ich mal außen vor, da es hier nur um Grafik geht).

Mehr FPS bei gleichbleibender Bildqualität ist immer besser, period. Und damit wird AI Rekonstruktion auch immer nützlich bleiben.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Nun wird hier impliziert, dass die Texturen genauso gut seien. Das ist natürlich
informationstheoretisch UNMÖGLICH!

Und hier liegst du eben falsch. Es ist sehr wohl möglich, dass die Texturen genauso gut sind, es geht sogar auch deutlich besser, als das Original. Was nicht geht ist identisch, das kann man wirklich nicht machen.

Nichts anderes passiert in meinem Heimkino, wenn ich eine BR von meinem UHD-Player skalieren lasse statt vom TV, weil der Algorithmus vom UHD-Player es besser macht.

Wenn du die beiden so miteinander vergleichst, dann zeigt es, dass du das ganze nicht wirklich verstanden hast.

DLSS 2.0 for Dummies:
Rechnen in niedriger Auflösung -> Mehr Frames -> Hockskalieren mit ML-Algorithmus -> Schärfen

Du hast da noch die Bewegungsanalyse und einen ganzen Haufen andere Dinge vergessen. Aber gut, wenn man wichtige Schritte wegläßt, dann wird alles so einfach...
 
Zuletzt bearbeitet:

Gabbyjay

Freizeitschrauber(in)
Sind wir, also die Leute, die DLSS so richtig gut und eigentlich total super finden, die Guten hier eigentlich?
Glaub fast nicht, oder?
Weil nVidia mit der eigenbrötlerischen proprietären Technik und den hohen Preisen und allem, sind ja auch böse.
Jedenfalls gewinnen wir hier, denk ich.
 

sunburst1988

Software-Overclocker(in)
Muss man eine Meinung dem "Guten" zuordnen können?
DLSS ist sicherlich eine richtungsweisende Technologie. Ob man aber gut findet, dass sie nur auf RTX-Karten läuft ist eine andere Frage.

Für mich ist es jedenfalls nur eines von vielen Kaufargumenten. Da ich den Speicher sehr wichtig finde muss ich also die 6800XT gegen die 3090 stellen. Ausser der leicht höheren Leistung und eben DLSS spricht da dann aber alles für die AMD-Karte. Vor allem der Preis.
 

chill_eule

BIOS-Overclocker(in)
Und nicht den "rage-mode" vergessen :devil:
Der kann ja auch einfach treiberseitig aktiviert werden bei Bedarf, in den ach so schlechten AMD Treibern.
Frage mich immer, warum gefühlt 95% aller Nvidia Nutzer auch den MSI Afterburner installiert haben (müssen) :P
 

dmasiretteb

PC-Selbstbauer(in)
Um ehrlich zu sein ist die Bildqualität in manchen Bereichen besser dafür in anderen schlechter als Nativ. Pauschal zu sagen ist besser als Nativ ist nicht wahr. Wie soll das auch möglich sein? Nimmt man halt mit für diesen Performance uplift.
 

Gabbyjay

Freizeitschrauber(in)
Um ehrlich zu sein ist die Bildqualität in manchen Bereichen besser dafür in anderen schlechter als Nativ. Pauschal zu sagen ist besser als Nativ ist nicht wahr. Wie soll das auch möglich sein? Nimmt man halt mit für diesen Performance uplift.
Warum soll es nicht möglich sein, wenn es wie Du sagst doch in manchen Bereichen schon so ist?
 

Grestorn

BIOS-Overclocker(in)
Etwas was bei DLSS gerne übersehen wird, ist die temporäre Komponente.

Das Bild wird in jedem Frame um ein Subpixel versetzt berechnet (also weniger als ein Pixel versetzt), so dass man abwechselnd in jedem Frame ein winziges Detail mit berücksichtigt, das durch die geringere Auflösung sonst verloren gehen würde.

Und aus diesen über die Zeit ermittelten Detaildaten rekonstruiert DLSS dann das Bild in voller Auflösung.

Das ist ganz ähnlich wie das PS4 Checkerboard, nur noch mal ne ganze Stufe besser durch den Einsatz von AI Algorithmen.
 

wuselsurfer

Lötkolbengott/-göttin
Ja aber was macht der Typ da kung fu? Was ich markiert habe ist ja mordsgefärhlich dort
Das sind Fachwerkhäuser!
Die kann man mit dem Köfferchern nicht beschädigen.
Da fliegt ein bißchen Putz von den Fächern und gut.

Ein ähnliches Haus, wie im Hintergrund mit der grauen Tür, wollte man mal mit einem UB 80 (Bagger) einreißen.
Klatsch - und der Bagger lag auf der Seite. :lol:

Da waren schon alle Fächer leer!
Dann hat man schön alle Balken ausgezapft und einzeln abgebaut ... .
Die Balken waren um die 200 Jahre alt.
 

Arkonos66623

Freizeitschrauber(in)
Wer glaubt DLSS schaut besser aus als Nativ hat Tomaten auf den Augen....in 1080p erzeugt DLSS 2.0 schlieren wie blöd = unbrauchbar. In 4K funktioniert DLSS ganz gut, Nativ 4K ist trotzdem Plastischer/Schärfer.
 

Grestorn

BIOS-Overclocker(in)
Wer glaubt DLSS schaut besser aus als Nativ hat Tomaten auf den Augen....in 1080p erzeugt DLSS 2.0 schlieren wie blöd = unbrauchbar. In 4K funktioniert DLSS ganz gut, Nativ 4K ist trotzdem Plastischer/Schärfer.
Es kann feine Details besser rekonstruieren, die normalerweise zu fein sind für die native Renderauflösung. So etwas wie Maschendrahtzäune, Stromleitungen und andere feine Strukturen, die sonst abgehackt wirken und in Bewegung flimmern.

Der Trade-Off ist das nachziehen von Kanten durch den temporalen Anteil. Den man aber auch bei TAA und anderen modernen Effekten hat.

Schärfer ist nicht unbedingt besser. Auch Minecraft ist superscharf (die Monsterpixel) aber deswegen nicht unbedingt detailliert. Viele Leute verwechseln das mit schöner Regelmäßigkeit.
 

Gabbyjay

Freizeitschrauber(in)
An den Schlieren wird gearbeitet.

Ich ziehe allerdings auch Geisterbilder und Schlieren hinter mir her, wenn ich mich bewege. Warum, weiß niemand.
 

RNG_AGESA

Software-Overclocker(in)
ich lass das einfach mal hier so stehen

Das Oktober-Update von Wolfenstein: Youngblood fügt Unterstützung für DLSS 2.1 und 8K auf PC ein!​

Das Regime zu stürzen, sah nie schärfer aus. Das neue Update kommt mit NVIDIA DLSS-Unterstützung, sodass Spieler mit einer Grafikkarte der NVIDIA GeForce RTX 30-Reihe das Spiel im Hammerleistung-Modus in 8K und mit 60 FPS erleben können. Dieser Modus bedient sich dem KI-Algorithmus von NVIDIA DLSS, um das alternative Paris der 80er in einem noch nie dagewesenen Detailgrad erstrahlen zu lassen."
 

Arkonos66623

Freizeitschrauber(in)
Es kann feine Details besser rekonstruieren, die normalerweise zu fein sind für die native Renderauflösung. So etwas wie Maschendrahtzäune, Stromleitungen und andere feine Strukturen, die sonst abgehackt wirken und in Bewegung flimmern.

Der Trade-Off ist das nachziehen von Kanten durch den temporalen Anteil. Den man aber auch bei TAA und anderen modernen Effekten hat.

Schärfer ist nicht unbedingt besser. Auch Minecraft ist superscharf (die Monsterpixel) aber deswegen nicht unbedingt detailliert. Viele Leute verwechseln das mit schöner Regelmäßigkeit.
Schön gesagt, alles in der Theorie. In der Praxis schmeiße ich Control an , wähle in Fullhd DLSS aus und das Bild ist einfach schlechter! Bewegt sich der Charakter hin und her , hat man das Gefühl man hat einen 100ms Bildschirm. DLSS schliert und zwar nicht zu knapp!! Nur in 4K funktioniert das ganz gut, trotzdem bevorzuge ich Nativ wenn die FPS passen.
 

RNG_AGESA

Software-Overclocker(in)
Schön gesagt, alles in der Theorie. In der Praxis schmeiße ich Control an , wähle in Fullhd DLSS aus und das Bild ist einfach schlechter! Bewegt sich der Charakter hin und her , hat man das Gefühl man hat einen 100ms Bildschirm. DLSS schliert und zwar nicht zu knapp!! Nur in 4K funktioniert das ganz gut, trotzdem bevorzuge ich Nativ wenn die FPS passen.
für FHD ist DLSS eigentlich nicht gedacht... dafür reicht bereits eine 2060 aus, nativ
 

Gabbyjay

Freizeitschrauber(in)
Schön gesagt, alles in der Theorie. In der Praxis schmeiße ich Control an , wähle in Fullhd DLSS aus und das Bild ist einfach schlechter! Bewegt sich der Charakter hin und her , hat man das Gefühl man hat einen 100ms Bildschirm. DLSS schliert und zwar nicht zu knapp!! Nur in 4K funktioniert das ganz gut, trotzdem bevorzuge ich Nativ wenn die FPS passen.

Kann man doch nicht auf alle DLSS-Games verallgemeinern!

Und ich finde das DLSS-Bild in Control besser.
 

Arkonos66623

Freizeitschrauber(in)
für FHD ist DLSS eigentlich nicht gedacht... dafür reicht bereits eine 2060 aus, nativ
Ist auch nur ein Beispiel, da behauptet wird es könne besser als Nativ sein. In FullHD ist das nun mal nicht der Fall, obwohl das natürlich eine Tolle Sache für High FPS bzw 144HZ+ Spieler wäre. Ich bin der Meinung , solange etwas rekonstruiert wird, gibt es immer irgendwelche Nachteile. Ich habe mit DLSS schon in 4K(Downsamling) gut experimentiert, aber jedes mal wenn ich auf Nativ wechsel, ist das Bild noch ein wenig Plastischer und klarer. Mit dem Nvidia Nachbearbeitungstool (ALT-F3) lassen sich übrigens mit DLSS auch noch einige gute Ergebnisse erzielen in Sachen Bildqualität.

Kann man doch nicht auf alle DLSS-Games verallgemeinern!

Und ich finde das DLSS-Bild in Control besser.
BFV, Control, TombRaider hatte ich bisher, Death Stranding steht zum durchzocken noch an. Bis jetzt ist das Bild überall ähnlich. Natürlich finde ich DLSS auch gut, gerade weil die 2080 überfordert ist Nativ 4K zu stellen, aber ich finde es einfach nicht besser vom Bild her:ka:
 
Zuletzt bearbeitet:

Gabbyjay

Freizeitschrauber(in)
Ansichtssache... so oder so bleibt es selbst dann die derzeit beste AA-Methode.

Das tolle Quincunx-Anti-Aliasing der ersten Xbox natürlich mal ausgenommen, das ist noch besser, aber halt nicht mehr aktuell.
 

wurstkuchen

Software-Overclocker(in)
Mich nervt etwas, dass es die resolution Technik im Treiber nicht auch als downsampling gibt. Wieso nur upsampling? Ich spiele zb alle Spiele wo das möglich ist in render resolution 1280 auf einem 4k Monitor, und es sieht sehr gut aus. Dazu erfreut man sich an niedrigen Clockraten, Voltzahlen und Energieverbrauch.
 

manimani89

BIOS-Overclocker(in)
Mich nervt etwas, dass es die resolution Technik im Treiber nicht auch als downsampling gibt. Wieso nur upsampling? Ich spiele zb alle Spiele wo das möglich ist in render resolution 1280 auf einem 4k Monitor, und es sieht sehr gut aus. Dazu erfreut man sich an niedrigen Clockraten, Voltzahlen und Energieverbrauch.
weils kein reines upsampling ist wie oft denn noch. sehr viele server rufen diese bilder ab und versuchen sie immer wieder zu verbessern. deshalb hat das 0 mit upscaling zu tun und es sieht sogut aus das ich sogar auf meinem 4k oled bei 1080p +dlss eingeschalttet habe um zu testen und es sah wirklich besser als natives 1080p aus und hatte ca 50% mehr leistung
 

DaStash

PCGH-Community-Veteran(in)
weils kein reines upsampling ist wie oft denn noch. sehr viele server rufen diese bilder ab und versuchen sie immer wieder zu verbessern. deshalb hat das 0 mit upscaling zu tun und es sieht sogut aus das ich sogar auf meinem 4k oled bei 1080p +dlss eingeschalttet habe um zu testen und es sah wirklich besser als natives 1080p aus und hatte ca 50% mehr leistung
DLSS ist und bleibt AI-Upscaling. ;)

MfG
 

Grestorn

BIOS-Overclocker(in)
DLSS ist und bleibt AI-Upscaling. ;)
Es ist zweifelsfrei Upscaling, aber eines, das Informationen nutzt, die über die reine Renderauflösung hinausgehen. Alleine durch die temporale Komponente und das SubPixel-Shifting, durch das man Details, die sonst durch die geringere Auflösung verloren gehen würde, wieder rekonstruieren kann.

Zusammen mit dem neuronalen Netz wird dann das Bild sehr nahe an die eigentlich gewünschte Auflösung herangebracht. Es ist also schon ein wenig mehr als "nur" einfaches Upscaling.

Es ist also ein Mix aus Checkerboarding a la PS4 + Neuronales Netz zur besseren Rekonstruktion.

Und da letzteres auf der AMD HW mangels Tensor Kerne nicht so ohne weiteres nachbildbar ist, bin ich sehr gespannt, wie die AMD Lösung am Ende performt.
 

Gabbyjay

Freizeitschrauber(in)
Einfaches Upscaling entwickelt sich auch nicht kontinuierlich durch "dazulernen" weiter, orientiert sich nicht an 16k, kat keine temporale Komponente und macht dies alles auch nicht contentabhängig.

Warum kann man diese Fortschritte nicht mal anerkennen?
Es scheint fast so, sls ob die Leute WOLLEN, dass die Technik für alle Zeit auf dem selben Level stehen bleibt, wie in einem BR-Player vor 10 Jahren.
 

wurstkuchen

Software-Overclocker(in)
Wozu braucht man dann einen 4K Monitor? Verstehe ich nicht.
Das ist mein 4k Laptop am Laptop. Natürlich würd ich mir nie ein 4k Monitor kaufen fürn PC. Aber so hab ich einen ruhigen laptop der kühl läuft.Nur wenige Spiele unterstützen in den Settings leider eine getrennte render Auflösung, WoW zB. So hat man ein 4k GUI aber eine intern bei 1280 gerenderte 3d engine, fällt jetzt nicht wirklich auf. Kantenglättung braucht man auch nicht mehr dann.
 

AncientDoomSlayer

Komplett-PC-Aufrüster(in)
Und hier liegst du eben falsch. Es ist sehr wohl möglich, dass die Texturen genauso gut sind, es geht sogar auch deutlich besser, als das Original. Was nicht geht ist identisch, das kann man wirklich nicht machen.



Wenn du die beiden so miteinander vergleichst, dann zeigt es, dass du das ganze nicht wirklich verstanden hast.



Du hast da noch die Bewegungsanalyse und einen ganzen Haufen andere Dinge vergessen. Aber gut, wenn man wichtige Schritte wegläßt, dann wird alles so einfach...
Deine Fähigkeit zur Abstraktion ist nicht besonders weit entwickelt. Von Deinem Textverständnis ganz zu schweigen.
Es ist zweifelsfrei Upscaling, aber eines, das Informationen nutzt, die über die reine Renderauflösung hinausgehen. Alleine durch die temporale Komponente und das SubPixel-Shifting, durch das man Details, die sonst durch die geringere Auflösung verloren gehen würde, wieder rekonstruieren kann.

Zusammen mit dem neuronalen Netz wird dann das Bild sehr nahe an die eigentlich gewünschte Auflösung herangebracht. Es ist also schon ein wenig mehr als "nur" einfaches Upscaling.

Es ist also ein Mix aus Checkerboarding a la PS4 + Neuronales Netz zur besseren Rekonstruktion.

Und da letzteres auf der AMD HW mangels Tensor Kerne nicht so ohne weiteres nachbildbar ist, bin ich sehr gespannt, wie die AMD Lösung am Ende performt.
Was ist denn eigentlich ein Tensor?
Ich hätte angenommen, dass das Neuronale Netz nur zum Anlernen benutz wird,
also um den Parametersatz zu bestimmen.
Danach braucht man kein neuronales Netz mehr.
Oder nutzt DLSS 2.0 Reinforced ML?
Gibt es dazu einen Artikel?
 
Zuletzt bearbeitet:
Oben Unten