Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?

Im Benchmark-Tool scheint DLSS aber nicht richtig zu funktionieren.
Eventuell müsste der Entwickler das mal fixen.

Zum Thema DLSS ein Zitat von mir selbst:
DLSS sollte normal funktionieren, jedenfalls habe ich keine Auffälligkeiten festgestellt.
ABER,
spiegelnde Oberflächen sind für DLSS und andere, temporale Rekonstruktionsalgorithmen der Worst-Case, da sie die über die letzten Frames gesammelten Samples mithilfe von Bewegungsvektoren den letztendlichen Pixelkoordinaten zuordnen. Die Bewegungsvektoren stimmen bei spiegelnden Oberflächen jedoch nicht, denn sie gelten für die Objekte selbst und nicht für die eigentlich zu sehenden Spiegelungen. So kann man die Bewegungsvektoren im Prinzip wegwerfen, wodurch temporales Upsampling wie DLSS wesentlich ineffizienter arbeitet.

Diese Szene ist aus diesem Grund der absolute Horror für DLSS, den man sonst noch nirgends zu sehen bekam. Dennoch liefert es meiner Erfahrung nach selbst hier noch minimal bessere Ergebnisse als TAAU und wesentlich bessere als klassisches Upscaling. Zudem sieht das Bild mit vielen Bounces samt DLSS Qualität zwar weicher aus, ist dabei jedoch temporal stabiler als die native Auflösung.
TLDR: DLSS funktioniert hier meines Wissens korrekt, Spiegelungen schmecken ihm aber nicht.
 
Wirst sehen, dass DLSS-Quality zum einen deutlich mehr FPS bringt und zum anderen deutlich weniger Strom verbraucht. Ist doch auch ganz logisch, weil die Renderauflösung geringer ist. Solltest gerade du eigentlich wissen. Also DLSS spart definitiv Strom. Klar kann man das so sagen.
Ja und meine Karte rennt trotzdem ins Powerlimit dann, außer man kappt die Spannung. Wobei jeder bei klarem Verstand eigentlich die Amperekarten drosselt, out of the box ist die Abwärme ja kaum zu ertragen.
TLDR: DLSS funktioniert hier meines Wissens korrekt, Spiegelungen schmecken ihm aber nicht.
Bei den meisten Titeln erfasst DLSS sowieso keine Reflektionen. Das wird sicher auch gründe in der Latenz haben.
 
@Geldmann3
Naja bei mir wird es mit DLSS halt nur sau unscharf, als ob er nicht hochskaliert und das nicht nur bei den Spiegelungen, sondern generell. Ist so für mich unverwertbar und unbewertbar, da es gefühlt unschärfer als HD aussieht.
Ja und meine Karte rennt trotzdem ins Powerlimit dann
Du, kein Plan, ich betreibe meine RTX3090 natürlich undervoltet und unterhalb des möglichen 400W-Powerlimits.
Wirst sehen, dass DLSS-Quality zum einen deutlich mehr FPS bringt und zum anderen deutlich weniger Strom verbraucht.
Proof:

Der Stromverbrauch geht mit DLSS-Quality von 309W auf 267W runter.
Bei DLSS-Performance sind es nur noch 236W und bei DLSS-Ultra Performance sogar nur noch 203W.

PS: Leichte Unschärfe lässt sich wegfiltern. Habe beim Durchswitchen der Presets nicht nachgeschärft.

Cyberpunk2077_2021_05_01_23_49_21_393.jpg
Cyberpunk2077_2021_05_01_23_41_54_305.jpg
Cyberpunk2077_2021_05_01_23_42_10_705.jpg
Cyberpunk2077_2021_05_01_23_42_25_143.jpg
Cyberpunk2077_2021_05_01_23_42_39_789.jpg

EDIT:
Ich sehe gerade, bei Performance und Ultra-Performance fängt der Ryzen an zu drosseln, da die Framerate zu weit hochgeht. :lol:
 
Zuletzt bearbeitet:
Ja du kappst ja auch die Spannung, du klaust der Karte also sowieso schon Leistung, bringst Sie dann in eine Auflösung in der Sie Ihre Shader nicht mehr auslasten kann und landest dann schlussendlich im CPU Limit.

Alles unter Quality ist sowieso nicht nutzbar, das erzeugt Bildfehler ohne Ende, in FHD ist es ganz schlimm. Da hab ich ab Balanced Stroboskopische Effekte aus den Lichtquellen wenn die entlang einer Kante verlaufen, Leuchtreklame wird einfach mal zerteilt oder fehlt zur Hälfte und die Maschenstrukturen von Gittern oder Zäunen werden von Wellen durchlaufen.
 
Wen juckt das?

Ich zocke auf WQHD mit RT-Psycho und DLSS-Quality. Framerate und Stromverbrauch kannste oben im Screenshot sehen.

267W und 72FPS.
Bin damit sehr zufrieden.

4K am UHD-TV ist auch möglich, je nach angepeilter Framerate dann auf Balanced, aber fällt auf der Couch eh nicht auf.

Dein Gehate ist schon ein bisschen übertrieben. :ugly:
 
Das hat nichts mit hate zu tun, aber mir reicht nicht mal die QHD Quali auf meinem Panel und ich mache da lieber downsampling als upsampling. Wen FHD reicht für den passt das ja.
 
@Geldmann3
Naja bei mir wird es mit DLSS halt nur sau unscharf, als ob er nicht hochskaliert und das nicht nur bei den Spiegelungen, sondern generell. Ist so für mich unverwertbar und unbewertbar, da es gefühlt unschärfer als HD aussieht.
Schuld sollten tatsächlich nur die Spiegelungen sein, wie die folgenden Screenshots zeigen:

DLSS Off (10FPS):
https://i.ibb.co/WpJnT2j/DLSS-Off.png

DLSS Qualität (20FPS):
https://i.ibb.co/wQnTfvy/DLSS-Quality-20-FPS.png

DLSS Balanced (25FPS):
https://i.ibb.co/S0pnQTj/DLSS-Balanced-25-FPS.png

DLSS Performance (30FPS):
https://i.ibb.co/TBwdPvK/DLSS-Performance-30-FPS.png

DLSS Ultra Performance (50FPS):
https://i.ibb.co/cy6XS02/DLSS-Ultra-Performance-55-FPS.png

Man achte auf das Studio-Licht auf der linken Seite. Da dieses nicht spiegelt, kann DLSS die Motion-Vektoren dieses Objektes weitgehend verwerten und funktioniert an dieser Stelle ähnlich wie gewohnt, während es auf reflektierenden Oberflächen (fast alles im Bild) nicht sehr effektiv ist.

Für alle interessierten, hier nochmal meine technische Erklärung dazu.
Jope, das ist ein Limit von temporalen Upsampling, was DLSS ist.

Qualität verliert bereits an Schärfe, gewinnt allerdings noch an temporaler Stabilität.
In Ultra Performance fällt dann letztendlich alles auseinander.

Man achte darauf, dass selbst DLSS Performance teilweise noch mehr Details rekonstruieren kann als Nativ+TAA. So sieht man in der Ferne mehr Lichter in den Spiegelungen, die selbst nativ nicht sichtbar sind, trotz nur 25% der internen Auflösung. Leider wirkt das Bild im Gegenzug dazu wie durch den Matsch gezogen. Dennoch ein Wunder, was DLSS trotz fehlender Motion-Vektoren noch hinbekommt. Man kann sich ausmalen, wozu es hier in der Lage wäre, wenn es keine Spiegelungen wären.

Für alle, die jetzt sehr enttäuscht von DLSS sind, lasst euch nicht täuschen!
Diese Szene ist aufgrund der Spiegelungen das schlimmste, was man DLSS vorwerfen kann.
In ,,normalen" Szenarien leistet es meist wesentlich bessere Arbeit.

Dazu kann ich euch Raffs wunderbaren Artikel dazu ans Herz legen.
 
Zuletzt bearbeitet:
Das hat nichts mit hate zu tun, aber mir reicht nicht mal die QHD Quali auf meinem Panel und ich mache da lieber downsampling als upsampling. Wen FHD reicht für den passt das ja.
Ach komm Gurdi, wir wissen alle dass es "hate" ist. Nur weil Dir DLSS Quality nicht passt sind Deine Aussagen keineswegs allgemeingültig. Und schon gar nicht "wem FHD reicht für den passt es ja"...

Meine CP2077 Vergleichsbilder, auch hier sieht man verringerten Stromverbrauch (und VRAM Belegung) bei gleicher Bildqualität durch DLSS.

WQHD, max Details, RT Psycho, DLSS OFF - 290W:
WQHD - RT Psycho - Details max - DLSS off.jpg


WQHD, max Details, RT Psycho, DLSS Quality - 266W:
WQHD - RT Psycho - Details max - DLSS Quality.jpg
 
Zuletzt bearbeitet von einem Moderator:
Ihr kommt einfach nur nicht darauf klar wenn man euren Lobpreisungen nicht entspricht. Mit selber Bildqualität ist da nunmal nichts und das eine Karte in FHD weniger verbaucht ist keine neue Erkenntnis.

Artefakte gibt es bei euch angeblich nicht, genauso wenig wie der Schleier der sich übers Bild zieht oder Nachzieheffekte.

DLSS lohnt sich ab QHD wenn einem Leistung fehlt, aber nur in Quality. Bei UHD kann man zur Not auch Balanced nehmen. Alles andere ist unbrauchbar und nichts anderes als ein Notpropfen.

Dlss ist ne feine Sache für UHD oder für kleine Karten und sicher auch der richtige Ansatz, aber es gibt keinen Grund alle Nachteile auszublenden und sich selbst in die Tasche zu lügen. Ich weiß ja nicht vor was für nem Panel Ihr sitzt, aber ich sehe auf meinem 32er da schon sehr deutliche Mängel in den genannten Auflösungen und Settings.
 
Ihr kommt einfach nur nicht darauf klar wenn man euren Lobpreisungen nicht entspricht. Mit selber Bildqualität ist da nunmal nichts und das eine Karte in FHD weniger verbaucht ist keine neue Erkenntnis.

Artefakte gibt es bei euch angeblich nicht, genauso wenig wie der Schleier der sich übers Bild zieht oder Nachzieheffekte.

DLSS lohnt sich ab QHD wenn einem Leistung fehlt, aber nur in Quality. Bei UHD kann man zur Not auch Balanced nehmen. Alles andere ist unbrauchbar und nichts anderes als ein Notpropfen.

Dlss ist ne feine Sache für UHD oder für kleine Karten und sicher auch der richtige Ansatz, aber es gibt keinen Grund alle Nachteile auszublenden und sich selbst in die Tasche zu lügen. Ich weiß ja nicht vor was für nem Panel Ihr sitzt, aber ich sehe auf meinem 32er da schon sehr deutliche Mängel in den genannten Auflösungen und Settings.
Ich habe einen ROG XG279Q, zu seiner Zeit (Mitte 2020) einen der besten 27" Gaming-Monitore auf dem Markt. Link

Fazit: Bester 27-Zoll IPS-Monitor zu einem extremen Preis​

Und ich zocke lieber mit allen Details in WQHD und RT Psycho Settings bei 60 FPS UND weniger Stromverbrauch mit DLSS als ohne und verringerten Details um in diese FPS Regionen zu kommen. Du übertreibst mit den Schlieren wirklich... Und selbst wenn es nicht GENAU DIESELBE Bildqualität ist, die hast Du ohne RT Effekte halt auch nicht mit Deiner 6800XT.

Kommen wir zurück zum eigentlich Punkt den Du schön umschiffst, DLSS spart Strom. Darum ging es eigentlich und es lässt sich nun mal nicht abstreiten, DLSS Quality spart ca. 10% ein.
 
Mein Punkt war das in der Regel die Karten trotzdem ins Powerlimlt booste, Ihr habt eure Karten ja schon massiv gedrosselt und es spart auch nur dann Strom wenn man die Spannung fixiert.
 
Mein Punkt war das in der Regel die Karten trotzdem ins Powerlimlt booste, Ihr habt eure Karten ja schon massiv gedrosselt und es spart auch nur dann Strom wenn man die Spannung fixiert.
Man sieht in meinen Screenshots dass meine 3080 mit 1890Mhz läuft. Das ist über dem offiziellem Boost Takt (Stock wäre 1785Mhz), und ich spare ziemlich viel Strom ein. Ansonsten gebe ich Dir recht, das ist mit stock settings nicht so.
 
Zuletzt bearbeitet von einem Moderator:
Man sieht in meinen Screenshots dass meine 3080 mit 1890Mhz läuft. Das ist über dem offiziellem Boost Takt (Stock wäre 1785Mhz), und ich spare ziemlich viel Strom ein. Ansonsten gebe ich Dir recht, das ist mit stock settings nicht so.
Stock geht die Table bis auf 1995 wenn ich micht recht erinnere, das sollte bei wenig Last auch schon mal gelegentlich aufblitzen.

Naja ich gönn euch ja euer DLSS +RT, bei mir verträgt sich das Variabel Rate Shading leider nicht mit RT in dem Spiel und ich brauch bei Egoperspektive meine 90-100Fps in dem Spiel.
 
Stock geht die Table bis auf 1995 wenn ich micht recht erinnere, das sollte bei wenig Last auch schon mal gelegentlich aufblitzen.

Naja ich gönn euch ja euer DLSS +RT, bei mir verträgt sich das Variabel Rate Shading leider nicht mit RT in dem Spiel und ich brauch bei Egoperspektive meine 90-100Fps in dem Spiel.
90-100 FPS in einem Singleplayer Game? Klar, das braucht man... :D
 
Wäre es ein kompetetiver Shooter könnte ich es verstehen. Aber bei Cyberpunk2077, wo es fast null um Reaktion geht und die NPCs sowieso gefühlt 20 Schüsse tanken und man sich selbst auch ständig Heilung reinballern kann, da kann man froh sein, wenn das Spiel flüssig läuft.

Und mal ehrlich, wie hier schon gesagt wurde, Raytracing lohnt sich in den Spiel einfach. Selbst wenn man zustimmen WÜRDE, dass DLSS die Bildqualität minimal verändert, dann hat man aber mit RT-off trotzdem das schlechtere Erlebnis. Stimme aber nicht zu. DLSS-Quality sieht wunderbar aus. Leichte Unschärfen kann man nachschärfen. Die Optik und die FPS sprechen für sich. 72FPS sind die halbe Bildschirmaktualisierungsrate von 144Hz und das ist schon deutlich mehr als flüssig genug. Alles ab 50FPS ist bei dem Spiel mMn absolut akzeptabel.

Es ist halt ein Grafikbomber und kein Fast-Paced-Shooter.
 
90-100 FPS in einem Singleplayer Game? Klar, das braucht man... :D
Jupp. Ich würde die Zahlen auch eher halbieren und dafür DLSS weglassen. Das reicht in cp locker mMn.

Ich denke er wird wahrscheinlich anfällig für motion thickness oder sowas sein. Ähnlich wie manche mit VR-Brillen Probleme haben.
 
Motion sickness bei Desktop-Games? Ist das das neue Meta? :ugly: Was sollen die ganzen Konsolenspieler denn sagen? Und die ganzen PC-Gamer von vor ein paar Jahren und noch davor, bevor High-FPS cool waren? :D Ist doch lächerlich. Viele haben damals Crysis 1 oder Kingdom Come Deliverance mit gefühlt 30-40 FPS gezockt, weil es eben nicht anders ging. Heute ist alles unter 90 FPS mäh? :lol:
 
Naja in Egoperspektive finde ich es einfach nicht so geil wenn das Spiel so rumschmiert beim bewegen der Maus. In Thirdperson reichen mir auch locker 60Fps.
 
Ich würde die Zahlen auch eher halbieren und dafür DLSS weglassen.
Naja das ist schon unnötig... Dann lieber DLSS-Quality an und ca doppelte FPS bekommen bzw gewonnene Leistung direkt in Effekte investieren. Letzteres ist ja ein Punkt, der gerne ignoriert wird. Ihr tut immer so, als wäre DLSS-on gefühlt Optik-off. Das Gegenteil ist der Fall, denn dadurch wird Raytracing auf hohem Preset ermöglicht.
 
Ich bin von allem außer rt auf max. ausgegangen. RT hat zu release (ich weiß nicht ob das noch so ist) übelst gegrieselt und das Bild in Bewegung echt unschön wirken lassen. Gerade auf mittlere bis weite Distanz im Blickfeld. Deshalb ist das für mich persönlich immer erstmal außen vor.
Zudem bin ich der erste der überschüssige fps in mehr Bildqualität investiert. Das mach ich ja selbst bei shootern. :ugly:
 
Zurück