Control: Nvidia DLSS-Support soll mehr Details und bessere Performance bringen

DLSS sollte im Idealfall mit einer niedrigeren Auflösung die Qualität der Nativauflösung inkl. TAA erreichen ...

...mit einem Bruchteil des Ausgangsmaterials das Ausgangsmaterial nicht nur vollständig wiederherstellen, sondern verbessern. Originaler als das Original,sozusagen :hmm:

Klar. Gekauft. Kein Problem. :devil:
In der Zwischenzeit sollte man imho auch die Quadratur des Kreises und das perpetuum mobile vorantreiben. Da muss doch auch noch was gehen. Kräht in ein paar Jährchen doch kein Hahn mehr danach.
 
Zuletzt bearbeitet:
gibt es bilder irgendwo wo man kann sehen bild in bild unterschied zwischen dlss on und dlss off???
ich wäre über links dankbar

meinung geht stark auseinander bei diese thema´ viele sagen keine unterschied und viele sichbarer unterschied´ deswegen würde quelle mit high-res bildern helfen oder high-res videos

https://i.imgur.com/au5UgRv.jpg
https://i.imgur.com/SBPdbKC.jpg
Comparsion of DLSS vs native resolution in CONTROL / 21:9 - Album on Imgur


Sind nicht von mir, sondern von CONTROL // DLSS vs. Native resolution // 21:9 // 3440 x 1440 and 2560 x 1080 : nvidia Deckt sich aber mit meiner Erfahrung das der Unterschied für den FPS Gewinn zu vernachlässigen ist.
 
...mit einem Bruchteil des Ausgangsmaterials das Ausgangsmaterial nicht nur vollständig wiederherstellen, sondern verbessern. Originaler als das Original,sozusagen :hmm:

Diesen Anspruch erhebt DLSSx1 allerdings in keinster Weise. Es geht weder um vollständig wiederherstellen noch um verbessern. Es geht um eine Annäherung. Es ist ein Kompromiss, und zwar ein gangbarer, egal wie sehr man versucht, den Kram mit gewolltem, aber nicht gekonntem Sarkasmus durch den Kakao zu ziehen.

nVidia zu DLSSx1:

"Whereas TAA renders at the final target resolution and then combines frames, subtracting detail, DLSS allows faster rendering at a lower input resolution, and then infers a result that at target resolution is similar quality to the TAA result, but with half the shading work. "
 
Also, ich hab grad mal ne Runde gespielt. 1440p/alles auf max/DLSS auf Qualität. Weder gab es einen Patch, noch einen neuen Treiber. Daher ist der Artikel selber recht unnötig. Die Diskussionen sind jedoch recht nett. Hab im Direktoren Zimmer nochmal beide DLSS Stufen verglichen. Die FPS gingen von 60 auf 90 hoch also 50% und mit nachschärfen sieht es ganz ordentlich aus, aber mir reichen 60FPS, lol. Dafür ist das Bild dann eben auch 50% besser. Aber mal sehen vielleicht kommen da ja noch Verbesserungen.
 
Was ist denn das Versprechen von DLSS? Möchte es nur besser als andere Upscaler sein, oder soll es einen tatsächlichen Ersatz für die native Auflösung darstellen?
Die Videos würden ja für ersteres sprechen.

Ganz unabhängig der Qualität finde ich die Stimmung bzgl. der derzeitigen Entwicklung ganz witzig. Damals(tm) wurden Firmen geteert, gefedert und gemeuchelt wenn sie es z.B. auch nur gewagt haben die anisotrope Filterung zu "optimieren" - selbst wenn es nur eine Option war. Hunderte Seiten wurden mit Diskussion über Mängel an Filterungen etc. gefüllt, ganz eigene Tools zur Überführung der Cheater wurden geschrieben... heute redet manch einer trotz DLSS von "4k", variable Shader Rate ist ganz toll und so Kleinigkeiten sieht man doch eh nicht... :ugly:

In welcher Parallelwelt bin ich hier eigentlich gelandet? :D

Beim anisotropen Filtern damals was Nvidia gemacht hat, war es auch irgendwo Cheaten, da der Treiber das nur im 3D Mark so extrem runtergesetzt hat und die Standardeinstellung im Treiber reduziert und umbenannt hat. Was vorher die Einstellung hoch war, war dann hoch Qualität und das neue hoch war das was vorher nur mittel war. Bei DLSS oder auch variable Shading hat man ja die Wahl ob man es nutzen möchte oder nicht und wird einem nicht so aufgezwungen wie damals das mit der Filterung.

DLSS ist nicht schlecht, aber viele suchen Gründe um es schlecht zu reden im ewigen Krieg AMD vs. Nvidia. Besonders in hohen Auflösungen wie 4k schaut DLSS sehr gut aus und auch teilweise besser als die sonst immer genannten 1800p. Ich habe in Control noch ein wenig herumexperimentiert und DLSS mit 960p schaut besser und schärfer aus als 1080p bei gleichzeitig höherern FPS. Mein Problem mit den DXR Schatten habe ich mittlerweile sogar lösen können. Das Spiel hat mir am Anfang das Hoch Preset rein gehauen mit 8x MSAA. Wenn man DLSS aktiviert kann man das MSAA nicht mehr umstellen und ich war davon ausgegangen, dass das automatisch deaktiviert wird. Ich habe das jetzt mal DLSS aus gemacht, MSAA aus gemacht und DLSS wieder an gemacht und die DXR Schatten schauen jetzt besser aus, flacker nicht mehr so stark und erscheinen nicht mehr so fleckig. DXR in Kombination mit MSAA scheint nicht so gut zu laufen, da mir das Flackern auch bei Testläufen ohne DLSS aufgefallen ist.

Wenn man die Leistung hat die Spiele auch ohne DLSS in der gewünschten Detailstufe mit den gewünschten FPS zu spielen, sollte man ohne DLSS spielen. Aber in den meisten Spielen die DLSS unterstützen ist es aktuell meist nicht möglich ohne DLSS. Sobald man DXR nutzt gehen die FPS in den Keller und dann ist halt die Frage ob man damit klar kommt mit nur rund 30 FPS zu spielen oder auf etwas Bildschärfe verzichten kann und dann in 60 FPS spielt. Natürlich könnte man auch einfach auf DLSS und DXR verzichten und in der nativen Auflösung in 60 FPS spielen, aber besonders in Metro und Control bringt DXR optisch so viel mehr.

Vor allem die Reflexionen in Control erschaffen teilweise ein komplett anderes Spielgefühl, da es sehr viele spiegelnde Oberflächen gibt. Wie oft ich mich im Spiel vor dem eigenen Spiegelbild erschrocken habe oder lauernde Gegner in einer spiegelnden Holzvertäfelung gesehen habe. Es fällt viel stärker auf als z.B. in Battlefield 5. Ähnlich ist es auch mit der Bleuchtung und den Schatten. Wenn die Hiss ein Gebiet infizieren und sich das Gebiet verdunkelt mit dem roten leuchten/glühen der Hiss ist mit der DXR Beleuchtung und den DXR Schatten sehr eindrucksvoll und ein großer Unterschied zur normalen Beleuchtung, die aber zugegebenermaßen teilweise richtig schlecht ist und sicherlich besser sein könnte.
 
DLSS sollte im Idealfall mit einer niedrigeren Auflösung die Qualität der Nativauflösung inkl. TAA erreichen und somit Geschwindigkeitsvorteile bieten.
Okay, das klappt ja bisher nur im 3DMark meine ich. Aber so als Zwischenstufe zwischen nativer Auflösung und Matschscaler sicher berechtigt.

Kann ich nachvollziehen. Da prallen Welten und auch teils widersprüchliche Aussagen aufeinander. Hatte z.B. schon diverse Diskussionen mit Leuten die meinten, dass z.B. Raytracing in schnellen Spielen nicht auffalle und man keinen Unterschied erkennen könne, dann aber bei DLSS das plötzlich das Super- Adlerauge entwickeln und nur noch Pixelbrei erkennen wollen.
Alles irgendwie absurd.
LG
Zero

In der Tat ^^.
Ich spiele ja auch nicht mit HFTS oder CHS (Watch Dogs2 oder Deus Ex z.B.). Nicht weil man den Unterschied bei Stillstand nicht sehen würde, aber in der Action merkt man das halt nicht. Man darf nur nicht anfangen seinen subjektiven Eindruck als objektiven Messwert zu verkaufen. Artefakte sind Artefakte sind Artefakte :D
Das Einzige, was mir wirklich immer aufällt und teilweise schon fast Übelkeit verursacht ist starkes Ghosting. Wildlands mit hohen Settings, dadurch niedrigen FPS und temp. AA ... da wurd mir schon leicht anders :ugly:

Hab's ja von Anfang an gesagt: Hätten sie mal lieber ein RPG mit RT rausgebracht. So ein Detektiv-Spiel oder so, wo man dann die super realistischen Räume in 30 fps untersuchen kann oder sowas.

Beim anisotropen Filtern damals was Nvidia gemacht hat, war es auch irgendwo Cheaten, da der Treiber das nur im 3D Mark so extrem runtergesetzt hat und die Standardeinstellung im Treiber reduziert und umbenannt hat. Was vorher die Einstellung hoch war, war dann hoch Qualität und das neue hoch war das was vorher nur mittel war. Bei DLSS oder auch variable Shading hat man ja die Wahl ob man es nutzen möchte oder nicht und wird einem nicht so aufgezwungen wie damals das mit der Filterung.

Ja, spezielle 3Dmark Cheats gabs auch :D. Bei AMD war die Filterung aber auch lange im Argen, und dann gabs ja auch noch diese Winkeloptimierung...

DLSS ist nicht schlecht, aber viele suchen Gründe um es schlecht zu reden im ewigen Krieg AMD vs. Nvidia. Besonders in hohen Auflösungen wie 4k schaut DLSS sehr gut aus und auch teilweise besser als die sonst immer genannten 1800p. Ich habe in Control noch ein wenig herumexperimentiert und DLSS mit 960p schaut besser und schärfer aus als 1080p bei gleichzeitig höherern FPS. Mein Problem mit den DXR Schatten habe ich mittlerweile sogar lösen können. Das Spiel hat mir am Anfang das Hoch Preset rein gehauen mit 8x MSAA. Wenn man DLSS aktiviert kann man das MSAA nicht mehr umstellen und ich war davon ausgegangen, dass das automatisch deaktiviert wird. Ich habe das jetzt mal DLSS aus gemacht, MSAA aus gemacht und DLSS wieder an gemacht und die DXR Schatten schauen jetzt besser aus, flacker nicht mehr so stark und erscheinen nicht mehr so fleckig. DXR in Kombination mit MSAA scheint nicht so gut zu laufen, da mir das Flackern auch bei Testläufen ohne DLSS aufgefallen ist.

Wenn man die Leistung hat die Spiele auch ohne DLSS in der gewünschten Detailstufe mit den gewünschten FPS zu spielen, sollte man ohne DLSS spielen. Aber in den meisten Spielen die DLSS unterstützen ist es aktuell meist nicht möglich ohne DLSS. Sobald man DXR nutzt gehen die FPS in den Keller und dann ist halt die Frage ob man damit klar kommt mit nur rund 30 FPS zu spielen oder auf etwas Bildschärfe verzichten kann und dann in 60 FPS spielt. Natürlich könnte man auch einfach auf DLSS und DXR verzichten und in der nativen Auflösung in 60 FPS spielen, aber besonders in Metro und Control bringt DXR optisch so viel mehr.

Vor allem die Reflexionen in Control erschaffen teilweise ein komplett anderes Spielgefühl, da es sehr viele spiegelnde Oberflächen gibt. Wie oft ich mich im Spiel vor dem eigenen Spiegelbild erschrocken habe oder lauernde Gegner in einer spiegelnden Holzvertäfelung gesehen habe. Es fällt viel stärker auf als z.B. in Battlefield 5. Ähnlich ist es auch mit der Bleuchtung und den Schatten. Wenn die Hiss ein Gebiet infizieren und sich das Gebiet verdunkelt mit dem roten leuchten/glühen der Hiss ist mit der DXR Beleuchtung und den DXR Schatten sehr eindrucksvoll und ein großer Unterschied zur normalen Beleuchtung, die aber zugegebenermaßen teilweise richtig schlecht ist und sicherlich besser sein könnte.

Wenn ich 960p lese muss ich irgendwie innerlich ein wenig rofln - sind wir hier bei Konsolen oder was? :P:D

Kann ja jeder Up-Side-Down-Samplen wie er möchte ^^.
 
Mein Problem mit den DXR Schatten habe ich mittlerweile sogar lösen können. Das Spiel hat mir am Anfang das Hoch Preset rein gehauen mit 8x MSAA. Wenn man DLSS aktiviert kann man das MSAA nicht mehr umstellen und ich war davon ausgegangen, dass das automatisch deaktiviert wird. Ich habe das jetzt mal DLSS aus gemacht, MSAA aus gemacht und DLSS wieder an gemacht und die DXR Schatten schauen jetzt besser aus, flacker nicht mehr so stark und erscheinen nicht mehr so fleckig. DXR in Kombination mit MSAA scheint nicht so gut zu laufen, da mir das Flackern auch bei Testläufen ohne DLSS aufgefallen ist.

Hm, das muss ich mal ausprobieren nachher.

DLSS ist nicht schlecht, aber viele suchen Gründe um es schlecht zu reden im ewigen Krieg AMD vs. Nvidia.

Es geht nicht immer um diesen Blödsinn, sondern, dass einige in ihrer Schwärmerei die Realität ein wenig aus den Augen verlieren.

Genau das ist des Pudels Kern. Um nichts anderes geht es.

Nein, es sieht einfach mitunter schlecht aus. Der hat natürlich nichts mit dem Hersteller zu tun. Hier glaubt doch keiner, dass ich was anderes schreiben würde, wenn es von AMD käme...
 
Zuletzt bearbeitet von einem Moderator:
Nein, es sieht einfach mitunter schlecht aus. Der hat natürlich nichts mit dem Hersteller zu tun. Hier glaubt doch keiner, dass ich was anderes schreiben würde, wenn es von AMD käme...

Manche Leute sind einfach vernagelt und voreingenommen.
Ich erinnere mich noch an die Crytek Demo, die Raytracing auf einer Radeon zeigte. Da war es schon so, dass einige Personen, die die Technik vorher als überflüssig bezeichnet hatten, dann plötzlich als "sieht gut aus" und dort liegt die Zukunft gesehen haben.
Man freute sich, dass die Technik anscheinend auch ohne die teure RTX Technik zum Laufen zu kriegen ist.

Das lässt schon den Rückschluss zu, dass man sich sehr wohl für die Technik interessiert und dem ganzen auch einen Stellenwert beimisst, bzw. man sich darüber freut, man diesen Impuls aber vorher sofort abgetötet hat, weil er leider aus dem falschen Lager zu falschen Preis kam.
Dennoch. Realtime RT und DLSS sind noch weit davon entfernt als ausgereift bezeichnet werden zu können. Und der Preis ist hoch.
Dennoch ist bis jetzt schon sehr viel passiert.
Es kann nur besser weden...

LG
Zero
 
Ich kann nur noch mal anbieten, dass man sich das Video von Digital Foundry anschaut, das ich weiter oben verlinkt habe. Ich war davon jedenfalls sehr positiv überrascht und hatte nicht bemerkt, dass es sich beim gezeigten Material nicht um natives 4K handelt. Ich musste erst darauf hingewiesen werden (der Hinweis erfolgt erst relativ spät im Video).
Was daran liegt, dass Control so eine heftige Unschärfe hat, dass du 1080p kaum von 4K unterscheiden kannst und 1440p von 4K garnicht.

Im Grunde ist das echt lachhaft. Control nutzt praktisch die Detailmöglichkeiten von 4K nicht und verwendet eine furchtbar ineffiziente und Grafikfehler verursachende temporale Frameverrechnung. TXAA 6x der UE4 oder SMAA 2Tx der CryEngine kosten nix, glätten hervorragend und zeigen nur minimales Ghosting unterhalb von 60 fps. Das ist state of the art im Jahr 2019! Und nur deshalb kann man sagen, dass DLSS brauchbar aussieht. Sprich, weil ein Spiel richtig reudig umgesetzt ist und DLSS dann auch nicht mehr viel zerstören kann.

Davon abgesehen ist KI mittlerweile sehr mächtig, und kann Dinge errechnen, die Du vom original Vorbild nicht mehr unterscheiden kannst. Stichwort Deep Fakes. Oder z.B. die bekannten Superzeitlupenaufnahmen, die aus 30 FPS Source Material entstehen. Die durch KI berechneten Zwischenframes lassen sich kaum von einer echten Superzeitlupe unterscheiden. Es gibt zahlreiche Beispiele für sowas. Darunter auch das Spiel Control, das hier im Artikel diskutiert wird. Schau Dir mal das Video an, das ich oben verlinkt habe. Der Unterschied zwischen 1080p per DLSS auf 4K hochgerechnet und 4K nativ ist quasi nicht erkennbar, es sei denn, man betreibt Pixel Peeping am Standbild. Dazu hat man beim Spielen in der Regel allerdings keine Zeit
Also das ist interessant. Ich kenne das Nvidia Promo Video von vor ein paar Monaten und das ist Kindergeburtstag. Man hat die KI unzählige Stunden an einem Video (nicht-dynamischer Verlauf! Gewatiger Unterschied zu einem Spiel!) rechnen lassen und es ist trotzdem voller Darstellungsfehler. Solltest du irgendein anderes Beispiel meinen, dann muss sich die KI in ein paar Monaten gewaltig gesteigert haben - glaube ich aber ehrlich gesagt nicht, denn auch DLSS sieht noch genauso mies aus wie Ende 2018, mit dem Unterschied, dass man über die unscharfen Grafikfehler jetzt einen Schärfefilter legt, der für neue Probleme an anderer Stelle sorgt.
 
Sprich, weil ein Spiel richtig reudig umgesetzt ist und DLSS dann auch nicht mehr viel zerstören kann.

Das ist Deine Meinung. Control wird von sehr vielen Reviews als ein grafisches Meisterwerk bezeichnet. Dass das Spiel "räudig" umgesetzt sei, lese ich selten bis nie. Aber das ist Ansichtssache und wenig objektiv.

Also das ist interessant. Ich kenne das Nvidia Promo Video von vor ein paar Monaten und das ist Kindergeburtstag. Man hat die KI unzählige Stunden an einem Video (nicht-dynamischer Verlauf! Gewatiger Unterschied zu einem Spiel!) rechnen lassen und es ist trotzdem voller Darstellungsfehler. Solltest du irgendein anderes Beispiel meinen, dann muss sich die KI in ein paar Monaten gewaltig gesteigert haben - glaube ich aber ehrlich gesagt nicht, denn auch DLSS sieht noch genauso mies aus wie Ende 2018, mit dem Unterschied, dass man über die unscharfen Grafikfehler jetzt einen Schärfefilter legt, der für neue Probleme an anderer Stelle sorgt.

Das von mir angesprochene Heraufrechnen von 30 FPS Videomaterial in eine 120 FPS Superzeitlupe hat nicht das geringste mit DLSS zu tun. Es hat nicht einmal etwas mit Computerspielen zu tun. Ich rief das Beispiel nur auf, um den Punkt klarzumachen, dass wir entgegen der Aussage des Schreibers, auf den ich geantwortet hatte, alles andere als weit davon entfernt sind, dass KI-berechnete Inhalte sich nicht von realen Inhalten unterscheiden lassen. Das hatte weder einen Bezug zu DLSS, noch zu nVidia, noch zu Spielen. Sondern ausschließ auf das, was mit KI heute tatsächlich schon möglich ist.
 
Hier ein Beispiel, dass es eher nicht so dolle ist.

DLSS.png
 
Hier ein Beispiel, dass es eher nicht so dolle ist.

Anhang anzeigen 1057613

Wobei die Frage, ob es Sinn macht, so etwas an Standbildern und einzelnen Frames festzumachen, wenn es um das Bewegtbild geht, durchaus gestellt werden sollte.

Ich kann Dir auch Tausende von Bildern hier posten, die zeigen, wie kacke TAA, Ambient Occlusion oder Screen Space Reflections aussehen können, wenn man Pixel Peeping am Standbild betreibt. DLSS ist eben sowenig perfekt, wie andere kompromissbehaftete "Bildverschlimmbesserer". Ich denke, das weißt Du auch.
 
Sorry, aber ich muss da ganz klar widersprechen. Die Bildqualität als ganzes wird auf meinem System signifikant und durchgängig schlechter, wenn ich DLSS einschalte. Das nehme ich bei Standbildern genauso wahr wie in Bewegung. Bei CB führen wir auch gerade eine Diskussion darüber. Ich bin nicht der einzige, dem es so geht.

Ich habe nicht die Absicht, eine bestimmte Technologie oder einen bestimmten Hersteller zu bashen. Es ist ein neutraler Erfahrungsbericht.
 
Ich habe nicht die Absicht, eine bestimmte Technologie oder einen bestimmten Hersteller zu bashen. Es ist ein neutraler Erfahrungsbericht.

...den Du 1:1 auf jede x-beliebige andere Grafik-Technologie übertragen kannst. Ich glaube, ich schreibe es bestimmt das fünfte Mal: DLSS ist ein Kompromiss, mehr nicht. Dass das Bild mit DLSS schlechter aussieht, als nativ gerendert, stellt überhaupt niemand in Abrede. Das ist auch nicht der Anspruch, den DLSS hat. Zumindest nicht in der DLSS x1 Variante, die derzeit in Spielen zum Einsatz kommt.

Der Kompromiss ermöglicht es, Raytracing zu verwenden. Es muss jeder für sich selbst abwägen, ob er bereit ist, für die massive optische Aufwertung durch Raytracing an anderer Stelle Kompromisse einzugehen - oder eben nicht. Da hat jeder seine ganz eigenen Präferenzen. Daher ist es vollkommen unsinnig, DLSSx1 per se negativ zu konnotieren.
 
Der Kompromiss ermöglicht es, Raytracing zu verwenden. Es muss jeder für sich selbst abwägen, ob er bereit ist, für die massive optische Aufwertung durch Raytracing an anderer Stelle Kompromisse einzugehen - oder eben nicht. Da hat jeder seine ganz eigenen Präferenzen. Daher ist es vollkommen unsinnig, DLSSx1 per se negativ zu konnotieren.

Ok, ich will jetzt nicht auf älteren Aussagen rumreiten. So wie du es formulierst, geht das in Richtung realistische Betrachtung. Das kann ich akzeptieren.

Ich möchte aber auch bitte, dass akzeptiert wird, dass ich die Bildqualität mit DLSS in Control mangelhaft finde. Ich kann das mit zig Vergleichsbildern belegen. So wie darauf hier wieder reagiert wurde, gerade von Poly, ist das eine bodenlose Frechheit.
 
Verstehe echt nicht warum nVidia mit DLSS nicht auch gleichzeitig ein Schärfefilter drüber legt.
Die Ergebnisse können sich dann nämlich durch die Bank weg sehen lassen sobald man DLSS benutzt und über die GFE mit dem Schärfefilter nach justiert. Natürlich geht nichts über Native Auflösung und auch ich habe DLSS bisher für absoluten Mumpits gehalten, da es im Ergebnis (!) zu großen teilen nicht anders aussieht als wenn man die Auflösungsskallierung benüht die in einer Vielzahl von spielen bereits vorhanden ist.

Daher sehe ich ein das DLSS eine sehr umstrittene Technik ist da die groß beworbene AI Optimierung nur selten zu sehen ist und von lauter unschärfe dazu auch noch fast in Bedeutungslosigkeit verschwindet und eher als weiteres Marketing Werkzeug abgetan wird.

"Schaut her, mit unseren Top Features von RT bis hin zu DLSS habt ihr tolle neue Effekte und dazu immer noch eine brauchbare Performance. Nicht so wie wenn ihr DLSS nicht nutzen würdet... "

Es tut dem geneigten 1000€ Karten Käufer Kopf Technisch wohl weniger weh ein "exklusives" Feature zu benutzen statt der Wahrheit ins Gesicht zu blicken die Auflösung reduzieren zu müssen. - Was niemand mit einer so imens teuren Karte möchte ;)

Insgesamt lässt sich der Effekt also locker - GFE - mal außen vor gelassen, mittel Renderingskalierung und sowas wie ReShade nach empfinden.

Daher: Wäre DLSS eine Funktion die ein gesunden Mix darstellt aus Auflösungsreduktion / Schärfefilter / AI die tatsächlich Details mehr hervorhebt und somit wirklich einen optischen Mehrwert bietet als klassisches "Auflösung reduzieren bzw. Auflösungsskalierung + Irgendein Schärfefilter, und das dazu mit "1 Klick". Dann würden vermutlich auch viel weniger Leute drüber schimpfen sondern es vielmehr dankend Annehmen...

So muss man halt doch letztlich selbst rum frickeln um auf ein Passables Ergebnis zu kommen und eben doch zu mehreren Werkzeugen in Kombination greifen - also genau das was DLSS ja obsolet machen will und hört sich nebenher das Marketing gesülze an...

Ich kann jeden nur Raten, sich mal Control mit DLSS + 50-75% Schärfefilter & RT anzusehen.
Das sieht dann wirklich fast besser als aus als Nativ (Aufgrund dessen das dass Spiel von Haus aus ja schon eine menge Unschärfe mit sich bringt) und das bei wirklich flüssigen FPS.

Meiner Meinung nach reicht es von den RT Effekten auch aus nur die Spiegelungen / Schutt / Kontaktschatten zu aktivieren und spart dann noch mals Performance bei trotzdem Optisch aufgewerteter Grafik.
 
Ich habe mittlerweile einige Zeit in Control hinter mich gebracht. Und ich muss ehrlich sagen: Fernab von der mittelmäßigen Performance und der Unschärfe finde ich das Spiel vor allem verdammt anstrengend zu spielen - und zwar für meine Augen. Immer wieder diese extremen hell/dunkel Kontraste, immer wieder dieses Starren auf den Bildschirm, weil man die Umgebung kaum erkennen kann, oder Gegner kaum auszumachen sind. Das mag ein gewollter visueller Stil sein, aber für mich persönlich ist das ein Graus.
 
Ehrlich gesagt vermisse ich den Einsatz von HDR in Control.
Je nach dem wie umgesetzt wären die Unterschiede dann wohl nicht so anstrengend für die Augen.
 
Zurück