Wolfenstein 2: Turing-Feature Nvidia Adaptive Shading kommt per Patch

Die Dynamic Einstellung hat nichts mit den AMD Forzawerten zu tun, kein Mensch bencht doch mit dynamic.
Stimmt, bencht ja auch keiner einen 2700X @ 4 Cores. Vollkommen absurde Vorstellung! :ugly: Wenn ich sage, dass 50% aller Hardwareredaktionen auf der Welt total inkompetent sind, dann ist das glaub ich noch ein optimistischer Wert.

gibt doch eine Vergleich von HWLuxx ... da sieht man leichte Artefakte

YouTube
Das ist weird.

Generell fand ich den Low Precision Ausflug in Shadow Warrior 2 schon kacke. Genauso wie ich Checkerboard Rendering kacke finde.

Was ich generell begrüße, ist so ein Setting wie in Forza (sofern es ohne Mikrorucker arbeitet, was leider oft nicht der Fall ist), das die Details (nicht jedoch die Auflösung!) dynamisch anpasst um eine Zielframerate stabil zu halten. Das macht dann all diese proprietären Techniken überflüssig und arbeitet zudem auf jeder alten wie neuen GPU. Und Details werden so oder so reduziert - und entgegen dem Marketing in aller Regel auch sichtbar.
 
Zuletzt bearbeitet:
Das macht dann all diese proprietären Techniken überflüssig und arbeitet zudem auf jeder alten wie neuen GPU.

Macht es nicht, da es eine völlig andere Technik ist. Das eine senkt die Qualität um ein FPS Niveau zu halten, adaptive shading steigert die FPS ohne die Qualität zu senken.
 
Macht es nicht, da es eine völlig andere Technik ist. Das eine senkt die Qualität um ein FPS Niveau zu halten, adaptive shading steigert die FPS ohne die Qualität zu senken.
Arbeite an deinem Leseverständnis!

Ob das unterschiedliche Techniken sind oder nicht, ist nicht Gegenstand meines Postings. Es geht darum, dass es proprietär ist, die Grafik verschlechtert und nichtmal für alle Nvidia Nutzer verfügbar ist und dass es somit im Ergebnis in der Summe der Faktoren bessere Lösungen für dynamische Grafikverschlechterungen zugunsten der Performance gibt - nämlich die in Forza.
 
adaptive shading steigert die FPS ohne die Qualität zu senken.
Natürlich wird da die Qualität gesenkt, wenn gleichzeitig die Framerate steigen soll (umgekehrt geht es allerdings auch). Aus dem Abstract von VK_NV_shading_rate_image:

Vulkan-Spec schrieb:
By default, Vulkan will spawn one fragment shader for each pixel covered by a primitive. In this extension, applications can bind a shading rate image that can be used to vary the number of fragment shader invocations across the framebuffer. Some portions of the screen may be configured to spawn up to 16 fragment shaders for each pixel, while other portions may use a single fragment shader invocation for a 4x4 block of pixels. (anm: Zwischengrößen sind natürlich möglich)

Durchaus interessante Technik, theoretisch sollte damit sogar subjektiv bessere Bildqualität ohne großartigen Performance-Verlust möglich sein, wenn stark rauschende Bereiche mehr Samples abbekommen (man denke an Specular Highlights auf einem dünnen Rohr oder sowas, das bekommt man eigentlich nur mit Supersampling vernünftig geglättet), aber an anderer Stelle muss dafür eben gespart werden. Es ist, wie so oft, ein Tradeoff, keine magische Technik, die mal eben 10% mehr Performance aus dem Hut zaubert.
 
Arbeite an deinem Leseverständnis!

Deine AMD Propaganda muss man sich nicht immer reinziehen.
Die Grafik verschlechtern tut das nicht, das Ziel der Technik und wie sie funktioniert kann man sich im Whitepaper ansehen.
Ob das unterschiedliche Techniken sind oder nicht, ist nicht Gegenstand meines Postings. Es geht darum, dass es proprietär ist, die Grafik verschlechtert

AMDs Primitive Shader wären auch proprietär gewesen und ob wer das nutzen kann und wer nicht, kann auch egal sein.
Ich kann nicht verstehen wieso immer User daherkommen die nix anderes tun als herumnörgeln und alles schlecht machen.

Natürlich wird da die Qualität gesenkt, wenn gleichzeitig die Framerate steigen soll (umgekehrt geht es allerdings auch). Aus dem Abstract von VK_NV_shading_rate_image:

Aber nur in der Theorie, in der Praxis ändert sich an der Bildqualität nichts und das ist auch das Ziel, auch wenn Fans wie Edelhamster ( der das angeblich im Beispielbild sehen will) oder krhome gerne hätte dass die Qualität darunter leidet.
Wenn das 10% mehr bringt, dazu noch Mesh Shading, bringt das AMD in Bedrängnis.

Und ob das proprietär ist oder nicht, die gleichen Unkenrufer haben sich auch nicht wewegen propietärer AMD Features in Wolfenstein beschwert.
 
Zuletzt bearbeitet:
Deine AMD Propaganda muss man sich nicht immer reinziehen.
Die Grafik verschlechtern tut das nicht, das Ziel der Technik und wie sie funktioniert kann man sich im Whitepaper ansehen.


AMDs Primitive Shader wären auch proprietär gewesen und ob wer das nutzen kann und wer nicht, kann auch egal sein.
Ich kann nicht verstehen wieso immer User daherkommen die nix anderes tun als herumnörgeln und alles schlecht machen.



Aber nur in der Theorie, in der Praxis ändert sich an der Bildqualität nichts und das ist auch das Ziel, auch wenn Fans wie Edelhamster ( der das angeblich im Beispielbild sehen will) oder krhome gerne hätte dass die Qualität darunter leidet.
Wenn das 10% mehr bringt, dazu noch Mesh Shading, bringt das AMD in Bedrängnis.

Und ob das proprietär ist oder nicht, die gleichen Unkenrufer haben sich auch nicht für propietäre AMD Features in Wolfenstein beschwert.

Ganz simpel, die Umsetzung hier in Wolfenstein ist einfach Mist. Für 2% sich Artefakten einheimsen, wofür? Da kannst auch den Res.Scaler um 2 % runter drehen, da siehst du auch keinen unterschied und läuft schneller....
Das ist Fuddelfix mit Schleife.
 
Das sind wieder mal Fake News die du dir aus der Krampe ziehst.
Muss man nicht verstehen was genau deine Motivation dabei ist.
Du behauptest generell bei Nvidiathemen Bullshit, also was soll der Scheiss immer?

Du gehst einem mit deinem pubertären Genörgel sowas von auf den Geist.
Dieses dumme Lagergekeife.. unter jeder Nvidianews dein Standardkommentar: Ist Müll. Danach kann man sich die Uhr stellen.

Hast du nichts anderes zu tun?
Kümmer dich lieber um dein Kind.
Und dann auch noch einen Fullquote...auaua.
 
Zuletzt bearbeitet:
Das sind wieder mal Fake News die du dir aus der Krampe ziehst.
Muss man nicht verstehen was genau deine Motivation dabei ist.
Du behauptest generell bei Nvidiathemen Bullshit, also was soll der Scheiss immer?

Du gehst einem mit deinem pubertären Genörgel sowas von auf den Geist.
Dieses dumme Lagergekeife.. unter jeder Nvidianews dein Standardkommentar: Ist Müll. Danach kann man sich die Uhr stellen.

Hast du nichts anderes zu tun?
Kümmer dich lieber um dein Kind.

Was findest du denn toll an dem Feature? Ich kann da nichts sehen was irgendeinen nutzen hat. Da brauchst nicht gleich sentimental zu werden.
 
Dass sich für den grössten Vega Fanboy auf dem Planeten kein Sinn bei so einem Feature ergibt, weils der liebe Herr nicht nutzen kann, ist ja wohl klar.

Und jetzt zeig der Welt mal wie man den AMD Dirext x11-Treiberoverhead entscheidend senkt und wo Gsync Leistung kostet.

Das ist die nächste dummdreiste Behauptung,
Gefolgt von dem was die Tensorcores schon alles in Battlefield angeblich so machen.

Lies dir doch mal das Whitepaper dazu durch.
Oder schau dir das Beispielbild an und dann zeig mir die Artefakte.

Oder lies den kompletten Artikel.*** Turing content-adaptive shading with Wolfenstein II: The New Colossus - The Tech Report - Page 1[/url]


What's really impressive, though, is that even to my jaded graphics-reviewer eye, I saw practically no difference in image quality at 4K when moving between each preset. I would happily run the balanced or performance presets for this feature anywhere it was available. If there's a catch to having CAS on at this resolution, I didn't see one, and the minor increases to average frame rates and decreases in 99th-percentile frame times are appreciated when trying to get the most out of a 4K display.

Macht in der Praxis keinen BQ Unterschied, weil eben nur bestimme Bereiche mit einer geringeren shading rate berechnet werden, eben dort wo es faktisch keinen Unterschied macht.
 
Zuletzt bearbeitet:
Dass sich für den grössten Vega Fanboy auf dem Planeten kein Sinn bei so einem Feature ergibt, weils der liebe Herr nicht nutzen kann, ist ja wohl klar.

Und jetzt zeig der Welt mal wie man den AMD Dirext x11-Treiberoverhead entscheidend senkt und wo Gsync Leistung kostet.

Das ist die nächste dummdreiste Behauptung,
Gefolgt von dem was die Tensorcores schon alles in Battlefield angeblich so machen.

Lies dir doch mal das Whitepaper dazu durch.
Oder schau dir das Beispielbild an und dann zeig mir die Artefakte.

Alles schon getan.
 
Aber nur in der Theorie, in der Praxis ändert sich an der Bildqualität nichts
Es ist aber nunmal objektiv einfach völliger Unsinn, dass Sub- und Supersampling diverser Bildausschnitte nichts an der Qualität ändert.

Wenn das 10% mehr bringt, dazu noch Mesh Shading, bringt das AMD in Bedrängnis.
Weder Sample Rate Images noch Mesh Shading lassen sich mit DirectX nutzen, insofern ist beides erst einmal irrelevant. Zumal sich Mesh Shading nicht mal eben so in einen existierenden Renderer einflanschen lässt, das funktioniert grundlegend anders als die bisherige Grafikpipeline. Wenn Nvidia die Monopolstellung festigen will, dann eher mit proprietärem Mist wie DLSS.

Ab davon - AMD braucht man nicht mehr in Bedrängnis bringen, AMD ist für die nächsten Jahre raus aus dem Rennen. Turing ist einfach zu gut.
 
Alles schon getan.

Ach du, wer nimmt dich noch ernst.
Bitte nerve woanders.
Vor allem wo bringt es nur 2%?
Ich sehe da bis zu 8%.

Es ist aber nunmal objektiv einfach völliger Unsinn, dass Sub- und Supersampling diverser Bildausschnitte nichts an der Qualität ändert.

Verstehe ich nicht warum du das so siehst.
Wenn das Verfahren so funktioniert wie Nvidia das vorgibt, ergibt sich kein BQ Unterschied.
Wie soll das auch möglich sein, sofern das Abtasten gut funktioniert?

Die shading rate ist doch kein Gradmesser für BQ, die wird doch nur dort reduziert wo es keinen Unterschied ergibt.

Wieso soll ich Bereiche die keinen Farbübergang haben und sich nicht bewegen, nicht zusammenfassen können und die gleiche BQ erzielen? Wieso sollte ich dort die aufwändig 1x1 Raten verwenden, wenn die mit full shading gerenderte szene in den starren Bereichen ohne Farbübergänge doch gar keine detaillierteren Informationen zur Verfügung stellt?

Scheinbar kann man problemlos Performance einstellen und mit der gleichen BQ weiterzocken, wie im Artikel erörtert.

Aber natürlich erkennen die bekannten Experten den Unterschied selbst am kleinen Beispielbild.
Frage mich nur wo, hab bisher keine Antwort erhalten.
 
Zuletzt bearbeitet:
Es ist aber nunmal objektiv einfach völliger Unsinn, dass Sub- und Supersampling diverser Bildausschnitte nichts an der Qualität ändert.


Weder Sample Rate Images noch Mesh Shading lassen sich mit DirectX nutzen, insofern ist beides erst einmal irrelevant. Zumal sich Mesh Shading nicht mal eben so in einen existierenden Renderer einflanschen lässt, das funktioniert grundlegend anders als die bisherige Grafikpipeline. Wenn Nvidia die Monopolstellung festigen will, dann eher mit proprietärem Mist wie DLSS.

Ab davon - AMD braucht man nicht mehr in Bedrängnis bringen, AMD ist für die nächsten Jahre raus aus dem Rennen. Turing ist einfach zu gut.

Mit Argumenten hat er es nicht so, ist von Nvidia, muss alles stimmen was in den Werbevideo gezeigt wurde. Das die Realität eine ganz andere ist wird einfach übergangen.:rollen:
 
Mit Argumenten hat er es nicht so, ist von Nvidia, muss alles stimmen was in den Werbevideo gezeigt wurde. Das die Realität eine ganz andere ist wird einfach übergangen.:rollen:

Dann zeig doch wo die BQ effektiv verringert wird, anstatt einfach nur dumm daherzureden.
Dürfte ja nicht schwierig sein.
Aber von dir kommt eh nix.
 
Zuletzt bearbeitet:
Dann zeig doch wo die BQ effektiv verringert wird, anstatt einfach nur dumm daherzureden.
Dürfte ja nicht schwierig sein.
Aber von dir kommt eh nix.

Mal wieder gepennt die letzen tage?
Wolfenstein II: The New Colossus bekommt Unterstuetzung fuer Adaptive Shading (Update) - Hardwareluxx
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Zitat"Soll die Darstellungsqualität weitestgehend unberührt bleiben, sprechen wir sogar von nur etwa 2 %."
"
 
@ Schaffe89

Ich denke es geht primär darum das treffender zu formulieren, eine andere Shading-Rate hat technisch zur Folge das die BQ sich ändert.
Subjektiv kann man kaum bzw. keinen Unterschied erkennen, aber es muss nicht sein, dass es keinen Unterschied gibt.

Eine sehr tolle Technik die Shading-Rate von der Auflösung zu entkoppeln, aber es ist ein weiteres Tool in der Toolbox, womit jemand umgehen muss und Aufwand für gute Resultate erfordert.
 
Zitat"Soll die Darstellungsqualität weitestgehend unberührt bleiben, sprechen wir sogar von nur etwa 2 %."
"

Sieht mir eher nach einem Treiberfehler aus als wirklich einem generellen Problem von Adaptive Shading.

@ Schaffe89
Ich denke es geht primär darum das treffender zu formulieren, eine andere Shading-Rate hat technisch zur Folge das die BQ sich ändert.

Das will ich gar nicht bestreiten. Mir als Gamer geht es aber eher um das was ich zu Gesicht bekomme.
Wie das ganze bewerkstelligt wird, ist zumindest für mich Nebensache.
 
Das will ich gar nicht bestreiten. Mir als Gamer geht es aber eher um das was ich zu Gesicht bekomme.
Wie das ganze bewerkstelligt wird, ist zumindest für mich Nebensache.

Grafik ist doch das was du zu Gesicht bekommst...
Wenn die sich nunmal in einigen Bereichen verschlechtert ist das nunmal nicht gewollt... Ausser man möchte "Performance > Optik"
 
Zurück