3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi

Die kostenpflichtige Version des 3DMark erhält einen neuen Benchmark, mit dem Nutzer Variable Rate Shading austesten können. Die Funktion berechnet einige Bildbereiche mit niedrigerer Shader-Rate und spart damit Rechenleistung. VRS steht derzeit nur auf Nvidias Turing-Grafikkarten zur Verfügung, doch auch Intels Ice Lake und vermutlich AMDs RDNA2-Architektur sollen es unterstützen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: 3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi
 
Also ich finde die Unterschiede ja schon recht deutlich, zumindest, wenn man darauf achtet. Die nächste Frage ist, wie sich das in Bewegung auswirkt. Ich weiß ja nicht, ob ich ein großer Fan dieser Technik werde.
 
Also ich finde die Unterschiede ja schon recht deutlich, zumindest, wenn man darauf achtet. Die nächste Frage ist, wie sich das in Bewegung auswirkt. Ich weiß ja nicht, ob ich ein großer Fan dieser Technik werde.

Ich bin ein wenig hin und her gerissen.
Die Qualität im Sichtfeld sollte schon gut sein und daher bin ich in dem Bereich ebenfalls kein Fan. Wenn es nur in den Randbereichen genutzt würde, wäre ich sogar offen.
Bei den 38" bzw. 49" würde mir das dann nicht auf die Schnelle auffallen.
 
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.
 
Die Qualität im Sichtfeld sollte schon gut sein und daher bin ich in dem Bereich ebenfalls kein Fan.

Ist halt wie mit Tiefenunschärfe, wenn man die Richtung, in die man guckt als die Ausrichtung der Augen betrachtet, kann man dafür argumentieren, wenn man es als die Richtung sieht, in die der Kopf gedreht ist, was ich tue, möchte ich bitte überall im dem Ausschnitt hingucken können, ohne Augenkrebs zu kriegen.
 
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.

Bist mir zuvorgekommen. Finde das auch mehr als bedenklich und am Ende können die Hersteller von einer x% großen Leistungssteigerung zur Vorgängergen reden, obwohl ein Teil dieser Steigerung mit Bildqualitätsverlust einhergeht. Und dafür soll man dann mit jeder Gen noch mehr Geld bezahlen? :wall:
 
Bist mir zuvorgekommen. Finde das auch mehr als bedenklich und am Ende können die Hersteller von einer x% großen Leistungssteigerung zur Vorgängergen reden, obwohl ein Teil dieser Steigerung mit Bildqualitätsverlust einhergeht. Und dafür soll man dann mit jeder Gen noch mehr Geld bezahlen? :wall:

Auf die Zahlen zur Leistungssteigerung von den Herstellern habe ich noch nie was gegeben, die waren schon immer unrepräsentativ. Solange man die Wahl hat, ob man die Techniken nutzt und die zugrundeliegende Leistung stimmt, sehe ich es eigentlich gelassen. Für volle Qualität ist das nichts, aber vielleicht ist es halt doch besser als eine bildschirmweite Reduktion. Wie gesagt, ich werde mich damit so schnell nicht anfreunden, aber andere könnten es nützlich finden.
 
Auf die Zahlen zur Leistungssteigerung von den Herstellern habe ich noch nie was gegeben, die waren schon immer unrepräsentativ. Solange man die Wahl hat, ob man die Techniken nutzt und die zugrundeliegende Leistung stimmt, sehe ich es eigentlich gelassen. Für volle Qualität ist das nichts, aber vielleicht ist es halt doch besser als eine bildschirmweite Reduktion. Wie gesagt, ich werde mich damit so schnell nicht anfreunden, aber andere könnten es nützlich finden.

Viele hier im Forum&Co werden auf die Herstellerangaben nicht viel geben, sondern sich unabhängig und vielseitig informieren. Nur sind "wir" die Minderheit, die allermeisten hören auf das Marketinggeblubber von Nvidia, AMD, Intel, Microsoft, Sony, Google usw.. Die meisten von jenen werden im Spiel dann auch keinen Unterschied wahrnehmen, sondern einfach denken "wie unfassbar toll die neue Hardware doch ist". Das Problem dabei ist für mich eher, dass solche "Features" nur mehr zunehmen werden, wenn die Anbieter damit Erfolg haben. Das bedeutet am Ende auch für uns etwas intensiver Interessierte, dass wahrscheinlich allgemein ein geringeres tatsächliches Leistungsplus herumkommt und wir dennoch deren Mondpreise bezahlen sollen. ;)
 
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.
Der Sinn und Zweck von solchen Dingen ist es den Kosten/Nutzen-Faktor zu verbessern.
Am Anfang der 3D-Geschichte gab es auch anfangs nur Super Sampling, um Kanten zu glätten bis MSAA erfunden wurde, um das Ganze selektiver zu gestalten und die Performance massiv zu erhöhen.
Aktuell verwenden viele Spiele TAA, um noch weniger Leistung zu verschwenden und eine gute Bildruhe zu erreichen, indem temporale Informationen von Frame zu Frame genutzt werden.

Mit VRS kann man auch sehr selektiv und dynamisch bei der Qualität des Renderings vorgehen, dass bedeutet nicht nur das man die Qualität selektiv herabsetzen kann, sondern auch hochschrauben.
Es ist möglich für einen schwarzen Sumpf die Shading-Rate herabzusetzen, wo man es (kaum) merken würde und bei einer Hütte mit einer feiner Aufschrift Supersampling zu verwenden.

Aber für eine gute Implementierung muss man natürlich auch entsprechend vorgehen.
 
Das bedeutet am Ende auch für uns etwas intensiver Interessierte, dass wahrscheinlich allgemein ein geringeres tatsächliches Leistungsplus herumkommt und wir dennoch deren Mondpreise bezahlen sollen. ;)

Solange es Konkurrenz gibt, denke ich mal, dass so viel Leistung rumkommen wird, wie geht. Wenn halt nicht mehr geht, wird halt getrickst. Ist ja auch nichts neues, das hat allerspätestens mit den "optimierten" Texturfiltern angefangen.
 
Im Grunde ist die Technik sehr interessant und kann durchaus was bringen. Auf den Vergleichsbildern konnte man zwar definitiv den Unterschied sehen, aber es war auch nicht so hässlich. Vergleichsbilder haben halt das Problem, dass man dabei besonders gut auf die Unterschiede achten kann. In der Bewegung ist das nicht mehr ganz so deutlich. Es kommt natürlich auch auf die Umsetzung an. Wenn es viel Leistung bringt, aber nicht viel schlechter aussieht ist das durchaus ok.

Es geht im Grunde ja auch darum mit möglichst wenig Leistung das bestmögliche Resultat rauszuholen. Dieser Grundgedanke ist schon wichtig. Ich möchte nicht wissen, wie die Spiele aussehen würden, wenn man das komplett vernachlässigen würde.

Problematisch ist es aber, wenn man schlechtere Qualität nutzt, um in Benchmarks besser darzustehen und das geheim hält.
 
Im 3D-Mark soll ja erstmal nur das Prinzip veranschaulicht werden. Ich denke schon, dass das Ganze in Games sinnvoll genutzt werden könnte, gerade wenn eh ein Unschärfefilter im Hintergrund arbeitet. Wenn ich da an den Unschärfeeffekt in Metro2033 oder Mass Effect: Amdromeda auf höchster Stufe denke, kommt sogar eine 2080Ti noch ins schwitzen unter UHD.
 
Im 3D-Mark soll ja erstmal nur das Prinzip veranschaulicht werden. Ich denke schon, dass das Ganze in Games sinnvoll genutzt werden könnte, gerade wenn eh ein Unschärfefilter im Hintergrund arbeitet. Wenn ich da an den Unschärfeeffekt in Metro2033 oder Mass Effect: Amdromeda auf höchster Stufe denke, kommt sogar eine 2080Ti noch ins schwitzen unter UHD.

Die bisherigen Umsetzungen sind aber sehr bescheiden,vom Grundsatz ist das kein verkehrter Ansatz.
 
Der Ansatz ist nicht nur sehr interessant sondern auch sehr wichtig - wie eben jede Verbesserung die es ermöglich die Rechenleistung auf das zu konzentrieren was mehr bringt.
So wird zB für VR (wenn es halbwegs gut ist) der mittlere Bildbereich mit einer höheren Auflösung berechnet als der Rand.

Vaiable Shading-Genauigkeit bringt vor allem mit höheren Auflösungen dann viel. Wenn man zB ein Horror-Spiel auf 4k spielt und im Neblingen Wald rum rennt dann bringt es doch recht viel die umgebung die dunkel und vom nebel verdeckt ist mit weniger Details zu berechnen weil man sie so oder so nicht wahrnimmt - dafür kann man die gesparte Rechenleistung dann für zB besseren volumetrischen Nebel der auf den Charakter reagiert und volumetrische Beleuchtung nutzen.


(Oder hat hier jemand etwas gegen Mipmapping, LOD, Tesselation? Das sind Technologien die sehr ähnlich sind und den gleichen Hintergedanken haben - die Leistung auf das konzentrieren das zählt.


Das ist im Endeffekt eine teilweise Auflösungsreduktion, ich glaube das kann in Bewegung schon ganz schön hässlich werden.
Eher das gegenteil - in Bewegung kannst du die Details sowieso nicht so gut erkennen.

Langsam macht sich der 3DMark unglaubwürdig, als neutraler Benchmark.
Warum? Weil sie ein Dx12 Feature unterstützen das man Optional einschalten kann? Oder weil sie Features unterstützen die (noch) nicht alle Hersteller unterstützen? (wobei bei der Einführung von Async Compute wurde das doch noch gefeiert...........)
 
Zuletzt bearbeitet:
Langsam macht sich der 3DMark unglaubwürdig, als neutraler Benchmark.

Den Ruf nicht ganz sauber zu sein hat der schon seit dem 3D-Mark Vantage weg. Damals gab's doch auch Treiber und Hacks für Extrapunkte die einem Hersteller enorme Vorteile boten. Optisch aber einer der besten 3D Marks(vor allem das Asteroidenfeld ist cool).
 
"Langsam" macht sich Gurdi unglaubwürdig, als neutraler Forenteilnehmer.

Ich finde schlicht Anbandelungen in der Richtung unseriös. Kein Mensch benötigt einen Benchmark dazu, was soll der für einen Zweckmerfüllen. Jede implementierung ist individuell.
Der Benchmark selbst ist ein Trauerspiel sowohl in der Optik wie auch inder Präsentation des Features.

Die Zeiten wo man über einen 3D Mark gestaunt hat sind auch schon lange vorbei, Sowohl der TimeSpy wie auch der Firestrike sind schon lange nicht mehr zeitgemäß in der Optik. Das ganze mit so unsinnigen Verbandelungen zu kitten ist ziemlich mager. Da ändert dein sachfremder, persönlicher Seitenhieb auch wenig dran. Aber wenn man sonst nichts sinnvolles beitragen kann.:schief:
 
Zurück