• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu 3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi

Die kostenpflichtige Version des 3DMark erhält einen neuen Benchmark, mit dem Nutzer Variable Rate Shading austesten können. Die Funktion berechnet einige Bildbereiche mit niedrigerer Shader-Rate und spart damit Rechenleistung. VRS steht derzeit nur auf Nvidias Turing-Grafikkarten zur Verfügung, doch auch Intels Ice Lake und vermutlich AMDs RDNA2-Architektur sollen es unterstützen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 3DMark: Neuer Parkour testet Variable Rate Shading - mit Turing, ohne Navi
 

empy

Volt-Modder(in)
Also ich finde die Unterschiede ja schon recht deutlich, zumindest, wenn man darauf achtet. Die nächste Frage ist, wie sich das in Bewegung auswirkt. Ich weiß ja nicht, ob ich ein großer Fan dieser Technik werde.
 

rockero

Komplett-PC-Aufrüster(in)
Also ich finde die Unterschiede ja schon recht deutlich, zumindest, wenn man darauf achtet. Die nächste Frage ist, wie sich das in Bewegung auswirkt. Ich weiß ja nicht, ob ich ein großer Fan dieser Technik werde.

Ich bin ein wenig hin und her gerissen.
Die Qualität im Sichtfeld sollte schon gut sein und daher bin ich in dem Bereich ebenfalls kein Fan. Wenn es nur in den Randbereichen genutzt würde, wäre ich sogar offen.
Bei den 38" bzw. 49" würde mir das dann nicht auf die Schnelle auffallen.
 

Eddy08

Komplett-PC-Aufrüster(in)
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.
 

empy

Volt-Modder(in)
Die Qualität im Sichtfeld sollte schon gut sein und daher bin ich in dem Bereich ebenfalls kein Fan.

Ist halt wie mit Tiefenunschärfe, wenn man die Richtung, in die man guckt als die Ausrichtung der Augen betrachtet, kann man dafür argumentieren, wenn man es als die Richtung sieht, in die der Kopf gedreht ist, was ich tue, möchte ich bitte überall im dem Ausschnitt hingucken können, ohne Augenkrebs zu kriegen.
 

juko888

BIOS-Overclocker(in)
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.

Bist mir zuvorgekommen. Finde das auch mehr als bedenklich und am Ende können die Hersteller von einer x% großen Leistungssteigerung zur Vorgängergen reden, obwohl ein Teil dieser Steigerung mit Bildqualitätsverlust einhergeht. Und dafür soll man dann mit jeder Gen noch mehr Geld bezahlen? :wall:
 

empy

Volt-Modder(in)
Bist mir zuvorgekommen. Finde das auch mehr als bedenklich und am Ende können die Hersteller von einer x% großen Leistungssteigerung zur Vorgängergen reden, obwohl ein Teil dieser Steigerung mit Bildqualitätsverlust einhergeht. Und dafür soll man dann mit jeder Gen noch mehr Geld bezahlen? :wall:

Auf die Zahlen zur Leistungssteigerung von den Herstellern habe ich noch nie was gegeben, die waren schon immer unrepräsentativ. Solange man die Wahl hat, ob man die Techniken nutzt und die zugrundeliegende Leistung stimmt, sehe ich es eigentlich gelassen. Für volle Qualität ist das nichts, aber vielleicht ist es halt doch besser als eine bildschirmweite Reduktion. Wie gesagt, ich werde mich damit so schnell nicht anfreunden, aber andere könnten es nützlich finden.
 

juko888

BIOS-Overclocker(in)
Auf die Zahlen zur Leistungssteigerung von den Herstellern habe ich noch nie was gegeben, die waren schon immer unrepräsentativ. Solange man die Wahl hat, ob man die Techniken nutzt und die zugrundeliegende Leistung stimmt, sehe ich es eigentlich gelassen. Für volle Qualität ist das nichts, aber vielleicht ist es halt doch besser als eine bildschirmweite Reduktion. Wie gesagt, ich werde mich damit so schnell nicht anfreunden, aber andere könnten es nützlich finden.

Viele hier im Forum&Co werden auf die Herstellerangaben nicht viel geben, sondern sich unabhängig und vielseitig informieren. Nur sind "wir" die Minderheit, die allermeisten hören auf das Marketinggeblubber von Nvidia, AMD, Intel, Microsoft, Sony, Google usw.. Die meisten von jenen werden im Spiel dann auch keinen Unterschied wahrnehmen, sondern einfach denken "wie unfassbar toll die neue Hardware doch ist". Das Problem dabei ist für mich eher, dass solche "Features" nur mehr zunehmen werden, wenn die Anbieter damit Erfolg haben. Das bedeutet am Ende auch für uns etwas intensiver Interessierte, dass wahrscheinlich allgemein ein geringeres tatsächliches Leistungsplus herumkommt und wir dennoch deren Mondpreise bezahlen sollen. ;)
 

Locuza

Lötkolbengott/-göttin
Ich finde die aktuelle Entwicklung irgendwie bedenklich. Wird es in Zukunft nur noch Leistungssteigerungen geben, indem auf Qualität verzichtet werden muss? VRS und DLSS bringen ja nur Leistung auf kosten der Qualität. Außer RT (was ja schon älter als Braunkohle ist) gibt es keine Ansätze seitens der GPU Hersteller, die Grafikqualität merklich zu steigern. Ich hatte mir von DX12 die große CPU Entlastung erhoffte und damit Spielewelten in denen so viel los ist, dass ich nicht weiß wo ich als erstes hin schauen soll. Stattdessen kommen Spiele wie Control, in dem gefühlt jeder Raum so steril ist, dass er aus einer Zahnarztpraxis sein könnte.
Der Sinn und Zweck von solchen Dingen ist es den Kosten/Nutzen-Faktor zu verbessern.
Am Anfang der 3D-Geschichte gab es auch anfangs nur Super Sampling, um Kanten zu glätten bis MSAA erfunden wurde, um das Ganze selektiver zu gestalten und die Performance massiv zu erhöhen.
Aktuell verwenden viele Spiele TAA, um noch weniger Leistung zu verschwenden und eine gute Bildruhe zu erreichen, indem temporale Informationen von Frame zu Frame genutzt werden.

Mit VRS kann man auch sehr selektiv und dynamisch bei der Qualität des Renderings vorgehen, dass bedeutet nicht nur das man die Qualität selektiv herabsetzen kann, sondern auch hochschrauben.
Es ist möglich für einen schwarzen Sumpf die Shading-Rate herabzusetzen, wo man es (kaum) merken würde und bei einer Hütte mit einer feiner Aufschrift Supersampling zu verwenden.

Aber für eine gute Implementierung muss man natürlich auch entsprechend vorgehen.
 

empy

Volt-Modder(in)
Das bedeutet am Ende auch für uns etwas intensiver Interessierte, dass wahrscheinlich allgemein ein geringeres tatsächliches Leistungsplus herumkommt und wir dennoch deren Mondpreise bezahlen sollen. ;)

Solange es Konkurrenz gibt, denke ich mal, dass so viel Leistung rumkommen wird, wie geht. Wenn halt nicht mehr geht, wird halt getrickst. Ist ja auch nichts neues, das hat allerspätestens mit den "optimierten" Texturfiltern angefangen.
 

TheNewNow

Freizeitschrauber(in)
Im Grunde ist die Technik sehr interessant und kann durchaus was bringen. Auf den Vergleichsbildern konnte man zwar definitiv den Unterschied sehen, aber es war auch nicht so hässlich. Vergleichsbilder haben halt das Problem, dass man dabei besonders gut auf die Unterschiede achten kann. In der Bewegung ist das nicht mehr ganz so deutlich. Es kommt natürlich auch auf die Umsetzung an. Wenn es viel Leistung bringt, aber nicht viel schlechter aussieht ist das durchaus ok.

Es geht im Grunde ja auch darum mit möglichst wenig Leistung das bestmögliche Resultat rauszuholen. Dieser Grundgedanke ist schon wichtig. Ich möchte nicht wissen, wie die Spiele aussehen würden, wenn man das komplett vernachlässigen würde.

Problematisch ist es aber, wenn man schlechtere Qualität nutzt, um in Benchmarks besser darzustehen und das geheim hält.
 

Luebke82

Freizeitschrauber(in)
Im 3D-Mark soll ja erstmal nur das Prinzip veranschaulicht werden. Ich denke schon, dass das Ganze in Games sinnvoll genutzt werden könnte, gerade wenn eh ein Unschärfefilter im Hintergrund arbeitet. Wenn ich da an den Unschärfeeffekt in Metro2033 oder Mass Effect: Amdromeda auf höchster Stufe denke, kommt sogar eine 2080Ti noch ins schwitzen unter UHD.
 

Gurdi

Kokü-Junkie (m/w)
Im 3D-Mark soll ja erstmal nur das Prinzip veranschaulicht werden. Ich denke schon, dass das Ganze in Games sinnvoll genutzt werden könnte, gerade wenn eh ein Unschärfefilter im Hintergrund arbeitet. Wenn ich da an den Unschärfeeffekt in Metro2033 oder Mass Effect: Amdromeda auf höchster Stufe denke, kommt sogar eine 2080Ti noch ins schwitzen unter UHD.

Die bisherigen Umsetzungen sind aber sehr bescheiden,vom Grundsatz ist das kein verkehrter Ansatz.
 

Casurin

BIOS-Overclocker(in)
Der Ansatz ist nicht nur sehr interessant sondern auch sehr wichtig - wie eben jede Verbesserung die es ermöglich die Rechenleistung auf das zu konzentrieren was mehr bringt.
So wird zB für VR (wenn es halbwegs gut ist) der mittlere Bildbereich mit einer höheren Auflösung berechnet als der Rand.

Vaiable Shading-Genauigkeit bringt vor allem mit höheren Auflösungen dann viel. Wenn man zB ein Horror-Spiel auf 4k spielt und im Neblingen Wald rum rennt dann bringt es doch recht viel die umgebung die dunkel und vom nebel verdeckt ist mit weniger Details zu berechnen weil man sie so oder so nicht wahrnimmt - dafür kann man die gesparte Rechenleistung dann für zB besseren volumetrischen Nebel der auf den Charakter reagiert und volumetrische Beleuchtung nutzen.


(Oder hat hier jemand etwas gegen Mipmapping, LOD, Tesselation? Das sind Technologien die sehr ähnlich sind und den gleichen Hintergedanken haben - die Leistung auf das konzentrieren das zählt.


Das ist im Endeffekt eine teilweise Auflösungsreduktion, ich glaube das kann in Bewegung schon ganz schön hässlich werden.
Eher das gegenteil - in Bewegung kannst du die Details sowieso nicht so gut erkennen.

Langsam macht sich der 3DMark unglaubwürdig, als neutraler Benchmark.
Warum? Weil sie ein Dx12 Feature unterstützen das man Optional einschalten kann? Oder weil sie Features unterstützen die (noch) nicht alle Hersteller unterstützen? (wobei bei der Einführung von Async Compute wurde das doch noch gefeiert...........)
 
Zuletzt bearbeitet:

MyticDragonblast

Komplett-PC-Aufrüster(in)
Langsam macht sich der 3DMark unglaubwürdig, als neutraler Benchmark.

Den Ruf nicht ganz sauber zu sein hat der schon seit dem 3D-Mark Vantage weg. Damals gab's doch auch Treiber und Hacks für Extrapunkte die einem Hersteller enorme Vorteile boten. Optisch aber einer der besten 3D Marks(vor allem das Asteroidenfeld ist cool).
 

Gurdi

Kokü-Junkie (m/w)
"Langsam" macht sich Gurdi unglaubwürdig, als neutraler Forenteilnehmer.

Ich finde schlicht Anbandelungen in der Richtung unseriös. Kein Mensch benötigt einen Benchmark dazu, was soll der für einen Zweckmerfüllen. Jede implementierung ist individuell.
Der Benchmark selbst ist ein Trauerspiel sowohl in der Optik wie auch inder Präsentation des Features.

Die Zeiten wo man über einen 3D Mark gestaunt hat sind auch schon lange vorbei, Sowohl der TimeSpy wie auch der Firestrike sind schon lange nicht mehr zeitgemäß in der Optik. Das ganze mit so unsinnigen Verbandelungen zu kitten ist ziemlich mager. Da ändert dein sachfremder, persönlicher Seitenhieb auch wenig dran. Aber wenn man sonst nichts sinnvolles beitragen kann.:schief:
 

Locuza

Lötkolbengott/-göttin
Tut mir Leid Gurdi, mein Seitenhieb war völlig unangebracht. :(
Mein mangelndes Selbstvertrauen führt dazu das ich mich häufig wie ein Schwein aufführe, ich versuche daran zu arbeiten und Du liegst völlig im Recht. :nicken:

Aaaaaber, um etwas Sinnvolles beizutragen, ich sehe die Sache in dem Fall relativ gleichgültig an.
Ich weiß nicht, welche Erwartungshaltung an das Unternehmen angesetzt werden sollten, aber unter simplen Funktionstest für Leading-Edge-Rendering-Features sehe ich nichts Verwerfliches, wobei ich deiner Kritik zustimme, der Test ist eben arg simpel und kann zu falschen Vorstellungen in Bezug auf VRS führen.
Das ist natürlich immer so eine Problemsache bei simplen Tests.
3DMark hat in den letzten Jahren etliche kleine Ausflüge in solchen Richtungen angeboten, wie den API-Overhead-Test mit DX11, DX12 und Vulkan (Welches Mantle ersetzt hat), um einfach so ein bisschen die Skalierung der neuen APIs zu demonstrieren, wobei der Test nicht geeignet war, um zwischen Herstellern zu vergleichen, was leider dennoch häufig gemacht wurde.

Vor relativ kurzer Zeit war noch ein kleiner Benchmark für FP16/Rapid Packed Math geplant, aber 3D Mark Sierra wurde gestrichen, weil der Umfang wohl doch zu klein war, um das zu rechtfertigen.
TimeSpy hat eine RayTracing-Variante bekommen, auch nett zum reinschnuppern, aber eben auch nicht wirklich praxisnah mit der relativ hässlichen Raster-Version.
Ich weiß nicht, ob der PCI-Express-Bandbreitentest schon draußen ist, aber das ist auch so eine Sache, wo man sich fragen könnte, ob das einen Stellenwert hat.

Kann jeder für sich selber entscheiden, ob solch Zusatz von Wert ist bzw. das Softwarepaket sein Geld.
Viel verlangt das Unternehmen für ihre Software nicht, welche sowieso noch sehr häufig im Angebot verkauft wird.
 

empy

Volt-Modder(in)
(Oder hat hier jemand etwas gegen Mipmapping, LOD, Tesselation? Das sind Technologien die sehr ähnlich sind und den gleichen Hintergedanken haben - die Leistung auf das konzentrieren das zählt.

Mipmapping ist eine Technik gegen Oversampling und damit Rauschen. Sonst würde es reichen, die höchstaufgelöste Stufe zu verwenden, LOD passt, Tesselation ist auch eine Möglichkeit zur Leistungseinsparung, richtig umgesetzt allerdings ohne Qualitätsverlust. Man lagert nur Arbeit von der CPU auf die GPU aus und entlastet damit den Transfer zur Grafikkarte und die CPU, die insgesamt deutlich weniger Rechenleistung hat.

Eher das gegenteil - in Bewegung kannst du die Details sowieso nicht so gut erkennen.

Das entstehende Aliasing durch die reduzierte Auflösung der Effekte aber schon.
 

Coolgamer400

Komplett-PC-Käufer(in)
statt auf Kosten der Qualität Rechenleistung zu sparen, sollten lieber die Preise für starke Hardware mal wieder ein wenig gen Erdboden gerichtet werden!
 
Oben Unten