Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei

Ich hab auch noch ne 970, kommt halt auch immer drauf an was und wie man zockt. In meinem Fall so gut wie nur competitive/Arena Shooter (Battalion 1944, CS, Quake, UT etc.) in denen ich eh so gut wie alle Effekte und SchnickSchnack aus schalte, sowie in einer gestretchten 4:3 low Auflösung zocke und das jenseits meiner angestrebten 144fps. Wieso sollte man sich für sowas ne 500€+ Grafikkarte holen die sich dann bei 20% Auslastung langweilt?
 
Was soll den hier Technisch beeindruckend sein?? sorry aber das Spiel sieht grottig aus kein wunder das es mit 140 FPs aufwerts läuft...wäre ja als würde man sagen Hey das ist ja der Hit Counter-Strike läuft auf der 1080 ti echt nice!
Sorry selten so einen schmarrn gelesen das spiel würde mit der Optik auch unter direktx butterweich laufen !
 
Wenn ich sage "in der Regel werden Lichtberechnungen hinten angestellt", dann bezieht sich das oft nicht auf alle Lichtberechnungen, sondern nur manche.

Es bezieht sich hauptsächlich auf das Shading. Da man erst, wenn man die gesamte Geometrie "im Kasten" hat weiß, welche Teile welcher Objekte sichtbar sind, macht es auch erst dann Sinn, deren Farben zu bestimmen. Das wurde zunehmend wichtiger, als immer mehr und komplexere Shader auf die Pixel angewendet wurden, weil der Verlust entsprechend angestiegen ist, wenn sich rausgestellt hat, dass das eben geshaderte Pixel nun doch verdeckt ist.

Ich find fünf Jahre sehr vernünftig.

Und man kann mit der Karte ja auch noch spielen. Ich finde auch, dass diejenigen, die jetzt aus ihren Löchern kommen und sagen "HA! Jetzt, nach fünf Jahren, seht ihr endlich, wie man mit den Nvidia-Speicherkrüppeln einbricht!", während der Nutzer der Karte ganz entspannt die Texturen ein oder zwei Stufen zurückstellt und zockt, irgendwie keine richtige Grundlage für ihre Häme haben.
 
Text lesen scheint nicht deine Stärke zu sein:

Sicherlich wird auch eine 5700 XT gebencht.

Lesen scheint aber auch nicht Deine Stärke zu sein? Es wurden 5 NVidia-Karten gestestet, und 3 alte AMD-Karten welche garantiert schlechter abscheiden als die aktuellen NVidia-Modelle. Aber scheint offensichtlich gut zu funktionieren diese Masche ...
 
Aber scheint offensichtlich gut zu funktionieren diese Masche ...
Beim täglichen Kaffeeklatsch mit Jensen wird in der Redaktion sicher ordentlich über AMD gelästert, während die Reihenfolge der Karten die Raff (und sein Kollege) gebencht haben, nur so von ihnen gewählt wurden, um dich zu ärgern :-D
Was denkst du denn? Raff bekommt jetzt bestimmt eine 2080 Ti geschenkt, weil er Nvidia im vorläufigen Test bevorzugt hat.
So viel Liebe für Nvidia über zu haben, wo letzte Woche doch die Abgabe für ein Heft war, was fast ausschließlich Ryzen und Navi beinhaltet, kann nur ein wahrer Nvidia-Fan entfesseln.
 
Zuletzt bearbeitet:
Morgen früh gibt's einen großen Daten-Nachschlag mit weiteren CPUs und - spanned - CPUs. Stay tuned! :devil:

MfG,
Raff
 
Hat nicht Willi an der 5700 XT rumgeschraubt?

Ist die nun abgeraucht und nun bekommen wir mit der Navi keinen Benchmark mehr?

Willi! SO schnell kommt man den Leuten hier auf die Schliche! Wir sind erschüttert! :D :D :D
 
Danke für den Test, Performance ist mal wieder sehr gut - schade, dass sich dasselbe nicht über das Spiel sagen lässt. :ugly: Ist tatsächlich mein erster Refund auf Steam.

Deferred Rendering ist, wenn man einen Teil der Berechnung hinten anstellt. Das Endprodukt auf dem Bildschirm ist ja die Summe aus mehreren Berechnungen Würfel + Oberfläche + Textur + Normal Map + Light Map. Das könnte man ja parallel Ausrechnen, aber in dem Falle macht man das nicht, man stellt eine Berechnung nach hinten an (to defer), derzeit in der Regel die des Helligkeitswertes. Grund dafür sind Pixelshadereffekte in Zukunft auch RTX Lichtberechnungen. Das entspringt halt der EInsicht, dass man nicht alles parallelisieren kann, oder sogar in der Summer Rechenpower spart, wenn man es nicht macht.
Ne, Parallelisierbarkeit hat damit erstmal nicht viel zu tun, die entsteht ja dadurch, dass jeder Vertex und jedes Pixel seinen eigenen Thread bekommt.

Zu Dx9-Zeiten hat man Deferred Rendering eingeführt, weil es mit Forward-Rendering damals keine sinnvolle Möglichkeit gab, Lichtquellen zu filtern, sodass man für jedes Pixel nur die benutzt, die auch merklich zur Beleuchtung beitragen. Den Render-Pass für Lichtberechnung hat man einfach mit additivem Blending für jede einzelne Lichtquelle realisiert. Das ist zwar besser als Hunderte von Lichtern auf den gesamten Bildschirminhalt anzuwenden, frisst aber durch das Blending und die vielen Render Targets unglaublich viel Speicherbandbreite, ist nicht besonders effizient.

Die nächste Evolutionsstufe war dann Tiled Deferred, wo man dann anhand des Depth Buffers für jeden Block von bspw. 16x16 Pixeln die Lichtquellen filtert, die überhaupt einen Einfluss auf den Block haben, die Beleuchtung für jeden Block wird dann mit einer einzelnen Compute Shader-Workgroup berechnet. Spart Bandbreite, weil das Blending wegfällt und man die G-Buffer-Inhalte nur noch ein Mal laden und das Endergebnis nur noch ein Mal speichern muss, der G-Buffer-Pass ist aber immer noch recht bandbreitenlastig, weil die Shader oft relativ einfach sind, aber je nach Engine 3-8 Render Targets produziert werden.

Das gleiche kann man aber eben auch für Forward-Renderer machen, womit das ursprüngliche Problem, das man zu Dx9-Zeiten hatte, einfach wegfällt. Id Tech 6 macht normalerweise genau das (allerdings mit einer dreidimensionalen Raumaufteilung statt 16x16-Blöcke) und wendet lediglich Screenspace Reflections später an (klar, geht in dem Fall ja nicht anders). Spart im besten Fall noch mehr Bandbreite und ist v.a. deutlich flexibler, weil man nicht für jede Materialeigenschaft neue G-Buffer-Parameter und Codepfade im Lighting-Shader braucht.

RT-Effekte lassen sich an sich auch problemlos mit Forward-Rendering kombinieren. Die müssen ohnehin separat berechnet werden, im Falle von RT-GI würde man eben den GI-Teil vorberechnen und dann beim Haupt-Renderpass genau so anwenden, wie man es bei einem Deferred Renderer im Lighting-Pass täte.
 
Also bei den Vega Karten hätte ich mehr erwartet. Da läuft irgendetwas noch nicht richtig rund, insbesondere unter WQHD.
 
Also bei den Vega Karten hätte ich mehr erwartet. Da läuft irgendetwas noch nicht richtig rund, insbesondere unter WQHD.

Warum :huh: Ist doch das altbekannte Bild. V56 vor 1070 und V64 in Schlagdistanz zur 1080 :schief:. Aber mal davon abgesehen, hier sieht man mal wieder schön das ne 6GB Karte einfach nur Driss ist (GTX2060) :daumen2:
 
Warum :huh: Ist doch das altbekannte Bild. V56 vor 1070 und V64 in Schlagdistanz zur 1080 :schief:. Aber mal davon abgesehen, hier sieht man mal wieder schön das ne 6GB Karte einfach nur Driss ist (GTX2060) :daumen2:

Bei Spielen die Low Level APIs können wäre das altbekannte Bild eher das sich die GTX1080 nur hauchdünn vor der RX56 halten kann. Die RX64 entsprechend ein bisschen höher. Bezogen auf Customdesigns. Gerade unter WQHD sieht das hier aber nicht so aus.
 
Vermutlich liegen die Probleme mit Navi eher daran dass eine veraltete Version von AGS verwendet wird.
 
Update:

Ich habe gerade die Werte des Athlon 200GE eingetragen. Beeindruckend, wie gut die Engine selbst mit nur 2 Kernen skaliert. Der Test ohne SMT kommt bald, im Moment werden wir erneut von den Schutzmaßnahmen des Spiels blockiert.
 
Zurück