• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Wolfenstein Youngblood im Benchmark-Test: Technisch beeindruckende Vulkan-Koop-Ballerei

JonnyJonson

Komplett-PC-Käufer(in)
Ich hab auch noch ne 970, kommt halt auch immer drauf an was und wie man zockt. In meinem Fall so gut wie nur competitive/Arena Shooter (Battalion 1944, CS, Quake, UT etc.) in denen ich eh so gut wie alle Effekte und SchnickSchnack aus schalte, sowie in einer gestretchten 4:3 low Auflösung zocke und das jenseits meiner angestrebten 144fps. Wieso sollte man sich für sowas ne 500€+ Grafikkarte holen die sich dann bei 20% Auslastung langweilt?
 

TheFanaticTesters

Software-Overclocker(in)
Was soll den hier Technisch beeindruckend sein?? sorry aber das Spiel sieht grottig aus kein wunder das es mit 140 FPs aufwerts läuft...wäre ja als würde man sagen Hey das ist ja der Hit Counter-Strike läuft auf der 1080 ti echt nice!
Sorry selten so einen schmarrn gelesen das spiel würde mit der Optik auch unter direktx butterweich laufen !
 

empy

Volt-Modder(in)
Wenn ich sage "in der Regel werden Lichtberechnungen hinten angestellt", dann bezieht sich das oft nicht auf alle Lichtberechnungen, sondern nur manche.

Es bezieht sich hauptsächlich auf das Shading. Da man erst, wenn man die gesamte Geometrie "im Kasten" hat weiß, welche Teile welcher Objekte sichtbar sind, macht es auch erst dann Sinn, deren Farben zu bestimmen. Das wurde zunehmend wichtiger, als immer mehr und komplexere Shader auf die Pixel angewendet wurden, weil der Verlust entsprechend angestiegen ist, wenn sich rausgestellt hat, dass das eben geshaderte Pixel nun doch verdeckt ist.

Ich find fünf Jahre sehr vernünftig.

Und man kann mit der Karte ja auch noch spielen. Ich finde auch, dass diejenigen, die jetzt aus ihren Löchern kommen und sagen "HA! Jetzt, nach fünf Jahren, seht ihr endlich, wie man mit den Nvidia-Speicherkrüppeln einbricht!", während der Nutzer der Karte ganz entspannt die Texturen ein oder zwei Stufen zurückstellt und zockt, irgendwie keine richtige Grundlage für ihre Häme haben.
 

BoMbY

Software-Overclocker(in)
Text lesen scheint nicht deine Stärke zu sein:

Sicherlich wird auch eine 5700 XT gebencht.

Lesen scheint aber auch nicht Deine Stärke zu sein? Es wurden 5 NVidia-Karten gestestet, und 3 alte AMD-Karten welche garantiert schlechter abscheiden als die aktuellen NVidia-Modelle. Aber scheint offensichtlich gut zu funktionieren diese Masche ...
 

Ion

Kokü-Junkie (m/w)
Aber scheint offensichtlich gut zu funktionieren diese Masche ...
Beim täglichen Kaffeeklatsch mit Jensen wird in der Redaktion sicher ordentlich über AMD gelästert, während die Reihenfolge der Karten die Raff (und sein Kollege) gebencht haben, nur so von ihnen gewählt wurden, um dich zu ärgern :-D
Was denkst du denn? Raff bekommt jetzt bestimmt eine 2080 Ti geschenkt, weil er Nvidia im vorläufigen Test bevorzugt hat.
So viel Liebe für Nvidia über zu haben, wo letzte Woche doch die Abgabe für ein Heft war, was fast ausschließlich Ryzen und Navi beinhaltet, kann nur ein wahrer Nvidia-Fan entfesseln.
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Morgen früh gibt's einen großen Daten-Nachschlag mit weiteren CPUs und - spanned - CPUs. Stay tuned! :devil:

MfG,
Raff
 

Leuenzahn

Freizeitschrauber(in)
Hat nicht Willi an der 5700 XT rumgeschraubt?

Ist die nun abgeraucht und nun bekommen wir mit der Navi keinen Benchmark mehr?

Willi! SO schnell kommt man den Leuten hier auf die Schliche! Wir sind erschüttert! :D :D :D
 

VikingGe

Software-Overclocker(in)
Danke für den Test, Performance ist mal wieder sehr gut - schade, dass sich dasselbe nicht über das Spiel sagen lässt. :ugly: Ist tatsächlich mein erster Refund auf Steam.

Deferred Rendering ist, wenn man einen Teil der Berechnung hinten anstellt. Das Endprodukt auf dem Bildschirm ist ja die Summe aus mehreren Berechnungen Würfel + Oberfläche + Textur + Normal Map + Light Map. Das könnte man ja parallel Ausrechnen, aber in dem Falle macht man das nicht, man stellt eine Berechnung nach hinten an (to defer), derzeit in der Regel die des Helligkeitswertes. Grund dafür sind Pixelshadereffekte in Zukunft auch RTX Lichtberechnungen. Das entspringt halt der EInsicht, dass man nicht alles parallelisieren kann, oder sogar in der Summer Rechenpower spart, wenn man es nicht macht.
Ne, Parallelisierbarkeit hat damit erstmal nicht viel zu tun, die entsteht ja dadurch, dass jeder Vertex und jedes Pixel seinen eigenen Thread bekommt.

Zu Dx9-Zeiten hat man Deferred Rendering eingeführt, weil es mit Forward-Rendering damals keine sinnvolle Möglichkeit gab, Lichtquellen zu filtern, sodass man für jedes Pixel nur die benutzt, die auch merklich zur Beleuchtung beitragen. Den Render-Pass für Lichtberechnung hat man einfach mit additivem Blending für jede einzelne Lichtquelle realisiert. Das ist zwar besser als Hunderte von Lichtern auf den gesamten Bildschirminhalt anzuwenden, frisst aber durch das Blending und die vielen Render Targets unglaublich viel Speicherbandbreite, ist nicht besonders effizient.

Die nächste Evolutionsstufe war dann Tiled Deferred, wo man dann anhand des Depth Buffers für jeden Block von bspw. 16x16 Pixeln die Lichtquellen filtert, die überhaupt einen Einfluss auf den Block haben, die Beleuchtung für jeden Block wird dann mit einer einzelnen Compute Shader-Workgroup berechnet. Spart Bandbreite, weil das Blending wegfällt und man die G-Buffer-Inhalte nur noch ein Mal laden und das Endergebnis nur noch ein Mal speichern muss, der G-Buffer-Pass ist aber immer noch recht bandbreitenlastig, weil die Shader oft relativ einfach sind, aber je nach Engine 3-8 Render Targets produziert werden.

Das gleiche kann man aber eben auch für Forward-Renderer machen, womit das ursprüngliche Problem, das man zu Dx9-Zeiten hatte, einfach wegfällt. Id Tech 6 macht normalerweise genau das (allerdings mit einer dreidimensionalen Raumaufteilung statt 16x16-Blöcke) und wendet lediglich Screenspace Reflections später an (klar, geht in dem Fall ja nicht anders). Spart im besten Fall noch mehr Bandbreite und ist v.a. deutlich flexibler, weil man nicht für jede Materialeigenschaft neue G-Buffer-Parameter und Codepfade im Lighting-Shader braucht.

RT-Effekte lassen sich an sich auch problemlos mit Forward-Rendering kombinieren. Die müssen ohnehin separat berechnet werden, im Falle von RT-GI würde man eben den GI-Teil vorberechnen und dann beim Haupt-Renderpass genau so anwenden, wie man es bei einem Deferred Renderer im Lighting-Pass täte.
 

Rolk

Lötkolbengott/-göttin
Also bei den Vega Karten hätte ich mehr erwartet. Da läuft irgendetwas noch nicht richtig rund, insbesondere unter WQHD.
 

bootzeit

PCGH-Community-Veteran(in)
Also bei den Vega Karten hätte ich mehr erwartet. Da läuft irgendetwas noch nicht richtig rund, insbesondere unter WQHD.

Warum :huh: Ist doch das altbekannte Bild. V56 vor 1070 und V64 in Schlagdistanz zur 1080 :schief:. Aber mal davon abgesehen, hier sieht man mal wieder schön das ne 6GB Karte einfach nur Driss ist (GTX2060) :daumen2:
 

Rolk

Lötkolbengott/-göttin
Warum :huh: Ist doch das altbekannte Bild. V56 vor 1070 und V64 in Schlagdistanz zur 1080 :schief:. Aber mal davon abgesehen, hier sieht man mal wieder schön das ne 6GB Karte einfach nur Driss ist (GTX2060) :daumen2:

Bei Spielen die Low Level APIs können wäre das altbekannte Bild eher das sich die GTX1080 nur hauchdünn vor der RX56 halten kann. Die RX64 entsprechend ein bisschen höher. Bezogen auf Customdesigns. Gerade unter WQHD sieht das hier aber nicht so aus.
 

BoMbY

Software-Overclocker(in)
Vermutlich liegen die Probleme mit Navi eher daran dass eine veraltete Version von AGS verwendet wird.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Wenn ihr 4.8ghz uncore habt liegen die auch ingame an und nicht 5ghz zumindest war das bei meinem 8700k so

Bei unseren 9900K-Schlitten wird alles so übernommen, wie wir uns das wünschen. Also 5,0 GHz auf den Kernen, 4,8 für den Uncore-Bereich und 3,6 GHz beim Speicher. :-)

MfG,
Raff
 

PCGH_Dave

Redaktion
Teammitglied
Update:

Ich habe gerade die Werte des Athlon 200GE eingetragen. Beeindruckend, wie gut die Engine selbst mit nur 2 Kernen skaliert. Der Test ohne SMT kommt bald, im Moment werden wir erneut von den Schutzmaßnahmen des Spiels blockiert.
 

BxBender

BIOS-Overclocker(in)
Update:

Ich habe gerade die Werte des Athlon 200GE eingetragen. Beeindruckend, wie gut die Engine selbst mit nur 2 Kernen skaliert. Der Test ohne SMT kommt bald, im Moment werden wir erneut von den Schutzmaßnahmen des Spiels blockiert.

Die sollten die CPU bei Userbench mal endlich auf TOP 1 setzen. Hat sie sich spätestens jetzt redlich verdient. LOL
 

MircoSfot

Freizeitschrauber(in)
Warum kann eigentlich nur (gefühlt) ein Entwicklerstudio auf dieser Welt mit VULKAN umgehen? Traurig!
 

redeye5

Komplett-PC-Aufrüster(in)
Update:

Ich habe gerade die Werte des Athlon 200GE eingetragen. Beeindruckend, wie gut die Engine selbst mit nur 2 Kernen skaliert. Der Test ohne SMT kommt bald, im Moment werden wir erneut von den Schutzmaßnahmen des Spiels blockiert.

Schweinerei!
Wie soll man sich denn da noch ein Upgrade von 2600x auf 3700x schönreden?
 

DaStash

PCGH-Community-Veteran(in)
Das mit dem Kopierschutz ist ja wohl ein Witz. Verstehe nicht warum da keiner "aufschreit" aber sich bei einem weiteren kostenlosen Launcher die Finger wundtippt.^^

@CPU Nutzung
Scheint ja bestens für Konsolen optimiert zu sein. Geht laso alles über die GPU. Das wird sich dann das Spiel durch inhaltlich Reduktion erkauft haben.

@GPU
Ein weiteres Spiel das die Aussage 6GB würden reichen deutlich entkräftet. Wer jetzt noch solche GPUs empfiehlt, handelt im Sinne der Nachaltigkeit grob fahrlässig. :)

MfG
 
K

KrHome

Guest
Schweinerei!
Wie soll man sich denn da noch ein Upgrade von 2600x auf 3700x schönreden?
Moorhuhn like Corridor Shooter waren noch nie CPU Referenz Spiele. Und dafür braucht's auch keine neue API. Im Jahr 2019 wollen die Leute aber halt auch noch andere Sachen spielen - Open World ohne Ladezeiten und LOD Pop-Ups oder gameplayrelevante Physik oder glaubwürdige AI oder oder...
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Wolfenstein Youngblood cullt zwar effektiv, ein Korridor ist das aber nur bedingt. :-)

MfG,
Raff
 

RivaTNT2

Software-Overclocker(in)
Brutal, dass das Game selbst mit zwei Kernen noch so flüssig läuft. Auch die Grafikkartenanforderungen sind ja recht moderat und noch voll im Rahmen, GTX1060/RX580 für FullHD und V56/GTX1070 für WQHD. Selbst bei 4K finden sich eigentlich die üblichen Verdächtigen im spielbaren Bereich.

Schade dass ich einfach kein Shooter-Freund bin, zock dann doch lieber weiter Witcher 3 :D
 

manimani89

BIOS-Overclocker(in)
Bei unseren 9900K-Schlitten wird alles so übernommen, wie wir uns das wünschen. Also 5,0 GHz auf den Kernen, 4,8 für den Uncore-Bereich und 3,6 GHz beim Speicher. :-)

MfG,
Raff

also bei mir hat es in avx anwendungen sowie in jeden game runtergetaktet. zb cinebench 15 war 5ghz weil kein avx aber cinebench 20 nur mehr 4,8ghz und in games das selbe
 

BoMbY

Software-Overclocker(in)
Warum sollte es? AGS wird hier wohl nur dafür benutzt, die Treiber-Version abzufragen, dafür reicht auch Version 5.0.

AGS kann auch z.B. dazu benutzt werden die Speichergröße und CU-Konfiguration zu lesen, und die alten Versionen von AGS scheinen Probleme mit Navi zu haben.
 

mylka

PC-Selbstbauer(in)
Warum kann eigentlich nur (gefühlt) ein Entwicklerstudio auf dieser Welt mit VULKAN umgehen? Traurig!

feral interactive und Croteam wären noch zwei. valve tüftelt damit auch rum... zumindest auf linux. auf linux ist vulkan auch schon etwas weiter verbreitet. List of Vulkan games - PCGamingWiki PCGW - bugs, fixes, crashes, mods, guides and improvements for every PC game

ich verstehe auch nicht warum VULKAN nicht endlich directx ablöst. vermutlich sind alle an dx11 gewöhnt und wollen sich nicht umstellen. dabei hätte vulkan einfach nur vorteile

ich hoffe, dass sich das mit stadia ändern wird. ich würde es zumindest komisch finden, wenn man spiele mit 2 verschiedenen APIs programmiert, wenn 1 genügen würde
 

PCGH_Dave

Redaktion
Teammitglied
Update: Ryzen 2700 sowie 2600 eingetragen.

Edit:
Da das Spiel es womöglich nicht in den neuen Index schaffen wird, sehen wir aktuell von weiteren Benchmarks ab. Die aktuellen Werte sollten reichen, um zu sehen, dass selbst ein Dualcore mit SMT (für 50€) für ausreichende Bildraten sorgt.
 
Zuletzt bearbeitet:

Jobsti84

Software-Overclocker(in)
Es ist echt erstaunlich wie gut die "ID Vulkanspiele" laufen. (Doom, Rage, Wolf)
Bei meiner uralt-Möhre mit FX8350 und RX 480 kann ich in FHD durchweg Rechtsanschlag zocken (Oder minimal zurück und VSR) un bleibe dennoch im Bereich 100 fps (Spiele mit Limit auf 75).

Würde doch nur alles so gut rennen, könnte ich mir Aufrüsten noch 2-3 Jahre sparen ;)

Update: Ryzen 2700 sowie 2600 eingetragen.

Edit:
Da das Spiel es womöglich nicht in den neuen Index schaffen wird, sehen wir aktuell von weiteren Benchmarks ab. Die aktuellen Werte sollten reichen, um zu sehen, dass selbst ein Dualcore mit SMT (für 50€) für ausreichende Bildraten sorgt.
Schade das nich noch Zen 2 mit aufgenommen wurde, wäre derzeit echt interessant.
 
Zuletzt bearbeitet von einem Moderator:
S

SphinxBased

Guest
Ich habe eigentlich gedacht, das Maschine Games keinen Schrott abliefern und zumindest etwas auf dem Niveau von The Old Blood. Nachdem was man jetzt hört bin ich mir nicht mehr sicher.
Evtl warte ich dann echt noch ab bis das ganze billiger geworden ist.

Besser so.....!!!!!!!!!:nicken:
I
 
Oben Unten