• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Call of Duty Vanguard im Technik-Test: DLSS und FSR, aber kein Raytracing mehr

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Call of Duty Vanguard im Technik-Test: DLSS und FSR, aber kein Raytracing mehr

Bombastisches Popcorn-Kino zum Selberspielen, dafür steht Call of Duty seit jeher. Mit Vanguard geht die Reihe zurück zu ihren Wurzeln und präsentiert eine abwechslungsreiche, wenn auch vor Klischees triefende Geschichte im Zweiten Weltkrieg. PCGH hat CoD Vanguard durchgespielt und die Technik seziert - Anti-Aliasing-Vergleiche und extra-gemeine Worstcase-Benchmarks inklusive.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Call of Duty Vanguard im Technik-Test: DLSS und FSR, aber kein Raytracing mehr
 

Freiheraus

BIOS-Overclocker(in)
Mit vier bis sechs Kernen kamen wir trotz SMT in recht harte Nachladeruckler. Selbst der aktuelle schnellste Hexacore, ein Ryzen 5 5600X, bleibt davor nicht bewahrt. Mehr Kerne bringen dann vorwiegend Stabilität, mit den E-Cores von Alder Lake kann CoD Vanguard jedoch nicht viel anfangen.

Für die meisten Spiele mag ein Core i7-7700K noch ausreichend hohe Frameraten produzieren, für CoD Vanguard jedoch sind Quadcores nicht gut genug. Auch Hexacores, wie ein Ryzen 5 5600X zeigen Schwächen auf, wenn auch nicht so heftige.

Die große Frage *trommelwirbel*: Was ist mit dem 12600K, der ohne die E-Cores auch nur noch ein Hexacore darstellt? Gibt es auch da Spikes und "Schwächen" wie beim 5600X? Die Frage drängt sich doch geradezu auf, so wie PCGH das Thema serviert, aber mehr oder weniger elegant unbeantwortet lässt.

Schade ist auch die Wahl des 5900X statt 5950X, war letzterer doch der Gegner des 12900K, zumindest bisher. Der Zen3 16-Kerner liegt wohl einen Hauch vor dem Alder Lake Top-Modell.
 
Zuletzt bearbeitet:

Rolk

Lötkolbengott/-göttin
Den Test muss ich erst noch lesen, was mir aber direkt negativ aufgefallen ist die RTX3060 scheint wieder deutlich zu schwächeln.
 

blautemple

Lötkolbengott/-göttin
Schade ist auch die Wahl des 5900X statt 5950X, war letzterer doch der Gegner des 12900K, zumindest bisher. Der Zen3 16-Kerner liegt wohl einen Hauch vor dem Alder Lake Top-Modell.
Die CPUs sind GPU limitiert, das steht auch so im Text...
Aber ich weiß schon, einfach mal irgendeinen Quark behaupten, dazu noch ein bisschen Verschwörungstheorie und fertig ist der klassiere @Freiheraus Beitrag...

Ansonsten schöner Technik Test. Sehr schade das Raytracing komplett gestrichen wurde.
 

projectneo

Software-Overclocker(in)
Schöner Test, RDNA2 läuft ja richtig gut bei sehr guter Optik. DSR scheint zumindest im Ultra Quality Mode ebenfalls sehr gute Ergebnisse abzuliefern(hat Computerbase auch bestätigt). Leg mir das Spiel sicher mal bei einem Sale zu da mich wenn dann nur die SP Kampagne reizt. Einfach mal 5h Action und fertig.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Den Test muss ich erst noch lesen, was mir aber direkt negativ aufgefallen ist die RTX3060 scheint wieder deutlich zu schwächeln.
Kann man so sagen, aber dafür profitiert sie enorm von DLSS (welches, wie erläutert, gut aussieht) und hat zu keiner Zeit VRAM-Probleme.

MfG
Raff
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
RDNA 2 läuft hier generell gut. Die starke Performance in hohen Auflösungen ist mal 'ne hübsche Ausnahme von der Regel. :-) Man könnte aber auch sagen, dass es bei Ampere irgendwo klemmt. Wie bei CoD BOCW ohne RT kommen die Dinger nicht aus dem Quark, was auf irgendein Auslastungsproblem hindeutet.

MfG
Raff
 
G

gaussmath

Guest
Der Unterschied zwischen dem 8700K und 9900K ist auch brachial. Der 5900X mit 12 Kernen ca. 20% schneller als der 5600X ist auch noch eine stattliche Threadskalierung.
 

PCGH_Dave

Redaktion
Teammitglied
Die große Frage *trommelwirbel*: Was ist mit dem 12600K, der ohne die E-Cores auch nur noch ein Hexacore darstellt? Gibt es auch da Spikes und "Schwächen" wie beim 5600X? Die Frage drängt sich doch geradezu auf, so wie PCGH das Thema serviert, aber mehr oder weniger elegant unbeantwortet lässt.
Da ich es nicht bemängelt habe, läuft ein 12600K offenbar sehr gut ;)
Ist halt auch ein Zehnkerner, weist also andere Charakteristika als ein Sechskerner auf, völlig gleich, ob Teile der Kerne davon langsamer oder schneller sind.
Schade ist auch die Wahl des 5900X statt 5950X, war letzterer doch der Gegner des 12900K, zumindest bisher. Der Zen3 16-Kerner liegt wohl einen Hauch vor dem Alder Lake Top-Modell.
Ganzen Text lesen, der 5950X folgt im Laufe des Tages.
Die CPUs sind GPU limitiert, das steht auch so im Text...
Partiell limitiert, das ist wichtig. Lässt sich einfach nicht vermeiden, dabei ist die Szene schon sehr fordernd an die CPU.
 
Zuletzt bearbeitet:

blautemple

Lötkolbengott/-göttin
Partiell limitiert, das ist wichtig. Lässt sich einfach nicht vermeiden, dabei ist die Szene schon sehr fordernd an die CPU.
Ja klar, aber bei allgemein nur 10 bis 15% Unterschied tut sowas natürlich weh. Allerdings liefern die CPU allgemein so hohe Bildraten das es sowieso egal ist ^^

Bei mir rennt das Spiel im Multiplayer mit festgetackerten 138fps (dank Reflex, 144-6fps) ohne auch nur den kleinsten Zucker.
 

BlubberLord

Komplett-PC-Aufrüster(in)
Am Anfang hatte ich mit Vanguard ziemliche Performance-Probleme.
Hat jemand einen Zusammenhang zwischen nVidia Reflex und FPS/Stromverbrauch festgestellt?

Auch ohne den extra "Boost"-Modus scheint es mir, als ob ich mit Reflex im Endeffekt mehr Probleme habe weil die GPU ins TDP-Limit läuft und ständig drosseln muss. Ohne bzw. mit leicht reduzierten Einstellungen bekomme ich wunderbar stabile Boosts bei vertretbarem Stromverbrauch was auch den Frametimes gut tut...

Vielleicht gab es seit Release aber auch einfach ein paar Patches die die Performance verbessert haben.
 
G

gaussmath

Guest
Partiell limitiert, das ist wichtig. Lässt sich einfach nicht vermeiden, dabei ist die Szene schon sehr fordernd an die CPU.
Wenn man sich eure Settings anschaut, hätte man da noch was rausholen können. Tesselation kann aus, Volumetrische Effekte kann auf Low, Screenspace Gedöns aus, Schattenauflösung Low, aber auf keinen Falls die kaskadierenden Schatten (geht auf die CPU), Partikelbeleuchtung auf Low. Da geht noch was.

1636717273987.png
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Bei den CPU Benchmarks sieht man wieder das der 5800x die nächsten Jahre der Sweet Spot beim Gaming bleiben wird.
Bisher galt das eigentlich für den 5600X. Aber ich warte auch schon seit ein paar Jahren auf den Tag, wo acht Kerne respektive 16 Threads so durchschlagen, dass es hier keine Diskussion mehr gibt. Die Game-Engines enwickeln sich hier nur sehr schleppend weiter, mehr Kerne bringen vor allem bei Compiling- und Lade-Aktionen viel. Besonders gespannt bin ich hier auf die Wundertüte Unreal Engine 5, denn der Epic-Motor hielt noch nie viel von Multithreading.

MfG
Raff
 

Freiheraus

BIOS-Overclocker(in)
Ganzen Text lesen, der 5950X folgt im Laufe des Tages.

Finde ich in der Sparte (CPU)Benchmarks leider nicht, und wirklich den ganzen Text lesen ist nicht drin wenn einem andere Dinge wie DLSS, FSR u. a. nicht interessieren. Keine Ahnung wo der Hinweis "versteckt" ist.

Zudem widerspricht mMn diese Aussage euren CPU-Benchmarks:

Für den Anfang haben wir uns primär auf die vorherige Intel-Generation und die Konkurrenz in Form der Ryzen-5000-Prozessoren konzentriert.

Vorherige Intel-Generation müsste Core 11000 (Rocker Lake) sein, 9900K sind doch eher 8700K (vor)vorvorvorherige Intel-Generation^^

Edit:
Dazu konfigurieren wir ein TDP-Limit: Jede CPU wird auf die Parameter fixiert, die der Hersteller für das jeweilige Modell vorsieht.
Wie sieht das eigentlich bei AL aus, 125W oder 150W (12600K), 190W (12700K) und 241W (12900K)?
 
Zuletzt bearbeitet:

RavionHD

PCGH-Community-Veteran(in)
Schöner Test, schade dass es kein Raytracing mehr gibt, das hat man in Black Ops Cold War noch sehr gut umgesetzt.

Erstaunlich dass der 5600X mit dem 12600K mithält, bzw ein 5900X mit dem 12900K.
Für deutlich mehr als 60 FPS mit Max Details scheint aber auch ein 6 Jahre alter 6700K locker zu reichen, und darüber hinaus wird man ohnehin im GPU Limit landen.
 
G

gaussmath

Guest
Hat nur mit der Game/Engine-Wahl zu tun. In aktuellen Unreal Engine 4 DX11 Games wie z.B. Days Gone oder Biomutant dürfte Zen 3 sogar dominieren. Testet nur kein Magazin.
In Days Gone war der 5900X nur geringfügig schneller als der 11900K in meiner CPU Szene (1. Konfronation mit Mega Horde). Man kann davon ausgehen, dass 12900K hier sogar deutlich stärker ist.
 

Freiheraus

BIOS-Overclocker(in)
Liegt vielleicht daean, daß AMD überraschend einen optimierten Treiber zu Verfügung gestellt hat, währen Nvidia wohl erst zu Release einen Game Ready Treiber bringt. Mal schaun.
COD läuft auf den AMD aber trotzdem bombe.
Du bringst einiges durcheinander, für Battlefield 2042 gabs den neuen Treiber nicht für CoD Vanguard. Zudem wurde mit 21.11.1 getestet (auch bei Computerbase) und der Wundertreiber für BF 2042 soll 21.11.2 sein.
 

wuchzael

Software-Overclocker(in)
:klatsch: hab was verwechselt...löschen bitte.
Alles gut ;)

Bisher galt das eigentlich für den 5600X. Aber ich warte auch schon seit ein paar Jahren auf den Tag, wo acht Kerne respektive 16 Threads so durchschlagen, dass es hier keine Diskussion mehr gibt. Die Game-Engines enwickeln sich hier nur sehr schleppend weiter, mehr Kerne bringen vor allem bei Compiling- und Lade-Aktionen viel. Besonders gespannt bin ich hier auf die Wundertüte Unreal Engine 5, denn der Epic-Motor hielt noch nie viel von Multithreading.

MfG
Raff
Da bin ich ja froh, dass ich doch den 5800X statt den 5600X genommen hab. Naja, lagenpreislich zum Zeitpunkt des Erwerbs auch gerade mal 50€ dazwischen. Der 5600X ist einfach zu "teuer", aber durch die gute Leistung in Spielen ist AMD damit bisher trotzdem durch gekommen, ihn zu diesem Preis anzubieten. Ich hab in Budget-Builds immer den 10400F eingebaut, zum Zocken reicht der auch und war preislich deutlich attraktiver.

Grüße!
 

Freiheraus

BIOS-Overclocker(in)

Freiheraus

BIOS-Overclocker(in)
Außerdem, wie @blautemple anmerkt, die Dominanz von Ryzen in cache-lastigen Szenen ist vorbei.

Anhang anzeigen 1379291

Berg ab und mit Rückenwind (E-Cores deaktiviert) erreicht der 12900K das zweitschnellste Zen 3-Modell, das durch Windows 11 behindert wird. Top Ergebnis! Sehr souverän. 1% Percentils geschenkt.

Edit: AMDs 3D V-Cache wirkt schon etwas gruselig wenn ich drüber nachdenke.
 
G

gaussmath

Guest
Berg ab und mit Rückenwind (E-Cores deaktiviert) erreicht der 12900K das zweitschnellsten Zen 3-Modell, das durch Windows 11 behindert wird. Top Ergebnis! Sehr souverän.
Dass der 5900X durch Windows 11 behindert wird, ist eine reine Vermutung. Aber jetzt mal Hand aufs Herz, die Unterschiede zwischen Alder Lake und Ryzen sind minimal. Wen juckt das jenseits der 200 FPS? Selbst der 11900K ist im Grunde noch sau schnell in den Game. Interessant wird es doch erst, wenn die FPS einbrechen. Hier Far Cry 6, das dann auch tatsächlich von einer schnellen CPU profitiert. Diese Benchmarks mit 200 FPS und mehr sind doch absurd.

1636721987196.png
 
Zuletzt bearbeitet von einem Moderator:

pietcux

Software-Overclocker(in)
Schöner Test, danke. Leider scheint das Ergebnis bei manchen den Blutdruck extrem zu erhöhen. Attestiere auch Schnappatmung.....
 
Oben Unten