Special Benchmark-FAQ 2024 (CPUs): So testet PCGH Prozessoren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Benchmark-FAQ 2024 (CPUs): So testet PCGH Prozessoren

Benchmark-Anleitung 2024: PC Games Hardware legt großen Wert auf transparente, für unsere Leser nachvollziehbare Messwerte. Damit Sie unsere Prozessor-Tests Zuhause nachstellen und vergleichen können, haben wir die Benchmark-FAQ auf den aktuellen Stand gebracht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Benchmark-FAQ 2024 (CPUs): So testet PCGH Prozessoren
 
Na so wird's ja nicht sein, habe ja nicht alles an Spielen da, aber das was ich da habe werde ich sicher irgendwann Mal nach benchen ;)
 
@PCGH_Dave
Auf die Gefahr hin, dass es schon zum x-ten Mal gefragt wurde: MFS 2020 wird mit den ganzen kostenlosen Sim-Updates gebencht, oder?

Hab noch einen kleinen Fehler entdeckt. Ganz am Anfang steht 2023 anstatt 2024.
 
Da sind alle Updates drin, die das Spiel unbedingt braucht, um zu laufen. Aber sonst AFAIK nichts. Wir testen ja einen Entdeckungsflug, der jederzeit verfügbar sein müsste. Jahreszahl gefixt, danke.
 
@PCGH_Dave
Also ohne den Italien-Update und vermutlich ohne Online-Flugverkehr und ohne Online-Map.
Ich frage halt so blöd, weil ich den Benchmark gerne einmal nachstellen möchte.
 
Doch, mit voller Online-Funktionalität. Das entspricht den Standardeinstellungen des Simulators. Wir haben nur alle grafischen Optionen aufgebohrt, siehe Video.
 
Die Aufstellung ist gut, ich würde nur noch so ca. 3 weitere Vorschlagen @PCGH_Dave .

DCS World, weil es je nach Situation sowohl extrem CPU-Limitiert sein kann, selbst in UWQHD (kann nichts über 4K sagen), als auch GPU limitiert. Z.B. in so ziemlich jeder Kampfsituation ist es CPU limitiert und dank Multithreading sehr interessant.
Während es in einem Freeflight über den Marianen extrem GPU limitiert ist.
Darüber hinaus profitiert es extrem von NVME-SSDs, speziell denen mit Cache und ist ein Speicherfresser par exellence, sowohl VRAM wie auch System-RAM.
Darüber hinaus ist es recht weit verbreitet und beliebt. Tests mit Process Lasso lassen es auch als ideal Kandidaten für Intels APO erscheinen, wenn Intel da den Hintern hochbekommen würde.

Arma 3, weil es eigentlich nur Single-Core Leistung abverlangt und sehr cache empfindlich ist, aber auch gut mit reinen Megaherz skaliert.
Und es liebt SSDs, es eignet sich also gut als Test für diese.

ACC oder Asetto Corsa Competizione, die zweitbeliebteste aller Rennsims und ebenfalls extrem CPU limitiert in jeder Auflösung. Es liebt große Caches. Die gute Replayfunktion sollte das benchen stark vereinfachen.

Star Citizen in den Städten ist so extrem CPU limitiert, dass es nicht mehr feierlich ist, und nutzt auch alle Kerne aus, allerdings würde ich es niemandem zumuten wollen, das testen zu müssen. Schließlich ist die Performance in der regel, schlecht, von Patch zu patch verschieden, und in Ermangelung von Replays oder Teleportfunktionen sehr Zeitaufwendig. Ich hab's ausprobiert und es ist Tortur, teilweise auch weil ich Mining, die Reisen, Planetenoberflächen um Raumkampf teste. Da sind dann gerne 3 Stunden für einen Run weg.
Ich habe mich schon mehr als einmal gefragt warum ich das eigentlich mache....

Ehrenhalber könnte ich jetzt noch Kingdome Come Deliverance aufführen, das zwar alt ist, aber einen hervorragenden CPU und SSD test in Rattay darstellt. Der wechsel von einer SATA auf eine NVME SSD hat hier die 0.1 Perzentil und 0.2 Perzentil fps mehr als verdoppelt von ca. 8 fps auf über 20. Und das Stottern und Varianz praktisch ausgemerzt.
 
Auch wenn es mich wieder Ärger kostet, ich frage trotzdem nach dem Monero CPU-Benchmark in randomx Algo.

Langsam wird es Zeit, die eigene (Anti Anti) Ideologie gegen die Realität zu tauschen und zu akzeptieren, das es Typen wie mich (schon viele Jahre) gibt und weiterhin geben wird. Das is auch nur ein weiterer Anwendungsfall auf dem Rechner. Das hat nichts mit "Du sollst mitmachen oder gehst unter" zu tun, wie ein Zuckerberg mal gedroht hat.

Abgesehen davon, ist die Grundlage sowohl für starke Belastungstests als auch einer weltweiten Datenbank, welche eben aufgrund der Zeitkettenstrukur nicht gefälscht werden kann und damit ein relativ gutes Bild der Leistungsunterschiede in dieser Art der Anwendung darstellt geeignet.


Ich helfe auch gerne mit wenn es Fragen dazu gibt. Ich bin zwar kein Monero Experte und aber kenne mich schon ein bisschen aus mit dem Spaß.

Zeitketten sind was Schönes und wer was anderes sagt hat keine Ahnung. :-)
 
Ehrenhalber könnte ich jetzt noch Kingdome Come Deliverance aufführen, das zwar alt ist, aber einen hervorragenden CPU und SSD test in Rattay darstellt. Der wechsel von einer SATA auf eine NVME SSD hat hier die 0.1 Perzentil und 0.2 Perzentil fps mehr als verdoppelt von ca. 8 fps auf über 20. Und das Stottern und Varianz praktisch ausgemerzt.
Das schmeiße ich auch immer wieder halb scherzhaft in den Raum, wenn Dave mit seinem maximal aufgedonnerten, angeblich unkaputtbaren Prozessor flext. :D In einem modernen Index ist das sechs Jahre alte KCD deplatziert, aber wir sehen uns das bestimmt irgendwann nochmal an. Ob es mittlerweile CPUs gibt, die in Rattay 60 Fps P1 schaffen? Herausforderer willkommen!


MfG
Raff
 
Ergänzend eine nicht mehr taufrische, aber im Kern zeitlose Lektüre: https://alt.3dcenter.org/artikel/grafikfilter/index6.php

Kategorie "Vergessenes Wissen". Ich frage mich bis heute, warum manche Spiele den AF-Faktor auf 4:1 oder 8:1 beschränken, obwohl die Leistung da und die Arbeitsweise adaptiv ist. Eigentlich sollte man immer die Möglichkeit haben, alle Texturlagen voll 16:1 (oder mehr, per Shader) filtern zu lassen. Natürlich nicht bei CPU-Tests. :D

MfG
Raff
 
Ich frage mich bis heute, warum manche Spiele den AF-Faktor auf 4:1 oder 8:1 beschränken,
Ich wundere mich darüber auch 2024 noch, wenn ich als Preset "Höchste", oder "Ultra" auswähle und das Spiel dann 8×AF statt 16× auswählt. Haben die Angst, dass es auf der RTX 4090 ruckelt oder was :ugly:
Das müsste man eigentlich mal testen, wie langsam eine GPU sein müsste, dass AF tatsächlich messbar Leistung kostet. G710? GTS 450? Was ist der älteste Schrott im Lager, der noch läuft? Raff, jetzt haste was zu tun :fresse:
 
Anhand der aktualisierten FAQ hab ich dann mal meinen 7800X3D durch CP2077 gejagt. Ist leider das einzige Spiel aus Eurem Testparcour, welches ich habe.

Im Geforce Treiber Vsync und AF deaktiviert und inGame 1:1 Eure Settings übernommen und drei Läufe auf dem Motorrad aggregiert.

Entweder hab ich ein Setting falsch (drei mal gecheckt) oder der Unterschied von 5200MT/s zu 6400MT/s macht einen so großen Unterschied. Das würde mich aber überraschen (und freuen).

pcghCP2077.PNG



CP20776400.PNG
 
Cyberpunk ist tatsächlich extrem RAM-lastig :-)
Deine Werte erscheinen mir aber trotzdem zu hoch:

1712076405264.png


Das packt mein ultimativ übertakteter 7800X3D. Hast du Raytracing aktiv (Ultra) und wirklich exakt das aus dem Video eingestellt? FoV 90? Keine Mods aktiv? AMD SMT in den Optionen aktiviert?
 
Macht es.

Deswegen gibt es ja auch in der aktuellen Ausgabe einen entsprechenden Artikel dazu ;)

Leider verstehen es immer noch einige nicht, dass es im GPU Limit meistens verpufft (bis auf die besseren minimal FPS).
Wird sich aber dann bemerkbar machen, wenn man im Spiel dann settings benutzt, welche die GPU entlasten (RT ultra anstelle von PT z.B. oder DLSS von Quality auf Balanced oder Performance stellt).

Was mir aufgefallen ist beim lesen des RAM OC Artikels, es fehlt bei den ICs (Samsung) die 8 vor dem GBit

1712076315518.png


Ansonsten gut umgesetzt, fehlen zwar viele weitere Erklärungen, aber das ist aufgrund von Platzmangel einfach nicht alles abzubilden, sonst könnte man eine extra Ausgabe nur für RAM OC machen (was dann aber vermutlich wirklich nur sehr wenige Interessierte lesen würden).

Vielleicht in einem Online Special?

Sorry für's Abschweifen...

@PCGH_Dave

Das Problem mit CP2077 ist, dass am Anfang, direkt nach dem Laden des Savegames die FPS höher sind.
Wenn man dann immer wieder das Savegame lädt werden die FPS geringer (war ja auch damals bei dem GPU Savegame der Fall).

Direkt nach dem starten des Spiels und laden des Savegames sind es fast 8 FPS unterschied (bei mir) man muss also noch etwas warten bis man die Aufzeichung macht (eure "Aufwärmphase" ist da genau richtig).

Kann also stark variieren.

Auch rBAR an / aus hat leider immernoch Auswirkungen, warum auch immer..
Also wenn man sich 1:1 dran halten will muss man wirklich warten und notfalls 2 max checken ob alles stimmt.

Nachtrag:
1712077951316.png


Sieht man hier gut.
Erste Aufnahme ist direkt nachdem das Spiel gestartet wurde (ohne "Aufwärmphase) und die anderen beiden direkt danach neu geladen.

Warte ich nun ingame ein paar Minuten, gehen die FPS kontinuierlich runter bis diese sich auf 138 FPS einpendeln (nachdem alle Texturen geladen wurden).

Startet man das Spiel also immer wieder neu und benched direkt nach dem Laden des Savegames, hat man höhere FPS in der Messung (in meinem Fall wären es dann ~ 143 FPS).

Also tatsächlich sollte man dann ein wenig warten bis man die Aufzeichnung macht, damit die Texturen alle fertig geladen sind.

1712078213212.png
 
Zuletzt bearbeitet:
Trotzdem erstaunlich, was ihr oder du da noch herausholt. Ich hab manchmal den Eindruck, dass ich mein Windows falsch konfiguriert habe ^^
 
1712079316800.png


Vielleicht auch Versionsabhängig..
kA.

Jedenfalls sind es einfach Bedingungen die man nicht 1:1 nachstellen kann.
Macht aber nichts, jedes Bisschen mehr FPS das man bekommt wird gerne mitgenommen, man kann so wenigstens sehen, wie die PCGH Benchmarks macht und das ist gut so!
 
Zurück