Special Benchmark-FAQ 2024+ (CPUs): So testet PCGH Prozessoren

PCGH_Dave

Redaktion
Teammitglied
Benchmark-Anleitung 2024+: PC Games Hardware legt großen Wert auf transparente, für unsere Leser nachvollziehbare Messwerte. Damit Sie unsere Prozessor-Tests Zuhause nachstellen und vergleichen können, haben wir die Benchmark-FAQ auf den aktuellen Stand gebracht.

Was sagt die PCGH-X-Community zu Benchmark-FAQ 2024+ (CPUs): So testet PCGH Prozessoren

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
@Darkearth27
Dann lass deinen Ryzen mal heiß laufen :cool:

Generell: Es sind eigentlich elf Spiele, doch Dragons Dogma 2 zeigt nach dem letzten Patch eine extrem schlechte CPU-Performance auf, die einfach nicht gefixt wird. Ich habe alles versucht, um die Werte von vor dem Patch wiederherzustellen. Vielleicht habt ihr einen Vorschlag?

Ansonsten werden dieses Jahr noch weitere Spiele dazu kommen, sobald sie auf den Markt kommen. Frostpunk 2, Stalker 2 und weitere spannende Sachen sind ja angekündigt :daumen:

Edit:
Ich habe alle Aufnahmen übrigens mit Absicht mit einem 14900K erstellt, um zu zeigen, dass die CPU bei uns stabil arbeitet.
 
Wenn Darkearth mitmacht, schmeiße ich gerne auch mal den 14900WTF in den Ring. :devil: Allerdings ist’s dafür gerade zu warm für meinen Geschmack.

MfG
Raff
 
Scheiße, jetzt habe ich einen Interessenskonflikt. Einerseits habe ich einen riesigen Backlog an Spielen den ich aktuell abarbeite, andererseits bekommen ich durch sowas auch wieder Lust zu benchen. Dazu kommen noch andere Hobbies, wie Motorradfahren und Mountainbiken die im Sommer viel Zeit fressen. Achja, und arbeiten muss ich ja leider auch noch um den Bums irgendwie zu zahlen. Das Leben ist echt nicht fair :(

Aber egal, trotzdem vielen Dank dafür und vor allem großes Lob für die Transparenz bei den Benchmarks. Da seid ihr noch immer konkurrenzlos :daumen:
 
Edit:
Ich habe alle Aufnahmen übrigens mit Absicht mit einem 14900K erstellt, um zu zeigen, dass die CPU bei uns stabil arbeitet.
Warum sollte er auch nicht? Ich hab mal eine Umfrage in meinem Computerclub gestartet (ca. 120 Mittglieder , Intel AMD ca. 50zu50%).
Ergebnis: Intel 1 (Falsche OC. wurde korreliert, lief dann einwandfrei) AMD 80% !!!!!
Soll sich jeder mal selbst ein Bild machen.
mfg
 
Ergebnis: Intel 1 (Falsche OC. wurde korreliert, lief dann einwandfrei) AMD 80% !!!!!
Soll sich jeder mal selbst ein Bild machen.
Bei AMD kann man auch eine ganze Menge falsch konfigurieren ^^
Ich will das Problem auch nicht kleinreden, denn es existiert ja tatsächlich, wie Intel unlängst bestätigt hat. Aber ich habe nach wie vor den Eindruck, dass es aufgebauscht wird. Ich denke mal, dass unsere Samples auch weiterhin laufen. :daumen:
 
Ich will das Problem auch nicht kleinreden, denn es existiert ja tatsächlich, wie Intel unlängst bestätigt hat. Aber ich habe nach wie vor den Eindruck, dass es aufgebauscht wird.
Da wäre ich mir nicht zu sicher:

Kommt wohl immer mehr zu Tage - ich bin mal auf seinen Bericht gespannt.
 

Anhänge

  • Screenshot_20240801-123333.png
    Screenshot_20240801-123333.png
    95,7 KB · Aufrufe: 59
:devil: Allerdings ist’s dafür gerade zu warm für meinen Geschmack.:::
Schmeiß die Wasserkühlung an, dann wird es nass *Spring Spring..
Schmeiß die Wasserkühlung an, dann macht das Spass *Spring Spring..

@PCGH_Dave kA wann ich dazu komme zu benchen, aktuell hab ich echt wenig lust am PC zu sitzen, aber gemacht wirds dennoch (zumindest das was ich so an Games und Programmen da habe ;) ).

Und Danke fürs aktualisieren!
 
Zuletzt bearbeitet:
Ich schau mir gerade das Video an..
Sag mal, sind die Grafikfehler durch die Aufnahme entstanden oder auch ingame sichtbar gewesen? :D

Und 4 von den Games habe ich immerhin, die Programme sind ja tatsächlich alle Free wenn ich das richtig gesehen habe.

Ich bin dann gespannt wie das alles bei mir laufen wird.
 
@PCGH_Dave und @PCGH_Raff

Bei Forza Motorsport haben sich mit Update 10 die Grafikoptionen geändert bzw kam Neues hinzu.

1. TAA war ja vorher zwangsweise ein, jetzt hat man die Wahl zwischen Ein und Aus.
Vorher konnte man Upscaler dazu einschalten, das geht jetzt nicht mehr.

2. Option "Bewegungsunschärfe im Cockpit" ist neu. Standardmäßig steht es auf automatisch.

Ihr habt viel um die Ohren, wollte nur drauf hinweisen.
 
@PCGH_Dave
ich verstehe das schon. aber bei euch stehen ein paar einstellungen eben nur auf Hoch im Video, gibts da kein sehr hoch oder habt Ihr das Angepasst ?
“Im CPU-Spiele-Index befinden sich Titel, welche die GPU überdurchschnittlich stark beanspruchen, obwohl wir die Auflösung und andere Effekte minimiert haben.”

meint für mich eben das Ihr angepasst habt, sonnst wäre ja auch der zusatz im CPU limit unnötig, dann könntet Ihr einfach schreiben mit maximalen Grafik Einstellungen in 720p
 
Bei welchem Spiel genau?

Bei Horizon forbidden West gibt es teilweise nur "Hoch" als maximale Einstellung, bei Forza Motorsport ist man, partiell, selbst mit einer 4090 und DLSS "Ultra Performance" im GPU Limit (was an der streaming engine liegen kann).

Stell doch deine Frage mal vernünftig, so, dass man versteht welches Spiel du genau meinst. ;)
 
Zuletzt bearbeitet:
Ja meinte Horizon, aber da sprichst Du es an, wenn Forza schon mit DLSS im GPU limit hängt, was bitte hat das dann in einem CPU test zu suchen,?!?
DLSS gibt es nur bei Nvidia, und selbst da erst ab RTX2xx ( meine ich) bei einem CPU test hat DLSS nichts zu suchen, denn das gibt es nur bei Nvidia !
ich habe keine Lust mir hier, die ganzen Einstellungen rauszuschreiben, nehme daher einfach mal die in der Anlage von CB die eben auch nicht passen.
SO SOLLTE ES SEIN!
1. DLSS immer aus ( nur Nvidia hat mit der CPU null zu tun )
2. Grafik details alle auf Maximum sofern nicht Herstellerspezifisch.
3. alle Nvidia/AMD/Intel spezifischen optionen aus
4. RT sofern vorhanden auf Maximum

Die RTX4090 ist nun mal Aktuell das non plus Ultra, und daher auch richtig für einen CPU test, aber DLSS hat darin nichts zu suchen denn das gibt es weder bei Intel noch AMD.
RT ist ebenso eine Nvidia Bastion und wenn die 4090 bei 720p schon bremst, hat das mit der CPU nichts zu tun, sondern ist game sache. wenn die 5090 da ist hebt die das ja wieder an.

selbst wenn am Ende nur noch 10fps stehen und null unterschied zwischen einem 6700k und 7950x3d zeigt das eben die Leistung der CPU in dem getestetem Game zum Zeitpunkt des Tests.

als beispiel Avatar bei CB sind alle CPUs gleich schnell ( meiner Vermutung nach, weil mit DLSS getestet) ohne selbiges, so denke ich, wäre der Unterschied der CPUs sicherlich weit höher wie 17% und am ende würde vielleicht sogar ein 14900k mit 5% führen.

Das DLSS oder auch FSR auch Leistung bringt, zeigen ja dann die GPU Benchmarks
ach noch was, es sollte ebenso die Aktuellste oder aber wenn dann beide API verwendet werden.
selbst bei CB ist Vulkan schneller aber CPU tests mit DX11 ?!?
 

Anhänge

  • IMG_0491.png
    IMG_0491.png
    555,6 KB · Aufrufe: 51
Zuletzt bearbeitet:
1.
Alle CPUs gleich schnell = GPU Limit (oder FPS Cap / Vsync aktiv / framelock im Spiel)

GPU Limit reduzieren = Benutzen von Upsacalern (FSR, XeSS, DLSS, oder Spiel internes)
Upscaler entsprechend der verwendeten GPU nutzen (hier DLSS, weil mit NV Karte gebenched wird da die 4090 die aktuell schnellste GPU ist).

Upscaler -> DLSS / FSR / XESS = GPU only.
Dein Argument mit etwas zu benchen was es noch nicht gibt (5090) ist also Unsinn und natürlich kann sich dann, wo jetzt eine 4090 eventuell nicht ausreicht (partielles GPU Limit) das Bild wieder ändern, aber man kann ja nicht mit etwas benchen was nicht da ist.

2.
RT wird nicht nur auf der GPU berechnet, sondern auch auf der CPU.

3.
CB hat andere Testszenen als PCGH und Dave benched z.B. Baldurs Gate 3 mit Vulkan (DX11 kann als Zusatzinfo aber interessant sein, wenn auch schlechter).

4.
Du solltest wirklich mal lernen zu lesen, denn oft steht das im Fließtext was und warum genau man einstellt.

PS:
Hatte eigentlich einen fast 2 seitigen Text bereits geschrieben, aber aufgrund von Dummheit (Browser versehentlich geschlossen) nun eben alles in Kurzform.
 
Zuletzt bearbeitet:
zu 1.
wo macht es dann einen Unterschied wenn man DLSS raus nimmt ?
b. es bleibt ein GPU limit, ändert also nichts. upscaler werden bei den GPU Benchmarks eh getestet und gehören da auch hin nicht in die CPUs
c. war so nicht gemeint, wir schreiben das Jahr 2024 und haben Hardware sowie Software und möglichkeiten beider.
wir schreiben das Jahr 2030 und haben Hardware und Software 2030, Software aus 24 = Interessiert keine s.. mehr und wenn doch profetiert diese sicher auch zum teil noch von den 6 Jahren

zu 2.
noch schlimmer es dann zu beschränken, denn dann wäre volles RT auf einer guten CPU sogar schneller !
es auf Minimum (wie bei CB) zu beschränken ist dann sogar Negativ.

zu 3.
hatte ich gesehen, aber DX11 ist alt und kommt außer treiber nichts mehr, war auch nicht als Kretik gedacht, sondern nur eine anmerkung.

zu 4.
nicht mehr, wozu ? Siri macht das und KI wird irgendwann auch das kleingedruckte vorlesen wollen, was ich dann wohl aber wie die AGBs einfach wegklicke
 
zu 1.
wo macht es dann einen Unterschied wenn man DLSS raus nimmt ?
b. es bleibt ein GPU limit, ändert also nichts.

zu 2.
noch schlimmer es dann zu beschränken, denn dann wäre volles RT auf einer guten CPU sogar schneller !
:nene: Bitte lerne doch mal, wie man CPU-Benchmarks richtig durchführt, vor allem, wie wir sie durchführen. DLSS verringert die Auflösung, welche die Grafikkarte berechnen muss. Damit sinkt die GPU-Last und die CPU-Last kann höher ausfallen, weil die Grafikkarte mehr Fps berechnen kann.

Wir "beschränken" Raytracing nicht, sondern setzen es immer dann ein, wenn es nicht so sehr auf die GPU geht, dass es ein Grafikkarten-Benchmark wäre. Beispiel: Cyberpunk 2077. Pathtracing würde hier überhaupt keinen Sinn machen, weil die GPU-Last über 60 Prozent steigt, die CPU jedoch nur um magere fünf Prozent mehr ausgelastet wird.

--> Ich verstehe übrigens immer noch nicht, was du eigentlich willst. Formuliere doch mal deine Kritik in einem Satz. Was genau stört dich? Dass "Hoch" nun mal die höchste Einstellung im Grafikmenü eines Spiels ist? Was juckt mich das, warum sollte das mein Problem sein?

Ich hab nur eine Aufgabe: Ein CPU-Limit sicherstellen, so gut es geht. Und in einem guten Testparcours, der möglichst viele Facetten der Prozessor-Leistung abbilden soll, sollten sich auch Spiele befinden, die auf den schnellsten Prozessoren partiell GPU-limitiert sind, ebenso jene, welche gut/schlecht mit Kernen, IPC, 3D-V-Cache etc. skalieren. Es steht jedem frei, unsere Benchmarks nachzustellen und das oben Gesagte zu überprüfen, es ist alles online.
 
zu 1.
wo macht es dann einen Unterschied wenn man DLSS raus nimmt ?
Ob DLSS, FSR, XeSS oder TSR ist egal.
Wenn man das rausnimmt/deaktiviert, kann man ggf keine Unterschiede der Top CPUs messen.
Also lässt man es (je nach Spiel) aktiv, damit man die Auflösung weiter verringern und CPUs vernünftig messen kann.

b. es bleibt ein GPU limit, ändert also nichts. upscaler werden bei den GPU Benchmarks eh getestet und gehören da auch hin nicht in die CPUs
Werden sie hier bei PCGH nur bei Raytracing Tests. Bei Raster kommt die native Auflösung zum Einsatz.

c. war so nicht gemeint, wir schreiben das Jahr 2024 und haben Hardware sowie Software und möglichkeiten beider.
wir schreiben das Jahr 2030 und haben Hardware und Software 2030, Software aus 24 = Interessiert keine s.. mehr und wenn doch profetiert diese sicher auch zum teil noch von den 6 Jahren
Was?

zu 2.
noch schlimmer es dann zu beschränken, denn dann wäre volles RT auf einer guten CPU sogar schneller !
Der prozentuale Unterschied bleibt ungefähr gleich.
Wenn eine CPU 20% langsamer ist als eine andere, ist sie das mit RT ebenfalls.
Ausnahmen bestätigen die Regel, manche CPUs können ggf. stärker oder weniger stark einbrechen. Aber der prozentuale Unterschied bleibt im Regelfall ähnlich

zu 4.
nicht mehr, wozu ? Siri macht das und KI wird irgendwann auch das kleingedruckte vorlesen wollen, was ich dann wohl aber wie die AGBs einfach wegklicke
Prost :bier:

Kleingedrucktes wegklicken bzw. nicht lesen. Wäre ich doch nur ein windiger Versicherungsmakler :ugly:
 
@PCGH_Dave
dann müsstet Ihr aber alle 3 GPUs testen denn DLSS gibt und läuft nur auf Nvidia wer bitte garantiert euch das nicht Intel oder AMD mit deren techniken Nvidias DLSS übertrumpfen ?
es soll CPUs testen, nicht GPUs !
ist eine 4090 ohne DLSS schlechter, ist sie es auch mit. eine Intel oder AMD GPU ist 100% ohne DLSS schlechter da diese es garnicht können. was die techniken dann bringen zeigen die GPU Tests. !
Wir "beschränken" Raytracing nicht, sondern setzen es immer dann ein, wenn es nicht so sehr auf die GPU geht, dass es ein Grafikkarten-Benchmark wäre. Beispiel: Cyberpunk 2077. Pathtracing würde hier überhaupt keinen Sinn machen, weil die GPU-Last über 60 Prozent steigt, die CPU jedoch nur um magere fünf Prozent mehr ausgelastet wird
das wiederspricht sich. Das Game kann es und die CPU wird entlastet wenn auch nur 5% aber eben diese soll getestet werden ! scheiß auf die 60-600% die die GPU verliert, diese wird seperat getestet und sicher nicht mehr in 720p !
Ob DLSS, FSR, XeSS oder TSR ist egal.
Wenn man das rausnimmt/deaktiviert, kann man ggf keine Unterschiede der Top CPUs messen.
es wird aber nur DLSS oder Nvidia getestet also leiden alle anderen GPUs
Der prozentuale Unterschied bleibt ungefähr gleich.
Nein eben nicht da DLSS Nvidia ist und nur an der 4090 liegt, wenn AMD oder Intel aufholen mit deren Techniken fehlen eben diese 5% die ruck zuck 50% rückstand werden können wenn die Software es her gibt.
--> Ich verstehe übrigens immer noch nicht, was du eigentlich willst. Formuliere doch mal deine Kritik in einem Satz. Was genau stört dich?
Ich möchte eine CPU Benchmark der das Maximale software Potential nutzt ohne DLSS oder sonstiger Hersteller vorteile reine CPU Leistung eben mit dem Maximalen was die Software an Settings bietet.
 
Zurück