CPU Benchmarks und GPU Matching - irgendwas stimmt hier nicht.

dontrememberme

PC-Selbstbauer(in)
Bei der Suche nach eine optimalen CPU / GPU Kombination bin ich Ungereimtheiten gestoßen.
Wer kann folgende Diskrepanz erklären?

Eine CPU ist laut meinem Recherchen für die Darstellung der Spielelogik, Berechnung von Objekten und so weiter zuständig. Die Grafikkarte ist für die Auflösung zuständig und dafür das ganze schön Aussehen zu lassen. Eine strikte Aufgabenteilung.

Theoretisch, so wie ich es verstanden habe, sollte eine CPU die in der Lage ist 100 FPS zu berechnen in Kombination mit einer GPU die je nach Grafikeinstellungen 100 FPS berechnet zu eine Ausgabe von 100 FPS führen. Liefert die CPU nur 80 FPS befindet man sich in einem CPU Bottleneck und es können nur 80 FPS ausgegeben werden. Andersrum hat mein ein GPU Bottleneck.

Um die CPU Leistung möglichst zu isolieren, werden Prozessoren, deswegen in 720p auf Low Settings getestet. Ich Verweise hier mal auf den PCGH Artikel und folgenden CPU/GPU Limit Beitrag.

Jetzt kommt das Problem. Diese Theorie deckt sich nicht mit folgenden beobachten Daten auf Igorlab.


1676640772810.png

Wie man sieht liegt das Leistungsspektrum der Prozessoren in 720p zwischen dem kleinsten Ryzen 5600X und dem 13900K bei Igors Spieleparcour bei 234,9 bis 327,9 FPS. Jetzt würde ich im folgenden 1080p Test in denen das System in eine GPU Limit läuft, erwarten, dass die ausgegebenen FPS durch die GPU (6950 XT) begrenzt werden. Schaut man sich den den 13900K hier an, werden 264,5 fps erzielt, woraus ich schlussfolgern würde, dass die GPU das Spiel auf 264,5 FPS limitiert, da der 13900 K unter 720p ja 327,9 FPS liefern konnte. Mit dieser Erwartung schaue ich mal auf den 5600X. Dieser lieferte in 720P 234,9 FPS. Die GPU ist stärker (264,5 fps). Daher sollte der 5600X ja jetzt unter 1080p 234,9 fps liefern. Tut er aber nicht er droppt auf 204 FPS.
1676641529678.png


Bitte schreibt doch mal eure Erklärungsansätze.
Es wirkt so als würde eine stärkere CPU doch mehr aus einer Grafikkarte rausholen können.
 
Das ist relativ einfach zu erklären...

In 1080p läuft man idR immer noch in ein CPU Limit. Somit gibt es nach wie vor entsprechende Unterschiede. Wenn Du den Beitrag von Igor weiterlesen würdest findest Du auch seine "Erklärung".

Zusammenfassung der Gaming-Performance in 1440p

Eigentlich hätte man diesen Part heute auch weglassen können, denn die GPU limitiert eigentlich fast immer. Das Argument mit der nunmehr schnelleren GeForce RTX 4090 würde aber auch nicht sonderlich ziehen, denn diese Karte würde zwar alle Balken etwas weiter nach rechts verschieben, die Limits auch jedoch nicht komplett beseitigen. Und Ultra-HD ist dann eh egal, wenn es um CPU-Tests geht, da findet man, falls überhaupt, die minimalen Unterschiede nur noch im P1.
 
btw sollte man in 720p mit high setttings Testen, da es settings gibt die auch auf die CPU auswirkungen.
RTX, Field of view, Render distance (falls Ai) daran verankert ist.
 
Es gibt kein Matching. Das ist eine Illusion.
Es gibt den User und seine Ansprüche sowie die Software und deren Regler. Das ergibt eine Gleichung mit 19000000 Unbekannten. Wie soll man das pauschal lösen?

Simples Beispiel: Ist meine CPU zu lahm für meine Graka oder nicht? Und wie kann sie beides sein?

0966A24D-4BE1-4A66-9690-B48A8B472BAB.png
C7C0C2FC-6A9D-4021-A4CA-6A178FC7E1E7.jpeg


Das ist übrigens FHD.

Und in einem "richtigen/harten" CPU-Limit ist die CPU auch immer gleich schnell.
Hier mal eine Versechzehnfachung der Auflösung.

Anno1800_2023_02_12_11_39_05_035.png

Anno1800_2023_02_12_11_37_51_621.jpg

Anno1800_2023_02_12_11_37_35_344.jpg


Eventuell wurde da irgendwo im Grenzbereich gebencht, wo es Teils/Teils Graka/CPU->Limitierte Stellen gab. Da kann man halt noch was rausholen.
 
Zuletzt bearbeitet:
Es gibt kein Matching. Das ist eine Illusion.
Es gibt den User und seine Ansprüche sowie die Software und deren Regler
Natürlich gibt es das.
Ich stell mir einmal alles ein und gucke dann was die Hardware dazu leistet.
Genau das macht ein Benchmark, um Hardware unter gleichen Bedingungen zu vergleichen.
Danach kannst du entscheiden, welche die geeignete Hardware ist.
Ich kann an den Einstellungen spielen wie ich will, wenn aber die CPU 113fps liefert und die GPU 300, ich aber 240fps haben will, passt das nicht mit der CPU.
Also brauche ich noch die passende CPU dazu.
 
Klar. Wenn Du das für Dich selbst machst, dann funktioniert es.
Aber halt nicht pauschal für alle. Das funktioniert nicht. Es sei denn die Leute zocken genau die Benchmarks mit exakt den Settings der Benchmarks.

Macht das irgendwer? So wirklich jetzt?
Hier hat doch z.b. JEDER eine andere Definition von "MAX SETTINGS". Nur um das mal in den Raum zu werfen.

Ich hab z.b. das Gefühl das viele User genau ihre gewünschten Settings einstellen und dann sagen: Hier liegt das Limit genau da: Was für den einzelnen User ja durchaus richtig ist. Aber für alle anderen falsch, die nicht EXAKT die gleiche Settings anlegen.
 
Zuletzt bearbeitet:
Darum geht es doch hier garnicht.
Es wurden doch die Beispiele der Benchmarks genannt.
Von den en geht man aus, um die Hardware nach den eigenen Wünschen auszuwählen.
Wenn ich zB Anno spielen will, nehme ich bestimmt keinen 2Kern Celeron dafür.
Ich gucke in die benchmarks und suche die CPU aus, die mir die entsprechenden fps liefern kann.
Dann kommt halt das P/L Verhältnis und der eigene finanzielle Rahmen dazu.
Aber im Endeffekt kann ich alle möglichen Einstellungen verändern, ein 13900K passt besser zu ne 4090 als ein R3 4100.
 
Es sei denn man hat eine Software die nur drei Kerne benutzt und auf dem 4100 ausreichend FPS produziert.
Eventuell hat man ja ein 3-Moni Setup aus 4K-Monitoren die befeuert werden müssen.

Klar ist das konstruiert, aber Deine Pauschale Zuordnung ist halt nicht immer der Weißheit letzer Schluss.
 
Nein, aber wesentlich näher an der Realität.
Ich mach doch auch keinen Grosseinkauf mit nem Smart oder streiche ne komplette Wand mit nem 2mm Pinsel.
 
Bei den CPU-Benches bin ich ja bei Dir.
Würde ich ähnlich machen. In 720p lügen die CPU-Benches meist nicht.

Eine Graka dagegen bekommt man immer klein.
Da kauft man so fett wie es geht für das eigene Budget.
Entweder ist sie so oder so zu lahm, weil das Budget nicht mehr hergibt, und wenn sie zu fett ist, dann freut man sich über die Ruhe, kann sie länger nutzen oder knallt alles was geht in BQ, solange bis sie zusammenbricht. Fertig ist die Laube.

Wo ist da das "Matchmaking"?
Besonders wenn es um mehr als eine Anwendung geht.
Für eine kannst Du bei gegebener Reglerstellung ja noch den Perfekt Match hinbekommen.
Aber sobald Du zwei Anwendungen hast die grundsätzlich verschiedene Anforderungen an CPU und Graka haben isses schon umsonst gewesen. Und die Fragestellung hört sich eher nach "alle Anwendungen" an.
 
Zuletzt bearbeitet:
solange bis sie zusammenbricht. Fertig ist die Laube.

Wo ist da das "Matchmaking"?
Besonders wenn es um mehr als eine Anwendung geht.
Für eine kannst Du bei gegebener Reglerstellung ja noch den Perfekt Match hinbekommen.
Aber sobald Du zwei Anwendungen hast die grundsätzlich verschiedene Anforderungen an CPU und Graka haben isses schon umsonst gewesen. Und die Fragestellung hört sich eher nach "alle Anwendungen" an.

Danke für deine Anmerkung. Klar, das muss man natürlich von Spiel zu Spiel einzeln schauen. Mann kann ja nicht alles über einen Kamm scheren. Bezüglich des Matchings habe mir folgendes überlegt. Man benötigt einen Benchmark mit vielen Prozessoren in denen die GPU im Limit läuft (also die meisten), alternativ würde es auch ausreichen die GPU Auslastung zu kennen. Am besten in 1080p, dann hat man kein Problem. Ansonsten z.b. den hier. Noch besser wäre natürlich ein Test mit mehreren Prozessoren und mehreren Grafikkarten. Aber so was gibt es ja leider nicht.

Dann rechne ich einfach die GPU Leistung auf meine Wunschgrafikkarte runter und schaue ob die CPU Frames ausreichen würde. In diesem Fall bei 720 auf 1080p muss ich natürlich die ungeklärte Diskrepanz noch pauschal draufschlagen.

Ich nehme mal Anno. Das sähe dann so aus.
CPU GPU Matching.jpg

Quelle.

Das bedeutet für mich für eine RX 6650XT brauch man in Anno optimalerweise einen 5800X3D für die entsprechenden Settings in 1080p.
Und da liegt dein Fehler. ;) Natürlich hat die Auflösung etwas mit der CPU zu tun.
Ok, das ist interessant. Ich wollte gerade schreiben, das meine beobachten Werte nicht zu der in meinen Thread erwähnten Theorie passen. Deswegen war ich mit den Antworten auch unzufrieden. Das würde dann in der Konsequenz bedeuten, dass der Artikel von der PCGH inhaltlich fehlerhaft ist. Ich zitiere kurz einen Teil.

" Aus Sicht eines Hauptprozessors gibt es keine Pixel. Pixel sind Aufgabe der Grafikkarte...

Gaming-Benchmarks ohne Auflösung
Was bedeutet das nun genau? Ganz einfach: In einer idealen Welt wären Grafikkarten unendlich schnell beim Rastern, sodass die Auflösung ebenfalls unendlich hoch sein könnte und wir keine Gedanken an die Leistung verschwenden müssten. In unserer imperfekten Welt kostet jedes zu zeichnende Pixel jedoch Rechenzeit. Diese Rechenzeit vergeht einzig und allein wegen bzw. in der GPU. "

Kannst du näher erläutern warum die Auflösung doch etwas mit der CPU zu tun hat?
 
Zuletzt bearbeitet:
Und da liegt dein Fehler. ;) Natürlich hat die Auflösung etwas mit der CPU zu tun.
Wie erklärst Du Dir dann #7
Ich versechzehnfache die Auflösung und NIX passiert mit den FPS.
Die CPU hat eventuell was mit dem Seitenverhältnis zu tun, aber bestimmt nicht mit der Auflösung. Die ist zu 100% Aufgabe der Graka.
 
Also bei mehr Sichweite oder mehr aspect ratio ja . Aber was soll den in einer engine Auflösung abhängig sein was auf die CPU geht ?

Ich Frage aus Neugier weil das wäre mir neu .
 
Leute Leute.

Der Zweck von Spiele Benchmarks, ist der Leistungvergleich von Grakas. Über die Leistung von CPUs sagen solche Vergleiche nix aus. Was jedoch damit aufgezeigt werden kann, ist das physikalische Limit der CPU.
Das erreich ich, indem ich Auflösung und Qualität so stark reduziere, dass auf ein und der selben Plattform , verschiedene Grakas eine identische Framerate produzieren. Stark vereinfacht gesagt, das System hat ein mechanisches Limit, grob bestimmt durch System u. CPU - Takt sowie Speicher u. Bus - Bandbreite. HW die schneller ist, arbeitet mit Latenzen, die es dem System ermöglichen Schritt zu halten. Also je schneller eine CPU desto grösser ihre Latenz.

Ne Faustformel ist auch:

Je weiter min u. max FPS von avg FPS entfernt sind, desto leistungsfähiger die CPU oder desto mehr bremst die Graka.
Je näher min u. maxFPS an avgFPS dran sind, desto leistungsfähiger die Graka oder desto mehr bremst die CPU.


Leider gibts kaum Games, die das Verhältnis GPU : CPU ermitteln. Der CMR3 Bench konnte das. Das Game hab ich aber nimmer. Forza Horizon 4 u. 5 Bench kanns.

Hier mal 2 FH4 Benches. Gleiches Sys, verschiedene Grakas. GPU:CPU Verhältnis deutlich sichtbar.

Gruss Acht

FH4 Bench 270x.png
FH4 Bench 5500xt.png
 
Ich hab das extra ganz allgemein gehalten, weil ich es auch nicht so genau weiß :fresse:
Partielles Limit (je höher die Auflösung desto mehr wird die GPU "belastet" desto häufiger die Abfrage von bereitgestellten Bildern)

Optimal ist es eben, wenn man die GPU Auslastung in CPU Tests auf ein Minimum reduzieren könnte, bei gleichzeitig maximalen Details, dies ist aber fast nie möglich.

Gutes Beispiel hier:

PCGH Benchmark Szene von Hogwarts ohne RT alles andere auf MAX

1676795317946.png

1676795350989.png

1676795377192.png

1676795407828.png

Man sieht also, die GPU wird immer mehr ausgelastet obwohl sie eigentlich (laut Daten - Time in GPU Load Limit) nie der limitierende Faktor ist.

Das nennt sich dann partielles Limit.
Dies gibt es in vielen Spielen (und mit unterschiedlichen Engines) auch in niedrigeren Auflösungen, da kommt dann der Speicher ins Spiel.

Wenn ein Game sehr von Overclocking beim RAM profitiert, werden auch die FPS steigen, da das partielle Limit dann bei der Datenverarbeitung liegt (caching / prefetching z.B.).

Oft bei "Wusel Games" zu erkennen, je mehr NPCs sich dynamisch bewegen, desto stärker wird die CPU belastet.

Ist es dann auch noch ein Spiel, bei dem es nicht möglich ist (trotz vieler Kerne), dieses zu parallelisieren wird der Singlecore Takt immer wichtiger, deswegen haben die Intel CPUs (bis auf die 7000er von AMD - dort ist es die "schlechte" RAM Anbindung) den Vorteil des hohen Taktes.

Hier haben übrigens die Radeon Karten (6000 7000) den kleinen Vorteil des Caches auf der GPU, so können kleine Daten schneller verarbeitet werden ohne auf die CPU / den Speicher zugreifen zu müssen, deswegen liegt bei kleinen Auflösungen eine Radeon weiter vorne als in höheren Auflösungen.
 
Zuletzt bearbeitet:
Zurück