"CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

CPU-Benchmarks sind nur dann aussagekräftig, wenn Störeinflüsse minimiert werden. Wenn die Grafikkarte die Leistung deckelt, lässt der Test keine Beurteilung unterschiedlicher CPUs in bestimmten Szenarien mehr zu. Daher sind 720p-Tests sinnvoll. Als technikaffiner Mensch gehe ich da also mit.

Wenn der Counterstrike-Spieler von nebenan mich fragt, was er kaufen muss, wenn er 240Hz/fps bei 1080p sehen will, brauche ich dem nicht mit 720p-Benchmarks kommen. Dem nenne ich dann eine CPU, die die 240Hz/fps schafft und die entsprechende GPU, die das bei 1080p auch liefern kann. Deswegen ist er jetzt kein DAU, denn in diesem Fall hätte er nicht gefragt, sondern den "Enthusiast-PC" bei einer großen Elektronikkette gekauft und sich wahrscheinlich hinterher gewundert, dass die Anforderung nicht erfüllt wird.

Am angenehmsten wäre es für diesen Kollegen, wenn PCGH alle Spiele mit allen auf dem Markt befindlichen Hardwarekomponenten und Kombination, sowie sämtlichen möglichen Auflösungen und Einstellungsvarianten testen würde. Da der Arbeitstag aber gesetzlich auf 10 Stunden gedeckelt ist und wir nicht möchten, dass die PCGH den 10-fachen Preis kostet, werden gängige Komponenten mit gängigen Spielen getestet. Und damit wir nicht dem Aberglauben verfallen, dass alle CPUs wegen hohen Auflösungen plötzlich gleich schnell (oder langsam) sind, wird der Test isoliert in einer möglichst niedrigen Auflösung gemacht, um auch wirklich die CPU zu testen und nicht das GPU-Limit zu ermitteln.

Zusammen mit GPU-Benchmarks und den zu Papier gebrachten Erfahrungen der PCGH-Redakteure lässt sich daraus sehr genau schließen, wie ein PC bei bestimmten Spielen performen wird. Gerade die immer wichtiger werdenden Einflüssen wie z.B. von mehr Kernen finden ja auch Betrachtung.

Daher: Ja, die Auflösung ist nicht praxisrelevant, spielt aber auch keine Rolle, weil es nicht um die Grafik(karte) geht. Der Test an sich aber sehr wohl. Denn wenn nicht bekannt ist, welchen Anteil die CPU, isoliert betrachtet, an der Gesamtleistung des PCs hat, wird eine Beurteilung schwierig. Man könnte es auch "raten" nennen.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

leider nicht mit einer 2080Ti

Ja Entschuldigung erstmal, aber 1280 zu 720 schaffen se ja dann auch mit ner 980ti. Erzählen doch die ganze Zeit, daß die CPU belastet werden soll und nicht die GPU.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

CPU-Benchmarks sind nur dann aussagekräftig, wenn Störeinflüsse minimiert werden. Wenn die Grafikkarte die Leistung deckelt, lässt der Test keine Beurteilung unterschiedlicher CPUs in bestimmten Szenarien mehr zu. Daher sind 720p-Tests sinnvoll. Als technikaffiner Mensch gehe ich da also mit.

Wenn der Counterstrike-Spieler von nebenan mich fragt, was er kaufen muss, wenn er 240Hz/fps bei 1080p sehen will, brauche ich dem nicht mit 720p-Benchmarks kommen. Dem nenne ich dann eine CPU, die die 240Hz/fps schafft und die entsprechende GPU, die das bei 1080p auch liefern kann. Deswegen ist er jetzt kein DAU, denn in diesem Fall hätte er nicht gefragt, sondern den "Enthusiast-PC" bei einer großen Elektronikkette gekauft und sich wahrscheinlich hinterher gewundert, dass die Anforderung nicht erfüllt wird.

Am angenehmsten wäre es für diesen Kollegen, wenn PCGH alle Spiele mit allen auf dem Markt befindlichen Hardwarekomponenten und Kombination, sowie sämtlichen möglichen Auflösungen und Einstellungsvarianten testen würde. Da der Arbeitstag aber gesetzlich auf 10 Stunden gedeckelt ist und wir nicht möchten, dass die PCGH den 10-fachen Preis kostet, werden gängige Komponenten mit gängigen Spielen getestet. Und damit wir nicht dem Aberglauben verfallen, dass alle CPUs wegen hohen Auflösungen plötzlich gleich schnell (oder langsam) sind, wird der Test isoliert in einer möglichst niedrigen Auflösung gemacht, um auch wirklich die CPU zu testen und nicht das GPU-Limit zu ermitteln.

Zusammen mit GPU-Benchmarks und den zu Papier gebrachten Erfahrungen der PCGH-Redakteure lässt sich daraus sehr genau schließen, wie ein PC bei bestimmten Spielen performen wird. Gerade die immer wichtiger werdenden Einflüssen wie z.B. von mehr Kernen finden ja auch Betrachtung.

Daher: Ja, die Auflösung ist nicht praxisrelevant, spielt aber auch keine Rolle, weil es nicht um die Grafik(karte) geht. Der Test an sich aber sehr wohl. Denn wenn nicht bekannt ist, welchen Anteil die CPU, isoliert betrachtet, an der Gesamtleistung des PCs hat, wird eine Beurteilung schwierig. Man könnte es auch "raten" nennen.

Die ganze Sache mit dem zu Rate ziehen der GPU Ergebnisse um abschätzen zu können welche CPU für meine Bedürfnisse die beste ist hat einen Haken und der wäre das in der Regel für GPU Tests, GPU lastige und für CPU Tests CPU lastige Spiele getestet werden.

Es wird also immer vorausgesetzt dass, das Spiel sowohl als auch getestet wurde was in der Regel ja nicht der Fall ist.

Klar könnte ich nun deinem Counterstrike-Spieler von nebenan anhand der CPU und GPU Ergebnisse sagen er soll seine z.B. gtx1050 mit einem z.B. Ryzen 5 1400 paaren. Die ist schnell genug für deine 240Hz/s, 1080p
alles darüber hinaus wäre nur Geld aus dem Fenster zu schmeissen.
Das setzt aber voraus das von Counterstrike sowohl ein CPU als auch ein GPU Test durchgeführt wurde.
Mit anderen Worten kommt man fast nicht um einen Test in 720p als auch in einer höheren Auflösung drumherum wenn man darüber eine Aussage machen will.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Die ganze Sache mit dem zu Rate ziehen der GPU Ergebnisse um abschätzen zu können welche CPU für meine Bedürfnisse die beste ist hat einen Haken und der wäre das in der Regel für GPU Tests, GPU lastige und für CPU Tests CPU lastige Spiele getestet werden.

Es wird also immer vorausgesetzt dass, das Spiel sowohl als auch getestet wurde was in der Regel ja nicht der Fall ist.

Das sollte imo dann auch gemacht werden.
Hier AC:Odyssey benchen und da AC:Origins ergibt in der Tat wenig Sinn.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Das sollte imo dann auch gemacht werden.
Hier AC:Odyssey benchen und da AC:Origins ergibt in der Tat wenig Sinn.

Grafikkarten-Rangliste 2019: 30 Radeon- und Geforce-GPUs im Benchmark Mai

https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/

CPU-Tests 2019: Benchmark-Bestenliste mit Ryzen 3000 - Leistungsindex für Prozessoren Juli/August

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

Wenn man die Listen miteinander vergleicht sind da einige Spiele drin die nicht sowohl als auch getestet wurden. Macht auch Sinn!
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Die ganze Sache mit dem zu Rate ziehen der GPU Ergebnisse um abschätzen zu können welche CPU für meine Bedürfnisse die beste ist hat einen Haken und der wäre das in der Regel für GPU Tests, GPU lastige und für CPU Tests CPU lastige Spiele getestet werden.

Es wird also immer vorausgesetzt dass, das Spiel sowohl als auch getestet wurde was in der Regel ja nicht der Fall ist.

Klar könnte ich nun deinem Counterstrike-Spieler von nebenan anhand der CPU und GPU Ergebnisse sagen er soll seine z.B. gtx1050 mit einem z.B. Ryzen 5 1400 paaren. Die ist schnell genug für deine 240Hz/s, 1080p
alles darüber hinaus wäre nur Geld aus dem Fenster zu schmeissen.
Das setzt aber voraus das von Counterstrike sowohl ein CPU als auch ein GPU Test durchgeführt wurde.
Mit anderen Worten kommt man fast nicht um einen Test in 720p als auch in einer höheren Auflösung drumherum wenn man darüber eine Aussage machen will.

Das ist möglicherweise ein Missverständnis. Ich ziehe eben nicht die GPU-Ergebnisse heran um die richtige CPU zu wählen. Ich betrachte das separat. Die CPU-Ergebnisse brauche ich, um die richtige Plattform zu wählen, damit das Maschinchen am Ende überhaupt dazu in der Lage ist, die benötigten FPS zu liefern. Ich wähle die CPU, die mindestens 240Hz schafft (nicht maximal sondern minimal) und packe nochmal 10% Sicherheit obendrauf, wenn die Mittel es hergeben.

Bei der GPU brauchts dann ein Spiel mit vergleichbarer Architektur (z.B. Grafikengine und weiteres) um die benötigte Ausbaustufe zu wählen. CS war vielleicht ein schlechtes Beispiel, weil da die Anforderungen inzwischen keine Herausforderung mehr sind. Außerdem gibts da ungefähr eine Millionen Benchmarks. Aber auch hier gilt: Das Minimum abschätzen und eine Sicherheit obendrauf. Und ja, da ist dann die Auflösung relevant.

Den Test in 1080p brauche ich jedenfalls nicht, um die CPU zu wählen. Das wird erst bei der Grafikkarte interessant. Das ist der Punkt.

Edit: Ich hatte noch vergessen zu sagen, dass es in meinen Augen logisch ist, entsprechend ausgelegte Titel für CPU- und GPU-Tests heranzuziehen. Der jeweilige Chip soll ja auch an die Grenzen gebracht werden, um eben diese sichtbar zu machen! Was bringt mir ein CPU-Test, wenn die CPU nicht ausgelastet wird? Genau das ist ja auch bei hohen Auflösungen meist der Fall. Hier schließt sich der Kreis wieder.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Ich verstehe, was du meinst - war ja selbst noch recht lange mit meinem E3-1240v2 unterwegs. Ich weiß aber nicht, ob dieser Effekt nicht auch ein wenig der langen Dürreperiode geschuldet war, in dem sich mangels Wettbewerb im CPU-Sektor wenig getan hat.

Man müsste eventuell auch genauer aufdröseln, welchen Mehrwert die Investition in zusätzliche Kerne/Threads heutzutage bringt:
Einen Ryzen 5 3600 gibt es für rund 200 Euro und entspricht damit P/L-technisch einen damaligem Core-i5. Passt.
Der Aufpreis zum Core-i7 betrug rund 100 Euro, heute sind es mindestens 150 Euro, die man für 8C/16T hinlegen muss. Allerdings bringt das - anders als damals zwischen i5 und i7 - in einigen heutigen Titeln bereits heute einen, wenn auch geringen, Mehrwert.
Wer noch mehr Threads will, muss zum 3900X greifen, was dann aber bereits eine erhebliche Mehrausgabe für wenig aktuelle Mehrleistung bedeutet.

Aber wie gesagt, die Upgrade-Zyklen sind inzwischen verkürzt. Womöglich lohnt es sich heute weniger, prophylaktisch auf 12C/24T oder auch nur 8C/16T zu gehen, weil man das neu oder im Abverkauf günstiger bekommen kann, wenn man es tatsächlich braucht und aktuell mehr finanziellen Spielraum für eine GPU der nächsthöhere Modellreihe hat, die sofort etwas bringt und ihrerseits ebenfalls mehr Spielraum nach hinten verschafft.

Eine größere CPU zu Lasten der GPU zu kaufen ist meist eine schlechte Wahl. Das dokumentieren wir auch immer wieder in Artikeln zu ganzen Rechnern.

Lässt man die oft zu einem anderen Zeitpunkt respektive viel häufiger gekaufte Grafikkarte außen vor, gilt beim gezielten "klein"-Kauf darüber hinaus Vorsicht: Oft ist nur das Preis-Leistungsverhältnis einer kleinen CPU spürbar besser, nicht aber das einer Kombination aus CPU und Mainboard. Sämtliche meiner Umfragen sehen seit Jahren ein Mehrheitsinteresse bei 150 bis 200 Euro teuren Platinen, Beobachtungen in der Community bestätigen auch deren Kauf. Es steht also im Falle von Ryzen 3000 nicht ein 530-Euro-Zwölfkerner gegen einen 210-Euro-6-Kerner, sondern ein 12-Kern-Bundle für 700 Euro gegen ein 6-Kern-Bundle für 380 Euro und im Moment sind wir auch wieder an einem Punkt angelangt, bei dem ein erneutes Upgrade in 2-3 Jahren mit dem Kauf neuen DDR5-Speichers einhergeht, sodass eine leistungsfähige, 5-6 Jahre haltende DDR4-CPU weitere Kosten erspart.

Ich persönliche finde den bewussten Kauf von Minimal-CPUs allenfalls in Kombination mit einer späteren Aufrüstung sinnvoll. Man kauft jetzt um die 100 Euro und wartet damit entspannt ab, bis das eigentlich gewünschte Topmodell günstig gebraucht zu haben ist. Allerdings rechnet sich auch dieses Muster nur, wenn für die gewünschte Plattform wesentlich schnellere, wesentlich teurere CPUs verfügbar sind. Mit dem 3950X wird das für den Sockel AM4 nach langer Zeit mal wieder der Fall sein (jetzt Ryzen 5 2600 kaufen, in 3-4 Jahren nach billigen 3950X suchen), aber die ganzen Sockel-115X-Ära lang galt meist "eine CPU = ein Mainboard", weil die Leistungsunterschiede innerhalb eines Sockels zu klein waren und die Spitzenmodelle auf 1/3 des Neupreises hätten fallen müssen, ehe man den zusätzlichen Kauf einer Übergangs-CPU eingespart hätte.


Die "Entscheider" in den Dingen hier sind am Ende PCGH_Raff (leitender Red) und natürlich PCGH_Thilo (Chefred).

PCGH_Dave wäre als CPU-Tester auch noch zu nennen. Aber selbst ich beteilige mich hier nur als CPU-interessierte Person und weil ich als Mainboard-Fachredakteur ein Auge darauf haben muss, was die Leser an Plattformen interessiert. Über CPU-Tests treffe auch ich keine Entscheidungen.


@ Incredible Alk - danke

@PCGH-Torsten - ich finde es schade das zu den Sachverhalten die zu dieser regen Diskussion geführt keine Stellung bezogen wird. Ich würde mir schon eine Stellungnahme (zuletzt #229) wünschen.

Ich finde in Post #229 nur die Anregung, im Fließtext von CPU-Tests Kaufempfehlungen unter Berücksichtigung der GPU-Leistung auszusprechen. Das würde ich befürworten und wäre auch in meinen Augen eine Aufwertung gegenüber des oft sehr ergebnisorientierten Stils von Daniel. Aber wie Dave seine Artikel aufbaut, wird er selbst entscheiden. Da kann ich nicht Stellung zu nehmen. :-)


Prinzipiell stimmt das schon - aber kein CPU-Test der Welt kann dir sagen was auf lange Sicht besser ist... die Glaskugeln funktionieren leider nicht.
Natürlich haben mehr Kerne tendentiell eher Vorteile in der Zukunft aber auch hier ist die Kurve am abflachen sozusagen - oder anders gesagt wo 6 gegen 4 Kerne heue klar im Vorteil sind gegenüber damals und wahrscheinlich das bei 8 gegen 6 sich auch noch etabliert wirds bei 12 gegen 8 Kerne schon eng. Da wie Herr Amdahl das in seinem Gesetz gezeigt hat der Multikern-Nutzen mit zunehmender kernzahl bei nicht perfekt parallelem Code (was Spiele nicht sind) immer weniger zunimmt wird der Effekt "mehr Kerne sind besser für die Zukunft" zumindest bei Spielen immer kleiner werden. Gut möglich, dass ein 3900X in Spielen nie schneller als ein 9900K werden wird bevor nicht beide CPUs ohnehin zu langsam geworden sind.

Oder anders gesagt ich sehe jetzt für nen 24- oder gar 32-Thread Prozessor wie 3900X und 3950X auch mittelfristig keine Ambitionen, einen 16-Thread 9900K überholen zu können, auch wenn MT-Nutzung in Spielen immer besser wird. Bis das flächendeckend passiert ist sind wir wohl einige Generationen weiter und 12 oder 16 kerne Standard für den Normalo-Spiele-PC / Konsole.

Neben Amdahl muss man auch die zeitliche Entwicklung beachten. Wir haben die letzten 26 Monate eine regelrechte Kernexplosion im High-End-Desktop gesehen. Spiele-Engines werden aber mit mehreren Jahren Vorlauf entwickelt und die Designer orientieren sich an der zu erwartenden Minimal-Ausstattung im späteren Veröffentlichungszeitraum. Wegen der großen Verbreitung entsprechender Systeme und dem langsameren Zuwachs im großvolumigen Billig- und Notebookmarkt werden also noch einige Zeit Quadcores im Fokus stehen. Natürlich wird man die Engines so bauen, dass sie auch bis acht Kerne skalieren, aber es gibt Grenzen bezüglich der abzudeckenden Spannweite und 12 oder gar 16 Kerner als Mainstream-CPU sind eine Neuerung von 2019, die selbst 2017 noch undenkbar erschien.


So hab mich jetzt hier extra angemeldet um hier drüber was zu schreiben, weil das was PCGH hier schreibt nur zum Teil stimmt und imo testen in 1280x720 Schwachsinn ist.

Das Prinzip macht auf den ersten Blich natürlich absolut Sinn: GPU limitiert also schraub ich die Auflösung herunter, so dass mein CPU nun limitiert. Und ja, das funktioniert.

Wenn wir uns anschauen was in dieser CPU-Zeit normalerweise geschieht dann ist das größtenteils Input-Verarbeitung, Player-Movement, LOD-System und Draw-Calls. Nun das große aber:

Es werden völlig alle CPU-Aufgaben außer Acht-gelassen die nicht an die FPS gebunden sind!!!

Nicht FPS gebunden heißt Aufgaben die nach Bedarf geschehen, oder die in festen Zeitintervallen aktualisiert werden. Beispiele hier wären Wegfindung, AI, Physik, Netzwerk. Meistens sind diese Aufgaben gut parallelisiert(Laufen aus vielen Kernen/Threads).

Warum das ein Problem ist? Weil ihr den Anteil von FPS-bound zu FPS-unbound CPU-Aufgaben verschiebt.

...

Du hast zwar grundsätzlich recht, dass es auch fix ablaufende CPU-Prozesse gibt, die nicht wie gewünscht in CPU-Testszenarien skalieren. Unserer Beobachtung nach ist dieser Anteil aber in den meisten Spielen klein. Wir haben seit langem keine großen Fortschritte mehr in diesen Bereichen gesehen. Als KI-Referenz für Shooter würde ich weiterhin Far Cry nennen, Half Life 2 gilt als Musterbeispiel für Gameplay-Physik und die Wegfindung von einigen Dutzend NPCs in Assassins Creed oder Witcher 3 ist nicht anspruchsvoller als in Age of Empires 3. Große Fortschritte gab es nur bei der Effekt-Physik, bei Animationen und bei detaillierten Kollisionsberechnungen. Diese dienen aber alle der realistischen Darstellung einer Szene und müssen deswegen pro Frame berechnet werden. Selbst Strategiespiele wie Total War können es sich gar nicht leisten, große CPU-Ressourcen in nicht skalierende, immer im Hintergrund zu berechnende Inhalte zu investieren, weil sie sonst auf einfachen CPUs nicht spielbar wären. (Siehe oben.)

Also: Ja, die Messung bei niedrigerer Auflösung/höheren Fps verändert die Belastung, aber nur geringfügig. Man sollte halt nicht Counter Strike jenseits von 500 Fps als Benchmark heranziehen. Das machen wir aber ohnehin nicht, weil für Spiele mit derart geringen Anforderungen insgesamt niemand einen neuen Prozessor kauft. Stattdessen suchen wir gezielt nach Titeln, die schon heute eine gewisse Herausforderung sind und stellen mit 720p nur sicher, dass der CPU-Teil dieser Herausforderung unverfälscht wiedergegeben wird. Selbst in unserem (ver)alt(et)en Parcours blieb ein Ryzen 5 2600 in allen bis auf einem Titel unterhalb der möglicherweise gewünschten 144 Fps und sogar der i9-9900K lag in zwei Messungen im 30er Bereich. Wenn es nach mir geht, wird das auch im neuen Parcours wieder so sein, auch wenn Dave und Raff am Freitag intensiv nach Wolfenstein-"ich lauf auf 286ern"-Youngblood-Testszenen gesucht haben.


Das ist ein zweischneidiges Schwert. Persönlich vertraue ich auch mehr der "PCGH" oder einem anderen Printmagazin, als einer reinen Onlineseite oder einem Youtuber. Macht auch so Sinn. Allerdings hängen da schon auch viele Connections mitdrin. Die "PCGH" hat sich über Jahre zurecht einen Namen gemacht und hat dann wohl auch Verbindungen zu den Herstellern oder den Custompartnern und dann überlegst Dir halt auch bei einem renomierten Magazin, oder als Chef dessen, ob Du da X oder Y abwatscht und das zurecht. Sprich, die Kritik kommt dann halt etwas sanfter an. Es ist damit eine "Win Win Situation" sozusagen. Einerseits willst und kannst Deine Glaubwürdigkeit nicht voll aufs Spiel setzen, andererseits magst aber dann auch nicht die Connections *verkaggen*.

Ist eigentlich oke. Ein Problem wird es dann allerdings doch. So wurde z.B. die Preistreiberei, von AMD UND NVIDIA, welche hier als Kartell agieren, nicht angegangen. Normalerweise müßten sich da alle Printmagazine im Bereich Hardware und Gaming mit den Onlineportalen indemselben Bereich kurzschließen und das Gesindel von Rot und Grün mal über Monate ordentlich flamen, da muß es *Shiet" regnen, daß sich manch einer anstatt einer Lederjacke einen Tauchanzug anzieht, ansonsten wird das, wie wir sehen, nicht besser.

Es gehört zu einem seriösen, objektivem Medium, dass es keine Shitstorms veranstaltet, sondern neutral über Fakten berichtet. Das haben wir gemacht und das werden wir auch in Zukunft machen, wobei zum Preis-Leistungsverhältnis insbesondere von Nvidia-Karten mit großer Regelmäßigkeit entsprechend negative Fakten berichtet wurden. Unabhängig hiervon gibt es Kolumnen und Kommentare, in denen die Redakteure mehr als einmal über die aktuelle Preisentwicklung ausgekotzt haben, sowas muss und wird aber von den Tests getrennt bleiben.


An alle, die meinen Benchmarks die sich rein auf die CPU konzentrieren und somit praxisfern wären, hätten keinen Sinn:

Ihr überseht etwas. Etwas ganz entscheidendes.

Die Last der CPU (und auch die der GPU) ist nicht gleichförmig. Je nach Szene gibt es Peaks, teilweise einzelne Frames, teilweise auch mehrere Frames hintereinander.

CPU und GPU rechnen zudem zu einem großen Teil parallel (nicht komplett). D.h. die Frametimes von GPU und CPU addieren sich nicht einfach.

Wenn die CPU viel schneller als die GPU ist (vulgo: Das Spiel ist GPU limitiert) spielt die Zeit, die die CPU braucht, um ein Frame bereitzustellen, praktisch keine Rolle - meistens. Manchmal aber eben doch. Auf einmal kommt man halt in eine Szene mit vielen NPCs, viel Geometrie oder viel durch Physik berechnete Elemente. Und plötzlich wird die Zeit die die CPU braucht, ein Frame der GPU bereitzustellen, eben doch relevant und verzögert dadurch den Start der Berechnung der GPU um ein paar Millisekunden.

PCGH sucht für jeden Titel gezielt nach derartigen, besonders CPU-fordernden Szenen. Deswegen benchen wir auch viele Spiele für CPU-Tests an einer anderen Stelle als für GPU-Messungen.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

... also das zB @ 720p die CPU gar nicht richtig belastet wird ...
Was ist denn "richtige" Auslastung? Im PCGH Test wird die CPU immer zu "100%" ausgelastet. Womit, bestimmt das Spiel und dessen Engine. Darum ist die Spieleauswahl so wichtig und darum gibt es zwischen den Benchmarks unterschiedlicher Redakteure relativ große Unterschiede.

Es geht nur um die Spieleauswahl und darum, den Einfluss der Grafikkarte zu eliminieren.

PCGH sucht für jeden Titel gezielt nach derartigen, besonders CPU-fordernden Szenen. Deswegen benchen wir auch viele Spiele für CPU-Tests an einer anderen Stelle als für GPU-Messungen.
Und wichtiger noch, Ihr stellt das transparent dar, ganz im Gegensatz zu allen anderen Benchmarks die ich kennen, bei denen irgendwer irgendwas misst und in denen die rote Zahnpasta dann schneller als die grüne ist, oder anders herum.
 
Zuletzt bearbeitet von einem Moderator:
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Das ist möglicherweise ein Missverständnis. Ich ziehe eben nicht die GPU-Ergebnisse heran um die richtige CPU zu wählen. Ich betrachte das separat. Die CPU-Ergebnisse brauche ich, um die richtige Plattform zu wählen, damit das Maschinchen am Ende überhaupt dazu in der Lage ist, die benötigten FPS zu liefern. Ich wähle die CPU, die mindestens 240Hz schafft (nicht maximal sondern minimal) und packe nochmal 10% Sicherheit obendrauf, wenn die Mittel es hergeben.

Bei der GPU brauchts dann ein Spiel mit vergleichbarer Architektur (z.B. Grafikengine und weiteres) um die benötigte Ausbaustufe zu wählen. CS war vielleicht ein schlechtes Beispiel, weil da die Anforderungen inzwischen keine Herausforderung mehr sind. Außerdem gibts da ungefähr eine Millionen Benchmarks. Aber auch hier gilt: Das Minimum abschätzen und eine Sicherheit obendrauf. Und ja, da ist dann die Auflösung relevant.

Den Test in 1080p brauche ich jedenfalls nicht, um die CPU zu wählen. Das wird erst bei der Grafikkarte interessant. Das ist der Punkt.

Edit: Ich hatte noch vergessen zu sagen, dass es in meinen Augen logisch ist, entsprechend ausgelegte Titel für CPU- und GPU-Tests heranzuziehen. Der jeweilige Chip soll ja auch an die Grenzen gebracht werden, um eben diese sichtbar zu machen! Was bringt mir ein CPU-Test, wenn die CPU nicht ausgelastet wird? Genau das ist ja auch bei hohen Auflösungen meist der Fall. Hier schließt sich der Kreis wieder.

Na ja, wenn du die GPU Ergebnissse heranziehen würdest dann könntest du aber viel besser abschätzen welche CPU / GPU Kombination für dich die beste ist.
Anhand meines Beispiels mit der gtx1050: Die würde z.B. beim Grafikkarten Test 200fps bei 1080p in Kombination mit einem i7 9900K bringen.
Im CPU Test bei 720p in Kombination mit einer 1080ti / 2080ti kommst du mit dem R5 1400 z.B. auf 240fps dann kannst du davon ausgehen das deine GPU bei 200fps limitiert eine schnellere CPU ist also für deine Zwecke (240Hz/s)
sinnlos. Die beste Option würde wohl darin bestehen die GPU von einer gtx1050 auf eine gtx1050ti aufzurüsten dann hättest du voraussichtlich deine 240 fps und nichts würde limitieren.

Sorry hab gerade gesehen das wir etwas aneinander vorbei geredet haben.
 
Zuletzt bearbeitet:
AW: Nicht FPS-gebundene CPU-Last völlig vergessen!

So hab mich jetzt hier extra angemeldet um hier drüber was zu schreiben, weil das was PCGH hier schreibt nur zum Teil stimmt und imo testen in 1280x720 Schwachsinn ist.

Das Prinzip macht auf den ersten Blich natürlich absolut Sinn: GPU limitiert also schraub ich die Auflösung herunter, so dass mein CPU nun limitiert. Und ja, das funktioniert.

Wenn wir uns anschauen was in dieser CPU-Zeit normalerweise geschieht dann ist das größtenteils Input-Verarbeitung, Player-Movement, LOD-System und Draw-Calls. Nun das große aber:

Es werden völlig alle CPU-Aufgaben außer Acht-gelassen die nicht an die FPS gebunden sind!!!

Nicht FPS gebunden heißt Aufgaben die nach Bedarf geschehen, oder die in festen Zeitintervallen aktualisiert werden. Beispiele hier wären Wegfindung, AI, Physik, Netzwerk. Meistens sind diese Aufgaben gut parallelisiert(Laufen aus vielen Kernen/Threads).

Warum das ein Problem ist? Weil ihr den Anteil von FPS-bound zu FPS-unbound CPU-Aufgaben verschiebt.
Beispiel: Ich schaue einen Zeitraum von 10 ms an: Ich habe einen Frame der 5ms benötigt von der GPU und 3ms von der CPU . Zusätzliche FPS-unbound Aufgaben benötigen 1ms alle 10ms.

CPU1 ---------------------------------------------------------------------------------------------------

CPU-FPS-bound-Last: 3ms
CPU-FPS-unbound-Last 1ms
GPU: 5ms

Zeitraum von 10ms / GPU-Bound 5ms = 2 Frames

CPU-Verbrauch: 1ms unbound + 2 Frames*bound_last 3ms= 7ms

Nun verringere ich die Auflösung um CPU-Bound zu werden

FPS-bound-Last: 3ms
FPS-unbound-Last 1ms
GPU: 2ms

Zeitraum von 10ms - 1ms FPS-unbound-Last) / CPU-Bound 3 ms = 3 Frames

CPU2 -------------------------------------------------------------------

So nun das ganze Experiment mit einer anderen CPU.

Ich schaue einen Zeitraum von 10 ms an: Ich habe einen Frame der 5ms benötigt von der GPU und 2ms von der CPU . Zusätzliche FPS-unbound Aufgaben benötigen 3ms alle 10ms.

FPS-bound-Last: 2ms
FPS-unbound-Last 4ms
GPU: 5ms

Zeitraum von 10ms / GPU-Bound 5ms = 2 Frames

CPU-Verbrauch: 4ms unbound + 2 Frames*bound 2ms= 8ms

Nun verringere ich die Auflösung um CPU-Bound zu werden

FPS-bound-Last: 2ms CPU
FPS-unbound-Last 4ms
GPU: 2ms

(Zeitraum von 10ms - 4ms FPS-unbound-Last) / CPU-Bound 2ms = 3 Frames

-------------------------------------------------------------------

Wie wir sehen hat CPU1 normalerweise mehr Reserven als CPU2. Trotzdem kommen beide auf 3 Frames wenn die GPU nicht blockiert.

Wenn ihr in 1280x720 testet favorisiert ihr Prozessoren diezum Beispiel viele Draw-Calls verarbeiten.
Wie viele Physik-Berechnungen die CPU schafft tritt dabei zum Beispiel in den Hintergrund.

Deshalb verfälscht der Test in niedrigen Auflösungen bzw. hohen FPS und ist somit eigentlich sinnlos.

Das käme aber nur zum tragen, wenn sich die Worstcase Szenen für jede CPU extrem unterscheiden. Normalerweise ist der FPS-Verlauf aber ähnlich und nur die Spikes sind unterschiedlich ausgeprägt.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Was ist denn "richtige" Auslastung? Im PCGH Test wird die CPU immer zu "100%" ausgelastet. Womit, bestimmt das Spiel und dessen Engine.
Mit richtig meinte ich eher richtig/falsch und nicht maximale Auslastung, hast ja sicher gelesen was die Kritiker zu den 720p Tests sagen.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Die ganze Sache mit dem zu Rate ziehen der GPU Ergebnisse um abschätzen zu können welche CPU für meine Bedürfnisse die beste ist hat einen Haken und der wäre das in der Regel für GPU Tests, GPU lastige und für CPU Tests CPU lastige Spiele getestet werden.

Es wird also immer vorausgesetzt dass, das Spiel sowohl als auch getestet wurde was in der Regel ja nicht der Fall ist.

Klar könnte ich nun deinem Counterstrike-Spieler von nebenan anhand der CPU und GPU Ergebnisse sagen er soll seine z.B. gtx1050 mit einem z.B. Ryzen 5 1400 paaren. Die ist schnell genug für deine 240Hz/s, 1080p
alles darüber hinaus wäre nur Geld aus dem Fenster zu schmeissen.
Das setzt aber voraus das von Counterstrike sowohl ein CPU als auch ein GPU Test durchgeführt wurde.
Mit anderen Worten kommt man fast nicht um einen Test in 720p als auch in einer höheren Auflösung drumherum wenn man darüber eine Aussage machen will.

Ich Zitier mich mal unüblicherweise selbst.

Kann sein das ich bei der ganzen Sache etwas übersehe. Ich hab selbst viel zu wenig Hintergrundwissen um das vollumfänglich beurteilen zu können.

Aber ich würde schon gerne von der Fraktion: "Höhere zusätzliche Auflösungen sind nicht nötig, es reicht wenn man den GPU Test zusätzlich zu Rate zieht um abschätzen zu können welche CPU / GPU Kombo für höhere Auflösungen die geeigneteste ist" wissen. Wie sie das anstellen wollen, wenn die dafür benötigten Informationen nicht vorhanden sind.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Mit richtig meinte ich eher richtig/falsch und nicht maximale Auslastung, hast ja sicher gelesen was die Kritiker zu den 720p Tests sagen.
Ja, natürlich, und Fragen in die Richtung stellte ich schon früher auch schon. Darum ist die Spieleauswahl so wichtig. Und wie wir am PCGH Index sehen, ändern sich die Positionen der CPUs nicht mit der Auflösung. Also ist die Spieleauswahl sinnvoll, um alle Belastungen abzudecken und die Auflösung mit 720P ist sinnvoll, um die CPU zu testen. Man könnte fast vermuten, dass die, die die Tests definiert haben, wissen, warum sie das genau so machen.

Wieso muss darüber noch 400 Beiträge diskutiert werden?
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Ich Zitier mich mal unüblicherweise selbst.

Kann sein das ich bei der ganzen Sache etwas übersehe. Ich hab selbst viel zu wenig Hintergrundwissen um das vollumfänglich beurteilen zu können.

Aber ich würde schon gerne von der Fraktion: "Höhere zusätzliche Auflösungen sind nicht nötig, es reicht wenn man den GPU Test zusätzlich zu Rate zieht um abschätzen zu können welche CPU / GPU Kombo für höhere Auflösungen die geeigneteste ist" wissen. Wie sie das anstellen wollen, wenn die dafür benötigten Informationen nicht vorhanden sind.

Wenn das nicht gebencht wurde geht das nicht.

Dann würde ich von der "realistisch benchen Fraktion" aber auch gerne wissen, wie zu ihrer CPU/GPU Kombo kommen, wenn es keinen GPU-Benchmark von dem Spiel gibt.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

. Wie sie das anstellen wollen, wenn die dafür benötigten Informationen nicht vorhanden sind.

Welche Informationen brauchst du denn?

Du hast ein game welches bei dir ständig unter 60fps droppt.
Schaust wo, wann und was limitiert.
Danach entscheidest du dich für den Kauf der Komponente die schwächelt.
Zum Beispiel die cpu, board und ram.
Danach schaust du wie es läuft im grakalimit.
Zu wenig fps? Regler runter drehen oder neue graka. Fertig ist die Laube.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Also hier geht es zu. Auf der einen Seite die Bastion der guten Gelehrsamkeit, auf der anderen der wütende Mob, welcher verbal bierflaschenwerfend das Seinige tut. Da hilft kein Argumentieren, denn jeder will Recht haben. Prinzipiell hätte ich gar nicht gedacht, daß das Thema dann solche Wellen schlägt.

Zu dem Thema müßtet doch eigentlich bei AMD oder Intel nachfragen, die wissen doch Bescheid. Kannst ja als unzufriedener User machen.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Wenn das nicht gebencht wurde geht das nicht.

Dann würde ich von der "realistisch benchen Fraktion" aber auch gerne wissen, wie zu ihrer CPU/GPU Kombo kommen, wenn es keinen GPU-Benchmark von dem Spiel gibt.

Genau wie du sagst kann man das eben nur, wenn die Komposition aus CPU/GPU genau mit diesem Spiel getestet wurde oder eben beide Komponenten einzeln mit genau jenem Spiel.

Wenn diese Daten aber nicht vorliegen so wie in einer Vielzahl der Fälle, dann muss eben abgeleitet werden anhand des vorhandenen z.B.:

Wenn eine 2080ti bei einem CPU Test unter 1080p bereits der limitierende Faktor darstellt wird es eine schwächere Grafikkarte erst recht tun.
Anhand der Leistungsfähigkeit der 2080ti kann ich nun in etwa die Leistungsfähigkeit der schwächeren Grafikkarten abschätzen bzw. grob einordnen. (Bzw. muss man Spiele der selben Engine und worst case szenarios aus den GPU Tests zu Rate ziehen, damit man die Leistungsfähigkeit der schwächeren Grafikkarte in Relation zur 2080ti besser einschätzen kann.)

Des weitern gehe davon aus das die besonders die CPU fordernde Szene die gewählt wurde, auch der GPU gut einheizt unter praxisrelevanten Auflösungen z.B. 1080, 2560 und 4k

Nun kann ich in etwa abschätzen, wie leistungsfähig meine Grafikkarte sein muss, um meinen Bedürfnissen gerecht zu werden.
Bei höheren Auflösungen gestaltet sich die Sache aber schwierig, da die Speichermenge je nach Spiel an Einfluss hinzu gewinnt und das Ergebnis dadurch extrem verfälscht werden kann.
Sicherlich eine sehr schwammige Vorgehensweise, so Pi mal Daumen, aber besser als nichts wenn nun mal keine genaueren Angaben vorhanden sind.
(Die CPU spielt ja anhand der vorliegenden Daten bei diesem Spiel keine Rolle)
 
Zuletzt bearbeitet:
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Genau wie du sagst kann man das eben nur, wenn die Komposition aus CPU/GPU genau mit diesem Spiel getestet wurde oder eben beide Komponenten einzeln mit genau jenem Spiel.

Wenn diese Daten aber nicht vorliegen so wie in einer Vielzahl der Fälle, dann muss eben abgeleitet werden anhand des vorhandenen z.B.:

Wenn eine 2080ti bei einem CPU Test unter 1080p bereits der limitierende Faktor darstellt wird es eine schwächere Grafikkarte erst recht tun.
Anhand der Leistungsfähigkeit der 2080ti kann ich nun in etwa die Leistungsfähigkeit der schwächeren Grafikkarten abschätzen bzw. grob einordnen. (Bzw. muss man Spiele der selben Engine und worst case szenarios aus den GPU Tests zu Rate ziehen, damit man die Leistungsfähigkeit der schwächeren Grafikkarte in Relation zur 2080ti besser einschätzen kann.)

Des weitern gehe davon aus das die besonders die CPU fordernde Szene die gewählt wurde, auch der GPU gut einheizt unter praxisrelevanten Auflösungen z.B. 1080, 2560 und 4k

Nun kann ich in etwa abschätzen, wie leistungsfähig meine Grafikkarte sein muss, um meinen Bedürfnissen gerecht zu werden.
Bei höheren Auflösungen gestaltet sich die Sache aber schwierig, da die Speichermenge je nach Spiel an Einfluss hinzu gewinnt und das Ergebnis dadurch extrem verfälscht werden kann.
Sicherlich eine sehr schwammige Vorgehensweise, so Pi mal Daumen, aber besser als nichts wenn nun mal keine genaueren Angaben vorhanden sind.
(Die CPU spielt ja anhand der vorliegenden Daten bei diesem Spiel keine Rolle)

Dann hast Du aus einem CPU-Benchmark einen GPU-Benchmark mit einer Grafikkarte konstruiert. Das ist doch kein Vorteil.

Hast Du 720p Benchmarks, kannst Du über die maximalen FPS einfach über die Auflösung die benötigte Mindest-GPU-Leistung abschätzen und die passende CPU nehmen. :D :P

720p ist und bleibt das geringste Übel.
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Ich wundere mich immer wieder worüber man diskutieren kann! Der Sachverhalt ist wie beschrieben und doch eigentlich völlig klar...
Sehr guter Kommentar Raff :daumen:, ich befürchte bloß das die Allgemeinheit trotzdem weiter...

In einer Zeit wo es noch keine Kommentarfunktion gab, dachte ich immer der Großteil versteht simple Zusammenhänge, dahingehend bin ich leider mittlerweile völlig desillusioniert.

Allein schon über die Anzahl der Kommentare...
 
AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar

Dann hast Du aus einem CPU-Benchmark einen GPU-Benchmark mit einer Grafikkarte konstruiert. Das ist doch kein Vorteil.

Hast Du 720p Benchmarks, kannst Du über die maximalen FPS einfach über die Auflösung die benötigte Mindest-GPU-Leistung abschätzen und die passende CPU nehmen. :D :P

720p ist und bleibt das geringste Übel.

Klar so lange ein GPU Test für das Spiel vorhanden ist, kann ich das natürlich anhand der 720p Ergebnisse abschätzen. (Ich bin ein 720p Befürworter kein Gegner)
Das Problem ist das für eine Vielzahl der im CPU Test gebenchten Spiele keine aktuellen GPU Benches vorhanden sind, weswegen ich mir das irgendwie aus den Fingern saugen muss.
 
Zurück