AW: "CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar
Ich verstehe, was du meinst - war ja selbst noch recht lange mit meinem E3-1240v2 unterwegs. Ich weiß aber nicht, ob dieser Effekt nicht auch ein wenig der langen Dürreperiode geschuldet war, in dem sich mangels Wettbewerb im CPU-Sektor wenig getan hat.
Man müsste eventuell auch genauer aufdröseln, welchen Mehrwert die Investition in zusätzliche Kerne/Threads heutzutage bringt:
Einen Ryzen 5 3600 gibt es für rund 200 Euro und entspricht damit P/L-technisch einen damaligem Core-i5. Passt.
Der Aufpreis zum Core-i7 betrug rund 100 Euro, heute sind es mindestens 150 Euro, die man für 8C/16T hinlegen muss. Allerdings bringt das - anders als damals zwischen i5 und i7 - in einigen heutigen Titeln bereits heute einen, wenn auch geringen, Mehrwert.
Wer noch mehr Threads will, muss zum 3900X greifen, was dann aber bereits eine erhebliche Mehrausgabe für wenig aktuelle Mehrleistung bedeutet.
Aber wie gesagt, die Upgrade-Zyklen sind inzwischen verkürzt. Womöglich lohnt es sich heute weniger, prophylaktisch auf 12C/24T oder auch nur 8C/16T zu gehen, weil man das neu oder im Abverkauf günstiger bekommen kann, wenn man es tatsächlich braucht und aktuell mehr finanziellen Spielraum für eine GPU der nächsthöhere Modellreihe hat, die sofort etwas bringt und ihrerseits ebenfalls mehr Spielraum nach hinten verschafft.
Eine größere CPU zu Lasten der GPU zu kaufen ist meist eine schlechte Wahl. Das dokumentieren wir auch immer wieder in Artikeln zu ganzen Rechnern.
Lässt man die oft zu einem anderen Zeitpunkt respektive viel häufiger gekaufte Grafikkarte außen vor, gilt beim gezielten "klein"-Kauf darüber hinaus Vorsicht: Oft ist nur das Preis-Leistungsverhältnis einer kleinen CPU spürbar besser, nicht aber das einer Kombination aus CPU und Mainboard. Sämtliche meiner Umfragen sehen seit Jahren ein Mehrheitsinteresse bei 150 bis 200 Euro teuren Platinen, Beobachtungen in der Community bestätigen auch deren Kauf. Es steht also im Falle von Ryzen 3000 nicht ein 530-Euro-Zwölfkerner gegen einen 210-Euro-6-Kerner, sondern ein 12-Kern-Bundle für 700 Euro gegen ein 6-Kern-Bundle für 380 Euro und im Moment sind wir auch wieder an einem Punkt angelangt, bei dem ein erneutes Upgrade in 2-3 Jahren mit dem Kauf neuen DDR5-Speichers einhergeht, sodass eine leistungsfähige, 5-6 Jahre haltende DDR4-CPU weitere Kosten erspart.
Ich persönliche finde den bewussten Kauf von Minimal-CPUs allenfalls in Kombination mit einer späteren Aufrüstung sinnvoll. Man kauft jetzt um die 100 Euro und wartet damit entspannt ab, bis das eigentlich gewünschte Topmodell günstig gebraucht zu haben ist. Allerdings rechnet sich auch dieses Muster nur, wenn für die gewünschte Plattform wesentlich schnellere, wesentlich teurere CPUs verfügbar sind. Mit dem 3950X wird das für den Sockel AM4 nach langer Zeit mal wieder der Fall sein (jetzt Ryzen 5 2600 kaufen, in 3-4 Jahren nach billigen 3950X suchen), aber die ganzen Sockel-115X-Ära lang galt meist "eine CPU = ein Mainboard", weil die Leistungsunterschiede innerhalb eines Sockels zu klein waren und die Spitzenmodelle auf 1/3 des Neupreises hätten fallen müssen, ehe man den zusätzlichen Kauf einer Übergangs-CPU eingespart hätte.
Die "Entscheider" in den Dingen hier sind am Ende PCGH_Raff (leitender Red) und natürlich PCGH_Thilo (Chefred).
PCGH_Dave wäre als CPU-Tester auch noch zu nennen. Aber selbst ich beteilige mich hier nur als CPU-interessierte Person und weil ich als Mainboard-Fachredakteur ein Auge darauf haben muss, was die Leser an Plattformen interessiert. Über CPU-Tests treffe auch ich keine Entscheidungen.
@ Incredible Alk - danke
@PCGH-Torsten - ich finde es schade das zu den Sachverhalten die zu dieser regen Diskussion geführt keine Stellung bezogen wird. Ich würde mir schon eine Stellungnahme (zuletzt #229) wünschen.
Ich finde in Post #229 nur die Anregung, im Fließtext von CPU-Tests Kaufempfehlungen unter Berücksichtigung der GPU-Leistung auszusprechen. Das würde ich befürworten und wäre auch in meinen Augen eine Aufwertung gegenüber des oft sehr ergebnisorientierten Stils von Daniel. Aber wie Dave seine Artikel aufbaut, wird er selbst entscheiden. Da kann ich nicht Stellung zu nehmen.
Prinzipiell stimmt das schon - aber kein CPU-Test der Welt kann dir sagen was auf lange Sicht besser ist... die Glaskugeln funktionieren leider nicht.
Natürlich haben mehr Kerne tendentiell eher Vorteile in der Zukunft aber auch hier ist die Kurve am abflachen sozusagen - oder anders gesagt wo 6 gegen 4 Kerne heue klar im Vorteil sind gegenüber damals und wahrscheinlich das bei 8 gegen 6 sich auch noch etabliert wirds bei 12 gegen 8 Kerne schon eng. Da wie Herr Amdahl das in seinem Gesetz gezeigt hat der Multikern-Nutzen mit zunehmender kernzahl bei nicht perfekt parallelem Code (was Spiele nicht sind) immer weniger zunimmt wird der Effekt "mehr Kerne sind besser für die Zukunft" zumindest bei Spielen immer kleiner werden. Gut möglich, dass ein 3900X in Spielen nie schneller als ein 9900K werden wird bevor nicht beide CPUs ohnehin zu langsam geworden sind.
Oder anders gesagt ich sehe jetzt für nen 24- oder gar 32-Thread Prozessor wie 3900X und 3950X auch mittelfristig keine Ambitionen, einen 16-Thread 9900K überholen zu können, auch wenn MT-Nutzung in Spielen immer besser wird. Bis das flächendeckend passiert ist sind wir wohl einige Generationen weiter und 12 oder 16 kerne Standard für den Normalo-Spiele-PC / Konsole.
Neben Amdahl muss man auch die zeitliche Entwicklung beachten. Wir haben die letzten 26 Monate eine regelrechte Kernexplosion im High-End-Desktop gesehen. Spiele-Engines werden aber mit mehreren Jahren Vorlauf entwickelt und die Designer orientieren sich an der zu erwartenden Minimal-Ausstattung im späteren Veröffentlichungszeitraum. Wegen der großen Verbreitung entsprechender Systeme und dem langsameren Zuwachs im großvolumigen Billig- und Notebookmarkt werden also noch einige Zeit Quadcores im Fokus stehen. Natürlich wird man die Engines so bauen, dass sie auch bis acht Kerne skalieren, aber es gibt Grenzen bezüglich der abzudeckenden Spannweite und 12 oder gar 16 Kerner als Mainstream-CPU sind eine Neuerung von 2019, die selbst 2017 noch undenkbar erschien.
So hab mich jetzt hier extra angemeldet um hier drüber was zu schreiben, weil das was PCGH hier schreibt nur zum Teil stimmt und imo testen in 1280x720 Schwachsinn ist.
Das Prinzip macht auf den ersten Blich natürlich absolut Sinn: GPU limitiert also schraub ich die Auflösung herunter, so dass mein CPU nun limitiert. Und ja, das funktioniert.
Wenn wir uns anschauen was in dieser CPU-Zeit normalerweise geschieht dann ist das größtenteils Input-Verarbeitung, Player-Movement, LOD-System und Draw-Calls. Nun das große aber:
Es werden völlig alle CPU-Aufgaben außer Acht-gelassen die nicht an die FPS gebunden sind!!!
Nicht FPS gebunden heißt Aufgaben die nach Bedarf geschehen, oder die in festen Zeitintervallen aktualisiert werden. Beispiele hier wären Wegfindung, AI, Physik, Netzwerk. Meistens sind diese Aufgaben gut parallelisiert(Laufen aus vielen Kernen/Threads).
Warum das ein Problem ist? Weil ihr den Anteil von FPS-bound zu FPS-unbound CPU-Aufgaben verschiebt.
...
Du hast zwar grundsätzlich recht, dass es auch fix ablaufende CPU-Prozesse gibt, die nicht wie gewünscht in CPU-Testszenarien skalieren. Unserer Beobachtung nach ist dieser Anteil aber in den meisten Spielen klein. Wir haben seit langem keine großen Fortschritte mehr in diesen Bereichen gesehen. Als KI-Referenz für Shooter würde ich weiterhin Far Cry nennen, Half Life 2 gilt als Musterbeispiel für Gameplay-Physik und die Wegfindung von einigen Dutzend NPCs in Assassins Creed oder Witcher 3 ist nicht anspruchsvoller als in Age of Empires 3. Große Fortschritte gab es nur bei der Effekt-Physik, bei Animationen und bei detaillierten Kollisionsberechnungen. Diese dienen aber alle der realistischen Darstellung einer Szene und müssen deswegen pro Frame berechnet werden. Selbst Strategiespiele wie Total War können es sich gar nicht leisten, große CPU-Ressourcen in nicht skalierende, immer im Hintergrund zu berechnende Inhalte zu investieren, weil sie sonst auf einfachen CPUs nicht spielbar wären. (Siehe oben.)
Also: Ja, die Messung bei niedrigerer Auflösung/höheren Fps verändert die Belastung, aber nur geringfügig. Man sollte halt nicht Counter Strike jenseits von 500 Fps als Benchmark heranziehen. Das machen wir aber ohnehin nicht, weil für Spiele mit derart geringen Anforderungen insgesamt niemand einen neuen Prozessor kauft. Stattdessen suchen wir gezielt nach Titeln, die schon heute eine gewisse Herausforderung sind und stellen mit 720p nur sicher, dass der CPU-Teil dieser Herausforderung unverfälscht wiedergegeben wird. Selbst in unserem (ver)alt(et)en Parcours blieb ein Ryzen 5 2600 in allen bis auf einem Titel unterhalb der möglicherweise gewünschten 144 Fps und sogar der i9-9900K lag in zwei Messungen im 30er Bereich. Wenn es nach mir geht, wird das auch im neuen Parcours wieder so sein, auch wenn Dave und Raff am Freitag intensiv nach Wolfenstein-"ich lauf auf 286ern"-Youngblood-Testszenen gesucht haben.
Das ist ein zweischneidiges Schwert. Persönlich vertraue ich auch mehr der "PCGH" oder einem anderen Printmagazin, als einer reinen Onlineseite oder einem Youtuber. Macht auch so Sinn. Allerdings hängen da schon auch viele Connections mitdrin. Die "PCGH" hat sich über Jahre zurecht einen Namen gemacht und hat dann wohl auch Verbindungen zu den Herstellern oder den Custompartnern und dann überlegst Dir halt auch bei einem renomierten Magazin, oder als Chef dessen, ob Du da X oder Y abwatscht und das zurecht. Sprich, die Kritik kommt dann halt etwas sanfter an. Es ist damit eine "Win Win Situation" sozusagen. Einerseits willst und kannst Deine Glaubwürdigkeit nicht voll aufs Spiel setzen, andererseits magst aber dann auch nicht die Connections *verkaggen*.
Ist eigentlich oke. Ein Problem wird es dann allerdings doch. So wurde z.B. die Preistreiberei, von AMD UND NVIDIA, welche hier als Kartell agieren, nicht angegangen. Normalerweise müßten sich da alle Printmagazine im Bereich Hardware und Gaming mit den Onlineportalen indemselben Bereich kurzschließen und das Gesindel von Rot und Grün mal über Monate ordentlich flamen, da muß es *Shiet" regnen, daß sich manch einer anstatt einer Lederjacke einen Tauchanzug anzieht, ansonsten wird das, wie wir sehen, nicht besser.
Es gehört zu einem seriösen, objektivem Medium, dass es keine Shitstorms veranstaltet, sondern neutral über Fakten berichtet. Das haben wir gemacht und das werden wir auch in Zukunft machen, wobei zum Preis-Leistungsverhältnis insbesondere von Nvidia-Karten mit großer Regelmäßigkeit entsprechend negative Fakten berichtet wurden. Unabhängig hiervon gibt es Kolumnen und Kommentare, in denen die Redakteure mehr als einmal über die aktuelle Preisentwicklung ausgekotzt haben, sowas muss und wird aber von den Tests getrennt bleiben.
An alle, die meinen Benchmarks die sich rein auf die CPU konzentrieren und somit praxisfern wären, hätten keinen Sinn:
Ihr überseht etwas. Etwas ganz entscheidendes.
Die Last der CPU (und auch die der GPU) ist nicht gleichförmig. Je nach Szene gibt es Peaks, teilweise einzelne Frames, teilweise auch mehrere Frames hintereinander.
CPU und GPU rechnen zudem zu einem großen Teil parallel (nicht komplett). D.h. die Frametimes von GPU und CPU addieren sich nicht einfach.
Wenn die CPU viel schneller als die GPU ist (vulgo: Das Spiel ist GPU limitiert) spielt die Zeit, die die CPU braucht, um ein Frame bereitzustellen, praktisch keine Rolle - meistens. Manchmal aber eben doch. Auf einmal kommt man halt in eine Szene mit vielen NPCs, viel Geometrie oder viel durch Physik berechnete Elemente. Und plötzlich wird die Zeit die die CPU braucht, ein Frame der GPU bereitzustellen, eben doch relevant und verzögert dadurch den Start der Berechnung der GPU um ein paar Millisekunden.
PCGH sucht für jeden Titel gezielt nach derartigen, besonders CPU-fordernden Szenen. Deswegen benchen wir auch viele Spiele für CPU-Tests an einer anderen Stelle als für GPU-Messungen.