Wie denn?
Ich sehe dem Benchmark bei 720p eben nur an, welche CPU am leistungsfähigsten ist. Was ich aber nicht sehe, ist ob mich das bei meinen Einstellungen überhaupt tangieren muss. Das kriege ich auch nicht durch Extrapolation raus.
Und leider ist eine Limitierung der Framerate ja auch nicht einfach nur die Addition von CPU und GPU Frametime. Je nachdem kann die eine oder die andere Pipeline verhungern. Also auch die Betrachtung "an welchen Stellen im Spiel ist beim 720p Benchmark die Framerate unterhalb meiner üblichen Framerate, die ich bei meiner GPU in 4k bekomme" kann in die Irre leiten.
Hm, ich habe gerade nicht so die Zeit ausführlich darüber zu diskutieren. Ich schätze mal, dass wir hier verschiedene Standpunkte haben. Ich kann einfach nochmal meinen Post anhängen, den ich neulich schon einmal in einem anderen Thread getätigt habe:
Ansonsten nochmal "kurz" zu Deinem Post:
Man testet CPUs ja vor allem, um die Leistungsfähigkeit im Flaschenhals-Szenario herauszuarbeiten, so wie es sein sollte. Klar, Deine Einstellungen (z.B. angenommen, PCGH testet auf "ultra" mit RT und Du spielst ohne) werden dabei im Zweifelsfall nicht vollends berücksichtigt. Man hat aber zumindest Anhaltspunkte, wie sich Prozessoren im Verhältnis zueinander verhalten.
Während du korrekt anmerkst, dass die finale Ingame-Framerate durch CPU und GPU bestimmt wird (zumindest, wenn man nicht manuell cappt, was by the way zu empfehlen wäre), bleibt ein reiner CPU-Test dennoch wichtiger. Warum? Weil GPU-Limitierungen in höheren Auflösungen die Unterschiede zwischen CPUs stark verwässern. Wenn Deine CPU bereits in HD Ready hinterherhinkt, wirst Du in zukünftigen GPU-lastigen Szenarien (z. B. nach einem Upgrade) größere Probleme mit Frameeinbrüchen haben. Stelle Dir mal vor, dass wir jetzt schon GPUs zur Verfügung hätten, die es in 5 Jahren gibt - Dann wären das zwar immer noch UHD-Benchmarks, aber womöglich vollkommen im CPU-Limit. Dann ist es auch egal, ob da 720p oder 2160p dransteht. Klar, dann könnte man in "6K" oder "8K" testen, um die für die CPU "freigewordene" Last wieder zur GPU hin zu verschieben, aber warum? Weißt Du, worauf ich hinaus will mit meiner Denkweise?
Mir geht es hauptsächlich darum, dass man komplett davon wegkommt bei CPU-Tests in Auflösungen zu denken. Man soll sich auch nicht an 720p aufhängen. Im Grunde muss man nur wissen, dass im CPU-Limit getestet wurde (An der Stelle muss man dem Tester einfach vertrauen!) und in welchem Bildformat (16:9, 21:9, 24:10, 32:9, etc.) der Test stattgefunden hat, weil das direkt die Anzahl berechneter Objekte, Instanzen, Strahlen, etc. beeinflusst. Man testet GPUs in Auflösungen, da sie eine bestimmte Anzahl von Bildern rendern sollen. CPUs führen aber Berechnungen durch und diese Berechnungen sollen ungehindert ablaufen können, damit man das Potenzial der CPU in einem bestimmten Szenario zum Vorschein kommt. Wenn die Auflösung, in der getestet wird, auch nur so hoch ist, sodass sich das Limit partiell von der CPU zur GPU hin verschiebt, dann ist das kein CPU-Test mehr, sondern ein Test im partiellen GPU-Limit. Und warum man letzteres will, verstehe ich eben nicht. ^^
Mist, doch wieder länger geworden. xD