Special CPU-Benchmarks in UHD: Welche Rolle spielt der Prozessor in höheren Auflösungen?

Und die pcgh gesponserten PC‘s die hier massiv auf der Seite beworben werden, werden einfach mal so unterschlagen, weil?
...weil die Redakteure davon nichts haben und ich ihnen auch abnehme, dass die Anzeigenabteilung da keinen Einfluss ausübt. Das hätte man längst gemerkt.

Die Redaktion auf das Niveau von Influencern im Netz zu reduzieren ist ein echt starkes Stück und ist eigentlich nichts anderes als pure Diffamierung und üble Nachrede.

Was diesen Test angeht, so war das Ziel des Tests zu zeigen, dass es Situationen gibt, in denen die CPU eine Rolle spielt. Und davon gibt es gar nicht wenige.

Ich würde sagen, mit meiner unbedeutenden HW komme ich bei den meisten Spielen an der einen oder anderen Stelle in ein CPU Limit. Ich erinnere da an Spider-Man, das damals noch alle überraschte. Aber eigentlich ist das in fast jedem Spiel an der einen oder anderen Stelle so. Gerade RT, aber auch komplexe Geometrie bringen moderne CPUs ins Schwitzen. Das hat nichts mit Cherry-Picking oder so zu tun, sondern es ist einfach eine Tatsache.
 
Ich kann mich da noch sehr gut an einen Bekannten von mir erinnern, der hatte einen 5820K und hat von einer 2070 auf eine 4080 aufgerüstet und hat dann in 4K die gleichen FPS gehabt wie vorher in 1440p.

Gespielt wurde WoW. Nachdem ich ihm dann gesagt habe, dass es Unsinn war sich eine neue GPU zu besorgen und er stattdessen lieber eine neue CPU hätte kaufen sollen fragte er mich wieso.

Als ich ihm dann erklärt habe, das selbst seine 2070 nicht ausgelastet war in 4k wollte er mir nicht glauben, erst als ich ihm dann die neue CPU eingebaut habe glaubte er mir.

Es muss nur richtig erklärt und dann vielleicht sogar noch vorgeführt werden, am heimischen PC, mit den identischen Settings, dass "Leugner / ungläubige" es glauben.

Und zum Rest sage ich nun nichts weiter, das überlasse ich der Moderation, die hier bei Gelegenheit mal durchfegen könnte mMn. ;)
 
Ein Mittelmaß scheint es nicht zu geben.

Eventuell möchte PCGH auch einfach nicht für das Mittelmaß testen? Gibt doch bestimmt andere Seiten, die es zu deiner Zufriedenheit machen.

Einfach mal richtig machen, dann gibts auch keine Vorwürfe mehr. Es ist tatsächlich so easy…
Ihr habt keine Zeit 20+ Spiele zu testen um verwertbare Ergebnisse zu liefern?

So rein aus Interesse, welches renommierte Hardware-Magazin hat 20+ Games im Test-Parkour?
 
Aber eigentlich ist das in fast jedem Spiel an der einen oder anderen Stelle so. Gerade RT, aber auch komplexe Geometrie bringen moderne CPUs ins Schwitzen. Das hat nichts mit Cherry-Picking oder so zu tun, sondern es ist einfach eine Tatsache.
Doch hat es. In der Realität bringt kaum ein Spiel eine CPU wirklich ins schwitzen ab der 4K Auflösung, Ausnahmen bestätigen die Regel.

Und diese Ausnahmen wurden hier zum Test genommen, aka/ergo cherry picking.
Soll ich dir nun 5 komplett gegenteilige Spiele zeigen wo eine CPU völlig irrelevant ist in 4K? Ich könnte das sehr sehr easy auch auf 50 bis 90 erhöhen…
 
Das ist typisches schwarz weiß denken. Ein Mittelmaß scheint es nicht zu geben. Tests werden extra weltfremd gestaltet und man weiß schon am Anfang, was am Ende rauskommen soll und gestaltet daraufhin auch den Test.

Der Test hier in uhd hat gezeigt, dass man ein festes Ergebnis vorweg genommen hat. Nun mal Ehrlichkeit an den Tag, wie lange hat die Auswahl der Spiele gedauert für den Test? Und wieso wurde das Ergebnis propagiert, man muss eine High-End CPU haben, sonst läuft jedes Spiel (im Test) grotten langsam.

Mittelmaß bedeutet, dass man genau so viele Spiele aufzeigt, bei denen die CPU egal ist. Im Schnitt bei einer Auswahl zufälliger Spiele, ist die CPU Auswahl auch egal. Wenn man dann noch die Preis/Leistung berücksichtigen würde, hätte gar keine High-End CPU Empfehlung ausgesprochen werden dürfen.
Ich weiß ehrlich nicht was du hast. Dave hat hier relativ harmlose Spiele genommen. Da können einige Spiele deutlich schlimmer aussehen. Da würde die ein oder andere CPU hier keine 20fps mehr schaffen, während andere es immerhin noch mit ach und krach auf knapp 30 kommen. Dann hätte man auch wirklich ein Argument eine Highend CPU zu "verkaufen". Aber darum ging es in dem Test ja explizit nicht. Alle hier gezeigten Titel mit Ausnahme von Anno hatten ordentliche fps mit allen CPUs.
Der Test zeigt nur auf, das man mit hängen und würgen, doch noch eine Berechtigung gefunden hat, überteuerte Hardware zu kaufen. Der Test spiegelt aber keinen real existierenden Fall ab.

Das Leute die sich eine 4090 kaufen für 2000 Euro, auch gleich eine 600 Euro CPU dazu leisten können, ist ja hier nicht die Frage. Die Frage ist nur, welchen Sinn macht es? Meiner Meinung nach, keinen.

Dann sollte der uhd Test eher eine andere Überschrift bekommen: "Sie spielen die folgenden 5 Spiele in UHD? Hier unsere CPU Empfehlung für Sie!" und nicht "CPU-Benchmarks in UHD: Welche Rolle spielt der Prozessor in höheren Auflösungen?".

Der Test wird alls allgemein gültig verkauft, bildet dieses aber nicht ab. Die richtige Antwort auf die Überschriftenfrage lautet: Keine!
Nur weil du keinen Fälle ausdenken kannst. Habe in meiner Bibliothek dutzende Spiele die öfter im CPU Limit laufen. Ist zwar kein 4k und "nur" UWQHD aber hey ich bilde mir sicher die Spiele auch nur ein.
Dave hat eigentlich recht vortrefflich gezeigt, dass die Pauschalaussage vom GPU Limit in UHD eben auch in moderneren Titeln bei hoher Grafiklast nicht voll zutreffend ist.
Und die pcgh gesponserten PC‘s die hier massiv auf der Seite beworben werden, werden einfach mal so unterschlagen, weil?

Und beim nächsten Test einfach mal 20-25 Spiele testen, dann hat auch mal wirklich ein verwertbares Ergebnis zum vorzeigen und nicht diese 5 mageren Spiele die zufälligerweise CPU Power ohne Ende brauchen. (Stichwort Cherry Picking)
Kein Problem ich stell dir einen Parcour aus 20 Spielen zusammen die das Ergebnis hier in den Schatten stellen. Danach heißt es: Selbst in UHD limitiert ausschließlich die CPU! :-P
Einfach mal richtig machen, dann gibts auch keine Vorwürfe mehr. Es ist tatsächlich so easy…
Ihr habt keine Zeit 20+ Spiele zu testen um verwertbare Ergebnisse zu liefern?
Dann spart euch diesen 5 Games Mini Tests der dann (berechtigterweise!) euch zum Nachteil ausgelegt wird, vor allem bei diesen CPU 🍒.

Nicht immer als Opfer darstellen, soo dumm ist eure Community nun mal nicht. Wir sind ein kritisches Völkchen was sich mit fünf Games nunmal nicht soo easy für dumm verkaufen lässt, Ausnahmen bestätigen die Regel.
Dir ist schon klar das alle Tests von HW Cherrypicking sind? Jede CPU/GPU wird meistens in beliebten Titel getestet, die eines der Limits bedienen kann. Das 90% der Spiele da draußen weder im CPU noch GPU Limit landen? Geschenkt! Ich denke man muss hier etwas lockerer an die Sache gehen.
Daves Intro sagt eigentlich recht gut worum es bei diesem Test geht:
Um verschiedene Bereiche zu analysieren, haben wir uns viele Gedanken um die Benchmarks gemacht. Natürlich könnten wir jetzt hergehen und einfach Benchmarks in Factorio oder Stellaris durchführen und sagen: Die Grafikkarte spielt selbst in UHD keine Rolle. Doch so einfach wollten wir es uns nicht machen. Wir haben die Benchmarks daher breit gestreut und sowohl Titel im Fokus, die im Vergleich CPU-lastig, als auch GPU-lastig ausfallen.
 
Doch hat es. In der Realität bringt kaum ein Spiel eine CPU wirklich ins schwitzen ab der 4K Auflösung, Ausnahmen bestätigen die Regel.
Gut, Du weißt es besser und offenbar ist auch mein Rechner zu doof und muss sich von Dir erklären lassen, dass er gefälligst nicht so oft CPU limitiert sein soll.

P.S.: 30-50 fps sind mir i.d.R. zu wenig, weswegen ich meist DLSS Q oder B hinzuschalte. Nur als Hint.
 
Geschenkt! Ich denke man muss hier etwas lockerer an die Sache gehen.
Daves Intro sagt eigentlich recht gut worum es bei diesem Test geht:
Denkst du wirklich er hat das gelesen ?
Ich sage mal nein, die meisten lesen ja nicht mal den abstatz warum wird in 720 p getestet.Oder warum wurden bei Stalker 2 keine Radeons getestet, tja lesen kostet halt Zeit. Balken anschauen halt nicht.
 
Doch hat es. In der Realität bringt kaum ein Spiel eine CPU wirklich ins schwitzen ab der 4K Auflösung, Ausnahmen bestätigen die Regel.

Und diese Ausnahmen wurden hier zum Test genommen, aka cherry picking.
Soll ich dir nun 5 komplett gegenteilige Spiele zeigen wo eine CPU völlig irrelevant ist in 4K? Ich könnte das sehr sehr easy auch auf 50 bis 90 erhöhen…

Weil es PCGH mit diesem Test genau um solche Ausnahmen geht, duh. :D

Erst wird diesem Test angedichtet "moar corez = P1" und nun das. Wahnsinn! :D
 
P.S.: 30-50 fps sind mir i.d.R. zu wenig, weswegen ich meist DLSS Q oder B hinzuschalte. Nur als Hint.
Wolfgang drüben bei CB sagt schon seit 2023 das die nativen Zeiten vorbei sind und man um DLSS und Co nicht mehr herumkommt.

Auch mit der neusten CPU wirst du nicht plötzlich in Games auf DLSS verzichten können um 60Fps+ in 4K/RT Games zu knacken… so naiv bist du hoffentlich nicht.
 
Wolfgang drüben bei CB sagt schon seit 2023 das die nativen Zeiten vorbei sind und man um DLSS und Co nicht mehr herumkommt.

Auch mit der neusten CPU wirst du nicht plötzlich in Games auf DLSS verzichten können um 60Fps+ in 4K/RT Games zu knacken… so naiv bist du hoffentlich nicht.
Ehm?

Hast Du im ANSATZ verstanden, worum es geht?

Auch eine 4090 kommt mit vollen RT Einstellungen in 4k TAA oder DLAA oft an die Grenzen und bringt manchmal kaum mehr als 30-50 fps. Dann ist man auch meist tatsächlich GPU limitiert.

Deswegen schaltet man DLSS zu. Und siehe da, man hat dann zwar oft 60 oder 100+ fps, ist aber plötzlich unverhofft im CPU Limit. Denn beim CPU Limit hilft Upscaling überhaupt nicht.

Hier kann dann aber wiederum FG helfen. Wobei ich nur mittelbegeistert bin von FG. Bei Spider-Man wirkt es z.B. Wunder, bei anderen Spielen wie Hogwarts sind die Ergebnisse grausig.

Aber Fakt ist: Ein CPU Limit ist eher die Regel als die Ausnahme. Jetzt gerade wieder bei Dragon Age Veilguard.
 
Das ist typisches schwarz weiß denken. Ein Mittelmaß scheint es nicht zu geben. Tests werden extra weltfremd gestaltet und man weiß schon am Anfang, was am Ende rauskommen soll und gestaltet daraufhin auch den Test.

Der Test hier in uhd hat gezeigt, dass man ein festes Ergebnis vorweg genommen hat. Nun mal Ehrlichkeit an den Tag, wie lange hat die Auswahl der Spiele gedauert für den Test? Und wieso wurde das Ergebnis propagiert, man muss eine High-End CPU haben, sonst läuft jedes Spiel (im Test) grotten langsam.
Dass auch mit DLSS getestet wurde (in WQHD), hast du aber gesehen? Wo lautet das Fazit, dass man für jedes Spiel einen Ryzen 7 9800X3D benötigt? Das ist doch Unsinn. Ich weiß nicht, wie oft ich sogar CPUs im Bereich um 100 Euro empfohlen habe, weil die oft ausreichend Leistung liefern.
Mittelmaß bedeutet, dass man genau so viele Spiele aufzeigt, bei denen die CPU egal ist. Im Schnitt bei einer Auswahl zufälliger Spiele, ist die CPU Auswahl auch egal. Wenn man dann noch die Preis/Leistung berücksichtigen würde, hätte gar keine High-End CPU Empfehlung ausgesprochen werden dürfen.
Die CPU ist aber nicht "egal". Wenn das unsere regelmäßigen Tests nicht aufzeigen, dann weiß ich nicht, was sonst. Ich meine, dieser Artikel hier ist ja nicht der Erste, der sich mit einer höheren Auflösung als 720p beschäftigt. Und wir kommen immer wieder zum gleichen Fazit: Wenn es darauf ankommt, dann kommt es darauf an. Ich kann niemals alle eine Million Fälle testen, die es da draußen gibt. Wie soll das gehen?
Der Test zeigt nur auf, das man mit hängen und würgen, doch noch eine Berechtigung gefunden hat, überteuerte Hardware zu kaufen. Der Test spiegelt aber keinen real existierenden Fall ab.
Würdest du ein ganz normales Spiel in Akt 3 in Baldurs Gate 3 als irgendwie besonders, speziell oder außergewöhnlich betrachten? Oder einen Flug über New York im Flight Sim 24? Auch Starfield zeigt einfach nur den Besuch in einer der Städte im Spiel. Da ist überhaupt nichts Außergewöhnlich dran. Die Spiele im Test, die klar im GPU-Limit landen, übersiehst du auch irgendwie gekonnt. Ich habe beide Welten aufgezeigt, aber deine Argumentation bezieht sich nur auf eine Seite. Wo ist schwarz, wo weiß und wo das Mittelmaß bei dir?

Ich habe aber den Eindruck, dass ich sogar 30 Spiele testen könnte, und es würde sich nichts ändern.
Und beim nächsten Test einfach mal 20-25 Spiele testen, dann hat auch mal wirklich ein verwertbares Ergebnis zum vorzeigen und nicht diese 5 mageren Spiele die zufälligerweise CPU Power ohne Ende brauchen. (Stichwort Cherry Picking)
Dragon Age und insbesondere FF16 wird auch von dir übersehen, die ziemlich GPU-lastig ausfallen. Und hast du überhaupt eine Ahnung, wie lange solche Tests dauern? Ich kann mir nicht mal eben 25 Spiele aus dem Ärmel schütteln und jeder andere, der das behauptet, hat keine Ahnung von aufwendig, professionell durchgeführten CPU-Tests.
Einfach mal richtig machen, dann gibts auch keine Vorwürfe mehr. Es ist tatsächlich so easy…
Ha, den Spruch sollte ich mir auf den T-Shirt drucken lassen. Denn der Witz ist, dass man es niemals allen recht machen kann. Wenn man das einmal erkannt hat, lebt es sich deutlich entspannter. Dir gefällt der Test nicht? Gut, damit kann ich leben. Wirst du dir die kommende PCGH-Print kaufen, die einen erweiterten Test des Tests enthält? Daran sitze ich nämlich aktuell. Die zweite GPU, mit der ich jetzt teste, ist deutlich langsamer als eine 4090, und auch deutlich bezahlbarer. Und die Ergebnisse sind immer noch überraschend, so viel kann ich bereits sagen.

Es muss nur richtig erklärt und dann vielleicht sogar noch vorgeführt werden, am heimischen PC, mit den identischen Settings, dass "Leugner / ungläubige" es glauben.
Ein wichtiger Punkt. Ich denke nämlich auch, dass die meisten nicht in der Lage sind, ein GPU- oder CPU-Limit korrekt zu erkennen. Das habe ich mir selbst in jahrelanger Arbeit mit zahllosen Benchmarks mit verschiedenster Hardware erst deutlich machen können. Ich bin daher niemandem böse, der das nicht direkt versteht.

Wie gesagt, es gibt bereits etliche Artikel zu diesem Thema, hier eine Auswahl:

Wir machen das jedes Jahr, teilweise sogar mehrfach, weil das Thema nun einmal komplex ist. Aber selbst mit Raffs Überstunden-Power und meinem CPU-Know-How können wir niemals alle Fälle abholen, die es da draußen gibt. Es wird auch weiterhin Artikel und Benchmarks zu diesem Thema geben, denn hier besteht noch viel Aufklärungsbedarf :daumen:
 
Das ist genau das, was ich bereits schon seit Jahren hier im Forum sage und auch mit Hilfe von erstellten Vergleichstabellen dargestellt habe. Selbst in 4K unter max Details erkennt man hier und da wesentliche Unterschiede in der Performance. Meist wurde man allerdings dbzgl. für seine Aussage belächelt. ;)
Man muss halt differenzieren bei den Aussagen. Ich denke keiner denkt wirklich das die CPU nahezu irrelevant ist in 4k.
Aber alles ab einem 14600kf ( als Beispiel) für Games ist eher haben wollen, als sinnvoller Nutzen.

Und wenn man sich die CPUs anschaut die vergleichbar sind, also 14600 zu 14900, oder 7600X3d zu 7800X3d, dann wird überdeutlich das es keinen rationalen Grund gibt davon zu schreiben, das die Mehrkerne sich absetzen. (Taktvorteile sind stests mit zuberücksichtigen)
"Im Januar werden neue Grafikkarten von Nvidia vorgestellt. Das bedeutet, dass die Performance-Klasse der RTX 4090 bald in bezahlbare Bereiche rückt. "

Naja, ob 1200-1300 Euro, die man für eine 5080 wohl mindestens wird auf den Tisch legen müssen (und von der noch nicht mal klar ist, ob sie 4090-Leistung erreichen wird) nun so wahnsinnig viel bezahlbarer sind, als eine 4090, die's ja auch schon deutlich unter 2000 Euro gab, darüber kann man wohl geteilter Ansicht sein. Für das, was man außerhalb der Highender-Blase als "bezahlbar" bezeichnen würde, wird man wohl mindestens noch zwei weitere Jahre warten müssen.
Sehe ich auch so, gleichwohl ich schon von zwei Brüdern und Schülern beim Tischtennis mal zu hören bekomme habe, alles unter einer 4080 wäre ja nicht nutzbar. ;) Das sind aber Ausnahmen, ein Bürokollege, in Techniker Vollanstellung nutzt auch nur eine 4060, weil Leben teuer genug ist.

Ich persönlich denke das die 5080 wohl mit rund 1400€ zu Buche schlagen wird und dabei maximal in RT Spielen knapp an die 4090 heran reichen wird. In Raster sehe ich nicht. Wenn man dann sieht das die 4090 auch länger zu 1650€ zu bekommen war, bei den nicht überteuerten Customs.

Tolle Entwicklung, aber das ist ja bereits seit 2011-2013 so, das es kaum mehr Leistung pro Euro gibt.

Mir persönlich dürfte eine 5070ti mit 16GB, die knapp 7-10% vor einer 4080(s) landen würde, mit den aktuell spekulierten Daten reichen. Die wird wohl schon 950-1000€ kosten.
 
Zuletzt bearbeitet:
Tolle Entwicklung, aber das ist ja bereits seit 2011-2013 so, das es kaum mehr Leistung pro Euro gibt.
2012 kam die GTX 680 raus. Für einen Preis von €420.

Eine 4080 hat einen Listenpreis von 1.469.

Lt. diesem Artikel hat eine 3080 (nicht 4080, da hab ich keinen Vergleich gefunden) rund 44000 Punkte im Firestrike. Eine 4080 hat 49000 lt. 3DMark.

Eine GTX 680 hat 7400 Punkte.

Das ist ein Faktor von rund 6,6 der Performance.

Der Preisfaktor - ohne Berücksichtigung der Inflation - zur 4080 ist 3,5. Und da reden wir noch nicht mal von RT und all dem anderen neumodischen Kram.

Und wenn man die Inflation einbezieht, ist man nur noch bei einem Faktor von 2,4.

Das heißt verglichen mit 2012 bekommt man bei NVidia die 6,6fache Renderleistung für den 2,4fachen Preis.
 
2012 kam die GTX 680 raus. Für einen Preis von €420.

Eine 4080 hat einen Listenpreis von 1.469.
Dir ist klar das die GTX680 nur eine Quasi XX60 karte war, gemessen am Chip?

Lt. diesem Artikel hat eine 3080 (nicht 4080, da hab ich keinen Vergleich gefunden) rund 44000 Punkte im Firestrike. Eine 4080 hat 49000 lt. 3DMark.
Sehe ich als nicht so relevant. Zählt nur auf dem Platz ;) IN Spielen.
Eine GTX 680 hat 7400 Punkte.

Das ist ein Faktor von rund 6,6 der Performance.

Der Preisfaktor - ohne Berücksichtigung der Inflation - zur 4080 ist 3,5. Und da reden wir noch nicht mal von RT und all dem anderen neumodischen Kram.

Und wenn man die Inflation einbezieht, ist man nur noch bei einem Faktor von 2,4.

Das heißt verglichen mit 2012 bekommt man bei NVidia die 6,6fache Renderleistung für den 2,4fachen Preis.
In 12 Jahren, fast 13.
 
Dir ist klar das die GTX680 nur eine Quasi XX60 karte war, gemessen am Chip?
Du weißt sicher, dass das ein Strohmann-Argument ist. Wie die Chips ausgelegt werden ist nicht Gott-gegeben sondern wird vom Hersteller gezielt ausgesucht, um eine bestimmte Performance bei angepeilten Kosten (Waver, Ausbeute, Board...) zu erreichen. Wie der Chip am Ende heißt und ob oder wie er beschnitten ist, ist dabei völlig egal.

In beiden Fällen gab es noch ein Halo Modell. Die GTX 690 2012 und die 4090 in 2024

Sehe ich als nicht so relevant. Zählt nur auf dem Platz ;) IN Spielen.
Und da hat die Performance weit aus mehr zugelegt, dank Upscaling und RTX Einheiten.

In 12 Jahren, fast 13.
Was absolut bemerkenswert ist. Welche andere Technik hat bitte in 13 Jahren einen Faktor von 6 hingelegt?

Batterien/Akkus? Nein. PV-Zellen? Nein.
CISC CPUs wie x86? Nicht im Ansatz.

Die Weiterentwicklung bei den GPUs flacht immer weiter ab, was auch zu erwarten war. Das Gesetz des abnehmenden Grenzertrags.

Wenn ein Bergsteiger mit zunehmender Höhe merkt, dass die Luft immer dünner wird und jeder weitere Höhenmeter teurer wird (Kraft und Ausdauer), über wen schimpft er dann? Über den Berg? Seinen Körper? Seine Ausrüstung?

Nein, er sieht es als Tatsache und als Herausforderung.
 
CISC CPUs wie x86? Nicht im Ansatz.
Locker, die X86 CPUs von heute haben allein schon durch die Kern anzahl einen deratigen Faktor erreicht.
ein 2700k Anno 2012 macht:
800 Punkte im cinebench R15
eine
14900k macht:
R15 6500

Das ist die 8 Fache Leistung.
Und das in einem Benchmark der viele Stärken des 14900k garnicht korrekt Ausspielen kann.

IT-Technik war schon immer schnell.
Klar wird der fortschritt langsamer, aber ein ende ist noch nicht in sicht.
Die 4090 hat auf die 3090 knapp 70% RT leistung draufgelegt und das in ca 2 Jahren.
 
Zurück