Leistungsindex Prozessoren - Rangliste Kommentar-Thread

Wenn der 7800x3d, so wie in den Tests belegt, die effizienteste CPU ist, wird das (mit den derzeitigen CPUs) immer so sein.
Auf das Performance Pro Watt Level (in Spielen) kann man keine andere CPU tunen.
Von daher sind die Aussagen aus den CPU Tests klar ersichtlich.
 
Ach Mensch, du wirst doch auch mal mit Kritik umgehen können oder? Hast du 3.500 Messungen für Lau gemacht also nur in deiner Freizeit!?

Wenn du reißerisch sagst das der AMD das um und auf ist und der i7 250Watt nimmt bei weniger Leistung dann musst du auch mit Gegenwehr rechnen müssen denn was Theoretisch möglich ist und was derzeit in der Machbarkeit ist, sind zwei verschiedene Dinge. Da du aber nur auf die Theorie mit 720p gehst und wir dann bei höheren Auflösungen oder anderen Karten im Limit hängen, erwähnst du mit keiner Silbe!

Ich habe bisher in meiner Arbeit auch schon dieses Jahr über knapp 5.000 Auswertungen gemacht (SLA, Breached Tickets, durchlaufzeiten, Auslastungen) und keiner meiner Chefs lobt mich da! Daher wird es auch bei mir Zeit für Urlaub!
Es. Sind. Keine. Theoretischen. Werte.
Aber alles klar, macht mal weiter eure mentale Gymnastik, weil ihr nicht wahrhaben wollt, dass X3D CPUs effizienter sind als deren Intel Counterparts.
 
Wenn der 7800x3d, so wie in den Tests belegt, die effizienteste CPU ist, wird das (mit den derzeitigen CPUs) immer so sein.
Auf das Performance Pro Watt Level (in Spielen) kann man keine andere CPU tunen.
Von daher sind die Aussagen aus den CPU Tests klar ersichtlich.
Es. Sind. Keine. Theoretischen. Werte.
Aber alles klar, macht mal weiter eure mentale Gymnastik, weil ihr nicht wahrhaben wollt, dass X3D CPUs effizienter sind als deren Intel Counterparts.
Geht doch gar nicht darum, es geht darum, dass später, sobald die Grafikkarte dazu kommt, ein Prozessor anfangen wird, Däumchen zu drehen. Klar, ein CPU-Limit kann immer mit entstehen, aber in diesen Tests wird dieses noch viel stärker verstärkt, damit ein Prozessor ins Schwitzen kommt. Die Grafikkarte soll sich daher so weit wie möglich zurückziehen, damit auch die tatsächliche Leistung mehrere Prozessoren getestet werden kann.

Die Tests sind daher nicht das Problem, die sind korrekt ausgeführt. Es geht um jeden, der das nicht erkennt und dann immer noch denkt, bei sich wird ein System inkl. fetter Grafikkarte sich immer noch so verhalten!
 
Es. Sind. Keine. Theoretischen. Werte.
Aber alles klar, macht mal weiter eure mentale Gymnastik, weil ihr nicht wahrhaben wollt, dass X3D CPUs effizienter sind als deren Intel Counterparts.
Zeige mir einen einzigen Post von mir, wo ich das Gegenteil behaupte, dass der X3D nicht effizienter ist!

Ich behaupte nur und dazu stehe ich, dass wir nicht die Hardware derzeit haben im 4K die CPU so auslasten können, da wir ins GPU Limit laufen! Daher in der Theorie hätte ich so eine super super Karte würde meine CPU mehr Watt verbrauchen, in der Praxis komme ich genauso wie der X3D ins GPU Limit und deswegen nehmen sich diese CPU nichts in hohen Auflösungen.

Das was mich da interessiert hat aber keiner eingegangen ist was verbraucht der X3D z.B. in Dying Light 2 bei 4K mit einer 4090 verbraucht, auch wenn es sich im GPU Limit befindet.

Da kann es ja auch sein, dass der X3D nur 30 Watt semmelt. Aber die Tests stellt keiner in Frage von PCGH wenn es um Rohleistung geht sondern nur vom „Hier und Jetzt“ wo ich durch einen Faktor limitiert werde, den ich nicht beeinflussen kann, weil es nix stärkeres da draußen gibt.
 
Das möchte ich übrigens sehen. Ich habe zum Zen-4-Launch über 3.500 einzelne Messungen gemacht. Wirklich "langweilig", echt, was ein Feedback. Das ist mein Signal, dass ich hier mal eine Weile nicht mehr mitdiskutiere, wenn man so gewürdigt wird. Es steht ohnehin bald der Urlaub ab, Zeit für eine Auszeit.
Das ist leider oft so. Wenn ich an Zeiten in der Forschung zurückdenke, war das auch immer übelste Fleißarbeit. Die zigfach wiederholten genau gleichen Versuche waren nicht spannend. Aber die Ergebnisse waren es. Und genauso ist es hier. Eure Tests von CPU und GPU sind einfach der Maßstab. Eine ähnlich umfangreiche und reproduzierbare Arbeit macht ansonsten niemand. Ansonsten bekommt man unterschiedlich lange Balken. Eure Daten dagegen haben Relevanz und man kann sie interpretieren, auch wenn man hier und da Inter- oder Extrapolieren muss.
 
Zeige mir einen einzigen Post von mir, wo ich das Gegenteil behaupte, dass der X3D nicht effizienter ist!

Ich behaupte nur und dazu stehe ich, dass wir nicht die Hardware derzeit haben im 4K die CPU so auslasten können, da wir ins GPU Limit laufen! Daher in der Theorie hätte ich so eine super super Karte würde meine CPU mehr Watt verbrauchen, in der Praxis komme ich genauso wie der X3D ins GPU Limit und deswege nehmen sich diese CPU nichts in hohen Auflösungen.

Das was mich da interessiert hat aber keiner eingegangen ist was verbraucht der X3D z.B. in Dying Light 2 bei 4K mit einer 4090 verbraucht, auch wenn es sich im GPU Limit befindet.

Da kann es ja auch sein, dass der X3D nur 30 Watt semmelt. Aber die Tests stellt keiner in Frage von PCGH wenn es um Rohleistung geht sondern nur vom „Hier und Jetzt“ wo ich durch einen Faktor limitiert werde, den ich nicht beeinflussen kann, weil es nix stärkeres da draußen gibt.
Siehst, und das ist wieder der Teil mit der mentalen Gymnastik - es wurde dir auch schon von anderen Leuten erklärt:

1. Es gibt Spiele, die auch in 4K CPU-Bound sind.
2. Das Verhältnis zwischen den CPUs bleibt in etwa gleich.
Wenn dein Intel 100W braucht und der X3D in der gleichen Szene 30 - dann ist es bei einem anderen Game 200 zu 60 oder 50 zu 15.


Ich sehe es aber mittlerweile ähnlich wie blautemple - euch wurde wieder und wieder das Gleiche gesagt. Aber da eure Intels dabei aktuell schlechter wegkommen, ist es euch egal und es werden mal eben Fakten ignoriert.
 
Ich behaupte nur und dazu stehe ich, dass wir nicht die Hardware derzeit haben im 4K die CPU so auslasten können, da wir ins GPU Limit laufen! Daher in der Theorie hätte ich so eine super super Karte würde meine CPU mehr Watt verbrauchen, in der Praxis komme ich genauso wie der X3D ins GPU Limit und deswegen nehmen sich diese CPU nichts in hohen Auflösungen.
Nein, in Spiel X vlt. in Spiel Y z.b Anno oder auch Warhammer. Schaffe ich es gut mit Max Settings meinen 7800x3d Auszulasten und du würdest auch dort deinen 13700k Auslasten.
Hört endlich auf CPU Leistung mit der Auflösung zu Kombinieren .
Vorallem seid es sowas wie FSR und DLSS gibt muss man sogar von Render auflösung Reden damit man nicht ausversehen von 2 verschieden ding Spricht.

Wenn du jetzt wissen möchtest was CPU y mit GPU Z in Spiel y (mit Settings bla bla braucht) dann muss man das selber Testen oder halt von der Community Testen lassen. Keine Redaktion kann das Testen.
Da es 8000 Variabeln gibt.
Spiel
Settings
Auflösung
Restliche Hardware
usw.


Zu deinem Letzten satz im GPU limit kannst du auch gleich z.b einen 12400 nehmen. (weil GPU limit cpu egal was FPS angeht).

Und der Letzte Satz ist halt einfach Falsch.
Selbst in hohen auflösung kann bzw ist ein 7800x3d meist schneller und Sparsamer.
 
1. Es gibt Spiele, die auch in 4K CPU-Bound sind.
Und es werden immer mehr.
Ich behaupte nur und dazu stehe ich, dass wir nicht die Hardware derzeit haben im 4K die CPU so auslasten können, da wir ins GPU Limit laufen!
Doch, wirklich, haben wir - ich habs auch nicht geglaubt bis Warzone 2 kam, seitdem hab ich das aufm Zettel und achte da öfter drauf.
Warzone 2, Anno 1800, Far Cry 6,
alle in 4K mit 4090 und 7900XTX komplett, aber wirklich komplett CPU bound.

Aber ja, in Titeln ohne riesige open World, Battleroyale Modis mit 150 Spielern, oder Simulationen wie Anno passiert das eher selten.
Wenn man solche Titel nicht spielt, dann denkt man tatsächlich, die CPU wäre nicht so wichtig.

Ich bin nur für Warzone 2 vom 5900X auf den 5800X3D nur damit ich meine 7900XTX immer noch nicht auslasten kann, weil meine CPU zu langsam ist.
 
1. Es gibt Spiele, die auch in 4K CPU-Bound sind.
Das ist ja immer dieses Totschlagargument: Ich spiele in Auflösung X, also bin ich im Limit Y.

Das sind halt pauschale Aussagen, die keinerlei Wert haben. In manchen Spielen (oder zumindest Szenarien), bekommt man einen 7950X3D auf der einen Seite in 720p nicht voll ausgefahren und hängt im GPU-Limit mit einer RTX 4090 (hallo Path Tracing), wohingegen man auf der anderen Seite in 8K CPU-limitiert sein kann (Emulatoren, extreme ST-Lasten in alten Spielen beispielsweise) und eine RTX 4090 noch Reserven haben kann, weil der God-Binned 13900KS mit 6.3 GHz nicht genug feuert.

Ich frage mich immer, warum man sowas überhaupt schreiben muss? Das liegt doch eigentlich auf der Hand, oder? Warum muss man immer in Extremen argumentieren, damit irgendetwas deutlich wird?

Ansonsten würde ja alles gesagt. Hier werden CPUs getestet und das halt im CPU-Limit und nicht im Teillastbereich, im idle oder sonstwo.
 
Was gibt es da zu abstrahieren wenn so weit weg von der Realität steht wie es nur möglich ist?

Kann ich gerne nochmal ansetzen.
PS: Arma ist ein sehr extremes Beispiel von absoluter CPU Abhängigkeit wie ich sie in anderen Spielen noch nicht erlebt habe!
Weiss nicht was da Bohemia alles macht. Eine SIM halt.
Was ist denn Realität? Ist die Realität, dass absolut immer die GPU begrenzt? Gibt es vielleicht Leute, die hauptsächlich CPU lastige Simulationen in FullHD spielen?

Ein Versuch euch zu verstehen;
Geht es darum, den Absolutwert irgendwann zu ereichen können, wenn dann nur der Rest der HW mal mit ziehen mag?
(Beispiel, in 5 Jahre)
Es geht darum, mit möglichst wenig testaufwand einen breitem Publikum mit unterschiedlichsten Anforderungen(!), die (Leistungs)Unterschiede der Produkte zu präsentieren.

Ist es eigentlich so schwer zu schauen, was eine CPU in Spiel X in einer CPU lastigen Szene schafft und was eine GPU in einer grafiklastigen Szene und trifft dann seine Wahl?

Edit: Wurde eigentlich alles schon gesagt mittlerweile.

Noch tiefer als P0.2 würde ich nicht gehen, da müsste man erst mal nachforschen, was dort überhaupt noch verwertet wird.
Dafür müsstest du prüfen, mit welcher Konstanz du den Benchmark durchführen kannst.
 
Zuletzt bearbeitet:
Das ist ja immer dieses Totschlagargument: Ich spiele in Auflösung X, also bin ich im Limit Y.
Dann besuche mal die Seite oder das Video von Igor, denn er hat dazu auch einen aktuellen Test gemacht. Denn dort wird auch als Gegenvergleich die Auflösungen mit 1440 + 4K mit aufgelistet und damit fallen die Balken nicht mehr so stark ab!

Die Tests mit 720P fallen ähnlich aus, wie hier auf PCGH.
 
Hier werden CPUs getestet und das halt im CPU-Limit und nicht im Teillastbereich, im idle oder sonstwo.
PCGH testet CPUs auch im Teillastbereich und ruhenden Desktop und gibt die Werte in ihren Produkttests an, auch wenn das so mancher hier anders behauptet. Diese Werte gibt es!
Die Diskussion bezieht sich also rein darauf, dass manche hier die Produkttests gerne nach ihren Parametern hätten, mit ihren GPUs und mit ihren Einstellungen. Die Folge, dass diese Art Test dann nur für diese eine Hardwarekombi eine sinnvolle Übersicht bieten und ALLE anderen außen vor gelassen werden, wird aus mir unbekannten Grund offensichtlich nicht verstanden.
 
Die Diskussion bezieht sich also rein darauf, dass manche hier die Produkttests gerne nach ihren Parametern hätten, mit ihren GPUs und mit ihren Einstellungen.
In meinem Fall nicht, denn mir ist selbst bekannt, wie sich das später mit dem eigenen System genau auswirken wird. Mir gehen nur manche User auf dem Kecks, die nicht mit bedenken, wie sich mit einer anderen Auflösung alles ändern wird und diese Tests 1:1 auch im GPU-Limit mit übernehmen.
 
In meinem Fall nicht, denn mir ist selbst bekannt, wie sich das später mit dem eigenen System genau auswirken wird. Mir gehen nur manche User auf dem Kecks, die nicht mit bedenken, wie sich mit einer anderen Auflösung alles ändern wird und diese Tests 1:1 auch im GPU-Limit mit übernehmen.
Was meinst du mit es ändert sich alles?
Letztlich muss doch jeder selbst definieren, was er möchte, und danach die Hardware kaufen. Das machen aber die wenigsten, so scheint es mir. Dabei müsste man doch nur überlegen, welche Spiele man spielt, wie viel Fps man gerne hätte und wählt danach CPU und GPU aus. Es ist eigentlich ganz einfach.
 
Letztlich muss doch jeder selbst definieren, was er möchte, und danach die Hardware kaufen. Das machen aber die wenigsten, so scheint es mir. Dabei müsste man doch nur überlegen, welche Spiele man spielt, wie viel Fps man gerne hätte und wählt danach CPU und GPU aus. Es ist eigentlich ganz einfach.
So in etwa meine ich das auch.

Mit der Änderung war gemeint, wenn ich als Beispiel ein CPU-Limit bei mir erzeuge und dann ohne und ich dann beides miteinander vergleiche. Schau dir mal die aktuellen Tests von Igor an, denn dort wird nicht nur mit 720P getestet, sondern auch mit einer anderen Auflösung und dann kann man sich auch ein besseres Bild machen, wie ein System so regulär laufen wird.

Es geht mir hier auch nicht um die Tests von PCGH, denn ich bin selbst in der Lage mir vorstellen zu können, wie es mit einer anderen Auflösung laufen wird oder suche mir entsprechend noch andere Tests raus. Aber manche Leute sind dazu nicht in der Lage und glauben immer, es würde sich mit einer anderen Auflösung nichts ändern. Klar kann immer ein CPU-Limit entstehen, aber der wird dann ggf. nicht so krass ausfallen, als wenn 720p und niedrige Settings anliegen.

Bin aber jetzt hier raus, da es hier unendlich weiter gehen wird, wie in jedem neuen News Thema auch. :)
 
Zuletzt bearbeitet von einem Moderator:
Mit der Änderung war gemeint, wenn ich als Beispiel ein CPU-Limit bei mir erzeuge und dann ohne und ich dann beides miteinander vergleiche. Schau dir mal die aktuellen Tests von Igor an, denn dort wird nicht nur mit 720P getestet, sondern auch mit einer anderen Auflösung und dann kann man sich auch ein besseres Bild machen, wie ein System so regulär laufen wird.
Ja, aber nur in Verbindung mit der von Igor genutzten Grafikkarte. Eine andere Karte mit einem anderen Chip, von einem anderen Hersteller, kann sich signifikant anders verhalten.
 
Ja, aber nur in Verbindung mit der von Igor genutzten Grafikkarte. Eine andere Karte mit einem anderen Chip, von einem anderen Hersteller, kann sich signifikant anders verhalten.

Da bin ich auch deiner Meinung, mir ging es eher um diesen Beitrag:
Weil deine GPU "zu schwach" ist ;)

2160p vs 720p bei mir (siehe Spoiler).

Hätte ich nun eine CPU die mir keine 114FPS liefert in 720p würde sie das auch in UHD nicht schaffen.
Also ich würde mit maximalen Details (RT Psycho ohne Frame Generation) mit einem 5600X keine 100 FPS in 720p schaffen, könnte ich auch mit einer 4090 keine 100 FPS erreichen obwohl die GPU dazu imstande wäre mehr zu leisten.

So einfach ist das.
Man testet die CPU auf ihre Leistung und dann schaut man sich bei den GPUs an was diese leisten können (wenn kein CPU Limit anliegt) was viele eben auch falsch machen (ganz besonders dieser YT Rotz ist oft davon betroffen aus meiner Erfahrung).

Und bevor einer fragen sollte, ja, die Ergebnisse bei mir sind MIT dem SMT Fix, ohne würden noch weniger FPS da stehen, sowohl in 2160p als auch in 720p.
Denn wir sprechen hier über aktuelle neue Prozessoren und in einem Test wo der Unterschied zwischen 1 - 10 % ausfallen wird, wird es auch den Apfel nicht reifer machen. Besonders dann nicht, wenn noch die korrekte Auflösung dazu kommt und die Grafikkarte möglich voll ausgelastet werden soll.

Dass je nach verbaute Grafikkarte die Auslastung bzw. die Leistungsaufnahme anders ausfallen wird, ist schon klar.
 
Was meinst du mit es ändert sich alles?
Letztlich muss doch jeder selbst definieren, was er möchte, und danach die Hardware kaufen. Das machen aber die wenigsten, so scheint es mir. Dabei müsste man doch nur überlegen, welche Spiele man spielt, wie viel Fps man gerne hätte und wählt danach CPU und GPU aus. Es ist eigentlich ganz einfach.
Die Theorie ist plausibel.
In der Praxis, aber nicht.

Ich glaube, mehr helfen werden uns solche Tools wie das letztens releaste von Intel, welches mehr Augenmerk auf den Flaschenhals lenkt.
Ein Daumen hoch an Intel. Habe nicht eine Sekunde an die geglaubt, aber sie liefern?
 
Zurück