CPU-Verbrauch: Der Effizienz-Index für Prozessoren

Undervolting wär mal was !
Geht auch bei CPUs sehr gut !
20% weniger ist Verbrauch ist kein Problem bei meinem 9900K

 
nPDHpkaaQtEh389CJcxmSB-970-80.png


Hier mal ein Diagramm, Leistung über Workflow normiert. Das bedeutet, welche CPU verbraucht für den selben Output, wieviel Watt!

Am Effizientesten ist der AMD 5600X,
der Intel i5-10600k benötigt für die gleiche Arbeit, c.a. doppelt soviel Leistung(Watt).
Und der i9-10900k dreimal soviel Leistung(Watt), wie ein 5600X.
Wie gesagt, für das gleiche Ergebnis.
 
Zuletzt bearbeitet von einem Moderator:
Ich frage mich wirklich ob das ein verspäteter Aprilschertz sein soll...

Der Effizienz-Index für Prozessoren und Intel auf Platz 1​


Genau so das der Intel 11900K die beste CPU sein soll in der 05/2021 PCGH
Platz 1 : Intel 11900K 398Watt für 8 Kerne
Platz 2 : AMD 5950X 398Watt für 16 Kerne

Finde den Fehler !

Das glaubt Euch doch keiner oder was ?
So langsam zweifel ich wirklich an PCGH !
 
Zuletzt bearbeitet:
Die wichtigste Angabe fehlt: die Mainboard-Modelle. Die die können und haben einen deutlichen Einfluß auf die Leistungsaufnahme.

Die Netzteilwahl ist außerdem suboptimal, man hätte ein kleineres (ca. 850 Watt) und vor allem effizienteres Netzteil (80Plus Titanium) nehmen müssen, wenn man schon die "CPU-Effizienz" auf diesem Weg (GPU-Leistungsaufnahme inkludieren -> starke Auslastungsabhängigkeit) berechnen will.
 
Wäre Interessant zu wissen ob die Effizienzliste sich mit einer AMD GPU genauso ergeben würde oder es dann ein anderes Ergebnis gäbe.
Was ich schade finde ist das die Effizienz nur mit Spielen gemessen wird da die meisten einen PC auch für andere dinge nutzen.
Ich selbst benutze meinen PC vermutlich weit weniger als 1/4 der Zeit mit Spielen.
 
Wäre Interessant zu wissen ob die Effizienzliste sich mit einer AMD GPU genauso ergeben würde oder es dann ein anderes Ergebnis gäbe.
Hieraus kann man einen groben Vergleich ziehen: https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-cyberpunk-2077-cpu.601159/

Core i9-10900K@5,4GHz (DDR4-4600) mit RTX 3080 = 134,6 AVG FPS ( AVG GPU Power 309 Watt) https://www.capframex.com/sessioncollections/68e640fa-2468-4d06-8d2d-59352d605a4c

Core i9-10900K@5,3GHz (DDR4-4400) mit RX 6900 XT = 139,4 AVG FPS (AVG GPU Power 120 Watt x 1,18 = 142 Watt*) https://www.capframex.com/sessioncollections/8795fa79-5c02-404e-8ac4-df30b9965de6

*RX 6900 XT 300W TDP (ganze Karte) / 255W GPU Power only = Faktor ~1,18


Der ohnehin erheblich effizientere Big Navi hat wohl das bessere Energiemanagement gegenüber Ampere, die Gesamtsysteme sollten im CPU-Limit@720p mit einer RX 6900 XT also signifikant weniger Leistungaufnahme haben als mit der RTX 3090 Stromkeule. Man hat bei PCGH nicht mal den Versuch gestartet andere Einflussfaktoren (Netzteil, GPU) neben dem Mainboard zu minimieren/optimieren.
 
Intel stellt also sowohl den ineffizientesten, als auch den effizientesten Prozessor.
überraschend weit oben: der erste 14nm Prozessor von Intel: der Broadwell i7 5775 mit L4 Cache aus 2015
 
Intel stellt also sowohl den ineffizientesten, als auch den effizientesten Prozessor.

Man nehme ein effizientes B550 (statt X570 Board) und der Ryzen 5600X setzt sich auf den ersten Platz. Zen 3 ist effizienztechnisch klar vorne. Was du hier nur zu sehen bekommst, ist die steigende Ineffizienz der RTX 3090 Stromkeule bei größer werdender GPU-Auslastung. >90% der Leser hier verstehen nicht mal was gemessen wurde oder können es zumindest nicht interpretieren, willkommen.
 
Es wäre sinnvoll gewesen eine Referenzmessung mit iGPU durchzuführen und den Verbrauch der GPU aus der Rechnung abzuziehen.

Was nützt es, wenn eine CPU statt 100W nur 35W zieht, wenn die GPU 400W zieht.
Von der dreifachen Effizienz ist dann nichts mehr zu sehen.
 
Realistischerweise sollte sich jeder ansehen welche GPU er kauft und sich dazu die passende CPU suchen. Wenn das Spiel das man zockt mit der neuen GPU 145fps ausspuckt in den bevorzugten Qualitätseinstellungen, dann sollte man eine CPU haben, die auch 145fps ausspuckt in dem Spiel.
Dem kann ich nicht zustimmen. Immer wenn Komponenten unter Vollast laufen, besonders CPUs, führt das zu unruhigeren Frametimes. Man sollte also optimalerweise mindestens die CPU nicht unter Vollast laufen lassen, was nebenbei bemerkt der Effizienz zuträglich ist.

Und plötzlich ist die 14nm Intel Struktur gut?

Was ist das für ein Quatsch !
Das Ergebnis ist nicht neu. Intel CPUs sind bei Teil- bzw. Spielelast sehr effizient.

Ich kann nur noch mal auf meine Kritik verweisen:
PCGH hatte den GPU in der Vergangenheit u.a. über einen PCIe Adapter gemessen und seit ein paar Monaten über das Toolkit von Nvidia (PCAT).
 
Es wäre sinnvoll gewesen eine Referenzmessung mit iGPU durchzuführen und den Verbrauch der GPU aus der Rechnung abzuziehen.

Was nützt es, wenn eine CPU statt 100W nur 35W zieht, wenn die GPU 400W zieht.
Von der dreifachen Effizienz ist dann nichts mehr zu sehen.
da tut sich do ein Ryzen halt schwer, weil keine iGPU.
Man nehme ein effizientes B550 (statt X570 Board) und der Ryzen 5600X setzt sich auf den ersten Platz. Zen 3 ist effizienztechnisch klar vorne. Was du hier nur zu sehen bekommst, ist die steigende Ineffizienz der RTX 3090 Stromkeule bei größer werdender GPU-Auslastung. >90% der Leser hier verstehen nicht mal was gemessen wurde oder können es zumindest nicht interpretieren, willkommen.
Naja auch bei Intel gibts effizientere Chipsätze und außerdem monolithisches Design das im Idle und niedriglastbetrieb überlegene Effizienz hat. Erst die neueren Gens haben ja - weil zu hoch betrieben - ein Problem mit Effizienz bei Last. Aber so ist das halt, wenn man mit einem Prozess aus 2014/15 im Jahr 2021 mithalten will
 
Zumindest exemplarisch zwei CPUs auf B550/B560 mit quasi aller Peripherie abgeschaltet zu testen fände ich trotzdem interessant.
 
Man hat bei PCGH nicht mal den Versuch gestartet andere Einflussfaktoren (Netzteil, GPU) neben dem Mainboard zu minimieren/optimieren.
Es ist schade, dass die Softwarelösungen für die Package Power Messungen kategorisch abgelehnt werden, weil es mal Probleme mit Comet Lake bei einem bestimmten Board gab. Natürlich sollte man sich die Mühe machen, die Werte gegen ein externes Energiemessgerät zu plausibilisieren, denn man kann nicht ausschließen, dass das verwendete Board falsche Werte zurückliefert.

Damals gab es forenübergreifend eine Welle der Empörung, dass CX falsche Werte angibt, dabei hat HWiNFO das gleiche angegeben.

Die Effizienzmessungen über den Gesamtverbrauch sind im Grunde unbrauchbar. Einer der Hauptgründe ist die Tatsache, dass die GPU mehr verbraucht, wenn die CPU stärker ist.

Aus fachlicher Sicht wäre es unbedingt ratsam physikalische Messungen durchzuführen oder die Softwaresensoren angemessen zu validieren. Ist das alles nicht durchführbar, würde ich gänzlich auf Effizienzrankings verzichten.
 
Zuletzt bearbeitet von einem Moderator:
Es ist schade, dass die Softwarelösungen für die Package Power Messungen kategorisch abgelehnt werden, weil es mal Probleme mit Comet Lake bei einem bestimmten Board gab. Natürlich sollte man sich die Mühe machen, die Werte gegen ein externes Energiemessgerät zu plausibilisieren, denn man kann nicht ausschließen, dass das verwendete Board falsche Werte zurückliefert.

Damals gab es forenübergreifend eine Welle der Empörung, dass CX falsche Werte angibt, dabei hat HWiNFO das gleiche angegeben.

Die Effizienzmessungen über den Gesamtverbrauch sind im Grunde unbrauchbar. Einer der Hauptgründe ist die Tatsache, dass die GPU mehr verbraucht, wenn die CPU stärker ist.

Aus fachlicher Sicht wäre es unbedingt ratsam physikalische Messungen durchzuführen oder die Softwaresensoren angemessen zu validieren. Ist das alles nicht durchführbar, würde ich gänzlich auf Effizienzrankings verzichten.

Leider ist das so ziemlich auch das was ich dazu denke.

Der Gesatsystemverbrauch ist hier absolut unnütz. Es werden größere Unterschiede suggeriert, als es in der Realität der Fall ist.
Auch wundert mich der Ansatz, bei Anwendungen allen CPUs den gleichen Speichertakt zu genehmigen und bei den Spieletests nicht. Ach ja und bei Anwendungen kein TDP Limit.

Kann ja sein, das ich etwas überlesen habe, aber so auf den ersten Blick macht das kein Sinn.

Wie erledigt PCGH die GPU Verbrauchsmessungen? Wenigstens könnte man doch auch hier die GPU messen und das vom Gesamtverbrauch abziehen.

Auch könnte man beim Netzteil ja noch gegenrechnen (die Netzteileffizienz, da gibt es ja auch tests zu).
 
Wie es weiter oben steht, Raff misst die Leistungsaufnahme mit PCAT von Nvidia, das geht natürlich viel genauer. So ein Tool habe ich für CPU-Messungen aber nicht. Da jeder Sensor auf jedem Board was anderes ausliest (und ich auch mal Boards tauschen muss, weil sie kaputt gehen etc.), ist die Methode über die Steckdose zwar ungenau, aber zumindest eine Möglichkeit, die Effizienz annährend zu bewerten.
 
Wie es weiter oben steht, Raff misst die Leistungsaufnahme mit PCAT von Nvidia, das geht natürlich viel genauer. So ein Tool habe ich für CPU-Messungen aber nicht. Da jeder Sensor auf jedem Board was anderes ausliest (und ich auch mal Boards tauschen muss, weil sie kaputt gehen etc.), ist die Methode über die Steckdose zwar ungenau, aber zumindest eine Möglichkeit, die Effizienz annährend zu bewerten.
Wäre es nicht einen Möglichkeit, bei deinen Tests die Leistungsaufnahme der RTX3090 zu messen und vom Gesamtwert abzuziehen?
 
Dann müsste ich die drei SSDs, den Speicher, das Display der Wasserkühlung usw. auch einzeln messen und abziehen können. Wie soll ich das machen?
 
Zurück