CPU-Verbrauch: Der Effizienz-Index für Prozessoren

Offenbar ist es kein Nachteil. Entgegen der Meinung von Barney Stinson ist neues eben doch nicht immer besser. Comet Lake-S hat sich in Sachen Leistung pro Watt gegenüber Coffee Lake messbar verbessert.
 
Den Effizienz-Index find ich wirklich gut, schade das ich meinen nicht einordnen kann, da ich einen i9-9900T habe und es überhaupt keine 35Watt T-CPU in den PCGH-Testaufbau verirrt hat. Ich bin mir auch im klaren, das die wenigsten Spieler ernsthaft eine CPU mit geringerer Abwärme nutzen, interessant wärs trotzdem im Vergleich. Meine wird selten mal über 60 Grad warm, und das mit einen Alu-Boxed Kühler von einen i3-8100, weils die Intel-i9 Boxed nur ohne Kühler im Vk gab.
 
:lol: Eure Statistik der Effizienz ist mal echt für die Katz. vorallem ist der i5-9500F 10 FPS schneller als ein Ryzen 3400G in Assasins Creed Odysey, in anderen Games sogar über 25 FPS. Wie kann ein Ryzen da bitte effizienter sein??????
Also beim Kauf einer CPU will man FPS und nicht mehr. Diese Statistik verleitet einen normalen Bürger nur zum Kauf einer falschen CPU. Wer kauft sich bitte eine CPU, nur weil sie bischen weniger Saft verbraucht??? Aber auf einem Gaming Monitor ein zitterndes Bild verursachen weil eben FPS fehlen um über den Monitor zu schnuckeln. Eure Qualität der Berichte lässt immer mehr zu wünschen übrig, sry.
Lesen ist nicht deine Stärke oder?
Oder kannst du die Zusammenhänge nicht kapieren?
Ein Beispiel:
Eine Cpu die doppelt so schnell ist aber das 4 fache an Strom zieht, ist ineffizienter, kapiert?
 
Hier mal zum Vergleich:

S4aAiqAg7mhucG5pTvTZMA-1095-80.png



Und die Leistung/Spiele in Watt auszudrücken, OHNE auf die FPS zu normieren, macht keinen Sinn !


.
 
Der Effizienzindex ist nicht zu gebrauchen. Langsame CPUs werden extrem bevorzugt, da sie die Graka nicht auslasten können und diese so wesentlich weniger Strom verbraucht. Außerdem wurde schon angemerkt, dass die Watt pro FPS das wichtige sind, wenn man schonmal Spiele als Grundlage nimmt.

In dem Index ist ein uralter 35W Celeron einem R9 5950X haushoch überlegen, in der Realität eher weniger.
 
Der Effizienzindex ist nicht zu gebrauchen. Langsame CPUs werden extrem bevorzugt, da sie die Graka nicht auslasten können und diese so wesentlich weniger Strom verbraucht. Außerdem wurde schon angemerkt, dass die Watt pro FPS das wichtige sind, wenn man schonmal Spiele als Grundlage nimmt.

In dem Index ist ein uralter 35W Celeron einem R9 5950X haushoch überlegen, in der Realität eher weniger.
Das mit der Grafikkarte ist die Größte Abweichung, hinzukommen aber noch mindestens RAM und Board.

Ich verstehe ja was mit dem Artikel gezeigt werden will, aber so einfach geht´s dann doch nicht.
 
In dem Index ist ein uralter 35W Celeron einem R9 5950X haushoch überlegen, in der Realität eher weniger.
In dem Index sehe ich gar keinen Celeron. Das langsamste ist ein Pentium G6600 und der steht an vorletzter Stelle.

Habt ihr bemerkt, dass es 2 Reiter gibt? Der 1. ist der Systemverbrauch und der 2. Reiter der eigentliche Effizienz-Index.
Im Grunde fehlt nur die Darstellung der Leistungswerte dazu.

Die Kritik zur GPU Auslastung ist aber berechtigt.
 
In dem Index sehe ich gar keinen Celeron. Das langsamste ist ein Pentium G6600 und der steht an vorletzter Stelle.

Der Punkt ist, dass eine CPU umsomehr bevorzugt wird, je langsamer sie ist und je weniger sie verbraucht, daraugf wollte ich hinaus.

Habt ihr bemerkt, dass es 2 Reiter gibt? Der 1. ist der Systemverbrauch und der 2. Reiter der eigentliche Effizienz-Index.
Im Grunde fehlt nur die Darstellung der Leistungswerte dazu.

Im zweiten Reiter geht es eigentlich nur um den Stromverbrauch, nicht aber um die Effizienz. Sprich ein uralter FX 4000 ist, mit seinen 95W, einem R9 3950X auch da überlegen, weil er eben nur 95W, statt 105W benötigt.

Die eigentliche Effizienz, also Leistung geteilt durch den Verbrauch, wird hier völlig außen vor gelassen.

Ein 35W Sandy Bridge Celeron würde hingegen beide haushoch fertig machen, einfach nur, weil er lediglich 35W benötigt. Ein uralter 2,5W Atom von 2008 wäre der ultimative König, weil er nur 2,5W benötigt.
 
Der Effizienzindex ist nicht zu gebrauchen. Langsame CPUs werden extrem bevorzugt, da sie die Graka nicht auslasten können und diese so wesentlich weniger Strom verbraucht. Außerdem wurde schon angemerkt, dass die Watt pro FPS das wichtige sind, wenn man schonmal Spiele als Grundlage nimmt.

In dem Index ist ein uralter 35W Celeron einem R9 5950X haushoch überlegen, in der Realität eher weniger.
Sehe ich ähnlich. Sicher,wennan sein Netzteil Dimenionieren will spielt der Verbrauch ein Rolle, aber sonst.... Ok der neue 8 Kern I9 von Intel ist verbraucht einfach im Vergleich zu AMD zu viel. Ansonsten ist es doch relativ Wurst. Viele Gamer übertakten sogar cpu's da schießt der Verbrauch auch in die Höhe. Manche wie ich spielen nur ca. 2h/Woche, da ist mir das auch völlig Wurst obwohl der I5 10400f im Idle/Office Betrieb extrem sparsam ist.
 
Der Punkt ist, dass eine CPU umsomehr bevorzugt wird, je langsamer sie ist und je weniger sie verbraucht, daraugf wollte ich hinaus.

Im zweiten Reiter geht es eigentlich nur um den Stromverbrauch, nicht aber um die Effizienz. Sprich ein uralter FX 4000 ist, mit seinen 95W, einem R9 3950X auch da überlegen, weil er eben nur 95W, statt 105W benötigt.

Die eigentliche Effizienz, also Leistung geteilt durch den Verbrauch, wird hier völlig außen vor gelassen.

Ein 35W Sandy Bridge Celeron würde hingegen beide haushoch fertig machen, einfach nur, weil er lediglich 35W benötigt. Ein uralter 2,5W Atom von 2008 wäre der ultimative König, weil er nur 2,5W benötigt.
Reden wir überhaupt von den selben Tabellen? FX4000??

Da 1 und 2 scheinbar noch zu unkonkret sind, nehmen wir mal links und rechts.
In der linken Tabelle ist die Leistungsaufnahme des gesamten PCs (Wert an der Steckdose) und rechts der eigentliche Effizienz-Index. Wie bereits gesagt, was fehlt sind die Leistungswerte dazu.

Laut dem Effzienz-Index ist ein 10400F vorne, was ich nicht für unwahrscheinlich halte.
Ein oller 2600K und der lahme Pentium sind auf den letzen Plätzen, was ich nicht für unwahrscheinlich halte.

Beide Ergebnisse widersprechen deiner Theorie.

Ich sehe ja auch die Unschärfe in dem Test und wie würde es z.B. mit Big Navi aussehen.
Trotzdem sollte man die Werte richtig lesen und so falsch sieht es nicht aus.
 
Zuletzt bearbeitet:
Einen Chip ans Limit zu pushen und das als den Punkt zu nehmen an dem Effizienz gemessen wird ist meiner Meinung nach nicht der richtige Weg.

Eine Effizienzmessung ist nur dann wirklich aussagekräftig, wenn man einen Punkt hat mit dem man das Ergebnis normalisieren kann. Vergleiche dazu die "noise-normalized" Lüfter und Gehäusetests von GamersNexus.

In diesem Sinne würde ich eine 3090 nehmen und Tests bei z.B. 60fps und 144fps durchführen mit Spielen bei denen ich sicher bin, dass die 3090 diese fps schafft und die CPU auch. Will ich den Test weiter ins untere CPU Segment ziehen müsste man über 30fps Limits nachdenken, oder 45. Man muss die Messpunkte halt so setzen wie es möglich ist, ein reiner Test bei voller Pulle reicht nicht.

Jetzt hätten wir eine Testreihe die den Verbrauch der CPU zeigt bei 45, 60, 90 und 120 fps (beispielsweise). Dazu gesellt sich der Wert aus dem volle Pulle CPU Test. Anhand dieser Daten kann man eine Effizienzkurve erstellen die mit anderen Effizienzkurven vergleichbar ist.

Ein Spieler kann dann hergehen und sich ehrlich beantworten bei welchen fps er beabsichtigt zu spielen und sich dann an dem Messpunkt zu orientieren.

Natürlich schwankt der Verbrauch nicht nur bei der CPU sondern auch bei der GPU in diesen Messungen. Daher ist das kein trivialer Aufbau. Vor allem beim Wechsel der Messung von Intel auf AMD muss man ja alles neu einpegeln.



Realistischerweise sollte sich jeder ansehen welche GPU er kauft und sich dazu die passende CPU suchen. Wenn das Spiel das man zockt mit der neuen GPU 145fps ausspuckt in den bevorzugten Qualitätseinstellungen, dann sollte man eine CPU haben, die auch 145fps ausspuckt in dem Spiel. Wenn man eine CPU hat die 200fps ausspucken würde und eine GPU dazu die nur 60fps liefert, dann hat man sich viel CPU Leistung für wenig Ertrag gekauft. Ein Umstand den man damit rechtfertigen kann später nur die GPU aufrüsten zu müssen, aber auch hier sollte jeder tief in sich reinhören, ob er das wirklich macht.
 
Man könnte das Ganze natürlich auch andersherum aufziehen und zum Beispiel 2 Testreihen aufzeigen:
Alle CPUs auf 65W und dann auf 105W TDP locken und FPS vergleichen.
Da kann man dann natürlich auch noch andere Werte nehmen die besser zu den Herstellerangaben passen. Und da ja das Gesamtsystem gemessen wird, kann man auch die Effizienz der Plattform abschätzen.
 
Zurück