CPU-Verbrauch: Der Effizienz-Index für Prozessoren

Achtung du meinst nicht die Abwärme (jedenfalls nicht direkt) sondern die CPU Temperatur.
Die Abwärme im allgemeinen sinne ist von der Leistungsaufnahme abhängig.
Eine 200 Watt CPU wird selbst bei 55 Core temp mehr abwärme verursachen als eine 90 Watt CPU bei 90 C
Habe mich ggf. nicht gut ausgedrückt, aber was du schreibst war im Grunde auch gemeint. :)
 
Zuletzt bearbeitet:
Ich hätte eine Frage zum Artikel.

Zunächst einmal sehr interessante Ergebnisse!
Z.B. dass 7800X3D 44% mehr FPS pro Watt raus kriegt als 5800X3D
Und kurioser weise, dass der 5600 (ohne X und 3D) 15% mehr raus kriegt als der 7600. Also da ist älter besser.

Bringt 3D-Cache immer eine Steigerung?
Bei 5800X VS 5800X3D schon, +50%
Bei 5600 VS 5600X3D: nein, -40%


Nun aber zur eigentlichen Frage:
Ich hätte erwartet, dass zwischen den FPS/Watt-Werten auf Seite 2 und dem Spiele-Effizienz-Index auf Seite 3 nur ein konstanter Normierungsfaktor liegt.

Beim 5800X3D VS 7800X3D stimmt das auch, so ungefähr:
Anhang anzeigen 1455915
+44 oder +45%, das ist vermutlich ein Rundungsproblem.

Aber gerade beim kuriosen Drop von 5600 auf 5600X3D passt das dann irgendwie gar nicht mehr:
Anhang anzeigen 1455916
-40% oder -12%, das kriege ich nicht mehr in Rundungsfehlern unter.

Ist da ein Übertragungsfehler passiert?
Oder liegen links (FPS/Watt) andere Messwerte als rechts (Spiele-Effizienz) zu Grunde?
Oder ist das das Ergebnis einer anderen Mittelungs-Reihenfolge?
Oder verstehe ich etwas grundsätzlich in der Prozentrechnung oder an den Tabellen nicht? (war eine kurze Nacht :D)
ist vermutlich unter gegangen, weil ganz unten auf einer Seite.
@PCGH_Dave wie schauts aus? :)
 
Zunächst einmal sehr interessante Ergebnisse!
Danke :daumen:
Und kurioser weise, dass der 5600 (ohne X und 3D) 15% mehr raus kriegt als der 7600. Also da ist älter besser.
Bedenke dabei auch immer die Serienstreuung.
Bringt 3D-Cache immer eine Steigerung?
Bei 5800X VS 5800X3D schon, +50%
Bei 5600 VS 5600X3D: nein, -40%
Der Cache als solcher ja nicht. Es liegt eher daran, dass die CPUs mit 3D-V-Cache niedriger takten (müssen), weil der 3D-Cache nicht so hohe Spannungen verkraftet. Die erhöhte Effizienz dieser CPUs ist also ein Nebenprodukt.
Nun aber zur eigentlichen Frage:
Ich hätte erwartet, dass zwischen den FPS/Watt-Werten auf Seite 2 und dem Spiele-Effizienz-Index auf Seite 3 nur ein konstanter Normierungsfaktor liegt.

Beim 5800X3D VS 7800X3D stimmt das auch, so ungefähr:
+44 oder +45%, das ist vermutlich ein Rundungsproblem.
Aber gerade beim kuriosen Drop von 5600 auf 5600X3D passt das dann irgendwie gar nicht mehr:

Ist da ein Übertragungsfehler passiert?
Oder liegen links (FPS/Watt) andere Messwerte als rechts (Spiele-Effizienz) zu Grunde?
Oder ist das das Ergebnis einer anderen Mittelungs-Reihenfolge?
Oder verstehe ich etwas grundsätzlich in der Prozentrechnung oder an den Tabellen nicht? (war eine kurze Nacht :D)
Hier musst du nur verstehen, dass die "Fps pro Watt" die nackten Wattzahlen mit den nackten Fps abgleichen (also nicht normiert sind). Ein Spiel, welches dann aus der Reihe tanzt, verzerrt den Wert an dieser Stelle viel stärker, als bei den normierten Effizienz-Prozentzahlen, wo jeder Benchmark einen festen Anteil am Gesamtergebnis hat.
 
Zurück