Ich hätte eine Frage zum Artikel.
Zunächst einmal sehr interessante Ergebnisse!
Z.B. dass 7800X3D 44% mehr FPS pro Watt raus kriegt als 5800X3D
Und kurioser weise, dass der 5600 (ohne X und 3D) 15% mehr raus kriegt als der 7600. Also da ist älter besser.
Bringt 3D-Cache immer eine Steigerung?
Bei 5800X VS 5800X3D schon, +50%
Bei 5600 VS 5600X3D: nein, -40%
Nun aber zur eigentlichen
Frage:
Ich hätte erwartet, dass zwischen den FPS/Watt-Werten auf Seite 2 und dem Spiele-Effizienz-Index auf Seite 3 nur ein konstanter Normierungsfaktor liegt.
Beim 5800X3D VS 7800X3D stimmt das auch, so ungefähr:
Anhang anzeigen 1455915
+44 oder +45%, das ist vermutlich ein Rundungsproblem.
Aber gerade beim kuriosen Drop von 5600 auf 5600X3D passt das dann irgendwie gar nicht mehr:
Anhang anzeigen 1455916
-40% oder -12%, das kriege ich nicht mehr in Rundungsfehlern unter.
Ist da ein Übertragungsfehler passiert?
Oder liegen links (FPS/Watt) andere Messwerte als rechts (Spiele-Effizienz) zu Grunde?
Oder ist das das Ergebnis einer anderen Mittelungs-Reihenfolge?
Oder verstehe ich etwas grundsätzlich in der Prozentrechnung oder an den Tabellen nicht? (war eine kurze Nacht
)