Special Cyberpunk 2077 Phantom Liberty: Leistungsaufnahme zwischen 38 und 223 Watt - 60 CPUs überprüft

Hier finden sich die weiteren 120 CPU-Messungen, alles zur Leistungsaufnahme und Effizienz :daumen:
Sehr spannender Blickwinkel und Vergleich. Danke dafür! Super gemacht. Auch die alten Prozessoren nicht einfach nur nach ihrer Performance betrachtet zu sehen, sondern wirklich auf den Blick: was verbrauchen sie im Vergleich zu anderen (real) im Spiel und wieviel Leistung pro Watt.
Auch interessant, dass gewisse "Heizplatten" die ich in Erinnerung hatte, gar nicht solche Hitzköpfe zu sein scheinen. Im Damaligen (Release-)Vergleich schon, aber im heutigen Vergleich ganz ok.
 
Heftig wie effizient der 7800X3D ist, das Teil ist echt fantastisch, und wirklich jeden Cent wert.
65% effizienter gegenüber meinem alten 5600X, und ganze 340%(!!!) gegenüber einem etwa gleichschnellem 13900K, AMD ist mit ihrer 3D Cache Technologie momentan einige Generationen vor dem Mitbewerber.

Ich glaube der 7800X3D wird der i7 2600K der nächsten Jahre.
 
Hier finden sich die weiteren 120 CPU-Messungen, alles zur Leistungsaufnahme und Effizienz :daumen:
"Software-Analysen basieren meist aus Abfragen, die nur alle 500 bis 1.000 Millisekunden abfragen. Das unterstreicht die Genauigkeit, mit der wir hier vorgehen."

Wie "wichtig" Messungen sein können, zeigt ein Beispiel von CB (siehe Anhang).
Sind zwar GPU´s, dies trifft aber auf CPU´s sicherlich auch zu.
 

Anhänge

  • Watt Messung.jpg
    Watt Messung.jpg
    340,6 KB · Aufrufe: 35
"Software-Analysen basieren meist aus Abfragen, die nur alle 500 bis 1.000 Millisekunden abfragen. Das unterstreicht die Genauigkeit, mit der wir hier vorgehen."

Wie "wichtig" Messungen sein können, zeigt ein Beispiel von CB (siehe Anhang).
Sind zwar GPU´s, dies trifft aber auf CPU´s sicherlich auch zu.
Wobei ein Peak in einem Zeitbereich den Kondensatoren glätten auch vollkommen egal ist. Spannend ist ob sich der Durchschnittsverbrauch dadurch auch verschoben hat.
 
"Software-Analysen basieren meist aus Abfragen, die nur alle 500 bis 1.000 Millisekunden abfragen. Das unterstreicht die Genauigkeit, mit der wir hier vorgehen."

Wie "wichtig" Messungen sein können, zeigt ein Beispiel von CB (siehe Anhang).
Sind zwar GPU´s, dies trifft aber auf CPU´s sicherlich auch zu.
Ist doch jetzt nichts Neues.
Ist eigentlich noch mehr.
 
Aber nicht im gpu Limit....
Wenn man zb dann in 4k zockt etc Da kommt mein 13900ks kaum über 90w
ja das mag sein aber tut hier nix zur Sache: dann könnte man auch sagen im CPU Limit brauchen GPUs eh nicht so viel. Es wird halt gemessen welche "bis zu" Werte die CPU erreicht. Es hieß immer die Intels beauchen im Spiele(!)betrieb nicht deutlich mehr als AMD, das ist zumindest mit den letzten Gens in diesem Spiel doch anders.
Zeigt auch, dass die Kerne genutzt werden
AMD ist mit ihrer 3D Cache Technologie momentan einige Generationen vor dem Mitbewerber.
Im Moment ja, aber nicht technologisch, sondern weil Intel kein dementsprechendes Produkt liefert.
Was eigentlich recht verwundert - und dann wieder auch nicht.
Wenn man bei Intel lustig ist, könnte man quch wie früher schon Cache dazuschnallen. Macht man wohl ganz bewusst nicht. Vielleicht in Zukunft, etwa für Notebooks, weil es mit Foveros noch leichter sein könnte.
Mal schauen was Lunar Lake bringt
 
Zuletzt bearbeitet:
Ich kann mit diesem Test nichts anfangen, weil der Vergleich sehr stark hinkt! Hier gehen wir in Theorie über und nicht in Praxis.

Mein Wagen laut Hersteller verbraucht 6,8l auf 100KM was aber nicht zutrifft, wenn ich ständig 200 fahre, dann braucht er 20l und wenn ich jetzt nur noch 100 Fahre braucht er 4,8l! Auch ein Unterschied ob ich auf der Autobahn fahre oder in der Stadt.

Genauso dieser Test der mir nichts aussagt was ist denn jetzt wirklich der tatsächliche Durchschnitt! Wenn ich da einen einzigen Peak habe mit 250w und sonst 100w verbrauche ist das kein 250w Auswertung! Dann der Satz im Test durch einen unabsichtlichen Fehler von AMD macht ihm so effizient weil er sonst den Cache beschädigt und deswegen nicht höher Taktet.

Auch fehlt mir im Test ganz klar, was sind die Min/Max/AVG Werte? Ich wäre auch dafür, dass dann auch die FPS dabei stehen sollten, was erreicht wurde und nicht nur FPS pro Watt und dann mal multiplizieren, denn das sagt mir noch immer nicht aus was ist denn jetzt die Min oder der AVG.

Ich komme bei CP mit meinem 13700K im Spieledurschnitt von ca 1-2 Stunden auf keine 87 Watt, mit einer 4090! CPU Limit hin oder her, dass ist etwas was man nicht umgehen kann umso höher die Auflösung!
 
Zuletzt bearbeitet von einem Moderator:
Ich komme bei CP mit meinem 13700K im Spieledurschnitt von ca 1-2 Stunden auf keine 87 Watt, mit einer 4090!
Und?

Es geht hier ja um Effizienz und nicht nur um den Maximalverbrauch. Zum einen wirst du gar nicht die Möglichkeit haben deine CPU ehrlich und wirklich zu messen, sondern schlicht Tools wie AIDA oder HWInfo nutzen um den Verbrauch auszulesen, was hier nun auch schon an zwanzig Stellen erwähnt wurde, was extrem viel zu wenig ist. Zum anderen ist bspw. ein 7800X3D ja auch nicht am Maximal effizienten Punkt unterwegs, sondern auf Vollast. Bedeutet nunmal für beide, wären sehr viel weniger Verbauch als die hier angegebenen Werte.

Aber ist schon schön wie lustig sich Intel User hier winden um nicht zugeben zu müssen, dass der 7800X3D derzeit konkurenzlos ist
 
Und?

Es geht hier ja um Effizienz und nicht nur um den Maximalverbrauch. Zum einen wirst du gar nicht die Möglichkeit haben deine CPU ehrlich und wirklich zu messen, sondern schlicht Tools wie AIDA oder HWInfo nutzen um den Verbrauch auszulesen, was hier nun auch schon an zwanzig Stellen erwähnt wurde, was extrem viel zu wenig ist. Zum anderen ist bspw. ein 7800X3D ja auch nicht am Maximal effizienten Punkt unterwegs, sondern auf Vollast. Bedeutet nunmal für beide, wären sehr viel weniger Verbauch als die hier angegebenen Werte.

Aber ist schon schön wie lustig sich Intel User hier winden um nicht zugeben zu müssen, dass der 7800X3D derzeit konkurenzlos ist
Du ich weiß nicht in welcher Welt du lebst, aber ich sitze jetzt nicht weinend vor meiner Intel Maschine. Ich habe mich bewusst für diese CPU entschieden und das ist OK für mich!

Also ich kann dich beruhigen mir ist es schnurrz wer den längsten, größten, leuchtendensten Balken hat, dazu bin ich schon zu alt, aber mir geht es hier um real Werte und nicht um Peaks oder es kann so sein mehr nicht.

Das der AMD Prozessor 3D Cache der effizienteste ist, bestreite ich auch gar nicht, sondern einfach nur die Verschiebung im reißerischen Sinne. Denn 230Watt sehe ich z.B. kein einziges Mal in dem Spiel in realistischen Szenen.

Daher könnte ich jetzt auch reißerisch sagen mein Wagen braucht nicht wie der Hersteller im Schnitt angibt, weil ich 200 auf der Autobahn fahre oder einfach eine pfeife beim Fahren bin.

Daher gehört hier auch ein AVG Wert her und ein min/Max. Und mir ist der Stromverbrauch auch wirklich egal, denn dann hätte ich mir keine 4090 verbauen!
 
Zuletzt bearbeitet von einem Moderator:
Du ich weiß nicht in welcher Welt du lebst, aber ich sitze jetzt nicht weinend vor meiner Intel Maschine. Ich habe mich bewusst für diese CPU entschieden und das ist OK für mich!

Also ich kann dich beruhigen mir ist es schnurrz wer den längsten, größten, leuchtendensten Balken hat, dazu bin ich schon zu alt, aber mir geht es hier um real Werte und nicht um Peaks oder es kann so sein mehr nicht.

Das der AMD Prozessor 3D Cache der effizienteste ist, bestreite ich auch gar nicht, sondern einfach nur die Verschiebung im reißerischen Sinne. Denn 230Watt sehe ich z.B. kein einziges Mal in dem Spiel in realistischen Szenen.

Daher könnte ich jetzt auch reißerisch sagen mein Wagen braucht nicht wie der Hersteller im Schnitt angibt, weil ich 200 auf der Autobahn fahre oder einfach eine pfeife beim Fahren bin.

Daher gehört hier auch ein AVG Wert her und ein min/Max. Und mir ist der Stromverbrauch auch wirklich egal, denn dann hätte ich mir keine 4090 verbauen!
So viel Text für nix... Natürlich werden hier Durchschnittswerte verwendet. Steht auch ausführlich im Artikel.
 
Ich finde den Test sehr cool, aber das Ergebnis ist doch nicht wirklich aussagekräftig was Effizienz betrifft. Speziell bei Cyberpunk ist mir aufgefallen, dass die FPS extrem konstant sind. Hier arbeitet die Engine richtig gut, da diese zur Laufzeit perfekt skaliert, eine Obergrenze scheint es nicht wirklich zu geben.

Daher macht der Vergleich zwischen Cpus mit 8 bis 32 Threads nicht wirklich sinn. Auch der Versuch es auf FPS pro Watt runterzurechnen kann nicht funktionieren, da wie eben schon erwähnt, ein Frame durch die Skalierung ganz andere Detailstufen aufweisen kann wie ein anderes Frame. Und da haben wir noch gar nicht drüber gesprochen, dass die Frames ehr aus der GPU als aus der CPU kommen. Die CPU berechnet ehr die Spielewelt in "Ticks". So mehr umso besser. Deshalb wohl auch keine wirklich bemerkbare Begrenzung.

Der Test zeigt vor allem eins: je nach Rechenleistung, was eine CPU abliefern kann, verbraucht sie mehr Strom. Der Test hat genau das gleiche Ergebnis wie Cinebench abgeliefert.

Edit wollte noch hinzufügen: Wenn man vom 13900K(S) die 16 E-Kerne sperrt, hat man keinen großen Unterschied in den FPS. Nur zieht die CPU dann nur noch um die 100 Watt.
 
Zuletzt bearbeitet:
Das der AMD Prozessor 3D Cache der effizienteste ist, bestreite ich auch gar nicht, sondern einfach nur die Verschiebung im reißerischen Sinne. Denn 230Watt sehe ich z.B. kein einziges Mal in dem Spiel in realistischen Szenen.
Das liegt vllt. daran, dass du die Werte von Software wie HWiNfo für voll nimmst. Wie schon im Thread erwähnt wurde, genehmigt sich deine CPU natürlich nur im CPU-Limit solche Unmengen - aber je nach Settings kriegst du auch CPU-limitierte Szenen in 4K hin.
 
Ist mir gestern Abend noch aufgefallen. Die 8 E-Cores mehr auf dem 13900k saugen etwa so viel wie die ganze
7800X3D... und ma so nebenbei der Watt/FPS Balken vom 3600 ist immer noch recht ok.
 
Zurück