Special Cyberpunk 2077 Phantom Liberty: Leistungsaufnahme zwischen 38 und 223 Watt - 60 CPUs überprüft

Rechne rund 50W auf das HWInfo Reading drauf, dann passts.
Habs selber mit nem externen Tool nachgemessen.

Aber die paar Watt die der 13900K braucht, sind eh total egal.
Wem die wehtun, der soll einfachs Licht ausschalten :-D

Kannst du mir bitte die Quelle nennen, die deine Aussage bestätigt?

Ich würde mich gerne darüber informieren, kann so spontan aber nichts in einem solchen Ausmaß finden. Zudem wüsste ich gerne, wie du das genau gemessen hast.

Denn: Ich habe den Verbrauch an der Steckdose verfolgt, mir die Werte in HWInfo angeschaut und an den CPU Powerlimits herumgespielt. Habe ich das Powerlimit um 20W gesenkt, konnte ich das so fast 1:1 an der Steckdose und HW-Info sehen. Klar variierte es über die Zeit mal in die eine oder andere Richtung, aber alles im "Rahmen".

Daher wüsste ich wirklich gerne, woher deine Erkenntnisse kommen.
 
@PCGH_Dave : Erstmal vielen Dank für alle die Mühe. Super Arbeit :)

Ich trau mich fast nicht, eine Bitte zu äußern, bei der Arbeit, die da schon drinsteckt.
Aber ich schreibe es jetzt trotzdem einfach mal:

Wäre es möglich, dass ihr einen aktuellen Intel Schluckspecht (13900K oder 13700K) und ein aktuelles AMD-Gegenstück nochmal testet und entweder:
- die CPU Powertargets auf z.B. 60W stellt und die FPS messt
- oder die FPS auf 60 begrenzt und dann nochmal den Verbrauch messt?

Mir ist klar, dass der AMD (weit) vorne liegen wird. Ich wüsste nur gerne, wie groß die Unterschiede sind, wenn für beide Prozessoren die gleichen Bedingungen herrschen. Also dass entweder beide "nur" an 60Fps arbeiten müssen oder beide eben zeigen müssen, was sie z.B. mit 60W leisten.

Ja ich weiß, dass ihr in den CPU Tests eine ähnliche Tabelle habt. Mich interessiert es aber in CP2077PL.

Das finde ich für einen fairen Vergleich viel aussagekräftiger.

Falls das nicht möglich ist, ist das natürlich auch voll ok :)
 
@PCGH_Dave : Erstmal vielen Dank für alle die Mühe. Super Arbeit :)

Ich trau mich fast nicht, eine Bitte zu äußern, bei der Arbeit, die da schon drinsteckt.
Aber ich schreibe es jetzt trotzdem einfach mal:

Wäre es möglich, dass ihr einen aktuellen Intel Schluckspecht (13900K oder 13700K) und ein aktuelles AMD-Gegenstück nochmal testet und entweder:
- die CPU Powertargets auf z.B. 60W stellt und die FPS messt
- oder die FPS auf 60 begrenzt und dann nochmal den Verbrauch messt?

Mir ist klar, dass der AMD (weit) vorne liegen wird. Ich wüsste nur gerne, wie groß die Unterschiede sind, wenn für beide Prozessoren die gleichen Bedingungen herrschen. Also dass entweder beide "nur" an 60Fps arbeiten müssen oder beide eben zeigen müssen, was sie z.B. mit 60W leisten.

Ja ich weiß, dass ihr in den CPU Tests eine ähnliche Tabelle habt. Mich interessiert es aber in CP2077PL.

Das finde ich für einen fairen Vergleich viel aussagekräftiger.

Falls das nicht möglich ist, ist das natürlich auch voll ok :)
Es herrschen bereits für beide CPUs die gleichen Bedingungen, und zwar: Gib mir mit Werkseinstellungen die bestmögliche Performance. Es ist doch nicht AMDs Schuld, dass Intel die sprichwörtliche Brechstange rausholen musste, damit man überhaupt an die X3D-CPUs rankommt. Klar kriegt man mit UV auch einen Intel effizienter - aber es macht halt keinen Sinn, OC/UV Situationen zu testen, da man sonst leicht die Benchmark-Last (auf dem Tester) vervielfacht und es dennoch nicht aussagekräftig ist, da Person A einen besseren Chip erwischt hat und mehr UV hinkriegt als Person B.
 
@Drayygo
Das ist halt auch quatsch.
Je nach Spiele Auswahl ist der Intel Stock vorne und mal der 3D Stock.

Betreibt man beide am RAM Optimum/Maximum siehts halt auch anders aus, da der 3D durch den Cache kaum noch skaliert und der Intel/RPL schon.

Und wem die paar Watt auf der CPU wehtun, hat entweder zu viel Zeit zum zoggn oder sich mit den generellen PC Kosten übernommen.

Just my 2 cents.

Vg
 
@Drayygo
Das ist halt auch quatsch.
Je nach Spiele Auswahl ist der Intel Stock vorne und mal der 3D Stock.

Betreibt man beide am RAM Optimum/Maximum siehts halt auch anders aus, da der 3D durch den Cache kaum noch skaliert und der Intel/RPL schon.

Und wem die paar Watt auf der CPU wehtun, hat entweder zu viel Zeit zum zoggn oder sich mit den generellen PC Kosten übernommen.

Just my 2 cents.

Vg
Wo ist meine Aussage quatsch? Keiner deiner Punkte geht auch nur irgendwie auf meinen Post ein. Hast du die falsche Person zitiert? Oder ist vor lauter Intel-Powerdraw dein Stromnetz zu Hause zusammengebrochen, sodass du keinen Strom mehr für den Monitor hast und daher einfach irgendwas geschrieben hast?
 
Es herrschen bereits für beide CPUs die gleichen Bedingungen, und zwar: Gib mir mit Werkseinstellungen die bestmögliche Performance. Es ist doch nicht AMDs Schuld, dass Intel die sprichwörtliche Brechstange rausholen musste, damit man überhaupt an die X3D-CPUs rankommt. Klar kriegt man mit UV auch einen Intel effizienter - aber es macht halt keinen Sinn, OC/UV Situationen zu testen, da man sonst leicht die Benchmark-Last (auf dem Tester) vervielfacht und es dennoch nicht aussagekräftig ist, da Person A einen besseren Chip erwischt hat und mehr UV hinkriegt als Person B.

Oh bitte nicht falsch verstehen. Ich stimme dir in allen Punkten absolut zu.
Wenn es um die Bestmögliche Performance geht, habt ihr genau das getestet. Ich will auch kein OC/UV testen. Das habe ich auch gar nicht gewünscht.

Ich finde nur für einen richtigen Vergleich der Effizienz, müsste man eine gleiche Basis schaffen.
Das Auto Beispiel hier im Forum finde ich nicht verkehrt: Wenn man einen Golf GTI gegen einen Porsche Boxter antreten lässt, ist klar, dass der Porsche unter Vollast mehr verbraucht. Und vermutlich quetscht er aus der doppelten Menge Sprit die letzten 10 km/h heraus. Dafür ist er halt auch ein wenig schneller. Daraus die Effizienz abzuleiten, ist aber nicht wirklich vernünftig. Würde man schauen, wie viel beide Autos bei 100 km/h verbrauchen, wären die Zahlen viel eher vergleichbar.

Und nein: Dieses Beispiel soll nicht AMD und Intel darstellen. Ich wollte damit nur erklären, weswegen ich finde, dass die Zahlen aus diesem Test zwar gut und relevant für die Frage sind, wie viel die CPUs unter Volllast verbrauchen, ich allerdings für einen richtigen Effizienz-Vergleich eine gemeinsame Basis bevorzugen würde.

Aber wenn ihr das anders seht, ist das natürlich in Ordnung.
 
Oh bitte nicht falsch verstehen. Ich stimme dir in allen Punkten absolut zu.
Wenn es um die Bestmögliche Performance geht, habt ihr genau das getestet.

Ich finde nur für einen richtigen Vergleich der Effizienz, müsste man eine gleiche Basis schaffen.
Das Auto Beispiel hier im Forum finde ich nicht verkehrt: Wenn man einen Golf GTI gegen einen Porsche Boxter antreten lässt, ist klar, dass der Porsche unter Vollast mehr verbraucht. Und vermutlich quetscht er aus der doppelten Menge Sprit die letzten 10 km/h heraus. Dafür ist er halt auch ein wenig schneller. Daraus die Effizienz abzuleiten, ist aber nicht wirklich vernünftig. Würde man schauen, wie viel beide Autos bei 100 km/h verbrauchen, wären die Zahlen viel eher vergleichbar.

Und nein: Dieses Beispiel soll nicht AMD und Intel darstellen. Ich wollte damit nur erklären, weswegen ich finde, dass die Zahlen aus diesem Test zwar gut und relevant für die Frage sind, wie viel die CPUs unter Volllast verbrauchen, ich allerdings für einen richtigen Effizienz-Vergleich eine gemeinsame Basis bevorzugen würde.

Aber wenn ihr das anders seht, ist das natürlich in Ordnung.
Du hättest insofern mit deinem Auto-Beispiel Recht, wenn wir uns hier auf Werte beziehen würden, die aus synthetischen Benchmarks abgeleitet werden. Da sich hier aber auf ein "reales" Beispiel bezogen wird (der reelle Verbrauch in einem Spiel, wo selbst bei hoher Auflösung ein CPU-Limit nicht ausgeschlossen werden kann, mindestens partiell) ist imho eine Vergleichbarkeit gegeben. Versteh mich auch nicht falsch, ich bin ein großer Freund von Benchmarks aller Art, also Mehr = Besser. Wenn mal jemand Zeit hat, deine Szenarien zu testen, wunderbar. Her damit. Aber wenn die Tester eben nur für bestimmte Benches Zeit haben, bevorzuge ich die, die aktuell schon gemacht werden als Basis. Ich hoffe das kam einigermaßen verständlich rüber :ugly:

Hier eine Quelle für CPU-Limit in hohen Auflösungen:

 
Wo ist meine Aussage quatsch?

Hier:
..., dass Intel die sprichwörtliche Brechstange rausholen musste, damit man überhaupt an die X3D-CPUs rankommt.


Oder ist vor lauter Intel-Powerdraw dein Stromnetz zu Hause zusammengebrochen, sodass du keinen Strom mehr für den Monitor hast und daher einfach irgendwas geschrieben hast?

Da ich seit März keinen/kaum Netzbezug habe, kanns wohl nicht so schlimm sein.
 
Es geht hier ja um Effizienz und nicht nur um den Maximalverbrauch.
Aber Effizienz in z.T. drastisch unterschiedlichen Betriebspunkten.
Ich bin da ausnahmsweise auch bei den Auto-Beispielen. Der Verbrauch pro km/h bei einem was 250km/h schafft gegen das was eh bei 130km/h abriegelt zu vergleichen ist nicht so furchtbar aussagekräftig.

Ich bin davon überzeugt dass AMD am Ende trotzdem "gewinnt", aber gerade bei den annähernd unlimitierten k CPUs könnte es schon einen gewaltigen Unterschied machen wenn sie sich nichts ins Nirwana boosten weil die angestrebte Bildrate schon erreicht wurde.
 
Mit Software Reading "abgelesen" nehme ich an?

Wenn ja, kannst du gerne noch mal 50 - 60w drauf schlagen, wenn nicht gar mehr (je nach Board), wenn man es mit externer Hardware nach misst.

Na wenn das so ist...
Wie kommen dann igors Werte dann zu stande
Desweiteren ließ der 8auer es ebenfalls per Software es...
In manchen Videos misst er es nochmal genau nach und da gibt es kaum Differenzen...
Aber Hauptsache sachen behaupten
ja das mag sein aber tut hier nix zur Sache: dann könnte man auch sagen im CPU Limit brauchen GPUs eh nicht so viel. Es wird halt gemessen welche "bis zu" Werte die CPU erreicht. Es hieß immer die Intels beauchen im Spiele(!)betrieb nicht deutlich mehr als AMD, das ist zumindest mit den letzten Gens in diesem Spiel doch anders.
Zeigt auch, dass die Kerne genutzt werden

Im Moment ja, aber nicht technologisch, sondern weil Intel kein dementsprechendes Produkt liefert.
Was eigentlich recht verwundert - und dann wieder auch nicht.
Wenn man bei Intel lustig ist, könnte man quch wie früher schon Cache dazuschnallen. Macht man wohl ganz bewusst nicht. Vielleicht in Zukunft, etwa für Notebooks, weil es mit Foveros noch leichter sein könnte.
Mal schauen was Lunar Lake bringt
Doch es tut hier sehr wohl zur Sache
Den viele nehmen das hier so an als ob das der normale Verbrauch wäre
In Anwendung is das richtig nur im gaming gibt es mehrere Faktoren
Wohl kaum zockt jemand mit einem 13900k in full HD ?
Rechne rund 50W auf das HWInfo Reading drauf, dann passts.
Habs selber mit nem externen Tool nachgemessen.

Aber die paar Watt die der 13900K braucht, sind eh total egal.
Wem die wehtun, der soll einfachs Licht ausschalten :-D

Dann solltest lieber mal das Tool von der 8auer nehmen
Komischerweise stimmt das dann fast überein mit hwinfo?‍♂️
 
Zuletzt bearbeitet:
Dann solltest lieber mal das Tool von der 8auer nehmen
Komischerweise stimmt das dann fast überein mit hwinfo?‍♂️

Dann müsste PCGH auch wechseln
Interessant.

7800X3D. 70W, 117 FPS, 1,825 FPS/W bei 16 threads

13900K. 223W, 119 FPS, 0,534 FPS/W bei 32 threads

Man, was bin ich froh, dass das Quatsch ist und keine realen Werte, die auf eine Brechstange hindeuten. Oh, Wait.

Ja, der RPL ist vorne. 2FPS.
Also stimmt deine Aussage rankommen schon mal nicht.
Weil du weder auf Leistung, noch Perf/Watt referenzierst.

..., dass Intel die sprichwörtliche Brechstange rausholen musste, damit man überhaupt an die X3D-CPUs rankommt.

Auch passt diese Aussage von den Release Zeitpunkten her gar nicht.

13900K: 09.11.2022
7800X3D: 27.04.2023

"Brechstange rausholen um ranzukommen" impliziert ja, dass der 3D vor dem RPL released worden hätte müssen, damit sich Intel
Gedanken machen könnte, wie sie die CPU aufbauen müssen, um "rankommen" zu können.

Also sind wir wieder bei Quatsch.
 
Zuletzt bearbeitet:
Du ich weiß nicht in welcher Welt du lebst, aber ich sitze jetzt nicht weinend vor meiner Intel Maschine. Ich habe mich bewusst für diese CPU entschieden und das ist OK für mich!
Das ist ja schonmal OK, brauchst auch nicht weinen.

Also ich kann dich beruhigen mir ist es schnurrz wer den längsten, größten, leuchtendensten Balken hat, dazu bin ich schon zu alt, aber mir geht es hier um real Werte und nicht um Peaks oder es kann so sein mehr nicht.
Es sind eben gottverdammte reale Werte und keine Peaks! Du haust hier sinnlos 80W raus und wirst dann freundlich darauf hingewiesen, dass dies eben nur softwareseitig ermittelte Werte sind, die nach offiziellen Tests nichts mit der Realität zu tun haben, willst dann aber "reale Werte" diskutieren und ermitteln? Nicht dein Ernst, oder doch?

Denn 230Watt sehe ich z.B. kein einziges Mal in dem Spiel in realistischen Szenen.
Deine CPU zieht ja auch keine 230W, sondern 188W und dies eben an der Hardware gemessen. Wie hier der eine oder andere User anmerkte, kommen auf die ausgelesenen Werte gerne mal 50W on top, damit wärst also selbst du bei 130W inGame und damit doppelt so hoch wie der X3D @ Vollast bei deutlich weniger Output und nur darum geht es hier doch gerade.


Daher könnte ich jetzt auch reißerisch sagen mein Wagen braucht nicht wie der Hersteller im Schnitt angibt, weil ich 200 auf der Autobahn fahre oder einfach eine pfeife beim Fahren bin.
???
Schwachsinnsvergleich. Ich verstehe zwar in welche Richtung du argumentieren möchtest, aber die Angaben eines Herstellers (sofern nicht vorsätzlich gefälscht) eben dennoch einen Anhaltspunkt. Wenn ein Auto nach WLTP bspw. 5l auf 100km braucht, ein anderen 18l auf 100km, dann darfst du zweimal raten wie sich dies bei 200km/h widerspiegelt. Ja, die Relation kann eine andere sein, aber es wird wohl eher nicht dazu führen, dass der 18er vor dem 5er landet! Darum geht es hier dann am Ende eben auch.

Daher gehört hier auch ein AVG Wert her und ein min/Max. Und mir ist der Stromverbrauch auch wirklich egal, denn dann hätte ich mir keine 4090 verbauen!
Oh mein Gott!
Das ist ein AVG Wert!

Eine 4090 ist extrem effizient, schau mal in die Effizienztabellen.


aber das Ergebnis ist doch nicht wirklich aussagekräftig was Effizienz betrifft.
da wie eben schon erwähnt, ein Frame durch die Skalierung ganz andere Detailstufen aufweisen kann
Verstehe den Ansatz gerade nicht. Gerade CP2077 (mit Patch nun noch mehr) bringt viele CPUs an die Grenzen. Nicht jeder spielt mit RT Overdrive, 4K und Ultra Details und je weiter man mit diesen Einstellungen runterdreht und je höher man bspw. DLSS/FSR dreht, je eher landet man im CPU Limit. Die TopDogs ala 13900k/7800X3D sind davon vieleicht noch nicht so betroffen, aber schon die letzte Gen sackt massiv ab und in Bereiche die nicht mehr optimal sind. Ein 12700k bspw. hängt in den P1 bei gerade noch 65fps! Die GPU ist je nach Auflösung wahrscheinlich die limitierenste Komponente, aber CP schafft es eben

Man darf eben auch nicht vergessen, dass CPU Limit nur das eine Limit ist! Wenn eine CPU bspw. AVG 100fps kann, die GPU schafft AVG auch 100fps, dann werden diese beiden zusammen, niemals 100fps AVG ergeben, sondern eher drunter liegen (wobei man auch hier nicht vergessen sollte, dass PCGH durch die Auswahl der Szenarien versucht diesen Effekt maximal zu verhindern).
 
Dann müsste PCGH auch wechseln



Ja, der RPL ist vorne. 2FPS.
Also stimmt deine Aussage rankommen schon mal nicht.
Weil du weder auf Leistung, noch Perf/Watt referenzierst.



Auch passt diese Aussage von den Release Zeitpunkten her gar nicht.

13900K: 09.11.2022
7800X3D: 27.04.2023

"Brechstange rausholen um ranzukommen" impliziert ja, dass der 3D vor dem RPL released worden hätte müssen, damit sich Intel
Gedanken machen könnte, wie sie die CPU aufbauen müssen, um "rankommen" zu können.

Also sind wir wieder bei Quatsch.
Nope, wir sind nicht bei Quatsch - da ich nie die 7000er X3D spezifiziert habe. Schon der 5800X3D ist mit Intel Schlitten gefahren.

Quelle aus dem PCGH Index 2023:

1695294553873.png



Ergo musste der 13er Intel per Brechstange aufgebohrt werden, damit er an den Nachfolgern des 5800X3D vorbeikommt. Das ist leider nicht gelungen (im Schnitt, bei einzelnen Spielen schon, bei anderen wiederum nicht). Und das trotz lächerlich hohen Verbrauchs.
 
@Drayygo
Herrlich.

Also wenn man den Pfennig drei Mal umdrehen muss, bei dem kleinen Verbrauch der CPUs, ist das Hobby PC vielleicht das falsche?

Wenn man Effizient und kosten sparend unterwegs sein will, sollte man beim 5800X3D bleiben, weil die ganze Plattform wesentlich günstiger ist.

Alle anderen Argumentationen warum der geringere Verbrauch eines 7800X3D der heilige Gral ist und der Stromverbrauch eines Intel einen arm machen sollte, ist ein totales Hirngespinst.
Von dem was der 7800X3D gegenüber einem 5800XD mit kompletter Platform kostet, kann man Jahre unter Volllast laufen lassen.

Wer aber so viel Geld für die AM5 Plattform oder Intel in die Hand nimmt und dann wegen 100W rumweint, macht sich mMn nur lächerlich.
 
Bei GPUs macht Raff aber auch den Vergleich bei konstanter Bildrate. Den würde ich mir mindestens für eine Auswahl an CPUs auch wünschen
Anhang anzeigen 1438061
ja, das macht Sinn.
Aber dann ist halt interessant was die CPU unlimitiert "frisst", etwa wenn man eine stärkere GPU nachrüstet und damit das GPU Limit fällt
Doch es tut hier sehr wohl zur Sache
Den viele nehmen das hier so an als ob das der normale Verbrauch wäre
In Anwendung is das richtig nur im gaming gibt es mehrere Faktoren
Wohl kaum zockt jemand mit einem 13900k in full HD ?
da gibts so einige die ein FHD 240hz Display haben.
Aber abgesehen davon: siehe oben. Wur testen GPUs im GPU unlimotiertn Setting, folgerichtig muss man auch CPUs so testen.
S. Oben, was wenn ich die GPU nachrüste und die dann wieder durch die CPU Limitiert ist
 
Zuletzt bearbeitet:
Aber Effizienz in z.T. drastisch unterschiedlichen Betriebspunkten.
Nö, der Test zeigt die Effizienz in exakt den gleichen Betriebspunkten, nämlich Maximallast. Ich würde dem ganzen ja zu Teilen noch zustimmen, wenn man nun sagt, der 13900K braucht zwar 1,5W je FPS bringt aber 100% Mehrleistung (oder auf das Auto bezogen, der zieht 30l auf 100km bei Tempo 300) und der Ryzen bringt zwar mit 0,5W je FPS die dreifache Effizienz (fährt aber eben mit 10k auf 100km nur Tempo 150). Aber dies ist ja nicht der Fall, beide CPUs sind @Maximallast bei 300km/h (Autovergleich), der eine braucht 30l, der andere 10l.
Ich bin davon überzeugt dass AMD am Ende trotzdem "gewinnt", aber gerade bei den annähernd unlimitierten k CPUs könnte es schon einen gewaltigen Unterschied machen wenn sie sich nichts ins Nirwana boosten weil die angestrebte Bildrate schon erreicht wured

valider Punkt, allerdings hast du dir mal die CPU Benches angeschaut, ein 12700k pfeift schon auf dem letzten Loch mit unter 70fps, dadrunter ist schon alles am Ende und kann kaum die 60er Marke halten. Ein 13900k schafft das am Ende weil er vor allem eins hat, enorme Taktraten mit neuen Boostlimits. Wenn man den 13900k auf 80% Verbrauch limitiert, bin ich mir recht sicher, dass er hier (CP ist ein Exot) wahrlich viel Leistung verliert und 10-15% zurückfällt.

Ohne Frage bietet so ein 13900k enorme Potenziale die Intel leider alle gekillt hat, aber @Stock glaube ich, dass er mit einer 4080/4090 eben tatsächlich auch in diese Bereiche kommt (vieleicht stehen am Ende keine 200W da, aber 160-180W werden anliegen). Wer einen 13900k dann mit einer 4060Ti mit 8GB VRAM betreibt, ja der ist dann vieleihct auch zu exotisch unterwegs um ernsthaft gebenched zu werden.

@PCGH_Dave: Vieleicht kannst du ja mal bei den GPU Tests den einfachen Check machen und das Multimeter (ja ich weiß, dass es ein viel teureres Teil ist) mal einschalten wenn die GPUs schwitzen. Würde mich schonmal interessieren in welchen Bereichen so ein Raptor kommt, wenn die 4090 ihn befeuert.
 
Zuletzt bearbeitet:
Na wenn das so ist...
Wie kommen dann igors Werte dann zu stande
Desweiteren ließ der 8auer es ebenfalls per Software es...
In manchen Videos misst er es nochmal genau nach und da gibt es kaum Differenzen...
Aber Hauptsache sachen behaupten

Wo ist denn "Igor sein Test" zu Cyberpunk 2077 Patch 2.0 mit der selben Hardware die hier bei PCGH genutzt wurde und auch der selben Benchmarkszene inklusive Settings?

Ich finde dazu nichts.

Nochmal:

Software-Reading kann sehr stark abweichen (je nach eingesetztem Mainboard - im Schnitt sind das dann eben gute 50w).

Dazu kommt eben wie gut das Software-Reading der Boards eingestellt ist und wenn man mit einem PMD Modul testet, dann kommt es darauf an ob vor oder nach den VRM gemessen wird (Verlustleistung).

ElmorLabs PMD misst die Leistungsaufnahme die zur CPU führt ohne die Verlustleistung der VRMs.

Nebenbei ist die gewählte Szene von PCGH so ausgelegt, dass diese den "Worst Case" abbildet, das aber schon seit Jahren.

Bei GPUs beschwert sich niemand deswegen, bei CPUs aber immer und immer wieder?

Man kann nur das eintragen, was die Daten / Messungen ergeben und wenn @PCGH_Dave hier einen sehr hohen Verbrauch gemessen hat glaube ich ihm das.

Was beim User zu Hause (mit manuellem tweaking etc.) passiert ist was anderes.

Und wenn andere Redaktionen unterschiedliche Werte messen, kann das wie oben erwähnt, an der HW liegen die zum Messen benutzt wurde und auch an den Settings sowie der Szene.

Klar kann bei der selben CPU an einer anderer Stelle im Spiel die Leistungsaufnahme viel geringer sein, dann wird die CPU aber vermutlich nicht so stark ausgelastet.

Ich verstehe auch die Aussage "Hauptsache Sachen behaupten" nicht.
Es ist keine Behauptung, sondern eine MESSUNG!
Wenn einem diese nicht gefallen, kann doch ich nichts dafür...

Aber ich habe dank diesem Thread schon wieder ein paar mehr Leute auf der Ignoreliste, danke dafür! :D
 
Zurück