Welche CPU zum "Strom sparen"?

Wow 10 Watt nur, Respekt. Na ich gehe mal davon aus, ich werde das nicht schaffen. Ich frage mich wie du das denn geschafft hast. An den Windows energiesparmodus kann es alleine ja nicht liegen. Und das ich sowas behaupte, weil ja hier und da zu lesen ist wie srromhugrig das system ist. Auch das einige über 200 Watt verbraten dank der tollen CPU zeigt mir wie hungrig diese sind. Da sind ja dagegen sogar ein threadripper 3960x bzw 3970x sogar noch im vrlergleich her sparsamer. Rechnet man also mit Realition zu Kernen zum Stromverbrauch dann sieht es anderst aus. Die bei Amd sind nicht gedrosselt oder sowas. Oder rechnet man bei Watt pro Kern dann sieht die Sache anderst aus. Und ja sowas hat bisher kaum einer in der Reaktion direkt gebracht. Das Bewusstsein zum richtigen Sparen scheint in der Gesellschaft noch immer nicht richtig angekommen zu sein. Aber reden immer wieder davon Strom zu sparen weil Strom immer teuer wird. Das ist ein Trugschluss. Die eigene Wahrnehmung verzerrt. Würde es alle so ernst nehmen wie ich dann hätten wir das Problem mit dem stromschwankungen nicht mehr so. Ich fange dank meiner Mutter an es anzupacken um ja nicht mehr so viel zu brauchen wie bisher. Sowas wie das von dir mache ich auf jedenfall. Denn es ist wichtig. Und naja im idle braucht mein 5950x den ich oben habe 30 Watt im idle. Es braucht aber teilweise mehr weil irgendwas in nach oben treibt. Liegt wohl an den nicht eingeschaltet stromsparnodus. Also muss ich das noch korregieren.

Damit ist nun klar Intel ist so echt kein stromfresser mehr. Jeder kann sich ja mal irren oder?
Und wenn man was direkt mit einander vergleicht muss man das andere System ebenso drosseln um es gut miteinander vergleichen zu können sonst ist es ja unfär.
 
Wow 10 Watt nur, Respekt. Na ich gehe mal davon aus, ich werde das nicht schaffen. Ich frage mich wie du das denn geschafft hast. An den Windows energiesparmodus kann es alleine ja nicht liegen.
Diese 10 Watt ist ein max. Wert, der nur kurz mal anlag, es sind 4 Watt. :D

Dieser Max-Werte ist uninteressant, da der Durchschnitt um die 7 Watt liegt. Bewegte sich daher zwischen 4 und 10 Watt. Habe da nichts dran gemacht, ist original was Windows dazu mitbringt. Sah aber mit dem 9900K nicht viel anders aus. Hier kam ich auf etwa 6-7 Watt (max. 14 Watt).

Mein Sohn kommt mit seinem 3900X nicht unter 30Watt, obwohl wir hierzu ein Energiesparplan von Computerbase mit eingerichtet haben. Mit dem Energiesparplan von Windows oder dem AMD Treiber kommt er noch höher.

Wir haben auch mal die gesamte Leistungsaufnahme beider System verglichen.

Damals als wir diese Taten hatte ich auch noch eine 2080S und noch mein 9900K verbaut, was er als Grafikkarte auch verbaut hat. Die gesamte Leistungsaufnahme im gleichen Game kam mit beiden Systemen auf 420 Watt. Trotzdem liegt sein Energieverbrauch im Monat höher als mein System und das liegt ganz einfach daran, dass ich nur gelegentlich Games laufen habe und überwiegend Office und er Stunden lang und wenn er zu Hause ist sogar fast den ganzen Tag sich mit Kumpels in Games trifft.

Das Ganze habe ich mit einem Strommessgerät von AVM festhalten können, da die Fritzbox immer den Energieverbrauch des Gerätes abspeichert.

Hier mal als Beispiel wie es mit meinem vorherigem 9900K vs. dem neuen 12900K aussieht.
Ashampoo_Snap_Dienstag, 7. Dezember 2021_13h11m03s_001_.png
 
Zuletzt bearbeitet von einem Moderator:
Wie schon geschrieben ergibt es keinen Sinn, da du immer noch davon besessen bist, dass Intel viel Strom frisst.
Siehe deine Post, die ständig in diese Richtung gehen! Aus diesem Grund diskutiere ich dann mit solchen Leute auch nicht lange herum, weil ich hierzu auch Beispiele mit angebe, die dann förmlich ignoriert werden. Wie bereits geschrieben sind im Sammelthema genug Beispiel enthalten, wann die Prozessoren viel Energie ziehen und was sie aber real z.B. mit Games ziehen.
Er will die CPU ja für Computelastig Szenarien nutzen. Da wird er limitieren müssen wenn er nicht am Stock PL sein möchte. In dem Kontext säuft Intel auch @Stock unverhältnismäßig viel.
Natürlich können Stresstests und Benchmark eine hohe Leistungsaufnahme verursachen, die wird aber real nie so hoch anliegen, wenn kein Prime95 ständig im Hintergrund mit läuft.
Braucht man garnicht. Reichen auch entsprechende Anwendungen. Mein 3700x zieht auch 150W wenn ich mein Python Skript starte ;)
 
Er will die CPU ja für Computelastig Szenarien nutzen. Da wird er limitieren müssen wenn er nicht am Stock PL sein möchte. In dem Kontext säuft Intel auch @Stock unverhältnismäßig viel.
Wie ich schon schrieb, hängt immer ganz von den Anwendungen ab, die jeder nutzt und kann daher nicht verallgemeinert werden. In meinem Fall muss ich nichts limitieren, da Games unter 95 Watt ziehen und im CPU-Limit nicht über 125 Watt. Klar kann die Leistungsaufnahme kurz beim Starten eines Games höher gehen, aber das sind meist nur Sekunden.

Habe mir auch ein P1/P2 mit 241 vs. 125 Watt erstellt, aber solange meine Anwendungen solch eine Last nicht verursachen findet auch keine Limitierung statt. Zum Video rendern nutzt die Software was ich habe die Grafikkarte und dann wird der Prozessor sogar nur mit 23 Watt belastet.

In meinem Fall muss ich tatsächlich Stresstests oder Benchmark laufen lassen, um eine hohe Leistungsaufnahme erreichen zu können. Natürlich muss jetzt jeder für sich selbst wissen, was sein System mit eigenen Anwendungen ziehen wird. Daher heißt es hier ganz einfach... Programme laufen lassen und schauen was für eine Leistungsaufnahme anliegen wird.
 
Diese 10 Watt ist ein max. Wert, der nur kurz mal anlag, es sind 4 Watt. :D

Dieser Max-Werte ist uninteressant, da der Durchschnitt um die 7 Watt liegt. Bewegte sich daher zwischen 4 und 10 Watt. Habe da nichts dran gemacht, ist original was Windows dazu mitbringt. Sah aber mit dem 9900K nicht viel anders aus. Hier kam ich auf etwa 6-7 Watt (max. 14 Watt).

Mein Sohn kommt mit seinem 3900X nicht unter 30Watt, obwohl wir hierzu ein Energiesparplan von Computerbase mit eingerichtet haben. Mit dem Energiesparplan von Windows oder dem AMD Treiber kommt er noch höher.

Wir haben auch mal die gesamte Leistungsaufnahme beider System verglichen.

Damals als wir diese Taten hatte ich auch noch eine 2080S und noch mein 9900K verbaut, was er als Grafikkarte auch verbaut hat. Die gesamte Leistungsaufnahme im gleichen Game kam mit beiden Systemen auf 420 Watt. Trotzdem liegt sein Energieverbrauch im Monat höher als mein System und das liegt ganz einfach daran, dass ich nur gelegentlich Games laufen habe und überwiegend Office und er Stunden lang und wenn er zu Hause ist sogar fast den ganzen Tag sich mit Kumpels in Games trifft.

Das Ganze habe ich mit einem Strommessgerät von AVM festhalten können, da die Fritzbox immer den Energieverbrauch des Gerätes abspeichert.

Hier mal als Beispiel wie es mit meinem vorherigem 9900K vs. dem neuen 12900K aussieht.

Idle ist beim Chiplet-Design nicht sonderlich gut (bisher), auch mein 3600 kommt Stock nur auf knapp über 10W, mit OC (gerade IF + SOC Spannung) sind es dann ~17W Package, mit Browser/YT/Pycharm dann 25-30W. Allerdings liegt der auch beim Zocken zwischen 40W (Rocket League) und 60W (BF2042) mit "max OC" und holt dadurch wieder gut was rein.

Allerdings sollte man natürlich dennoch die ganze Plattform an der Dose messen, da komme ich dann immerhin auf solide ~42W (inkl. Wakü) minimal. Intel (Rocket Lake ausgenommen!) schlägt sich da aber auch leicht besser.

Wer darauf aber großen Wert legt, kommt an den Ryzen APUs (Monolithische Chips!) nicht vorbei. Die sind aktuell (zusammen mit dem richtigen B550 Board) Spitzenreiter beim Idle-Verbrauch.
 
Ja gut ich will ja mit Onbard GPU oder einer absoluten Lowend GPU hantieren.Da wird es sich dann auch anderst verhalten. Da wird dann auch der Gesammte Pc sparsamer gemacht.Aber dennoch sind auch da Grenzen gesetzt weil es ab einen bestimmten Punkt auch garnicht mehr sparsamer geht. Mir hat wer gesagt gehabt bevor ich so nen core i5 12600k auf so stark drossel ,kann ich auch gleich zu einem Ryzen 9 3900x greifen der auch nicht wirklich schlechter wäre und diese nmit gedrosselt auch sparsamer kriegen kann.
Soweit ich weis ist es echt einfach einen festen Takt zu setzen. Das habe ich auch vor und ich weis wenn man dem Ryzen die Turbo Funktion wegnimmt das die Automatisch sparsamer sind als denen freien lauf zu lassen. WIrd gewiss auch bei Intel so sein.Wenn man es sparsam haben will,heißt es die Hardware zu bändigen bzw zu zähmen,dann klappt das auch.
 
Soweit ich weis ist es echt einfach einen festen Takt zu setzen. Das habe ich auch vor und ich weis wenn man dem Ryzen die Turbo Funktion wegnimmt das die Automatisch sparsamer sind als denen freien lauf zu lassen. WIrd gewiss auch bei Intel so sein.Wenn man es sparsam haben will,heißt es die Hardware zu bändigen bzw zu zähmen,dann klappt das auch.
Bei Zen3 macht der Energiesparmodus von Windows bereits einen deutlichen Unterschied bei Misch-/ Spielelast. Bei meinen Beobachtungen werden etwa 25-30W eingespart, was sich aber auch negativ beim maximalen Boost bemerkbar macht. Laut Benchmark mit BF5 bleiben die P99 Werte allerdings genau so hoch. Heißt, unter starker Last spart man nicht, aber verliert auch keine Leistung.
Ich würde den Turbo nur abschalten, wenn die CPU meist unter Dauerlast ist, nur dann kann man mit einer manuellen Takt-/ Spannungsanpassung die beste Effizienz erzielen.
 
Ah OK verstehe. In meinem Fall wäre es schwierig weil von den 6 Stunden ich nur maximal 3 Stunden pro Tag wirklich unter last wäre und der Rest dann bei idle herumdümpelt. Irgendwann wird es mal so sein das der ganze PC bei idle sein wird, das wird noch ca 1 Jahr dauern bei mir. Also so mindestens 6 Monate und je nach dem wie ich voran komme bei dem was ich vorhabe auch mehr als 6 Monate. Darum ist die Frage bei mir nicht so einfach.

Achja habe von den Intel Nutzer gelesen das man da das Power limit direkt einstellen kann. Also wer 80 Watt nur maximal verbrauchen will der stellt da 80 Watt ein. Der takt richtet sich dann nach dem Limit. Der 12600k erreicht mit seinen ganzen Kernen 4,1 ghz bei 125 Watt Limit. Ohne Limit verbraucht dieser 250 Watt und erreicht 4,7 GHz. Nun mit 600 mhz noch weniger sinkt die Ersparnis und erreicht nicht mehr das. Heißt ich erwarte keine bei 3,5 GHz keine 62 Watt so im Schnitt 80 Watt. Heißt hier steigt die effizients nicht mehr so stark wie man erwarten könnte an.
Und joa bei den 3900x und 3950x wird es wohl auch so sein. Ich verliere bei meinen takt relativ wenig Leistung weil 100 mhz 1 % entspricht. Die anwendung und settings sind so speziell das ich relativ wenig verliere. Was sind da schon 20 % an Leistung oder 16 %. Bei den Kernen scheint das Programm auch sehr eigen zu sein.
Habe das bei meinem hauptsystem mit 3 Kernen weniger beim 5950x mit kaum Leistungs Kosten verbunden. Bei CPUs mit mehr Kernen verliert es jedoch mehr Leistung. Was irgendwie garkein Sinn ergibt.
Bei Intel schlägt der 12900k zu simulierte 12700k jedenfalls weit weniger Leistung und weniger thread bei den CPUs gewinnen diese dennoch.

Ich ging immer davon aus mehr Kernen ergeben mehr leistung. Und bei mehr kernen scheint cpu takt mehr Auswirkung zu haben als bei weniger Kernen. Das sehe ich ja auch ganz gut. Hier scheint ipc bei weniger Kernen mehr Wirkung zu zeigen als bei mehr Kernen.

Ich scheine nun langsam zu verstehen das Kerne und takt eben nicht alles sind was die leisung beeinflusst. Es gibt also noch so vieles mehr. Ich weiß jedoch nicht was hier noch entscheidend ist. Transistoren scheinen eben auch nicht das Wunder bei der Leistung zu sein. Es gibt also noch was, was es beeinflusst.
 
Das Begrenzen der maximalen Leisungsaufnahme macht sich sowohl bei Intel als auch bei AMD CPUs als erstes bei starker Last auf vielen oder allen Kernen bemerkbar. Grade CPUs mit vielen Kernen hängen öfter im Powerlimit als solche mit weniger Kernen. Bei hoher Last trifft diese ein gesenktes Powerlimit daher stärker.
 
Ja das kommt noch dazu zu dem Problem was ich festgestellt hatte.Die noch mehr Vielkerner können sich bei meinem Wokrload irgendwie nicht so richtig weit davon rennen. Die mit weniger Kernen sind den noch mehr Vielkerner im Nacken könnte man so sagen.Sonst würde sich das Verhalten vom 12900k mit 4,7 ghz trotz auf 20 Threads begrenzt aber fast gleich viel Stromverbrauch weil 250 zu 280 Watt kaum erklären. Es trennt zum Threadripper 3960x mit 24 Kernen ohne smt nur noch 3 % an Leistung dahinter.
Achja bei mir ist das wirklich ungewöhnlich.Das ein Core i9 12900k einen Threadripper 3960 ohne SMT schlägt. Jedoch kann die einem 3970x ohne smt sowie auch einem 2990wx nicht ganz schlagen.Und auch einem 3960x ohne smt mit fest zugeorndeten Kernen ebenso wenig.
Der Sieger ist also eine 3960x ohne SMT mit festen Kernen zugordnet also 11 Kerne je Software.

Es zeigt also deutlich das die Anzahl der Kerne ebenso eine Rolle Spielt und nicht nur die Leistungsaufnahme.
Zu viele Kerne kriegt also die Software Probleme.Das ist also das andere Problem außerhalb des Powerlimits pro Kern.

Und der 3960x ohne SMT mit zuordnung hat 180 Watt maximal gebraucht. Klar könnte man nun mit Watt Pro Kern Rechnen.Dann wüsste ich welchen Wert ich nicht überschreiten dürfte.Dazu wurde diese CPU auf 4,1 ghz Übertaktet.Das ist nicht von mir.Heißt ich hätte dann noch viel mehr Luft als es jemals diese CPU haben würde. Es ist erfreulich. Und ich komme auf 7,5 Watt je Kern oder sollte man da noch den zusatz Chip mit abziehen.Das sind doch 50 Watt was der Verbraucht.Und dieser ist nur auf dem Threadripper so groß und Stromhungrig,nicht jedoch bei weniger Kerner nicht wahr?
Dann wären es ja nur noch 5,42 Watt je Kern.

Oder kann man das nicht so einfach rechnen?
 
Man kann aber dennoch einiges Optimieren und wenn es dann nicht reicht doch noch ein Limit setzen. Zum Beispiel hat mein 12900K mit CinebenchR23 ganze 270 Watt Leistung gezogen. Mit meiner Optimierung komme ich nun nur noch auf 200 Watt, ohne Leistungsverlust. Das Zauberwort heißt... UV, weil Boards oft viel zu viel Spannung darauf geben. So konnte ich von 1,300v auf nur noch 1,182v runtergehen.

Ashampoo_Snap_Mittwoch, 8. Dezember 2021_19h17m52s_001_.png

In Games sieht es dann z.B. so aus:
(Spannung und Leistungsaufnahme ist im Screenshot im unteren Bereich zu finden!)
Ashampoo_Snap_Mittwoch, 8. Dezember 2021_22h59m15s_002_.png
VCore: 1,168v | 58 Watt.
Natürlich im GPU-Limit.
 
Tya sowas geht halt nur beim zocken und auch nur im gpu Limit. Das Problem werde ich nie haben weil ich mit dem System erst garnicht zocken werde. Um das zu erreichen ist ein Verlust der cpu Leistung nicht mehr möglich. Das die person da 125 Watt für mich eingestellt hatte mag zwar nett gewesen sein. Aber ich wollte halt weiter runter. Es hatte ebenso ne 12900k gehabt. Ziel ist es aber auf 80 Watt fest runter zu kommen,trotz der massiven last. Und den 3900x werde ich auch so weit runter drosseln das es passt. Eigentlich nehme ich ja den 5800h als Vorbild mit seinen 35 Watt last aber so weit will ich die CPU dann doch nicht verhungern beim Stromverbrauch weil dann so gut wie keine Leistung mehr übrig bleiben würde. Aber oc und über 4 GHz ist schon mal der falsche weg. Wie gesagt den 3900x kann ich mit 3,8 ghz auf 90 Watt runter drosseln. Mit 1.25 oder 1.15 volt. Tya wie sieht es mit den 12900k aus, kann man da unter den 125 Watt packen trotz vollast auf allen Kernen. Das ist mein Weg und mein Ziel. Da verzichte ich gerne auf ein paar Prozent Leistung um den strkmverbrauch unter Kontrolle zu haben. Sollte das nicht so einfach gehen oder weil der takt massiv einbrechen und damit weit mehr als nur ein paar Prozent an Leistung verlieren, ist diese Plattform schon mal nix für mich.
 
Tya sowas geht halt nur beim zocken und auch nur im gpu Limit. Das Problem werde ich nie haben weil ich mit dem System erst garnicht zocken werde. Um das zu erreichen ist ein Verlust der cpu Leistung nicht mehr möglich.
Dann nimm doch AMD, denn in diesem Bereich sind sie halt doch Effizienter.
 
Du kannst eine CPU auch bei 1 GHz bei 0,8 Volt betreiben. Nur was hast du davon? Suche dir die günstigste CPU aus, die deine Erwartung an die Leistung erfüllt. Es bringt überhaupt nichts, 200 Euro mehr für eine schnellere CPU auszugeben, nur um damit dann "Strom zu sparen". Wie viele Jahre möchtest du den Prozessor nutzen, bis du die Mehrkosten für diese mit einer Stromersparnis wieder drin hast?

Da laut Text nicht gezockt werden soll, fällt Intel raus, in jeder Anwendung ist AMD mit Zen 2 oder Zen 3 besser angelegtes Geld und auch effizienter. Ich würde mich nach einem gebrauchten Ryzen 3600 oder 3700X umsehen, die bieten sehr viel Anwendungsleistung bei einer TDP von nur 65 Watt.
 
Nun ich habe mich ja schon entschieden für den 3900x.den auf 90 Watt gedrosselt und schon geht das klar. Klar ginge auch ein 3700x nur ich kriege so ein System leider nicht günstiger. Die meisten verlangen für so ein System 750 € und für das kriege ich ein 3900x System was mir angeboten wird. Würde nun ein 3700x bei rund 400 € gesammter PC ohne gpu oder älter gpu angeboten worden, hätte ich mich bestimmt dafür entschieden. Diese CPU ist schneller als ein 5800h. Bald kriege ich die Ergebnisse vom 5700g und kann dann entscheiden. Nur auch wenn die ne onbard gpu drinnen hat. Das System wird leider nicht günstiger, warum auch immer. Wie gesagt ursprünglich als erstes war es ein 5800h Laptop gewesen. Der Preis passte mit nur leider nicht. Dann war es ein 5700g aber auch die sind echt ganz schön teuer. Hätte nie gedacht das auch beim PC an sich die Preise ganz schön hoch sind. So habe ich mir das ja nicht gedacht. Man meint immer die Menschen hätte mehr an die neue Hardware interesse. Dem ist aber ja eben nicht so. Und genau da sitze ich zwischen zwei Stühlen und komme so eben nicht weiter. Auf jeden Fall ist der 3900x mit Gtx 950 ein gutes angebot mit 1 Jahr Garantie für den Preis von 750 € und wird mir sogar direkt zu mir nach Hause gefahren. Das nenne ich service eines privat Verkäufers.

Der andere der 5800x als System 600€.
Gute Frage,oder?
 
Zuletzt bearbeitet:
Zurück