Special AMD Ryzen 5 7500F im Test: Der Sockel AM5 ist auch "unten herum" spannend

Wird hier wieder der Weltuntergang wegen 100W Differenz prophezeit?

Einmal E Auto voll laden sind die Jahresdifferenz bei sowas.
Man muss alles nur in die richtige Perspektive bringen, dann lacht man nur noch über die Pfennigfuchserei bei "oh CPU A braucht 3W weniger als CPU B" :-D
 
Wird hier wieder der Weltuntergang wegen 100W Differenz prophezeit?

Einmal E Auto voll laden sind die Jahresdifferenz bei sowas.
Man muss alles nur in die richtige Perspektive bringen, dann lacht man nur noch über die Pfennigfuchserei bei "oh CPU A braucht 3W weniger als CPU B" :-D
Ich verstehe das ganze jetzt irgendwie nicht.
Klar im Geldbeutel macht es vlt am ende von jahr nicht so viel aus, aber das eine Produkt ist halt neunmal weniger effizient als das andere und zwar deutlich.
Und z.b 70 Watt oder so sind halt 70 watt.

Ich bin mir langsam sicher das der Aufschrei größer wäre wenn AMD mal wieder 2 mal so viel Energie brauchen würde wie Intel.

Aber wenn Intel mehr verbraucht muss die Messung falsch sein oder es ist ja egal.

Ein Produkt ist halt in einem Bereich schlechter als seine Konkurrenz und zwar deutlich und das spiegelt sich halt auch in den Ergebnissen wieder.

Das ganze immer zu relativieren wirkt halt etwas seltsam.
 
Nein, ging um die mit HW gemessenen Werte im Vergleich zu den ausgelesenen via Software.

Im HWInfo Tab, wo POUT steht, diese Werte passen exakt zu den PMD Messungen.
@Nathenhale
Da ich die Diskussion nicht verfolgt habe, keine Ahnung auf was du genau raus willst.

Aber zum Thema Verbräuche im Haus und wie viel da so eine CPU etwas ausmacht, kann ich ganz gut was sagen, da ich durch die PV ein dauerhaftes Tracking habe.

Und ob da wie in meinem Fall der PC mit 5 Pumpen, 4090 maxed out und 13900K Abends mal 2-4h läuft, ist auf den Jahresanteil der gesamten Familie und des gesamten Hauses quasi zu vernachlässigen.
Hätte ich da also nun eine 100W sparsamere CPU drin, wäre das bei meiner Nutzung eine Reduzierung um 1% des Verbrauchs :lol:
 
Zuletzt bearbeitet:
Dann führe bitte vor der Messung an jedem Kanal eine Probe-Analyse durch, denn unser neues PMD zeigt bei einigen Kanälen leider ziemlichen Murks an. Du musst mit Ampere-Zange, einer konstanten Last und an jedem Kanal überprüfen, ob die Werte hinkommen können, die du angezeigt bekommst. Die Wandlerverluste betragen ~10 bis 30 Prozent, abhängig von der Last. Und dann stelle bitte sicher, dass das Loggen der Daten extern passiert, du brauchst also noch einen zweiten PC oder einen Laptop. Wenn du dann noch das OSD automatisch während der Benchmarks abschalten lässt, hast du ziemlich genau unseren Test-Aufbau am Laufen =)

(Aufheizen vor den Benchmarks nicht vergessen, Einflüsse durch Raumtemperatur minimieren, Grafikkarte möglichst hoch takten, um partielles GPU-Limit zu umgehen, aktuelle Treiber/UEFI-Versionen verwenden, TPM 2.0 und HVCI abschalten, C-States aktivieren, Energy Efficient Boost abschalten, RAM per Spec betreiben (bei Cyberpunk besonders wichtig), CPU Current von maximal 280 Ampere konfigurieren, beide PL-Limits auf 253 Watt, P1-Fps Fehlertoleranz in CX auf 5 Prozent stellen).

CPU-Benchmarks? Kann doch jeder!!
Ich wünsche viel Vergnügen :-D
Selbst wenn er das nicht 100% nachstellt sollte es reichen um die Werte zu plausibilisieren. Das ihr den Aufwand betreibt ist richtig aber für eine Einschätzung der Werte braucht man solceh Aufwände gott sei Dank nicht betreiben :P
 
Wenn ich jetzt sage das ich schon rein rechnerisch nicht auf sonderlich viel Abweichung komme, werde ich weiterhin gesteinigt.

CPU Limit sowie GPU Limit jeweils 445W Verbrauch an der Dose, bei 93%(Platin) sind das ~414W
Idle Verbrauch an der Dose 70W, bei geringen 80% wären das ~ 56W
Idle CPU: ~4W
Idle GPU: ~14W

bleiben 38W für Board Z690 mit Lichterorgel, 2x16GB 4000C16 RAM @1.45V(mit Licht), 3xNvMe, Soundkarte, 7Lüfter mit Lichterorgel, Pumpe und Lüftersteuerung mit Display

Last CPU CPU-Limit: ~134W
Last GPU CPU-Limit: ~229W
Summe: ~ 363W

Last CPU GPU-Limit: ~ 47W
Last GPU GPU-Limit: ~ 319W
Summe: ~ 366W

Dazu die Grundlast von den besagten 38W und es bleiben nur 13 bzw 10W dabei übrig.


Cyberpunk_RT Ultra_CPU_Verbrauch_01.jpg
 
Zuletzt bearbeitet:
Solange du deine CPU nicht Stock, und damit so wie Dave betreibst, ist die Diskussion eh völlig müßig. Alleine die 300 MHz auf den P Kernen machen einen großen Unterschied. Zumal du ja vermutlich nicht nur den Takt sondern auch die Spannung gesenkt hast. Dazu dann noch DDR4 anstatt 5. Da ist doch überhaupt keine Vergleichbarkeit gegeben :ka:
 
Alleine durch festtackern von max. Takt und daraus resultierenden gerringeren max. Spannungen wird man einen gewaltigen Effizienzgewinn haben.
Damit siehst du das getweakte Systeme sehr sparsam sind aber das erlaubt keine Aussage zu dem normalen Stockverbrauch!
 
Das System läuft Default, bis auf den RAM, der ja so, sogar mehr Saft bekommt.

Getuned verbraucht das System doch knapp 100W weniger.
 
Das System läuft Default, bis auf den RAM, der ja so, sogar mehr Saft bekommt.

Getuned verbraucht das System doch knapp 100W weniger.
Der Screenshot war aber vorher noch nicht da :D

So ganz nach Stock sieht mir das aber nicht aus. Die Spannung der CPU sollte eigentlich bei geringer Last im GPU Limit steigen, bei dir sinkt die sber. Zufällig an der LLC geschraubt?

Ansonsten kann ich nur sagen dass sich meine Ergebnisse mit 13900K/KS mit denen von Dave decken.
 
Der Screenshot war aber vorher noch nicht da :D

So ganz nach Stock sieht mir das aber nicht aus. Die Spannung der CPU sollte eigentlich bei geringer Last im GPU Limit steigen, bei dir sinkt die sber. Zufällig an der LLC geschraubt?

Ansonsten kann ich nur sagen dass sich meine Ergebnisse mit 13900K/KS mit denen von Dave decken.
Ist an nix geschraubt, LLC bleibt bei Gigabyte generell unberührt, wenn man da nix anderes direkt einstellt, also Auto= Intel Default =Normal(Gigabyte)
Dafür sind die Spannungen niedrig?
Hast du mal geprüft was passiert wenn du bspw. mit DLSS dich an die 40fps annäherst?
Bei DLSS steigt der CPU Verbrauch, da die CPU dann mehr belastet wird, dafür senkt sich dann aber im Gegenzug der GPU-Verbrauch, also was den Gesamtverbrauch angeht, hält es die Wage.
Also ja, der CPU Verbrauch steigt, aber dann auch nicht gleich mit riesen Sprüngen.

Wie schon gesagt, das was auffällt ist, das laut Sensoren, einzelne P-Cores schlafen gehen, die Leistung aber immer noch dem Enspricht, was zu erwarten ist. Powerlimit ist komplett offen, also es gibt nirgends eine Art, Form der Begrenzung, die CPU könnte wenn sie wollte alles geben.

Es gibt auch keine Software, die irgendetwas begrenzt, oder beeinflusst.
 
Ist an nix geschraubt, LLC bleibt bei Gigabyte generell unberührt, wenn man da nix anderes direkt einstellt, also Auto= Intel Default =Normal(Gigabyte)

Bei DLSS steigt der CPU Verbrauch, da die CPU dann mehr belastet wird, dafür senkt sich dann aber im Gegenzug der GPU-Verbrauch, also was den Gesamtverbrauch angeht, hält es die Wage.
Also ja, der CPU Verbrauch steigt, aber dann auch nicht gleich mit riesen Sprüngen.

Wie schon gesagt, das was auffällt ist, das laut Sensoren, einzelne P-Cores schlafen gehen, die Leistung aber immer noch dem Enspricht, was zu erwarten ist. Powerlimit ist komplett offen, also es gibt nirgends eine Art, Form der Begrenzung, die CPU könnte wenn sie wollte alles geben.

Es gibt auch keine Software, die irgendetwas begrenzt, oder beeinflusst.
Natürlich steigt der CPU Verbrauch. Es geht darum dass du die CPU ja in der Größenordnung belastet wie es Dave bei seinem Test tut. Alles andere hat halt wenig Aussagekraft. Kann sein, dass du im Bereich unterwegs ist in dem die CPU kaum boostet bzw. die P-Cores nicht nutzt. Dann bist du aber nicht mehr im Bereich unterwegs den Dave untersucht hat.
 
In dem Test zum CPU Verbrauch im GPU-Limit war doch das Upscaling ausgeschaltet.

Und die CPU kann frei Boosten wie sie mag, es gibt keine Begrenzung, auch von der Thermik her gibt es keine Einschränkungen, also das es zu irgendeiner Drosselung kommt.
 
Limits interessieren nicht wenn die CPU keine Last hat wird sie auch nicht im Limit rumfliegen.
Du hast mit der 4080 eben nochmals deutlich weniger fps und kommst damit unter Umständen in Bereiche wo die CPU in effizienten Zustand unterwegs ist. Kein so agressiver Boost, deutlich geringerer Takt und Spannung, evtl abschalten der P-Cores etc. Sowas kann den Vebrauch eben überproportional positiv beeinflussen.
Solange du also nicht eine ähnlich belastendes Szenario wie Dave bereitstellst wirst du diese Werte nie vergleichen können. Selbst wenn du mit der 4080 die gleichen fps erreichst müsste man die Werte kritisch sehen aber man könnte zumindest ausschließen das die CPU "eingeschlafen" ist.
 
In dem Test zum CPU Verbrauch im GPU-Limit war doch das Upscaling ausgeschaltet.t.
Ja aber Dave hat ne 4090 und keine 4080
30 vs 42 FPS ob das den Unterschied macht (zwischen 45 und über 100 Watt keine ahnung), aber etwas mehr Belastung wird schon dabei herumkommen.

Nach dem Aktiviren von DLSS, sollte deine GPU trotzdem nahe der 320 Watt sein, sonst wärst du ja nicht mehr GPU limitiert.
Klar moderne GPUs verbrauchen in hohen Auflösung immer mehr als in Niedrigeren Auflösung .
Da mehr Einheiten der GPU voll ausgelastet werden können.
Ampere damals war bekannt dafür teilweise bis zu 20% mehr zu verbrauchen in 4k als in WQHD trotz 99% load.
 
Ich glaube es wäre bei weitem einfacher, wenn von anderer Seite aus einfach mal geschaut werden würde, was die CPUs machen, wenn eben mal keine 4090 im System steckt.

Früher wurden doch gerne so Leistungsvergleiche gemacht, nur eben hat sich dabei keiner um den eigentlichen Verbrauch der einzelnen Komponenten geschert, wenn im Bestfall was so das Gesamtsystem verbraucht.
 
Zurück