Special AMD Ryzen 5 7500F im Test: Der Sockel AM5 ist auch "unten herum" spannend

Schöner Test.

Die Cpu überzeugt doch recht gut. Natürlich hat sie keine Chance gegen eine X3d CPU, aber das war ja zu erwarten. Für den Preis Top Leistung und Effizienz.

Schade das die Plattform an sich mich noch nicht richtig überzeugt. Zu hoher Stromverbrauch im Idle usw... wenn die Board Hersteller mal die Stromsparmodi vernünftig umsetzen würden, dann hätte das Problem nicht. Ob jetzt ein B650 Board ohne ASPM soviel sparsamer ist weiß ich nicht. Natürlich ist es wichtiger was das System unter Last braucht und wie oft man es nutzt. Trotzdem aber ein fader Beigeschmack bleibt. Dazu die immernoch relativ hohen Boardpreise und DDR5 Preise. Hoffentlich wird das mit Zen 5 oder 6 wieder besser.
 
Ich wiederhole es gerne noch mal: Das liegt auch am verwendeten Board bzw. dem X670E-Chipsatz. Ein A620-Brett ist rund 30 Watt sparsamer unterwegs. Und es gibt auch sehr sparsame B650-Boards. Ansonsten fordern die immer moderneren Schnittstellen eben ihren Tribut.

Vielleicht mag uns @PCGH_Torsten ja mal erzählen, wie sich die Leistungsaufnahme im Idle über die Jahre bei AMD und Intel entwickelt haben, auf den Desktop bezogen.

"Nach oben". Wobei für einen exakten Wert @PCGH_Raff noch verraten müsste, was die im Laufe der Jahre mehrfach aktualisierten Grafikkarten beim rumidlen schlucken, da man Mainboards schlecht getrennt vom Gesamtsystem messen kann.

Aber als ich angefangen habe, lag die beste Z97-Platine im Test bei 36,4 W Systemverbrauch mit EVGA GTX 970 FTW, beim Z170 waren es kurz darauf 36,4 W mit Palit GTX 980 Ti Superjetstream (Plattform-Bester Supermicro H170 @33,6 W). Z690/Z790 geht mit 46,6 W (B660-G: 45,7 W) auch noch, wenn man will, liegt im Schnitt über alle getesteten Platinen mit 55,5 W aber schon ein ganzes Stück höher als Z170/Z270 mit 44 W. Und AM5? Sprechen wir besser gar nicht erst von: 58,9 W selbst für das beste B650(E), für A620 (nur 3 getestet) 60,0 W. Im Schnitt sind es 64,9 zu 62,8 W für A620. X670E muss nicht zwingend noch mehr verbrauchen, Asrocks Lightning liegt bei 61 W. Aber alle anderen 670er machen über 80 W (MSI Ace als Spitzenreiter: 82,4 W), während bis auf Asrocks B650M Riptide (84,7 W, worst overall) alle B650(E) zumindest unter 70 W bleiben. Damit schluckt die aktuelle Mittelklasse aber immer noch doppelt so viel, wie ihre (weniger beliebten) Vorgänger von vor acht Jahren, leistet in diesem Test aber weiterhin genauso viel: "Gar nichts". (AM5- & 1700-Tests mit Zotac RTX 3070 Holoblack. Der Mehrverbrauch der mittlerweile nötigen Arctic-KoWaKü gegenüber dem alten Brocken Eco dürfte durch sparsameren RAM und Laufwerk ausgeglichen werden und das aktuell genutzte Asus-Strix-Netzteil ist ggf. auch einen Tick effizienter als das alte Seasonic Gold aus den 2015er Messungen. Alle Angaben Systemverbräuche ab Steckdose mit der jeweils leistungsfähigsten CPU aus der ersten Generation des Sockels.)
 
Z690/Z790 geht mit 46,6 W (B660-G: 45,7 W) auch noch, wenn man will, liegt im Schnitt über alle getesteten Platinen mit 55,5 W aber schon ein ganzes Stück höher als Z170/Z270 mit 44 W. Und AM5? Sprechen wir besser gar nicht erst von: 58,9 W selbst für das beste B650(E), für A620 (nur 3 getestet) 60,0 W. Im Schnitt sind es 64,9 zu 62,8 W für A620. X670E muss nicht zwingend noch mehr verbrauchen, Asrocks Lightning liegt bei 61 W. Aber alle anderen 670er machen über 80 W (MSI Ace als Spitzenreiter: 82,4 W), während bis auf Asrocks B650M Riptide (84,7 W, worst overall) alle B650(E) zumindest unter 70 W bleiben.
Interessant :-D
 
Sry wenn ich das sage bzw mich das weiterhin frage, was ihr mit den Intel CPUs macht, selbst wenn man doch schreibt das sich die CPUs im GPU Limit langweilen und dann doch ab 130W verbrauchen (CP2077).

Bei meinem 13700KF ist es ja auch so das er sich in UHD dann ja langweilt, und mal gerne 5 von 8 P-Cores auf 0% Auslastung stehen und die E-Cores alle am Start sind mit ca. 25% Auslastung im Durchschnitt, da komme ich bei weitem nicht ran, egal ob ich nur das Pagage auslesen kann (ca 40W) oder ob ich nun rechnerrisch am Messgerät vor gehe, was nur den Saft, der aus der Dose gezogen wird, anzeigt.
 
Sry wenn ich das sage bzw mich das weiterhin frage, was ihr mit den Intel CPUs macht, selbst wenn man doch schreibt das sich die CPUs im GPU Limit langweilen und dann doch ab 130W verbrauchen (CP2077).

Bei meinem 13700KF ist es ja auch so das er sich in UHD dann ja langweilt, und mal gerne 5 von 8 P-Cores auf 0% Auslastung stehen und die E-Cores alle am Start sind mit ca. 25% Auslastung im Durchschnitt, da komme ich bei weitem nicht ran, egal ob ich nur das Pagage auslesen kann (ca 40W) oder ob ich nun rechnerrisch am Messgerät vor gehe, was nur den Saft, der aus der Dose gezogen wird, anzeigt.
Es kommt halt drauf an welche GPU du hast, Dave benutzt eine 4090 und die Settings sind alle sehr hoch mit aktivierten PT. Gerade Raytracing verlangt der CPU viel ab.
 
Sry wenn ich das sage bzw mich das weiterhin frage, was ihr mit den Intel CPUs macht, selbst wenn man doch schreibt das sich die CPUs im GPU Limit langweilen und dann doch ab 130W verbrauchen (CP2077).
Vergleich doch mal in derselben Szene wie wir, mit denselben Einstellungen. Und bedenke dabei, dass der Package-Power-Sensor nicht sehr genau ist. Wenn du CP 2077 jedenfalls mit nur drei P-Cores zockst, weil sonst keine Last da ist, dann sollte es dich nicht wundern, dass die Leistungsaufnahme viel geringer ausfällt. Dann hast du dir offensichtlich eine CPU gekauft, die du nicht mal im Ansatz brauchst, wenn sie nur Däumchen dreht?
 
Ergibt es eigentlich überhaupt Sinn die Effizienz in Spielen zu erfassen, wenn die CPU nicht (nahezu) maximal ausgelastet wird? Umso näher alle Kerne einer CPU am Limit arbeiten, also je höher die MT-Last dann ist, desto gradueller und differenzierter kann man Effizienzunterschiede unter Spielelast zwischen allen Prozessoren doch herausarbeiten.

Und was mir auch noch dazu einfällt, ob es Sinn ergibt nur ein Spiel als Grundlage für die Effizienzdarstellung unter Spielelast zu wählen:
Was bringt es mir beispielsweise ein Spiel wie den Microsoft Flight Simulator oder Hogwarts Legacy zu wählen, in denen der absolute CPU-Stromverbrauch eher gering ist, nur um dann im Nachhinein sagen zu können, dass Intel bei der Effizienz nicht so weit weg ist? Das wäre ja auch unehrlich. Ich denke, dass CP2077 schon ziemlich repräsentativ ist, nicht den absoluten Worst-Case, aber eben ein "Real-World-Szenario" darstellt. Es sollte als "das eine" Spiel meiner Meinung nach ausreichen um eine Aussage über die Effizienz treffen zu können.

Was auch noch richtig gut säuft, ist übrigens The Last of Us - und zwar nicht nur beim Shader Precompiling, sondern auch Ingame - das könnte man sicher auch gut nehmen. Darüber hinaus sind Starfield und die beiden bereits angesprochenen Spider-Mans je nach Szene auch ziemlich durstig.
 
Starfield wäre unrealistisch, weil die Engine einfach Last auf Kernen erzeugt ohne erkennbaren Vorteil (also bessere Fps zum Beispiel). Ich hab das nur im Testparcours, weil es so beliebt ist. Cyberpunk dagegen läuft wirklich besser mit "mehr Kernen" und der Test unter UHD zeigt sehr schön auf, dass der Prozessor auch im GPU-Limit noch etwas zu tun hat und dann eben nicht in den Sparmodus geht. Glaubt ihr, dass das mit kommenden Spielen anders wird? Die werden noch lastiger ^^
 
Dann hast du dir offensichtlich eine CPU gekauft, die du nicht mal im Ansatz brauchst, wenn sie nur Däumchen dreht?
Also es ist ein Fragezeichen da, aber ist das nun eine Frage?
Was ich offensichtlich gekauft habe, oder eben nicht, steht doch garnicht zu Debatte.
Warum also in irgendetwas rumgraben, wo das eine mit dem anderen nichts zu tun hat?
Es steht doch im Artikel selbst, das die CPUs nichts zu tun haben.
Von irgendeinem Erwerb, oder Nutzen in Bezug der dazugehörigen Person, war und sollte doch dann nie die Rede sein.
Also was bitte veranlasst dich, etwas selbst, wenn es als Frage formuliert ist, in einen ganz anderen Bezug zu setzen?

Und nochmals, ich kann die Grafikeinstellungen so hoch treiben, daß es nur noch eine Ruckelpartie mit der 4080 wird, das ändert aber einfach nichts daran, das der Verbrauch weit von dem von euch gemessen, bzw im Artikel gemessen, abweicht.

Deshalb ja auch die Frage, was genau da gemacht wird, auch wenn man soweit relativ viel nachlesen kann etc., kann ja sein das euer Intel Testboard etwas spezielles macht, kann muss nicht, aber genauso kann es sein und kann dann so auch gerne weit Abweichen.
Mir allein nur darum mögliche Fehlerquellen auszuschließen, egal auf welcher Seite sie liegen.
 
Deshalb ja auch die Frage, was genau da gemacht wird, auch wenn man soweit relativ viel nachlesen kann etc., kann ja sein das euer Intel Testboard etwas spezielles macht, kann muss nicht, aber genauso kann es sein und kann dann so auch gerne weit Abweichen.
Mir allein nur darum mögliche Fehlerquellen auszuschließen, egal auf welcher Seite sie liegen.
Okay, das kann ich dir ja beantworten.

Gemacht wird Folgendes, und zwar in der Reihenfolge: Z690 Carbon WiFi aufbauen, 13700K einsetzen, 32 GiB DDR5-5600 einbauen, WLP auftragen und Asus Ryujin II 360 verschrauben, alle sonstigen Kabel verbinden, Elmorlabs PMD anschließen, M2-SSDs verbauen, RTX 4090 installieren, (aktuelle BIOS-Version aufspielen), UEFI-Defaults laden (passiert automatisch nach Wechsel der CPU), HVCI/TPM 2.0 deaktivieren, rBAR aktivieren, XMP laden, PL-Spezifikation laden (bei einem 13700K PL1=PL2=253 Watt), Unfug wie "MSI Driver Installer" abschalten, F10 + Enter

Während das System hochfährt, Laptop starten und das PMD daran anschließen und die Messsoftware (EVC2x) starten. Testsystem per CPU-Z prüfen, ob die Specs geladen wurden, die man konfiguriert hat. GoG Galaxy starten, Cyberpunk 2077 starten, Optionsmenü, alle Einstellungen checken, dann Spielstand für den Benchmark starten und das System aufwärmen lassen (dazu durch die Spielwelt fahren, oder einfach etwas warten), Spielstand neu laden, Benchmark gleichzeitig mit Leistungsaufnahme auf dem Lappy (PMD) starten, gleichzeitig (nach 20 Sekunden) wieder beenden, Benchmark auf Testsystem so lange wiederholen, bis drei Messungen innerhalb der fünf-Prozent-P1-Fps-Fehlertoleranz liegen, Spiel mit Alt + F4 beenden

Danach die CX-Daten sowie die EVC2-Daten des PMD auf den Stick speichern, auf den Arbeitsrechner befördern, per Excel auswerten und in das CPU-Index-Excel eintragen. Genommen wird der Mittelwert der Leistungsaufnahme, die in 20 Sekunden während des Benchmarks festgehalten wurden.

Sieht im Excel dann so aus:

1704640977650.png
 
Und nochmals, ich kann die Grafikeinstellungen so hoch treiben, daß es nur noch eine Ruckelpartie mit der 4080 wird, das ändert aber einfach nichts daran, das der Verbrauch weit von dem von euch gemessen, bzw im Artikel gemessen, abweicht.
Das zeigt mir das dir nicht genau klar ist was da gemessen wird, und das du ein GPU limit nicht verstehst.
Eine 4080 ist 33% langsamer als eine 4090 also muss deine CPU im GPU limit schonmal 33% weniger leisten.

Zitat Pcgh"
Die Auflösung beträgt jedoch UHD, zudem verwenden wir das Raytracing Ultra Preset ohne Upscaling".

So settings sind bekannt.

Einfach mal nach testen, das GPU limit liegt in dieser Szene bei 42FPS avg.
 
Hab mal nen Video gemacht, auch wenn YT nochmals schön die Quali nach unten reißt, man kann die Sachen grob, aber auch nur grob erkennen, es ist mit Absicht nicht via Aufnahmetools aufgezeichnet, weil dort eben wiederum zusätzlich Last erzeugt wird.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Der hier verwendete 13700KF läuft natürlich nicht @ default, sondern bei 5GHz P-Core und 4GHz E-Core, 4,5GHz Cache, sowie 32GB DDR4-4000 CL16 im Gear1.
Die RTX 4080 läuft bei eingestellten 2505/11200 @ 0.875V(0.925V)

Im Idle verbrauch das System im Schnitt um die 70W, bei Last wie hier in Cyberpunk liegt das System bei 350-370W, gemessen an der Dose, die GPU liegt laut Tool zwischen 250-270W.
 
Der hier verwendete 13700KF läuft natürlich nicht @ default, sondern bei 5GHz P-Core und 4GHz E-Core, 4,5GHz Cache, sowie 32GB DDR4-4000 CL16 im Gear1.
Wenn ich meinen 7800X3D ohne Turbo und SMT betreibe, zudem die SoC-Spannung stark reduziere, ist die Leistungsaufnahme auch weit geringer als die, die ich mit dem Standard-7800X3D festhalte. Wunderst du dich echt, warum deine CPU nicht die Werte erreicht, die wir messen? Wenn du sie heruntertaktest? Dann kannst du die Werte nicht vergleichen.

Du testest zudem in der Grafikkarten-Szene. Wenn, dann nimm bitte auch die CPU-Szene. Das macht ansonsten überhaupt keinen Sinn mehr.
 
Aber es geht ja um die im GPU-Limit in dem Test erreichten Verbrauchswerte.
Warum der Verweis auf die CPU-Szene?
Und meinerseits wurden weder HT, noch Cores deaktiviert, sondern lediglich der Takt etwas abgesenkt und das mit absicht auch so erwähnt.
Ich bekomme sollch einen Verbrauch auch default nicht zu stande und schon garnicht im GPU-Limit.
Es sind magere ~10W unterschied in euerem Test, von CPU-Limit und GPU-Limit beim Verbrauch und da sehe ich so bei mir ganz andere Resultate in Form der Differenz zueinander, selbst wenn die CPU leicht beschnitten ist.
 
Weil ich die gleiche Szene für meine Messungen verwende, ich verschiebe nur das Limit von CPU zu GPU. Du wirst mit der 4080 die gleichen Werte gar nicht erreichen können (UHD, Raytracing Ultra Preset ohne Upscaling) – eine 4090 packt hier gerade noch so die 42 Fps, eine 4080 mit Undervolting vielleicht noch 30? Ich weiß es nicht. Vielleicht bekommst du ja mit Upscaling etwa 42 Fps heraus, um das vergleichen zu können.
Ich bekomme sollch einen Verbrauch auch default nicht zu stande und schon garnicht im GPU-Limit.
Wie zuvor schon so oft erwähnt: Das liegt an der Art, wie du misst. Die Package Power laut Sensor kann völlig falsch sein, das wirst du aber ohne weitere Kontrollmessung, etwa durch ein PMD von Elmorlabs, nie herausfinden. Bedenke zudem, dass die Spannungswandler-Ineffizienz mit in das CPU-Ergebnis einfließt, wenn man am EPS-Stecker misst und diese kannst du mit der Package Power gar nicht auslesen. Du brauchst ein Gerät, mit dem du messen kannst, was vom Netzteil in den EPS-Stecker fließt, 1x8 Pol reicht dafür aus.

Natürlich ist unser PMD auch nicht zu 100 Prozent genau, siehe dazu die Infos aus der Verlinkung weiter oben.
 
Ich hab doch auch die, der was effektiv nun aus der Dose gezogen wird und sofern das ansatzweise stimmt was sich die GPU nimmt, ist es doch nur etwas rechnen.
Und klar das Netzteil hat keine 100% Wirkungsgrad, eher sind es im Idle um die 80% und bei Last um die 93%, aber selbst wenn ich das vernachlässige und einfach drauf los rechne, bleibt für die CPU nicht viel übrig.

Nun ist es ja meine Frage, also die ich mir immer laut stelle, was macht das Board und dessen Spannungswandler da.

Es sind sogar nur zwischen 26 und 29, mit DLLS Qualli sind es dann AVG 50Fps.
Also hast du die Motorat-Scene genommen, die die für die CPUs ist?
 
Ich muss jetzt meinen Frust doch mal rauslassen.
Es kann doch nicht sein das man hier Test Ergebnisse anzweifelt, wenn man:
1. Seine Hardware komplett anders betreibt
2. eine andere Szene Testetet
3. Anders misst
4. Bei den zwei wichtigen Komponenten für diesen Test, eine davon eine komplett andere ist.

Ist ein wenig so als würde ich den Test eines Auto anzweifeln,
weil mein getuntest Motorrad andere werte liefert.
 
Es geht ihm im Kern ja darum "Hallo Intels sind keine Schluckspechte"

Wie er die CPU betreibt ist ja erstmal ihm überlassen.
Dave hat ja auch den 7800X3D seperat nochmal angepasst vorgestellt.
Das kann Blechdesigner ja mit seinem 13700K genau so machen.

Dann müsste aber für die Vergleichbarkeit die selbe Testszene, wie von Dave, nochmal nachgestellt werden.
Klar angegeben sein, wie die Settings der CPU sind.
Die selbe CPU mit Stock Settings um die Vergleichbarkeit hinsichtlich eines eventuellen Performanceverlust zu dokumentieren.

Weil wenn durch die angepasste CPU dadurch weniger Strom verbraucht wird, ist das ja schön.
Nur wenn das auf Kosten von zu viel Leistungsverlust führt dann kann ich mir jede CPU so tweaken, wie ich das möchte und sie als eigentlich nicht so durstig präsentieren.

Und genau das ist ja zB. in dem seperaten Test von Dave geschehen.
Die CPU so tweaken, das sie noch weniger Strom nimmt, aber auch keine Leistung für sein FPS Ziel verliert.

FPS Ziel ist hier 42.
Wenn das Blechdesigner mit seiner angepassten CPU so schafft.
Dann ist das doch okay.

Wenn nicht, dann bringt der Test nicht viel außer die Erkenntnis, das man einen 13700K zwar Strom ärmer betreiben kann und dadurch auch die Effizienz steigern kann.
Oder aber zu einem Leistungsverlust führt in dem das angepeilte FPS Ziel nicht mehr erreicht werden kann.
 
Zuletzt bearbeitet:
Es kann doch nicht sein das man hier Test Ergebnisse anzweifelt, wenn man:
1. Seine Hardware komplett anders betreibt
2. eine andere Szene Testetet
3. Anders misst
4. Bei den zwei wichtigen Komponenten für diesen Test, eine davon eine komplett andere ist.

Als 5. Punkt kann man hier noch ergänzen, dass nicht jede CPU gleich ist und man eine gewisse Streuung je nach Sample hat. Der eine 13700K kann 150 Watt brauchen, der andere nur 140 Watt und ein weiteres Sample eben 160 Watt. Dazu kommen Effizienzverluste durch höhere Temperaturen etc. Wenn dann kann man sich Testergebnissen immer nur annähern, aber seltenst exakt reproduzieren.

Trotzdem. Insbesondere Intels Topmodelle ab i7 aufwärtes schlucken ordentlich Strom. Mehr als die Konkurrenz. Mittlerweile auch bei Spielen. Das sollte jedem klar sein.
 
Zurück