Special AMD Ryzen 5 7500F im Test: Der Sockel AM5 ist auch "unten herum" spannend

Ja, aber dann tust du doch etwas mit dem PC. Es entsteht Teillast, wenn auch keine große. Für reine Office-Tätigkeiten nutze ich übrigens einen Pentium Silver mit einem Powerlimit von 6 Watt. Zum Mail schreiben brauche ich meinen 7800X3D nicht. Es gibt für alles Lösungen. Ich kann jedem so ein Mini-PC zum Arbeiten empfehlen.
Mach ich ganz genauso :daumen:

Anstatt "Es tut mir leid Dave, aber das kann ich nicht tun" (Zitat HAL 9000)
 

Anhänge

  • HW Info.jpg
    HW Info.jpg
    494,2 KB · Aufrufe: 40
Zuletzt bearbeitet von einem Moderator:
Nur Cyberpunk zu wählen ist schon sehr pro AMD, aber das wundert mich nicht.
Letztes mal wurde ich ja auch attackiert, weil ich den 14900K verbaut habe. :-D

Cyberpunk wurde gewählt, weil es das Spiel mit der besten Prozessorskalierung am Markt ist.

Davon abgesehen, selbst in deinem verlinkten Test kommt man zu dem Schluß, je mehr die CPU belastet wird (Spielen in Vollast oder im GPU Limit) desto besser wird AMD und je näher man in Richtung Idle (Videos gucken, Office etc) geht desto besser wird Intel.
 
Cyberpunk, ja. Der Rest eher nein. Nur Cyberpunk zu wählen ist schon sehr pro AMD, aber das wundert mich nicht.
Letztes mal wurde ich ja auch attackiert, weil ich den 14900K verbaut habe. :-D
Hahahaha. Test im GPU - Limit, Brotato! Oder Broforce. Das sind Games, wenn man die spielt ist der PC im Idle. Nice. Aber lieber erstmal Unterstellungen raushauen, weil die Zahlen nicht ins eigene Weltbild passen.
Drayygo erklärt wieder wie es richtig geht. :-) Hat AMD schlechte Werte, sind die Nutzer schuld.=)
Natürlich. Wenn dein Anwendungsfall 80% Idle ist, dann ist für diese Arbeiten eine High-End CPU schlicht die falsche Wahl. Jede Firma der Welt mit funktionierender IT hat das kapiert - nur du scheinbar nicht. Aber hey, in deiner Firma haben die Leute auch 5600 Ryzen in den Arbeitspcs. Das das absurd ist, hat dir ja schon ein anderer erklärt.

Ich werde nie aufhören es lustig zu finden, wie Leute irgendwelchen Randoms im Internet mehr Glauben schenken, als Leute, deren Job es ist, Tests zu machen. Da gibt es dann auch so Dinge wie Plausibilitätsprüfung, 4-Augen-Prinzip etc. Beim Dude im CB gibts dann "Trust me bro!". Aber hey, das sind die gleichen Leute, die WACHT AUF! im Youtube-Verlauf haben und Dr. h.c Schmidt glauben, dass die BRD eine Firma ist.
 
Fehlt nur mit der 5800X3D im Vergleich? 🤔
:ugly:

Den teste ich jetzt gerade. Kann den gerne als Update einspielen, aber das dauert noch etwas. Der ist aber in jedem Fall schneller als der 7500F, das kann ich schon mal mit Gewissheit sagen. Ob er auch effizienter ist? Das wird die Frage sein.
Cyberpunk wurde gewählt, weil es das Spiel mit der besten Prozessorskalierung am Markt ist.
Richtig, und nicht nur deshalb. Es ist auch unglaublich bekannt, beliebt (auch wenn einige Hater seit drei Jahren auf den gleichen Bugs herumreiten) und hat neue Maßstäbe gesetzt. Phantom Liberty hat technisch noch einen draufgesetzt. Es gibt kein besseres Beispiel für ein Spiel, welches die Hardware besser auslastet. Ich kenne jedenfalls keins. Und das wichtigste ist, dass nahezu alle Spieler im "echten Leben" in CP 2077 im GPU-Limit sein werden. Und die 4090 limitiert zu 100 Prozent, das kann ich im Zweifel durch die CX-Logs nachweisen.
 
:ugly:

Den teste ich jetzt gerade. Kann den gerne als Update einspielen, aber das dauert noch etwas. Der ist aber in jedem Fall schneller als der 7500F, das kann ich schon mal mit Gewissheit sagen. Ob er auch effizienter ist? Das wird die Frage sein.
Hat erstaunlich lange gedauert, bis jemand eine weitere CPU gefordert hat. :ugly:
Richtig, und nicht nur deshalb. Es ist auch unglaublich bekannt, beliebt (auch wenn einige Hater seit drei Jahren auf den gleichen Bugs herumreiten) und hat neue Maßstäbe gesetzt. Phantom Liberty hat technisch noch einen draufgesetzt. Es gibt kein besseres Beispiel für ein Spiel, welches die Hardware besser auslastet. Ich kenne jedenfalls keins. Und das wichtigste ist, dass nahezu alle Spieler im "echten Leben" in CP 2077 im GPU-Limit sein werden. Und die 4090 limitiert zu 100 Prozent, das kann ich im Zweifel durch die CX-Logs nachweisen.
Du immer mit deinen Fakten, pfui.
 
Danke für den Test.
Wie erwartet ist die Leistung des 7500F gefühlt eine Haaresbreite hinter dem 7600, aber das er relativ deutlich effizienter ist hat mich dann doch überrascht.
Gibt wohl keinen Grund mehr den 7600 zu empfehlen, außer man ist der Intel-Logik erlegen... "Viel mehr Verbrauch ist kein Problem, Hauptsache er ist messbar ein Mäuseschritt voraus" ;-)
 
Jo. Sagen wir mal, du arbeitest genau 8h am Tag. Und verbrauchst dabei 20 W weniger.
Und du zockst 2 Stunden am Tag, und brauchst da (auch im GPU-Limit) mit der Intel CPU bis zu 100 Watt mehr.

Du hättest dennoch den höheren Durchschnittsverbrauch mit dem Intel :) Und das, obwohl das ein sehr unrealistisches Szenario ist. Wenn du nur mit Office arbeitest, kannst das auch vom Handy an den Monitor spiegeln und verbrauchst nur noch 5 Watt.

Oder, wie ich eventuell demnächst mache, vom ROG Ally per Dock :ugly:

Nah. Wenn du 80% der Zeit, die du am PC bist im Idle bist, machst du was falsch. Dann würde sich für dich ein NUC rechnen, mit dem du arbeitest. Der verbraucht für dein Betätigungsfeld dann 5 Watt statt 70 (wie Intel im Idle). Auf 2 Jahre amortisiert sich der Preis des NUCs dann. Also entweder arbeitest oder rechnest du falsch. Such es dir aus.

Und nein, auch im GPU-Limit zieht Intel bis zu 100 Watt mehr. Gibt doch extra n Abschnitt dafür im neuen Test:

Anhang anzeigen 1447988


Aber ich rechne es mal für dich aus: 80% der Zeit idlest du mit deinem 14900K. 20% der Zeit spielst du (im GPU Limit).

Im Idle (ohne Monitor) zieht der 14900K 79 Watt. Der 7800X3D 92. 13 Watt mehr. Im Gaming sinds, wie obiges Schaubild verdeutlicht bis zu 100 Watt mehr. Also selbst in deinem (wahrscheinlich erfundenen) Szenario ist Intel ineffizienter. Danke für dein Beispiel, welches MEIN Argument bestätigt. :love:

Das sind alles Enthusiasten Themen. In der Praxis ist das feilschen um Watt im Idle doch ein Sturm im Wasserglas. Was soll denn da in kw/h nennenswert rum kommen ?

Simple Lösung:banane:

Ein Balkonkraftwerk mit 600 Watt, halbieren die Kosten eines Gesamt PC über das Jahr mal eben, auch wenn die Sonne nicht scheint. (Einfach mit kaufen, gibt´s im Komplettset für 350€) Oder ihr kauft euch einen kleinen BKW-Speicher für 400€ dazu, dann ist der Verbrauch 24/7 egalisiert, da Strom immer eingespeist wird. Gibt sehr viele Angebote.

Da hat man 20-30 Jahre was davon. Das ist auch nicht teurer als ein Oberklasse Prozessor mit Mainboard, welches nach 3-5 Jahren ausgetauscht wird.

Daher: Kraftwerk mit PC zusammenerwerben. Wäre das nicht mal ein Thema für PCGH #Dave ? :ka:

Ansonsten: Sei´s drum. Bei solchen Kleinst-Verbräuchen schaue ich auf den Einkaufspreis der CPU und nicht darauf, ob sich 7,40€ im Jahr einsparen lassen.
 
Zuletzt bearbeitet:
Das sind alles Enthusiasten Themen. In der Praxis ist das feilschen um Watt im Idle doch ein Sturm im Wasserglas. Was soll denn da in kw/h nennenswert rum kommen ? Zumal ein Balkonkraftwerk mit 600 Watt, die Kosten eines Gesamt PC über das Jahr mal eben halbiert, auch wenn die Sonne nicht scheint. (Einfach mit kaufen, gibts im Komplettset für 350€) Oder ihr kauft euch einen kleinen BKW-Speicher für 400€ dazu, dann ist der Verbrauch 24/7 egalisiert, da Strom immer eingespeist wird. Gibt sehr viele Angebote.

Da hat man 20-30 Jahre was davon. Das ist auch nicht teurer als ein Oberklasse Prozessor mit Mainboard, welches nach 3-5 Jahren ausgetauscht wird.

Daher: Kraftwerk mit PC zusammenerwerben. Wäre das nicht mal ein Thema für PCGH #Dave ?

Ansonsten: Sei´s drum. Bei solchen Kleinst-Verbräuchen schaue ich auf den Einkaufspreis der CPU und nicht darauf, ob sich 7,40€ im Jahr einsparen lassen.
Du, bei den Kleinstverbräuchen bin ich ganz bei dir, da hast du Recht. Nur kommt halt von den Intel-igenten Foristen gerne mal das "ABER INTEL VERBRAUCHT NUR IN GAMES MEHR UND AMD IM IDLE; DAS IST VIEL SCHLIMMER!?!?!11!!". Und das hing mir halt auch ein bisschen zum Hals raus :)
 
Und macht den AMD ziemlich ungeil als typischen Officerechner, der primär Office machen soll.
Wenn man einfach dumpf drauf los baut, ja. Aber dann zieht auch ein intel-system im idle die stromleitung mit in den rechner...;-)
Von daher, AMD kann auch sparsam...

... und da gibt es noch mehr systeme in dem thread. Man muß halt auf APU`s setzen, die graka weg lassen und dann scheinen sich boards von asus und gigabyte als recht sparsam zu erweisen. (stichwort abschalten von strom-phasen die nicht gebraucht werden)
 
Du, bei den Kleinstverbräuchen bin ich ganz bei dir, da hast du Recht. Nur kommt halt von den Intel-igenten Foristen gerne mal das "ABER INTEL VERBRAUCHT NUR IN GAMES MEHR UND AMD IM IDLE; DAS IST VIEL SCHLIMMER!?!?!11!!". Und das hing mir halt auch ein bisschen zum Hals raus :)
Letztendlich unerheblich. Wie du schreibst, Kleinverbräuche. Da zieht mein Kühlschrank mehr der 24/7 läuft oder der 5 Liter Wasserboiler in der Küche.

Ich erschlage den PC Verbrauch mit einem 800 Watt Balkonkraftwerk für 400€. Auch wenn abends nicht die Sonne scheint, so scheint sie doch viele Stunden am Tag. Im Sommer sogar bis 22:00 Uhr. Über das Jahr gesehen, ist der PC Verbrauch so winzig, dass der Stromunterschied zwischen Intel und AMD nur noch Mäusekot gleicht.

Da wird selbst ein 14900K auf das Energie-Level, im Jahresmittel, eines Intel Silver gedrückt.

Und wer den PC im Stromverbrauch völlig killen will, der kauft einen Anker 1,6 KW BKW-Speicher mit dazu (799€), der dann nachts ca. 150-250 Watt einspeist. Der killt dann gleich auch die Grundlast mit.

Wir leben im Jahr 2024.
 
Zuletzt bearbeitet:
Cyberpunk wurde gewählt, weil es das Spiel mit der besten Prozessorskalierung am Markt ist.
Und auch so ziemlich das einzige, in dem die Intel CPUs im GPU Limit richtig Strom ziehen, grundsätzlich reagieren die CPUs völlig anders.
Davon abgesehen, selbst in deinem verlinkten Test kommt man zu dem Schluß, je mehr die CPU belastet wird (Spielen in Vollast oder im GPU Limit) desto besser wird AMD
Na klar ist AMD auch im GPU Limit deutlich sparsamer.
So große Unterschiede kann ich aber nicht ermitteln.
Weder bei Gesamtsystem Messungen noch mit der Software.
 
Hahahaha. Test im GPU - Limit, Brotato! Oder Broforce.
Da ist auch Cyberpunk, Black Dessert, Resident Evil, God of War und Co dabei. Hast du wohl überlesen. ;)
Das sind Games, wenn man die spielt ist der PC im Idle. Nice. .
Völliger Unsinn.
Die Zahlen passen an einigen Stellen eher nicht. Das hat mit Weltbild 0 zu tun.
Was offensichtlich nicht ins Weltbild passt, sind die sehr schnellen Intel CPUs.

Vorher stand der 13900K 7% unter dem 7950X3D.
Auch der 14900K war langsamer als der 7800X3D.
Natürlich. Wenn dein Anwendungsfall 80% Idle ist, dann ist für diese Arbeiten eine High-End CPU schlicht die falsche Wahl.
Die CPU ist ja Teil meines Gamingsystems.
Ein zusätzlicher PC, sollte er noch so wenig verbrauchen, ist für meine Anforderungen überflüssig und lohnt sich monetär nicht.
Jede Firma der Welt mit funktionierender IT hat das kapiert - nur du scheinbar nicht. Aber hey, in deiner Firma haben die Leute auch 5600 Ryzen in den Arbeitspcs. Das das absurd ist, hat dir ja schon ein anderer erklärt.
Ja, in einer Firma in der es primär darum geht Rechner zusammen zu bauen und zu konfigurieren, haben wir viel 0815 Stangenware, HP Pro Books aber auch NUCs.
Ich werde nie aufhören es lustig zu finden, wie Leute irgendwelchen Randoms im Internet mehr Glauben schenken, als Leute, deren Job es ist, Tests zu machen.
Wenn ich die Leistungsaufnahme einer CPU analysiere nehme ich idR. mehr als ein einziges worst Case Spiel. Die anderen Werte sind auch über mehrere Games gemittelt.
 
Zuletzt bearbeitet:
Zurück