Stromverbrauch AMD Ryzen 7 7800X3D vs I7-13700K Frage

Also teileweise klingt das hier so als sei der 7800X3D in Anwendungen eine lahme Krücke. Das ist natürlich nicht der Fall. Da du meinst, dass Photoshop/ Lightroom auch aktuell für dich schon "flutscht", frage ich mich, warum auf diesen Aspekt gerade beim Upgrade so ein Augenmerk gelegt wird.
Von welcher CPU kommst du denn gerade?
 
Ich hatte vorher einen i9-9900K. Es geht nicht rein nur um Photoshop, ich benutze relativ häufig auch andere Programme, ein bisschen Rechenleistung brauchen.
Ich möchte einfach eine gute Allround-CPU, die beides gut schafft.
Ich bin nun überzeugt davon, dass es ein X3D wird, vielleicht auch der 7800.
 
Der 7800X3D ist in Anwendungen nur ca. 5% langsamer als ein 5900X oder 12700K, also sicher nicht langsam.

Andererseits ist der 7900X3D "nur" ca. 70€ teurer aktuell. Kann man auch überlegen wenn es dir das wert ist.
 
Eine sehr gute allround CPU ist:
Überraschung

der 13700K :D
??
Der 7800X3D ist in Anwendungen nur ca. 5% langsamer als ein 5900X oder 12700K, also sicher nicht langsam.

Andererseits ist der 7900X3D "nur" ca. 70€ teurer aktuell. Kann man auch überlegen wenn es dir das wert ist.
Das wird mir etwas zu komplex. Manche sagen, man kann ja eigentlich mit jeder CPU die sechs Kerne hat gut zocken.
Dann könnte ich mir auch einen 5900X anstatt einem 7800X3D kaufen.? Mal abgesehen von den neueren Zusatzkomponenten (DDR 5, PCIe 5.0).
Wenn ich mir ein neues Produkt kaufe, soll es auch generationsmäßig die alte übertrumpfen in allen Bereichen.

Der 7900X3D soll in Games ja dann wieder langsamer sein. ?
Eine sehr gute allround CPU ist:
Überraschung

der 13700K :D
Tja, wenn Stromkosten keine Rolle spielen würden, wäre es wohl die richtige CPU.
 
Zuletzt bearbeitet:
Dann aber wohl eher bald den 14700K. Aber der soll ja noch mehr Strom ziehen. Das Thema der Aufrüstbarkeit lässt mich auch mehr zu AMD tendieren.
Ihr seht, das Thema ist für jemanden im meiner Lage, mit meinen Wünschen nicht so einfach zu beantworten.
 
Bin vom 9700k auf den 13600k gewechselt, wollte eigentlich auch den 7800x3d oder den 13700k kaufen.
Grund war das mit den 9700k die CPU ständig am Limit war, Grafikarte 4070TI.
Mit dem 13600k sieht es nun ganz anders aus, die CPU geht kaum mal auf 50% und effizient ist sie auch.
Bin angenehm überrascht und bereue den Kauf in keinster Weise. Gigabyte B760 Gaming, Kingston Ram DDR5 6400, CPU rein und läuft auf Anhieb ohne Probleme. Kenn ich leider bei AMD ein wenig anders ;-)
 
Was habt ihr nur alle immer mit dem Stromverbrauch? Habt ihr alle Workloads die solche CPUs auf 24 Threads 100% auslasten?

Kleiner Denkanstoß.
Angenommen, ein 13700K oder 14700K verbraucht unter Vollast 250W, bei Teillast 80W und im Idle 5W.
Ein 7800X3D liegt bei von mir aus 120W Vollast, 60W Teillast und 20W Idle.

Nun sehe man sich an, wie viel ein PC beim normalen Nutzer nichts tut:

Also weiter angenommen der PC ist 80% im Idle, 15% bei Teillast und 5% bei Vollast (was schon hoch gegriffen ist!).

Durchschnittsverbrauch Intel: 0,8x5W + 0,15x80W + 0,05x250W = 28,5 W
Durchschnittsverbrauch AMD: 0,8x20W + 0,15x60W + 0,05x120W = 31 W

Erkenntnisse:
1.) Beim normalen Nutzerverhalten ist der Stromverbrauch völlig irrelevant da sehr niedrig und zwischen AMD und Intel etwa gleich
2.) AMD verbraucht bei den meisten Nutzern MEHR Strom als Intel einfach weil der Idleverbrauch höher ist
3.) Sich über Stromverbrauch überhaupt Gedanken zu machen hat nur dann Sinn, wenn man einen sehr hohen Vollastanteil UND sehr hohe Laufzeiten des PCs hat. 12 Stunden am Tag Videoencodieren oder so. Für 99% der Leute ist das Thema einfach schei*egal und wird nur durchs Netz gehyped.
 
Ich kann es auch nur nochmals sagen! Ich habe kein Game welches mehr als 100 Watt permanent nimmt! 100 W sind da die Ausnahme bewege mich meistens zwischen 50-70Watt in der Gegend. 13700k
 
Nun, das war meine Wahrnehmung. Ich arbeite mit dem Gerät. Natürlich würde er öfters im Idle Modus und nicht auf Anschlag laufen, aber für solche Aufgaben nehme ich eher meinen Laptop. Ich möchte gerne „lange“ Spiele wie Baldurs Gate 3, Witcher 3, Cyberpunk etc. in 4K, vielleicht sogar mit Grafikmods spielen. Bei Witcher 3 kamen bei mir mal locker 160 Stunden zusammen, bis ich alles gesehen habe. Wenn beide im Idle Mode wenig Stromverbrauch haben ist das doch super. Wenn der PC aber ständig für Ai Upscaling, Vektorisierung, Bildbearbeitung in hohen Auflösungen, Serato Pro etc. etc. und langes Gaming genutzt wird, weiß ich nicht, ob die Umfrage repräsentativ für mich ist.

Deshalb frage ich ja auch, welche CPU ich nehmen soll, weil ich es echt nicht weiß. Ich denke ihr kennt euch besser aus. Eine X3D CPU macht aus vielen Standpunkten Sinn, aber ein i7 nunmal auch.

Und ich möchte dazu sagen, dass ich alle Komponenten nach diesem Gesichtspunkt auswählen möchte (Grafikkarte, Netzteil „Platinum“, Monitor etc.)
 
Zuletzt bearbeitet:
Intel Prozessoren gehen mit dem Energiesparen sogar bis auf 6 -7 Watt runter, da haben AMD Prozessoren heute immer noch Probleme so weit herunterzukommen. Natürlich geht der Prozessor auch auf 40 - 50 Watt kurz hoch, wenn hierzu in Idle was aufgerufen wird oder der Rechner im Hintergrund mal mehr machen muss. Selbst ohne Energiesparen sind es um die 20 - 24 Watt (Ruhephase).

Wenn der PC aber ständig für Ai Upscaling, Vektorisierung, Bildbearbeitung in hohen Auflösungen, Serato Pro etc. etc. und langen Gaming genutzt wird, weiß ich nicht, ob die Umfrage repräsentativ für mich ist.
Eine AMD Prozessor wird immer etwas effizienter bleiben, aber nach meiner Ansicht sind es geringe Unterschiede und nicht, wie manchmal behauptet wird, mit einem dreifachen höheren Energieverbrauch. Klar, wer mit 720p und sehr niedrigen Settings spielt und den Prozessor in das maximale CPU-Limit verfrachtet, der wird mit dem AMD Prozessor effizienter sein.

Aber normalerweise streben wir ein GPU-Limit an und selbst wenn dann noch ein CPU-Limit je nach Game besteht, wird der nicht so hoch ausfallen wie mit manchen Tests.

Wir haben hier drei Intel Systeme aufgebaut und ich bin auch die Person, die hierzu den Strom bezahlen muss und würde ich negative Erfahrungen mit dem Verbrauch von Intel gemacht haben, würde ich schon lange nur auf AMD Prozessoren setzen. Im Gegenteil, mein Sohn hatte bis vor kurzem auch einen AMD System und damals haben wir an der Steckdose die Differenz beider Rechner im selben Game gemessen und im GPU-Limit lagen sie beide sehr nahe zusammen. Im Gegenteil, sein Rechner hat sogar mehr verbraucht, da er viel länger in Games war und mit Idle hatte er Probleme, mit der geschlossenen Tür sein Zimmer kühl zu halten. Wir hatten hier Probleme auf unter 30 Watt zu kommen und hatten bereits alles optimiert, damit er überhaupt auf 30 Watt kommen konnte. Zu der Zeit kam ich mit einem 9900K Prozessor auf 14 Watt Idle.

Natürlich machst du auch nichts falsch mit einem X3D Prozessor, sind auch sehr gute Prozessoren.
 
Nun PCGH_Dave schreibt dazu in der neuen PCGH ja anscheinend einen redaktionellen Bericht. Ich hoffe ICARUS, was du schreibst wird da auch berücksichtigt. Man hört einfach nur, dass die X3D Prozessoren aus bekannten Gründen effizienter sind. Ob man das bei einem GPU Limit mit repräsentativen Verhalten im Idle auch nachher im Geldbeutel merken wird, scheint aber dann doch fraglich zu sein. Ich weiß, dass sie sich wahrscheinlich mehr lohnen, wenn man in 720p oder 1080p spielt und das muss auch bedacht werden. Aber wer kauft sich einen 7800X3D um in 720p zu spielen? Sicherlich ist die Plattform zukunftssicherer, aber, ob ich die neueren Features in den nächsten Jahren mit einer alten CPU nutzen kann, steht ja auch in den Sternen.

Es ist sicherlich schon auf das Thema Stromverbrauch einer CPU im GPU Limit eingegangen worden, aber andersrum wird ja redaktionell als Aufhänger die Effizienz der X3D gerne aufgenommen. Was das aber letztendlich bei hohen Auflösungen für die Stromkosten bedeutet würde mich interessieren. Bei einer 4080 oder 4070 Ti z.B.. Und in Programmen scheinen die Intel CPU ja besser zu sein, sodass ich sie vielleicht nicht mal richtig auslaste, somit also weniger Strom verbrauche, als das TDP PL2 Limit.

Es sind nicht direkt Wiedersprüche, die hier geschrieben werden, alle haben ja recht, aber was letztendlich für mich, mit meinen Nutzverhalten das Beste ist, kann ich echt nicht sagen und kann ich auch schwer durch Benchmarks etc. erkennen.

Erstmal danke, mir schwirrt der Kopf!?
 
Nun PCGH_Dave schreibt dazu in der neuen PCGH ja anscheinend einen redaktionellen Bericht. Ich hoffe ICARUS, was du schreibst wird da auch berücksichtigt.
Ist mir egal was davon bestätigt wird, nur dass der Unterschied darin liegt, wo ich unsere Systeme nicht für Testaufbauten aufgebaut habe und wir sie daher auch produktiv nutzen. Aus diesem Grund kenne ich seit Jahren, wie solch ein Intel System auch produktiv genutzt laufen wird.

Man hört einfach nur, dass die X3D Prozessoren aus bekannten Gründen effizienter sind. Ob man das bei einem GPU Limit mit repräsentativen Verhalten im Idle auch nachher im Geldbeutel merken wird,
Das kann ich dir nicht sagen, da ich als Vergleich mit denselben Voraussetzungen solch ein System laufen haben müsste. Mir ist nur bekannt, dass damals als mein Sohn einen 3900X und ich einen 9900K Prozessor verbaut hatten und wir beide jeweils eine RTX 2080 Super als Grafikkarten hatten, wir in einem Game dieselbe Leistungsaufnahme in Games an der Steckdose gemessen hatten.

Wie bereits geschrieben habe ich im Schnitt um die 50-70 Watt in Games anliegen habe und mit Games die alle Kerne gut auslasten an die 100 Watt. Zudem habe ich ein Limit gesetzt, was den Prozessor auf 125 Watt abbremst, sollte doch mal eine Anwendung mehr Leistung ziehen.

Es ist sicherlich schon auf das Thema Stromverbrauch einer CPU im GPU Limit eingegangen worden, aber andersrum wird ja redaktionell als Aufhänger die Effizienz der X3D gerne aufgenommen.
Wenn man so stark darauf eingehen muss, dann sollte man sich ggf. Gedanken machen, ob ggf. eine Konsole besser angebracht wäre. Denn die Differenz wird nicht so hoch ausfallen, dass jemand Arm wird. Es hängt immer ganz davon ab, wie jemand sein System nutzt und mein Sohn hatte mit dem AMD Rechner einen viel höheren Stromverbrauch, da er zu der Zeit fast 12 Stunden lang nur am Zocken war und ich hingegen mein System nicht so lange für Gaming nutze.
 
Zuletzt bearbeitet von einem Moderator:
Also die Test sind richtig von PCGH aber spätestens wenn du höhere Auflösungen erreichst und bei 4K dann ankommst, kommt es bei allen CPU‘s aufs gleiche raus. Wir befinden uns dann im GPU Limit der eine früher 4060 der andere Später 4090!

Ich kann nur von mir sprechen! Ich habe den 13700K Spiele Fallout 4, Dying Light 2, Cyberpunk und Cites Skyline wie RDR2 und komme mit meiner CPU im Schnitt auf 70-80Watt mit Ausschlag auch mal auf 110 Watt bei Cyberpunk, aber auch nicht ständig sondern eher peaks.

Ich habe auch von Dave bei Dying Light 2 das Savegame geladen und versucht diese angeblichen 214 Watt zu bekommen wie er mir in seiner Excel zeigte nicht mal das habe ich erreicht sondern nur 115 Watt und das in 720p!! Gehe ich auf 4K befinde ich mich wieder im GPU Limit und verbrauche zwischen 70-75 Watt.

Hier mal Bilder aus meinem DL 2 Game (720P und Grafik auf Low) also keine GPU Last bzw. wenig und CPU muss was machen!

IMG_0977.jpeg



So jetzt stell das ganze auf 4K und wie in meinem Fall 60FPS das ist meine Auflösung die ich spiele und die FPS mir auch ausreichen, befinde ich mich bei 50-65 Watt oder siehe den Verbrauch bei @IICARUS bei mehr FPS bei Shooter z.B. ( was ich aber nicht spiele)

Edit; Jetzt lass die halt 100 Watt nehmen im Worst Case und du spielst pro Tag 7 Tage die Woche 5 Stunden, sind das:

7x5x100w=3,5KW pro Woche mal 52 Wochen ca 70€

Jetzt AMD mit den 65 Watt

7x5x65w =2,2KW pro Woche mal 52 Wochen ca. 46€

Differenz= 24 Euro im Jahr! Obwohl ich wirklich gerne jeden Tag das ganze Jahr 5 Stunden spielen würde ist das nicht möglich :) also wäre es noch viel geringer aber wie du siehst 24€ im Jahr ist ein Witz und für mich kein Kaufargument denn sonst müsste ich wenn es mir nur um Effizienz geht den 13700T mit 35 Watt kaufen!
 
Zuletzt bearbeitet von einem Moderator:
COD oder BF5, bzw. BF2042 lasten die P-Kerne gut aus.

Da sind dann auch um die 90 - 100 Watt möglich. BF 2042 kann sogar mit meinem 13900K bis zu 170 Watt ziehen. Aber dafür gibt es auch die Möglichkeit im BIOS Limits festzusetzen und dann wird der Prozessor immer noch ausreichend Leistung erbringen.

Mit UV lässt sich da auch noch einiges erreichen.
Mit Stock erreicht mein System um die 100 Watt in COD, mit UV liege ich darunter.
K1600_cod_2023_03_18_04_19_36_595.JPG


Es hängt aber auch mit von der Grafikkarte mit ab, denn mein System erreicht in COD um die 100 Watt mit der Stock Spannung. Mein Sohn hat denselben Prozessor verbaut und von der Güte her verbraucht der Prozessor sogar 20mV weniger. Trotzdem kommt er mit seiner RTX 4080 Grafikkarte auf 120 Watt, da seine Grafikkarte etwas mehr Leistung dem Prozessor abverlangt.

Zwischen dem 13700K und ich einen 13900K macht es in Games kein großer Unterschied, da es sich immer um 8 P-Kerne handelt. Der 13900K taktet nur mit etwa 300 MHz auf alle Kerne höher. Der max. Turbo Takt liegt mit beiden Prozessoren unter Last nicht an, denn dieser Turbo Boost bezieht sich nur auf einen Kern, solange andere Kerne nicht stark ausgelastet sind.
 
Da müsste eig mehr Stromverbrauch drin sein, warum Grafik auf low?
Damit werden auch CPU Effekte deaktiviert, Grafik auf Ultra und Auflösung runter wäre so, wie PCGH testet.
Kann ich gerne dann auch machen! Werde das morgen nachliefern, aber nochmals ich knalle alles auf Ultra und 4K und komme auf keine 100 Watt, also was nützt es mir, dass meine CPU in 720P 140 Watt zieht wenn ich dann in meinem Setting im GPU Limit hänge und eh nichts machen kann da es keine 5090 gibt die meine GPU entlastet.
 
Zurück