Stromverbrauch AMD Ryzen 7 7800X3D vs I7-13700K Frage

Gute HW kostet eben und an einem Produktivsystem sollte man nicht sparen.
Außerdem Steuerabsetzung und so :D
Die Frage: Kompromiss oder nicht? Und das kann ich mir nur selbst beantworten.
Selbst wenn ein 7800X3D in manchen Anwendungen 15 sec. langsamer ist als ein Intel, bleibt die Frage des Anschaffungspreises und der Unterhalskosten und (wichtig!) Langlebigkeit.
Gruß T.
 
Die Preise sind die ganze Zeit schon am purzeln! Wenn du Leistung und sparsam haben möchtest geht kein Weg am 795x3d vorbei.
Über 600 € für eine CPU empfinde ich mehr als schmerzhaft im Geldbeutel, auch wenn es mein Favorit ist. Sicherlich bin ich Enthusiast, aber das überschreitet meine Grenze doch sehr stark, weil ich an den anderen Komponenten auch nicht sparen möchte. Und eine gebrauchte CPU möchte ich nicht kaufen. Da geht es wohl nur, dass ich meine Anforderungen herunterschraube oder warte bis sich hoffentlich das Preisgefüge ändert, sobald Intel die neuen Produkte vorstellt.
Die Frage der Langlebigkeit kann doch sehr frustrierend sein. Besonders in Zeiten von Hardware KI-Beschleunigung. Ich habe mir schon immer die Frage gestellt, wie lange ich warten soll, bis ich mir ein neues System zusammenstelle, bzw. ob gerade technologisch der richtige Zeitpunkt ist, da es ja schon immer schnelle technologische Fortschritte gab. Die AMD CPU 8000er-Reihe und Nvidias GPU 5000er-Reihe besitzen wahrscheinlich Funktionen zur KI-Beschleunigung, die einen jobtechnisch und spielerisch viel weiter bringen oder viel Zeit ersparen. Dann ist es mit der Langlebigkeit nicht lang her, wenn ich nun zuschlage. Interessant wäre mal ein statistischer Bericht, wann in einem Produktlebenszyklus der beste Zeitpunkt wäre zuzuschlagen, um Geld zu sparen und ein Wohlfühlfaktor zu haben, bevor man sich ärgert nicht doch gewartet zu haben. Und zwar in jedem Hardwarebereich. Gibt es sowas?
 
Zuletzt bearbeitet:
Über 600 € für eine CPU empfinde ich mehr als schmerzhaft im Geldbeutel, auch wenn es mein Favorit ist. Sicherlich bin ich Enthusiast, aber das überschreitet meine Grenze doch sehr stark, weil ich an den anderen Komponenten auch nicht sparen möchte. Und eine gebrauchte CPU möchte ich nicht kaufen. Da geht es wohl nur, dass ich meine Anforderungen herunterschraube oder warte bis sich hoffentlich das Preisgefüge ändert, sobald Intel die neuen Produkte vorstellt.
Die Frage der Langlebigkeit kann doch sehr frustrierend sein. Besonders in Zeiten von Hardware KI-Beschleunigung. Ich habe mir schon immer die Frage gestellt, wie lange ich warten soll, bis ich mir ein neues System zusammenstelle, bzw. ob gerade technologisch der richtige Zeitpunkt ist, da es ja schon immer schnelle technologische Fortschritte gab. Die AMD CPU 8000er-Reihe und Nvidias GPU 5000er-Reihe besitzen wahrscheinlich Funktionen zur KI-Beschleunigung, die einen jobtechnisch und spielerisch viel weiter bringen oder viel Zeit ersparen. Dann ist es mit der Langlebigkeit nicht lang her, wenn ich nun zuschlage. Interessant wäre mal ein statistischer Bericht, wann in einem Produktlebenszyklus der beste Zeitpunkt wäre zuzuschlagen, um Geld zu sparen und ein Wohlfühlfaktor zu haben, bevor man sich ärgert nicht doch gewartet zu haben. Und zwar in jedem Hardwarebereich. Gibt es sowas?
Z.Z sind wir in einer Phase, wo technologischer Fortschritte bei CPU und GPU eher im einstelligen %-Bereich angesiedelt sind.
Von daher wird eine Mehrleistung überschaubar sein.
Du benötigst JETZT die Leistung? Dann auch jetzt kaufen.
Gruß T.
 
Nö. Aber du brauchst doch nur logisch an die Sache heranzugehen.
Du kannst jetzt den Sockel 1700 kaufen, aber außer dem Refresh, der im Oktober von Intel kommen soll, war es das für diesen Sockel. Bei AM5 gehe ich davon aus, dass mindestens bis Zen 5D unterstützt wird, da reden wir dann von 2025. Da hat Intel schon den Nach-Nachfolger für die dann nächste bald-EOL-Plattform am Start. Ein guter Zeitpunkt ist also jetzt, in Form von AM5. Ein 7950X3D ist aber auch mächtig genug, um die ganze Plattform auszuharren und auf Zen 6 zu warten, irgendwann 2026/2027 herum.
 
Also versteh ich das richtig, das die großen AMDs dir in der Anschaffung zu teuer sind und die Intels zu viel saufen ?
Ein 7800X3D wäre im Preisrahmen aber könnte zu langsam sein zum damit arbeiten ?

Was ist denn dann mit dem hier ?

Dann hast du wieder rum weniger Spieleleistung, wie mit einem X3D Modell.
Aber bietet 12 Kerne und einen moderaten Stromverbrauch mit 65W.

Und was spricht denn dagegen auch einfach mal vorher eine kleinere CPU zu kaufen, diese zu testen ob einen die Leistung nicht doch reicht und gegeben falls einfach doch noch irgendwann eine größere CPU zu kaufen ?
Die alte CPU lässt sich doch zu prima Preisen einfach wieder verkaufen, somit fallen die Anschaffungskosten einer größeren CPU auch geringer aus.

Eine CPU ist doch fix gewechselt.
 
und einen moderaten Stromverbrauch mit 65W.
Die TDP hat nichts mit der Leistungsaufnahme unter Last zu tun. Ein Ryzen 7900 kann theoretisch bis zu 88 Watt aufnehmen und ist in Spielen deutlich langsamer als ein 7800X3D, dafür in Anwendungen etwa 20 Prozent schneller, durch die zusätzlichen Kerne. In der Ausgangsfrage ging es jedoch um "7800X3D vs. 13700K" mit dem Augenmerk auf "Strom sparen". Da kann die Intel-CPU nicht gewinnen. :ka:
 
Das ist wohl wahr, allerdings bin ich auch dankbar für die Antworten auf die Frage, die sich danach für mich ergibt…..maximale Leistung gepaart mit Strom sparen und der monetären Belastung. Ich habe nun einen ganz guten Überblick. AMD wird‘s auf jeden Fall werden, aber ich warte noch bis Intel‘s CPU‘s rauskommen um vielleicht noch etwas Geld zu sparen. Welche AMD CPU es dann wird, ist aber immer noch schwierig. Die Frage, ob ich in Anwendungen oder Gaming mehr Leistung haben möchte und wo preislich mein Limit ist, wird mich noch etwas beschäftigen. Ich bedanke mich!
 
Die TDP hat nichts mit der Leistungsaufnahme unter Last zu tun. Ein Ryzen 7900 kann theoretisch bis zu 88 Watt aufnehmen und ist in Spielen deutlich langsamer als ein 7800X3D, dafür in Anwendungen etwa 20 Prozent schneller, durch die zusätzlichen Kerne. In der Ausgangsfrage ging es jedoch um "7800X3D vs. 13700K" mit dem Augenmerk auf "Strom sparen". Da kann die Intel-CPU nicht gewinnen. :ka:
Ich weiß.

Aber so wie ich das mitbekommen habe ist der X3D dem TE eventuell zu langsam für bestimmte Workloads und der 13700K zu durstig.
Daher wollte ich nur eine Idee bzw. ein Kompromiss reinwerfen mit dem 7900.

Und auch wenn der 7900 sich auch etwas mehr nimmt, wie angegeben nimmt er doch weniger wie der Intel.
Was ja auch wichtig für den TE war.

Aber Leistungsaufnahmen hin oder her @Tresor999.
Jede CPU lässt sich auch recht einfach selbst regulieren.

Und verlieren dabei häufig nicht mal viel Leistung.
 
Bist du beim zocken denn überhaupt im CPU Limit? Wenn eh die GPU limitiert kann die CPU auch noch so schnell sein.
 
Nach jetzigem Plan wird’s ne RTX 4070 Ti oder ne RTX 4080. Die 7900 XTX find ich auch noch interessant. Also bis auf ein paar Spiele sollte die GPU eigentlich nicht limitieren.
 
Der Intel braucht in Games um die 55 - 100 Watt. Mit einer RTX 4080 oder 4090 kann noch etwas hinzukommen, weil der Prozessor noch etwas mehr gefordert wird. Natürlich im GPU-Limit, denn im CPU-Limit kann noch etwas hinzukommen.

Es hängt halt ganz davon ab, wie stark der Prozessor belastet wird. Mit CB R23 als Beispiel sind über 200 Watt möglich, da alle Kerne mit 100 % belastet werden. Auch die E-Kerne die mit Anwendungen und Games nicht stark belastet werden.

Mit Idle und Office geht der Intel auf etwa 7 Watt mit dem Energiesparen runter. Da kommt der AMD nicht ganz so stark runter. Ohne Energiesparen sind es um die 24 Watt. Natürlich wird auch hier die Leistungsaufnahme kurzzeitig höher ausfallen, da im Hintergrund immer was mitlaufen oder wenn selbst was aufgerufen wird.

Habe einige Spiele und normalerweise sterbe ich auch ein GPU-Limit an. In Tests wird mit geringeren Settings und einer Auflösung von nur 720p getestet. Denn es sollen Prozessoren und keine Grafikkarten getestet werden. Aus diesem Grund wird der Geschwindigkeitsvorteil des AMD Prozessor im GPU-Limit schwinden. Natürlich wird der AMD immer etwas effizienter sein. Aber das TDP sollte auch nicht mit der tatsächlich anliegende Leistungsaufnahme verwechselt werden und wenn du nicht über 65 Watt kommen möchtest, kannst den Intel auch auf 65 Watt festnageln.
 
Zuletzt bearbeitet von einem Moderator:
Doch doch jede GPU limitiert sofern die Settings nur hoch genug sind.

Auch eine 4090.
Ich brauche keine 144 fps, sondern möchte Spiele in maximalen Details auf einem guten Display erleben. Da reichen mir vollkommen 60 fps. Allerdings darf das dann auch mal Cyberpunk 2077 sein. Was bestimmte Anwendungen angeht, bin ich Power-User, da es auch ein Arbeitsgerät ist. Noch dazu sitze ich relativ lange vor dem PC. Mein Bedürfnis ist, aus einem festgelegten Betrag das Maximale herauszuholen, damit ich 3-4 Jahre meine Ruhe habe und mich damit wohlfühle. Auch wenn ich momentan in ein CPU-Limit kommen würde, könnte das in 3 Jahren ja ganz anders aussehen.
Ich denke auch, dass ich mit einer AMD CPU gut beraten bin, letztendlich nutze ich für Office Arbeiten einen Laptop. Aber es ist ja davon auszugehen, dass die Stromkosten in den nächsten Jahren den Weg nach unten nicht finden werden. Früher war mir das nicht so wichtig, meine letzte CPU war ein i9-9900k. Ich finde das Thema jetzt sehr wichtig, mit all den smarten Geräten zu Hause, habe ich eine recht hohe Stromrechnung und versuche peu à peu alles zu optimieren, ohne Einschränkungen zu haben.
 
Ich brauche keine 144 fps, sondern möchte Spiele in maximalen Details auf einem guten Display erleben. Da reichen mir vollkommen 60 fps. Allerdings darf das dann auch mal Cyberpunk 2077 sein.
Wie schon gesagt - auch eine 4090 kann man leicht ins Limit bringen. Auch unter 60 fps.
Wo du grade Cyberpunk erwähnst...

Da liegt ne 4090 wenn man Pathtracing einschaltet so bei grob 50 fps - und zwar mit Performance upscaling - bedeutet es wird nur ein Viertel der Auflösung berechnet! Nativ ist das wenns überhaupt läuft ne Diashow im einstelligen fps-Bereich.

1692451264761.png



Das sind natürlich keine Standardeinstellungen und selbstverständlich kannste CP77 mit ner 4090 (oder 4080) auf Hoch mit 60+ fps spielen. Nur "alles was geht" eben noch lange nicht. Das wird vielleicht mal ne 6090 können.
 
Welcher soll es denn werden? Der 7950X3D?
Schwierig. Er wäre die erste Wahl, wenn er nicht so teuer wäre. Spare ich durch ihn 200 € Strom in den nächsten 3 Jahren, sodass er sich alleine von der Effizienz her gegenüber einem 7800X3D lohnt? Wahrscheinlich nicht.
Ist er die 200 € durch Erleichterung und Geschwindigkeit mehr wert? Kann sein. Letztendlich kauft man als Enthusiast ja auch ein Gefühl.
Wie schon gesagt - auch eine 4090 kann man leicht ins Limit bringen. Auch unter 60 fps.
Wo du grade Cyberpunk erwähnst...

Da liegt ne 4090 wenn man Pathtracing einschaltet so bei grob 50 fps - und zwar mit Performance upscaling - bedeutet es wird nur ein Viertel der Auflösung berechnet! Nativ ist das wenns überhaupt läuft ne Diashow im einstelligen fps-Bereich.

Anhang anzeigen 1434649


Das sind natürlich keine Standardeinstellungen und selbstverständlich kannste CP77 mit ner 4090 (oder 4080) auf Hoch mit 60+ fps spielen. Nur "alles was geht" eben noch lange nicht. Das wird vielleicht mal ne 6090 können.
Das ist momentan das eine Spiel, oder? Sicherlich wird es immer ein paar Titel geben, die aktuelle Hardware voll auslasten, dann bin ich aber lieber doch ein bisschen Vernunftmensch.
 
Spare ich durch ihn 200 € Strom in den nächsten 3 Jahren, sodass er sich alleine von der Effizienz her gegenüber einem 7800X3D lohnt?
Nein.
Ist er die 200 € durch Erleichterung und Geschwindigkeit mehr wert?
Was das "wert" ist liegt alleine im Auge und Nutzen des Besitzers. Je mehr du die CPU ausnutzen/auslasten kannstr [mit Workload der einen Mehrwert generiert...] desto mehr ist die CPU-Performance "wert". ;-)
 
Nein.

Was das "wert" ist liegt alleine im Auge und Nutzen des Besitzers. Je mehr du die CPU ausnutzen/auslasten kannstr [mit Workload der einen Mehrwert generiert...] desto mehr ist die CPU-Performance "wert". ;-)
Es geht bei einem Workload darum, wie viel einem die eigene Zeit wert ist, wenn ich ein teureres, aber schnelleres Produkt kaufe respektive langsamer, aber günstiger. ;-) Bei Spielen natürlich nicht. Wenn ich ein Spiel nur mit 20 fps spielen kann, verteufele ich das Gerät.
Apple ist da ein guter Konkurrent, der langsam (nächstes MacOS) versteht, dass neben Effizienz und Leistung auch Spiele interessant sind. Ich bin echt gespannt auf den M4, M5 etc.
 
Zuletzt bearbeitet:
Es geht bei einem Workload darum, wie viel einem die eigene Zeit wert ist, wenn ich ein teureres, aber schnelleres Produkt kaufe respektive langsamer, aber günstiger.
Der Punkt ist der, spielen wirst du mit quasi allen aktuellen CPUs.
Ganz egal welchen du nimmst.

Daher hatte ich auch schon rausgelesen, das es dir auch um das arbeiten und nicht nur spielen mit der CPU geht.

Wo du nochmal das Thema Strom Ersparnis erwähnt hattest.
Du kannst die Stromzufuhr deiner CPU selber regeln.

Daher verstehe ich die erste Wahl auf AMD durchaus.
Würde aber die Intels nicht ganz abschreiben.

Die sind halt nun mal alle ab dem 13600K aufwärts schnell im Multithreading.

Das Strom Thema ist natürlich vor allem hier in Deutschland ein großes Thema.
In Ländern in den die ct pro kWh geringer ausfallen interessiert das weniger.

Ich höre halt auch immer wieder den Anschaffungspreis raus.
Da kann ein System auf Basis eines 13600K relativ günstig aufgebaut werden, unabhängig erstmal davon welches Brett und ob DDR4 oder DDR5.

Wobei man natürlich mit DDR4 etwas günstiger noch weg kommt.
 
Zurück