Ryzen 7000: Zen 4 angeblich weiterhin mit 16 Kernen, aber höherer TDP

Schade, der Trend geht immer weiter... Stromsparen ist out am PC. Bei Grafikkarten ist es ja ähnlich.

Eine rechtlich bindende Begrenzung der Leistung würde den liberalen Geist der Deutschen verletzen. Das geht natürlich nicht. In 5 Jahren braucht man dann ein 700W Netzteil für n Mittelklasse Daddel-PC. Ein weiter Satz mit X...
 
Schade, der Trend geht immer weiter... Stromsparen ist out am PC. Bei Grafikkarten ist es ja ähnlich.

Wird doch alles stromsparender. Alderlake bekommt seine kleinen Kerne und auch AMD wird nachziehen. Das dürfte den Verbrach insgesamt ordentlich drücken.

Eine rechtlich bindende Begrenzung der Leistung würde den liberalen Geist der Deutschen verletzen.

Man könnte denken, du wärst nie in Deutschland gewesen. Hier ist fast alles reguliert bis zum abwinken. Wir sind wohl eine der kleinkariertesten Nationen der Welt.

Versuch mal hier deinen Namen ändern zu lassen, dann wirst du den "liberalen Geist der Deutschen" mal richtig kennen lernen. Hierfür brauchst du erstmal einen vernünftigen Grund, dass du dich mit deinem Namen zum Gespött machst ist nicht zwangsweise ein vernünftiger Grund, schon garnicht wenn du den Namen einfach so ändern lassen möchtest. Wenn du Erfolg hast, dann darfst 1300€ zahlen. Das ist nur ein Beispiel. Zum Vergleich: in GB zahlt man 50 Pfund und wenn man sich als Kerl Celine Dion nennen möchte, dann ist das auch kein Problem.

Die einzige große Ausnahme ist die Autobahn. Hier gilt noch: freie Fahrt für freie Bürger. Doch auch dort gibt es engstirnige Leute, die auch noch das letzte Stück Freiheit abschaffen wollen um es dem Diktat des Tempolimits zu unterwerfen.
 
Zuletzt bearbeitet:
Müsste hier nicht eigentlich auch eine Bestätigung von DDR5 im Leak enthalten sein? Oder kommt das erst mit der darauffolgenden Gen?
 
Werde Ryzen 7000 wohl überspringen. Habe mir erst Anfang des Jahres einen 5900X geholt und der wurde noch längst nicht ausgereizt. Solange man mindestens soviele Kerne hat wie die Konsolen, die mindestens der selben Leistung entsprechen, braucht man sich eigentlich keine Sorgen zu machen bei Spielen an die CPU-Grenze zu kommen.
 
Klar steigt der Hardwarehunger aller Spiele, aber in den nächsten 5 Jahren sehe ich den Zuwachs beim Hardwarehunger der Spiele vor allem im Bereich Raytracing und Machine/Deep Learning.

Raytracing ist klar, Machine Learning wird Prozesse die traditionell auf der CPU berechnet wurden (KI, Simulation der Welt) auf die GPU verschieben. In der Summe wird die GPU noch wichtiger sein als heute und die CPU wird weniger Auswirkungen auf die fps haben.

Wenn dann ein Sockel 170W unterstützt, ist das interessante Produkt nicht die 160W CPU mit 32 Threads und 2 Vega Kernen. Das Produkt das Spieler für so ein Mainboard sehen wollen hat 30W TDP für die CPU und 120W für 40CU RDNA3 Kerne. Solche Produkte wird AMD brauchen, wenn Intel mit aller Macht auf den Markt für Fertig-Spiele PC unter 750€ drängt und auch Nvidia Druck macht.
 
Wenn dann ein Sockel 170W unterstützt, ist das interessante Produkt nicht die 160W CPU mit 32 Threads und 2 Vega Kernen. Das Produkt das Spieler für so ein Mainboard sehen wollen hat 30W TDP für die CPU und 120W für 40CU RDNA3 Kerne. Solche Produkte wird AMD brauchen, wenn Intel mit aller Macht auf den Markt für Fertig-Spiele PC unter 750€ drängt und auch Nvidia Druck macht.
Generell sind die interessanten Produkte sowieso bis auf wenige Spezialfälle niemals die Dickschiffe.

Wer Hardcorespieler ist braucht 8 oder von mir aus zukünftig noch 12 schnelle Kerne die mit 100W TDP im Spiel mit Teillast wunderbar auf ~5 GHz bei den Hauptthreads klarkommen - der Rest geht an die mehrere Hundert Watt fressende Grafikkarte.

Gelegenheitsspieler würden sich über schnellere APUs freuen oder aktuelle reichen sogar vielen schon auch wenns in dieser Community eher unglaublich klingen mag (FullHD@medium auf 40 fps reicht dem Ottonormalo oft - abseits der Grafikkracherspiele reicht dafür ein 4650G oder sowas oft schon!). Da wäre ein Design mit 8 CPU-Kernen auf Chiplet 1 und 24 RDNA2-Clustern oder sowas auf Chiplet 2 mit insgesamt 170W eine absolute Bombe.

Diese dicken CPU-Granaten wie der 5950X sind nur dazu da den Pen...äähhh...Benchmarkbalkenkrieg zu gewinnen.
(Sagte der, der einen benutzt. :fresse: )
 
Wie kommst du darauf?
Es gibt zu 100% weiterhin auch APUs mit 65W, 45W und noch niedrigerer TDP.
naja die flotteren Gaming-CPUs bei Intel fressen seit ein paar Jahren mehr und mehr, die GPUs seit Turing und erst recht Anpere/Navi2 auch.
Das Gefühl, dass im Durchschnitt als Spieler mehr Strom verbraten wird drängt sich also auf.
Effiziente CPUs, APUs und GPUs gibt es natürlich weiterhin. Die aktuellen AMD CPUs sind unter Last ohnehin sehr effizient.
Nett dazu ist auch die Aufstellung von 3dcenter zum Thema Verbrauch aktueller DX12 Karten.
Eine höhere mögliche TDP ist kein Beinbruch, solange es nur für mögliche Topmodelle aufgehobrn wird und nicht die gesamte Produktfamilie mehr braucht.
Klar steigt der Hardwarehunger aller Spiele, aber in den nächsten 5 Jahren sehe ich den Zuwachs beim Hardwarehunger der Spiele vor allem im Bereich Raytracing und Machine/Deep Learning.

Raytracing ist klar, Machine Learning wird Prozesse die traditionell auf der CPU berechnet wurden (KI, Simulation der Welt) auf die GPU verschieben. In der Summe wird die GPU noch wichtiger sein als heute und die CPU wird weniger Auswirkungen auf die fps haben.

Wenn dann ein Sockel 170W unterstützt, ist das interessante Produkt nicht die 160W CPU mit 32 Threads und 2 Vega Kernen. Das Produkt das Spieler für so ein Mainboard sehen wollen hat 30W TDP für die CPU und 120W für 40CU RDNA3 Kerne. Solche Produkte wird AMD brauchen, wenn Intel mit aller Macht auf den Markt für Fertig-Spiele PC unter 750€ drängt und auch Nvidia Druck macht.
Mehr KI und Physik in Spielen, das wird seit so vielen Jahren erträumt, ich glaub nich mehr dran
 
Zuletzt bearbeitet:
Eine höhere mögliche TDP ist kein Beinbruch, solange es nir für mögliche Topmodelle aufgehobrn wird und nicht die gesamte Produktfamilie mehr braucht.
Und sofern man die Möglichkeit hat auch große Modelle effektiv etwas einzubremsen.

Viel der sauhohen TDPs geht ja für die letzten paar Prozent drauf weil der Konkurrenzkampf das so abverlangt.

Man kann einen 5900X+RTX3090 @ stock betreiben was grob 150+350 = 500W im Worstcase entspricht.
Oder man kann den 5900X auf 100W PPT einstellen und die 3090 mit 0,8v@1800MHz betreiben. Das ändert an der Spieleleistung etwas im Bereich von kleinen einstelligen Prozentwerten (etwas, das alleine rBAR schon kompensiert) - senkt aber den Verbrauch um 100-200W ab.
 
Das Gefühl, dass im Durchschnitt als Spieler mehr Strom verbraten wird drängt sich also auf.
Das ist wohl so, mir aber egal, weil ich nicht spiele.
Seine Aussage war aber halt nicht auf Spieler eingeschränkt sondern schon wieder so eine generelle Aussage;)

Effiziente CPUs, APUs und GOUs gibt es natürlich weiterhin.
Eben.
Es ist überhaupt kein Problem, eine APU zu kaufen die 65W TDP hat und per cTDP sogar auf 45W gedrosselt werden kann.
Wenn Leistung nicht wichtig ist, gibt es sogar 35W TDP APUs.
 
Raytracing ist klar, Machine Learning wird Prozesse die traditionell auf der CPU berechnet wurden (KI, Simulation der Welt) auf die GPU verschieben. In der Summe wird die GPU noch wichtiger sein als heute und die CPU wird weniger Auswirkungen auf die fps haben.

Eher nicht für KI wird intel und AMD FPGAs mit in die CPU integrieren, das lohnt sich mehr ;-) Einfach mal nach nem Vergleich googeln und du wirst überrascht sein.
 
Das ist wohl so, mir aber egal, weil ich nicht spiele.
Seine Aussage war aber halt nicht auf Spieler eingeschränkt sondern schon wieder so eine generelle Aussage;)
mir ist schon klar, dass du es mit Absicht nicht verstehen wolltest, warum auch immer du das machst musst du für dich selbst beantworten. Ich nahm im Kontext (PC Games(!) Hardware(!) halt an, dass er sich nicht auf Surf- und Schreibmaschinen bezog
Eben.
Es ist überhaupt kein Problem, eine APU zu kaufen die 65W TDP hat und per cTDP sogar auf 45W gedrosselt werden kann.
Wenn Leistung nicht wichtig ist, gibt es sogar 35W TDP APUs.
und deren Leistung ist gar nicht zu verachten, hab hier das LG Gram 17 als Testgerät bekommen und das wird mit den Leistungsreserven wohl auch in 5 Jahren noch brauchbar sein - natürlich nicht zum Progaming, aber ein wenig arbeiten
 
*) Zudem kommt grundsätzlich auch noch hinzu, dass mehr IPC/Durchsatz mehr Energie benötigt. Wie weit das der N5(P) und architektonische Verbesserungen kompensieren können, wer weiß und AVX-512 kommt ja auch noch hinzu, d. h. relativ gesehen werden die Kerne per se mehr Energie benötigen.
Mehr IPC braucht also mehr Strom,das wusste ich ja nicht.Merkwürdig wenn das so wäre dann würde es bei mir aber anderst aussehen.Das gegenteil ist der Fall. Hatte vorher nen Ryzen 9 3950x gehabt. Der brauchte wirklich bei mir 142 Watt.Der Ryzen 9 5950x hatte bei mir 10 % mehr Leistung. Würde der dann auch 10 % mehr Strom verbrauchen dann würde der keine 128 Watt sondern 14 Watt mehr verbrauchen. Nagut ich gebe zu ich hatte beim 3950x XMP an und beim 5950x xmp aus weil dies Leistung gekostet hatte. Aber dennoch,merke ich nicht das IPC mehr strom verbrauchen würde.Wer hat das denn so was behauptet gehabt? Ich sehe davon nix irgendwo im Internet,bitte erläutere deine Aussage genauer.Danke.
 
Nö. Jedes halbwegs gute B550 oder X570 Brett kann VIEL mehr als 170W in den Sockel drücken ohne Probleme mit den MosFETs zu bekommen. Die werben doch immer mit drölfzig Phasen wo jede einunddrölfzig Ampere liefern kann. Nein im Ernst, für ein besseres AM4-Board wären auch 300-400W Leistungsaufnahme des CPU-Sockels kein Thema wenn man ein bisschen Luftzug über den MosFETs hat. Das ist nur nach Specs nicht erlaubt (genau wie ein 8-pol an der Grafikkarte nur 150W "darf" aber auch bei 400W technisch noch keine Probleme hätte).

Nö. Du kannst die gleichen 40€-Luftkühler weiterverwenden wie bisher - die haben TDPs von >200W. (Wie sonst sollte ein unlocked 11900K unter Luft lauffähig sein...)

Nur dann, wenn die Mehrleistung kleiner ausfällt als der Mehrverbrauch - was keineswegs klar ist.

Die Effizienz im Normalbetrieb (der bei üblichen Usern sehr viel Idle und Teillast aber sehr wenig Vollast bedeutet) hat mit der Angabe sowieso nichts zu tun. Da wirds tendentiell eher sogar deutlich besser wenn der IOD in 7 statt 12 nm kommt und der Idle- und Teillastverbrauch der CPU dadurch wahrscheinlich deutlich sinkt.
Nun, B550-Mainboards fangen gerade Pi mal Daumen bei 70 Euro an und Enden bei 270 Euro, X570 ungefähr jeweils beim Doppelten. Wenn die CPU nun mehr Leistung fordert, verschiebt sich das Niveau, was "halbwegs gut" ist, entsprechend nach oben zu den aufwändigeren und teureren Modellen.

Natürlich kann ich auch den selben Luftkühler wie bisher verwenden. Aber wenn der mehr Wärme abführen soll, muss er nun schneller und damit lauter arbeiten. Will ich das Lautstärkeniveau wie bisher halten, brauche ich also einen aufwändigeren und teureren Kühler.

Ich stelle bei der Leistung auch immer die Frage, wie hoch die Rechenleistung bei gleicher Leistungsaufnahme ausfällt. Die Rechenleistung steigt ja erfahrungsgemäß geringer als der Verbrauch an. Jede Leistungssteigerung, die durch erhöhte Leistungsaufnahme zustande kommt (oberhalb des Sweet Spots), senkt also die Effizienz und stellt für mich quasi einen Schritt Richtung Sackgasse dar.

Bezüglich des Normalbetriebs in viel Teillast und Idle gebe ich dir recht. Mit Blick auf diese Use Cases bräuchte ich dann aber auch keine 16 Kerne, nicht einmal 6. Schaffe ich mir so viele Kerne an, interessiert mich also auch das Verhalten unter Last.
 
Nun, B550-Mainboards fangen gerade Pi mal Daumen bei 70 Euro an und Enden bei 270 Euro, X570 ungefähr jeweils beim Doppelten. Wenn die CPU nun mehr Leistung fordert, verschiebt sich das Niveau, was "halbwegs gut" ist, entsprechend nach oben zu den aufwändigeren und teureren Modellen.

Natürlich kann ich auch den selben Luftkühler wie bisher verwenden. Aber wenn der mehr Wärme abführen soll, muss er nun schneller und damit lauter arbeiten. Will ich das Lautstärkeniveau wie bisher halten, brauche ich also einen aufwändigeren und teureren Kühler.

Ich stelle bei der Leistung auch immer die Frage, wie hoch die Rechenleistung bei gleicher Leistungsaufnahme ausfällt. Die Rechenleistung steigt ja erfahrungsgemäß geringer als der Verbrauch an. Jede Leistungssteigerung, die durch erhöhte Leistungsaufnahme zustande kommt (oberhalb des Sweet Spots), senkt also die Effizienz und stellt für mich quasi einen Schritt Richtung Sackgasse dar.

Bezüglich des Normalbetriebs in viel Teillast und Idle gebe ich dir recht. Mit Blick auf diese Use Cases bräuchte ich dann aber auch keine 16 Kerne, nicht einmal 6. Schaffe ich mir so viele Kerne an, interessiert mich also auch das Verhalten unter Last.


Das mit dem Kühler ist nicht zwingend so. Hängt davon ab, was man schon hat, wie der auf verschiedenen CPUs performt usw.

Wer jetzt einen heißen 6 Kerner mit 125W, könnte auf einem 16 Kerner mit 170w sogar niedrigere Kerntemperaturen haben, mit dem selben Kühler.

Außerdem sind die Unterschiede meistens auch nicht so gewaltig, zwischen den Luftkühlern. Sofern man nicht gerade einen 1,3kg Klotz am Board am reißen hat.
 
@SchwarzerQuader
Fangen wir mal bei den Boards an.
Ein brauchbares günstiges b550 Brett wäre ein Aorus elite v2. Das Ding kostet um die 120€.
Da sind 12 MosFets zu je 50A verbaut. Bedeutet bei 1,4v Spannung schaffen die über 400W - das fetzt dir jeden Ryzen in Sekunden weg. Selbst wenn man da ne große Reserve lässt und nur 60% oder sowas belastet wären 250W CPUs gar kein Problem. Dass man höherwertige Boards bräuchte ist was Spannungsversorgung angeht Unsinn. Das wollen die Hersteller uns nur dauerhaft einreden.

Die Kühlerfrage: Ein 40€ Brocken3 kann über 200W bei 1000upm abführen - schneller kann der Lüfter sowieso nicht. Derart aggressiv boostende CPUs werden sowieso unter Last immer an den 90 Grad kleben egal ob der Kühler 100W mehr oder weniger auf dem Papier kann, das einzige was passiert wenn man keine MonsterAiO draufschnallt sondern nen leisen Luftkühler ist dass die Allcoretaktraten 200 Mhz niedriger ausfallen - merkt ohne Benchmarks kein Mensch.

Die Effizienz liegt wie du richtig sagst hauptsächlich am eingestellten Betriebspunkt. Da geht halt das meiste für die letzten 5% Performance drauf und die Werkseinstellungen sind da leider sehr hart weil die Konkurrenz es erfordert. Aber langfristig ist auch das kein Problem. Wenn ich meine letzte CPU mit der aktuellen vergleiche (i7-5960X gegen Ryzen 5950X) dann sehe ich in meinem Workload eine Performance von etwa Faktor 2,5 bei praktisch gleichem Stromverbrauch (um die 140W).
 
Schade, der Trend geht immer weiter... Stromsparen ist out am PC. Bei Grafikkarten ist es ja ähnlich.

Eine rechtlich bindende Begrenzung der Leistung würde den liberalen Geist der Deutschen verletzen. Das geht natürlich nicht. In 5 Jahren braucht man dann ein 700W Netzteil für n Mittelklasse Daddel-PC. Ein weiter Satz mit X...
Ich finde es auch sehr amüsant. Die Community die bei Crypto-News lästert wie umweltschädlich und sinnlos der extreme Stromverbrauch ist, lästert hier warum der Verbrauch nicht höher sein darf. Oder lästern über die bigLITTLE Architektur weil sie nur volle Power wollen ohne kleine Kerne die effizienter sind.
 
Zurück