AMD Zen 5: Epyc mit bis zu 256 Kernen und 600 Watt cTDP?

600W wären für so viele Kerne eh voll OK.
Es kommen ja sicher auch SKUs, mit weniger Kernen und weniger Verbrauch und auch weniger RAM-Channels;)

Davor kommt noch Bergamo, mit vermutlich bis zu 128 Z4D (Zen 4 Dense) Cores, die ua. kein SMT unterstützen.
 
ja immer gerne,das ganze dann bitte nach unten nachreichen.So nen Ryzen 16 oder 24 Kerner mit SMT das pro Core 2,5 W verbraucht das wäre schon was.Und sollte ich es noch immer brauchen die Leistung,dann gerne her damit.
 
2,4W pro Core - geil.
Das ist in 2024+ nicht mehr so was Besonderes. Bereits der heute schon verfügbare M128-30 von Ampere Computing ist hier mit rd. 2,0 W/Core deutlich effizienter und der lässt in einigen für das Cloud-Business relevanten Workloads die größten Epyc/Milan schon hinter sich und das immer noch mit 7nm. Und hier steht bereits in 2022 dessen NextGen in 5nm an, die absehbar nochmals signifikant drauflegen wird.

Ein wesentlich relevanterer Wert ist jedoch Performance/Watt. ;-)
 
Was für eine geile CPU !

2W pro Kern !

Für ein Gaming System aber die falsche CPU, denn jeder CORE wird mit c.a. 2GHz laufen.
 
Das wäre zumindest für mich überraschend. Eigentlich hat gerade Epyc bewiesen, dass die Nachfrage nach so stark gebündelter Rechenleistung ziemlich klein ist. Der Sweet-Spot liegt heute oft bei Single-Epyc respektive Dual-Xeon-Systemen.
Noch... und ich wette es wird noch weniger.

Eine bescheidene eigene Meinung dazu:

Bei vielen Kunden die on premise Systeme betreiben ist dies so.
Da bleibt oft der 2. Sockel oder ganze RAM-Bänke unberührt, weil die Leistung nicht benötigt wird.
Zusätzlich wird immer mehr in die Cloud migriert. Schritt für Schritt.

Allein der Aufwand der betrieben werden muss, um so ein on premise System zu warten ist die letzten Jahre gestiegen. Die wenigsten Kunden, gerade im KMU-Bereich, haben einen Administrator der fest angestellt ist.
Weiter reicht selten das Wissen eines guten Admins aus.
Der kann einfach nicht rund um die Uhr verfügbar sein oder alles zeitnah umsetzen.
Hinzu kommen weitere Anforderungen und Wünsche der Kunden, gestiegene Wartezeiten bei Dienstleistern und der fehlende Nachwuchs.

Also, trotz Aufschrei der letzten Jahre, von wegen Datenschutz, geht es nach und nach in die "Cloud".
Die Kunden denken gerade um. Die Pandemie war nur ein Beschleuniger.

Da passt dieses vermeintliche "verschwenderische" Monster wunderbar für Rechenzentren.
Verschwenderisch ist dann der freigewordene Platz, wenn man ihn nicht weiter nutzt oder optimiert.
Ich empfehle dann Getränke für die Mitarbeiter dort zu lagern.
Die sind dann immer schön kühl… ;)
Schon erstaunlich was eine Klimaanlage "Strom" verzehren kann…

DDR5 ist nebenbei auch so ein Platz-Gewinn-Thema.
 
Für Privat vielleicht nicht ganz das richtige. Aber wird genug geben die sich über 256 Kerne freuen werden. Mal sehen Zen 5 für zu Hause mit bringt.
 
Für Privat vielleicht nicht ganz das richtige. Aber wird genug geben die sich über 256 Kerne freuen werden. Mal sehen Zen 5 für zu Hause mit bringt.
Nicht "ganz"? Sie belieben wohl zu scherzen? ;-)
Bereits die aktuellsten, größten Epyc's kosten um die 10.000 US$ pro SKU und derartige Designs in 2024+ werden noch signifikant teuerer werden. Derartige Produkte zielen rein auf den professionellen Einsatz ab.

Bezüglich Zen5 allgemein wird aber durchaus interessant zu sehen sein, wie die Hersteller (so auch Intel) den Upgrade/Kaufzyklus im Consumer-Markt weiterhin aufrecht erhalten wollen. Absehbar werden sich Consumer-Workloads in den kommenden Jahren nicht übermäßig weiterentwickeln und es gibt jetzt schon für den Markt im Mittel mehr als genug Rechenleistung im Consumer-Segment zu kaufen, was zumeist kaum abgerufen wird.
Ich könnte mir auch vorstellen dass der größere Teil an Consumern, der nun zeitnah aktualisiert hat (oder noch wird), in den kommenden Jahren weitaus länger auf seiner Bestandshardware sitzen bleiben wird.
Einzig bei den GPUs gibt es derzeit noch einen "ungezügelten" Bedarf nach noch mehr Leistung, wobei der aber in Verbindung mit modernen Upscaling-Technologien auch nur noch für längere Zeit aufrecht erhalten werden kann, wenn man zukünftig nennenswerte Marktteile überzeugen kann, dass 4K das neue Einstiegssegment darstellt und dass man ja bestenfalls eher schon 8K besitzen sollte, wenn man was als PC-Gamer auf sich hält. ;-)
 
Zuletzt bearbeitet:
Das wäre zumindest für mich überraschend. Eigentlich hat gerade Epyc bewiesen, dass die Nachfrage nach so stark gebündelter Rechenleistung ziemlich klein ist. Der Sweet-Spot liegt heute oft bei Single-Epyc respektive Dual-Xeon-Systemen.
das liegt aber auch daran das man den Kunden viele Jahre die Epyc Server einfach nicht verkauft hat. Wir mussten zb ein halbes Jahr mit Dell und HP Streiten als das Rechenzentrum erneuert wurde das wir überhaupt Server mit AMD CPUs bekommen. Erst als ich gedroht habe auf eigene Faust Supermicro Maschinen aus den USA zu bestellen und auf deren Partner bzw die üblichen Hersteller zu pfeifen war man plötzlich bereit uns die EPYC Server zu liefern. Hätten sich die großen Platzhirsche hier nicht so lange "gesträubt" würden gerade von den Dual Xeon Kisten viel weniger laufen ... Es ist glaube ich nicht so das der Bedarf nicht da ist, nur hat man auch versucht Intel lange die Stange zu halten und all zu performant sollen die Maschinen eh nicht sein weil spätestens nach 2,5 Jahren rufen Sie eh schon wieda an und fantasieren von Austausch ... Und das gerade Single Socket bei Epyc ein Verkaufsschlager war ist auch kein Wunder.. Immerhin hatte man plötzlich bis zu 128 Threads auf einem Sockel und vorher vielleicht 48 auf den Dual Xeon "Oldtimern" die man immer noch versucht hat in den Platinum Konfigurationen etc. für teures Geld zu verkaufen ...
 
Zuletzt bearbeitet:
das liegt aber auch daran das man den Kunden viele Jahre die Epyc Server einfach nicht verkauft hat. Wir mussten zb ein halbes Jahr mit Dell und HP Streiten als das Rechenzentrum erneuert wurde das wir überhaupt Server mit AMD CPUs bekommen. Erst als ich gedroht habe auf eigene Faust Supermicro Maschinen aus den USA zu bestellen und auf deren Partner bzw die üblichen Hersteller zu pfeifen war man plötzlich bereit uns die EPYC Server zu liefern. Hätten sich die großen Platzhirsche hier nicht so lange "gesträubt" würden gerade von den Dual Xeon Kisten viel weniger laufen ... Es ist glaube ich nicht so das der Bedarf nicht da ist, nur hat man auch versucht Intel lange die Stange zu halten und all zu performant sollen die Maschinen eh nicht sein weil spätestens nach 2,5 Jahren rufen Sie eh schon wieda an und fantasieren von Austausch ... Und das gerade Single Socket bei Epyc ein Verkaufsschlager war ist auch kein Wunder.. Immerhin hatte man plötzlich bis zu 128 Threads auf einem Sockel und vorher vielleicht 48 auf den Dual Xeon "Oldtimern" die man immer noch versucht hat in den Platinum Konfigurationen etc. für teures Geld zu verkaufen ...
Das gleiche Problem habe ich jedes Jahr, in meinen Listen von Dell ist nicht ein AMD Server zu finden... Die dual Xeon Systeme sind nur deshalb so verbreitet, weil bei Intel zwei kleine CPUs günstiger sind als eine große. Ebenfalls kann ich mit einer ESX Lizenz, Server betreiben, die zwei CPUs haben. Schön blöde wenn man das nicht macht. Man bekommt mehr Leistung pro Lizenzkosten.

Im Grunde sind CPUs mit 256 Kernen, nicht mehr nah an der Realität. Man muß ja auch bedenken, dass sich dann viele virtuelle Kisten eine CPU teilen. Am Ende bleibt da nicht viel Leistung übrig.
2,26 Watt pro Kern - macht 13,58 Watt für einen 6 Kerner (12 incl. SMT)...
Leider ist das nicht so. Die Server CPUs laufen eben sehr langsam. Vielleicht mit 1.6 GHz. Ebenfalls wird nur der Verbrauch je Kern angegeben, nicht aber der CPU. In der CPU ist auch noch Cache und IO.
 
Ja das stimmt wenn man den IO abzieht also die 150 watt dann bleibt pro kern do wenig ürbig das der takt dann einsacken tut. Weil weniger als 2 watt pro kern übrig bleibt. Habe ich ja selbst bei meiner rechnung gemerkt das ein threadripper 3970x das man auf 140 watt betreiben würde und sogar mit tricks dennoch der takt auf 3,3 ghz absinkt. Macht dann 4,375 watt pro kern. Nun das ist schon hart wie ich finde. Klar wer sau viele kerne gut gebrauchen kann fährt noch immer mit weniger gut davon also im vergleich zu den weniger kerner. Alled hat halt seinen preis. Wenn man nun solch ein monster wie diesen nen 256 kerner davon die 150 von IO abzieht kommt ja 450 watt raus. Das ganze wären am ende nur noch 1,758 watt pro kern.

Das ganze resultiert dann nur noch in halber takt raten. Real dann so bei 1,65 ghz. Das ist dann für einige Anwendung dann viel zu wenig, dafür hat man jedoch sau viele Kerne. Das ganze jedoch nur wenn man wirklich alle kerne voll ausnutzt bzw auslastet. Wenn man also nur die hälfte aller kerne auslastest, dann steigt dementsprechend auch der takt an. Verwendet man zudem noch avx voll, dann sinkt diese noch weiter runter. Ob sich dies die meisten firmen antuen werden ist nicht klar. Andere werden sowas ja sich niemals antuen.
 
Das ist aber weniger der Grund für die "Dynamik" die du glaube ich meinst. Du kannst auf Transistorebene schon entscheiden, ob du vereinfacht gesagt sehr schnell schaltende, größere Transistoren breiter baust um hohe Taktraten zu erreichen oder ob du langsamere, kleinere Transistoren baust um besonders effizient zu sein.
Ähem, nur mal so: die kleineren Transistoren schalten schneller (Gateumladungskapazität). ;)
 
Ähem, nur mal so: die kleineren Transistoren schalten schneller (Gateumladungskapazität). ;)
Es geht nicht um die Größe der Transistoren sondern um deren (Logik-)Baugröße bzw. Die-Space Verbrauch (innerhalb des gleichen Fertigungsprozesses). Dass prinzipiell kleinere Transistoren schneller sind ist klar, sonst hätte die Halbleiterentwicklung der letzten 50 Jahre keinerlei Sinn gehabt.^^
Nur kannste in beispielsweise 7nm verschieden angeordnete und verschieden große SRAM-Zellen bauen die entweder effizienter oder schneller sind (schneller wirds dabei eher durch höhere mögliche Betriebsspannungen bei entsprechender Bauweise...).
Die Hersteller bieten für verschiedene Anforderungen ja offenbar unterschiedliche "Bibliotheken" an welche Transistorart in welchen Bauformen innerhalb eines Prozesses möglich sind.

Ich weiß, das ist alles wieder schrecklich ungenau und ja, man kan das oben durchaus falsch verstehen. Es ist nur bei den Themen die für sich gesehen derart kompliziert sind (für mich) unmöglich, in den drei Sätzen die man so in einen Post tippt das perfekt und in alle Richtungen unmissverständlich zu beschreiben. :-/
 
Zuletzt bearbeitet:
Welche Logik-Baugröße?
Um beim SRAM als Beispiel zu bleiben - welche Bauform man wählt je nachdem obs besonders kompakt oder besonders performant werden soll:
1635680795299.png
 
Zurück