Naja, AMDs Ansatz ist es Chipfläche zu sparen, ohne eine eigene Architektur zu entwickeln. Halte ich für ökonomischer als zwei Architekturen weitgehend parallel zu bearbeiten.
Es macht für verschiedene Einsatzzwecke durchaus sinn verschiedene Architekturen zu haben.
Unrecht hast du nicht, aber es ist eben schwierig diese Aussage so zu treffen, da Intel CPUs derzeit nicht im MCM Design produziert und es auch nicht könnte. AMD hat einfach den Vorteil in einem recht großzügigen Rahmen CCDs aneinander zu Reihen und eine Arch quasi beliebig zu skalieren. Intel kann dies nicht und Gerüchte dazu habe ich bisher auch nicht gesehen.
Sapphire Rapids, Meteor Lake, Lunar Lake, Arrow Lake...
sind alles MCM Designs
Es ist etwas anderes Cache etc. auszulagern, als CPU Kerne.
Wie gesagt, auch das macht Intel schon lange
Naja, der Niedriglastbereich ist rein prozentual betrachtet halt einfach irrelevant. Lass ein AMD System 23 Stunden am Tag idlen mit 100W und 1 Stund bei 400W laufen. Sind rechnerisch 2,7 kwH, Intel braucht 50W mal 22 Stunden und 2 Stunden 400W, sind 2,1kwH, bereits bei 2 bis 3 Stunden Last am Tag dreht es sich. Server die weniger als 2 Stunden Last haben, sind wohl eher selten. Davon ab, glaube ich, dass das o. g. Verhältnis insgesamt nicht passt. AMD verbraucht im Desktop ca. 12-15W im Idle, Intel kommt auf 5-6W (zumindest bei Alder Lake war das mal so in der Range); den Rest braucht dann auch das System drumherum.
Das ist hier eigentlich ein ganz anderes Thema, von daher schwierig. Je nach Szenario. In unserem Fall liegt meist niedrige Last an, wenn überhaupt nur ganz kurz (Race to idle).
Seltenst sind Server CPU meist am Limit.
Im Desktop habe ich im Moment keine zahlen, aber die Schätzung kommt mir grad zu niedrig vor
Wenn man E-Cores nimmt sicherlich nicht, aber sobald man in Richtung P-Cores geht, oder die E-Cores weiter aufbläht wird da schwieriger.
Schwieriger ja, aber nicht unmöglich. Intel bietet Many-Core CPUs schon lange an und du kannst ja auch schauen was sie in Zukunft so releasen werden. Da kommen knapp 300-E-Core CPUs von Intel usw, aber natürlich kannst du auch 64 Kern P Cores verbauen etc.
Was du hier in meinen Augen verschweigst, dass die Yield Rate in immer feineren Prozessen nunmal immer schlechter wird
das stimmt so pauschal leider nicht. Dazu findet man auch genug Folien von Intel die das belegen (und die natürlich letzten Endes sich auch in den Quartalszahlen wiederspiegeln).
Am Beginn hat jeder Prozess natürlich eine schlechtere Yieldrate als ein ausgereifter Vorgänger, aber letzten Endes landen sie alle bei den gewünschten 90%. Schon allein weil man eben Chips oft größer anlegt und schon beim Design mögliche Fehler miteinberechnet. Darum hat AMD etwa ein 8 Core CCD, das bei Bedarf eben mit defekten, dann deaktivierten Cores antritt. Macht Intel und NV nicht anders
, soll heißen, ein Chip in der gleichen Belichtungsgröße also bspw. 400mm² (Sapphire Rapids mit 32 Kernen ist so groß) wird in der Regel in 10nm eine viel höhere Yieldrate haben, denn die gleiche Größe (also ebenfalls 400mm²) in dann 18A.
Nur am Anfang. Wafer sind teuer, Intel brachte in der Vergangenheit CPUs erst dann, wenn die Yieldrate über 80% lag und die wurde im Laufe des Lebens der CPU auf über 90 gehoben durch verbesserungen am Prozess und am Stepping
Insofern stimme ich deiner Aussage nicht zu, dass es locker 32 Kerner gibt, zumindest mit der Einschränkung P-Cores.
verbaut man nicht allzuviel Schnickschnack ist ein 32 Kerner in 18A je nach Architektur nicht besonders groß.
Glaube ich ehrlicherweise nicht dran!
Im x86 Bereich gehe ich zwar davon aus, dass es mittelfristig zwei Arten geben wird, wobei ich die AMD Variante bevorzuge, volles Featureset, gleiche Architektur und nur "optimierte" Belichtung mit geringeren Taktraten.
Bis auf AVX 512 bietet Intel auch das volle Featureset, eventuell in Zukunft mit APX/AVX10 auch wieder ein erweiteretes AVX512 Featureset
Gerade im Serverbereich sehe ich diese Art als riesigen Gewinn. Dort werden eh keine hohen Taktraten gefahren, dafür eben sehr viele Kerne.
Gerade dort zahlt sich für Intel aus, dass man beides anbieten kann
Im Moment ist das richtig
Ich hätte es näher definieren sollen: bis auf Highend/Workstation macht es keinen Sinn.
, denn baut Intel (und wird nur dadurch in den Ranglisten so weit oben geführt) 24 Kerne ein. Im Serverbereich sind mehr Kerne durchaus möglich, auch mit 14nm; allerdings auch mit Nachteilen gegenüber geringeren Kernzahlen. Man sagt immer, dass Monolithen den Vorteil der InterCoreLatenzen haben, was zwar grds. richtig ist, was aber eben verschweigt, dass Intel auch keine Lösung dafür hat, trotz monolithischer Fertigung haben sie bedingt durch die Verknüpfung der vielen Kerne auch keine problemlose Lösung des ganzen und mit geringeren, aber immer noch deutlich negativen Auswirkungen zu kämpfen.
jeder Ansatz hat vor- und Nachteile. Die Probleme die Intel hat, hat ja auch AMD, nur über größere Distanzen, weshalb "Infinty Fabric" ja auch sehr durstig ist.
Ja die Techniken sind seit Jahren in der Entwicklung, Versprechnungen wurden gemacht, einzig wirklich gut ist es bisher nicht! EMIB wird meines Wissens nach bei Sapphire Rapids genutzt, überzeugen können die eben auch nicht.
Sapphire Rapids mag jetzt kein perfektes Beispiel sein, dennoch zeigt es etwa, dass im Idle und Niedriglast die Verlustleistung überschaubar bleibt, was ja auch eines der Ziele war.
Emerald Rapids macht das sogar schon viel besser:
"At idle, even with the most cores and the most cache, the 5th Gen Intel Xeon Platinum 8558U CPU package was showing around 67W versus the Xeon Gold 6414U. Adding 50% more cores, 20% more TDP, and 200MB of L3 cache actually reduced the power consumption at idle by about 17%."
We tested the new top-end single-socket 5th Gen Intel Xeon part and found surprisingly massive performance and power gains
www.servethehome.com
Ende des Jahres möchte man hier übrigens mit dem in Intel 3 gefertigten Granit Rapids (P Cores) und Sierra Forest (E Cores) anschließend.
Das wär das erste Mal seit langem, dass Intel einen annähernd gleich modernen Prozess wie AMD verwendet (Intel 3 statt bislang in Emerald Rapids Intel 7 bzw Intel 10nm, vs AMDs bislang TSMC N5)). Hauptsächlich erwarten würde ich hier übrigens nur weniger Verbrauch, nicht mehr Leistung. Die "Cores" die Intel verwendet sind die, die man auch aus Meteor Lake kennt - die sind aber gleich schnell wie schon die Golden/Raptor Coves Kerne (bekannt aus Arrow/Raptor Lake). Interessant wirds wohl erst, wenn Intel hier die neuesten P und E Cores verwendet, in Kombination mit einem ausgereiften 18A Prozess.
Nachdem man nun sehr weit hinten war, was Performance/Watt betrifft im Serversegment, will man in den nächsten 2-3 Jahren deutlich aufholen
AMD wird keinen Monolithen bringen
dort wo es notwendig ist, tut man das nach wie vor (Mobile).
Könnte man einen großen Monolithen ohne weiteres bauen, würde man auch das tun. Aber das ist halt komplex und teuer.
Aber die Diskussion um MCM vs Monolith ist nun schon viele Jahre alt und ermüdend. Hat beides Vor- und Nachteile