AMD rechnet massive Kostenersparnis bei Chiplet:Design vor

Da gab es doch noch einen Hersteller, der irgendwann mal auf ein ähnliches Design herabgeblickt hat und dann mit seinem tollen, monolithischen Design voll auf die Schnauze gefallen ist. Ich komm nicht drauf...
Das ist immer das Problem mit "Bedenkenträgern". Es ist ja gut und richtig, wenn ältere Kollegen in Diskussionen altes Wissen tragen, wenn man aber dieselben Entscheidungen trifft, die man vor zwanzig Jahren traf, dann verpennt man es in der Regel neue Optionen und neues Wissen zusätzlich zum alten zu verwenden. Das geht uns in allen Bereichen so und ist ein Teil einer immer komplexer werdenden Zeit, in der man dankbar ist, für bestimmte Freiheitsgrade eine klare Restriktion aussprechen zu können. Ansonsten wird man ja wahnsinnig unter einer riesigen Entscheidungsmatrix. Hier erlebe ich immer wieder Fälle, in denen User überfordert sind, wenn ich ihnen zwei Optionen zur Auswahl stelle.

Das geniale am Chipletdesign von AMD ist die Funktionstrennung der Rechnenkerne vom IO-Chip. Denn letzterer, und das vermisse ich im Artikel, braucht an vielen Stellen weniger Transistoren als hohe Stromstärke. also einfach nur schlichtes Materiel. Und genau darum kann man problemlos günstigere ältere Prozesse nehmen und nur die Kerne in teuren und effektiven 7nm fertigen. Un genau das unterscheidet Ryzen vom alten Chipletdesign von Intel.
 
Nur weil die Produktion doppelt so teuer wäre muss nicht gleich auch der Verkaufspreis doppelt so teuer werden...
Mit der aktuellen Marge macht AMD Gewinn. Bei doppelten Produktionskosten müsste nur die Marge genau so hoch sein wie jetzt um auf das selbe Betriebsergebnis zu kommen (vorrausgesetzt die verkauften Stückzahlen bleiben gleich).
 
Das geniale am Chipletdesign von AMD ist die Funktionstrennung der Rechnenkerne vom IO-Chip. Denn letzterer, und das vermisse ich im Artikel, braucht an vielen Stellen weniger Transistoren als hohe Stromstärke. also einfach nur schlichtes Materiel. Und genau darum kann man problemlos günstigere ältere Prozesse nehmen und nur die Kerne in teuren und effektiven 7nm fertigen. Un genau das unterscheidet Ryzen vom alten Chipletdesign von Intel.

Und das geniale damals war, dass man fast gar nichts entwickeln musste und trotzdem flotter als die Konkurrenz unterwegs war. Aber im Endeffekt ging es mir ja nicht darum, welches Design überlegen war, sondern darum, dass sich mit dem Belächeln von eigentlich recht cleveren Lösungen der Konkurrenz beide Hersteller schon mal mehr oder weniger in die Nesseln gesetzt haben.

Gut ist in dem Fall ja, was gut funktioniert und sowohl AMD als auch Intel hatten nicht Unrecht damit, dass man bei Multichiplösungen auf Probleme stoßen kann. Das heißt erwiesenermaßen halt nicht, dass die Vorteile nicht überwiegen. Und es waren in beiden Fällen einfach eine Ersparnis.
 
Das zeigt aber auch dass die absurd erscheindenenden Preise die Intel für die vielkernigen HEDT und Server CPUs aufgerufen hat nicht nur einfach Wucher und Abzocke waren. Die riesigen monolithischen Dies sind einfach verdammt teuer in der Herstellung.

Ich glaube ja dass Intel teilweise jetzt zumindest im HEDT keine Marge mehr hat und die CPUs zum Sebstkostenpreis abgibt, einfach nur um am Markt irgendwie konkurrenzfähig vorhanden zu sein. Die Betonung liegt auf vorhanden, weil verfügbar ist da ja nicht so viel :D

Das Chipletdesign war jedenfalls ein Geniestreich von AMD :daumen:

Allerdings wird das nicht das Ende monolithischer CPUs bedeuten. Die Chiplets für Zen2 waren wichtig um zeitnah den großen Sprung auf den neuen und teuren 7nm Prozess von TSMC zu schaffen und gleichzeitig massiv mehr Kerne zu bringen und das alles bezahlbar zu halten. Chiplets haben aber auch Nachteile, ein Trade-Off. Die folgenden Sprünge im Fertigungsprozess werden wieder kleiner, die Yields besser, über kurz oder lang wird es sich AMD in Zukunft bei den Desktop CPUs wieder leisten können kompakte monolithische Dies aufzulegen wie das ja mit ja z.B. Renoir schon so ist.

Ich sehe in absehbarer Zeit Chiplets nur noch in Vielkern CPUs >16 Kernen, von AMD und Intel. Kleinere CPUs werden weiterhin/wieder monolithisch sein. Ich denke die Sechs- und Achtkerner aktuell als Chiplet + I/O-Die werden in Zukunft als kuriose Ausnahme in die Hardwaregschichte eingehen, Zen3 wird sicherlich das Design nochmal übernehmen, danach könnte ich mir aber vorstellen das die allermeisten Zen Consumer CPUs wieder monolithisch sind und Chiplets eher im HEDT und Server zum Einsatz kommen.
 
Und was wird dann Ende Juni / Anfang Juni vorgestellt? Nur Grafikarten?

4000er Desktop-APUs, also Zen2, werden auch noch für das zweite Quartal erwartet.


Das ist immer das Problem mit "Bedenkenträgern". Es ist ja gut und richtig, wenn ältere Kollegen in Diskussionen altes Wissen tragen, wenn man aber dieselben Entscheidungen trifft, die man vor zwanzig Jahren traf, dann verpennt man es in der Regel neue Optionen und neues Wissen zusätzlich zum alten zu verwenden. Das geht uns in allen Bereichen so und ist ein Teil einer immer komplexer werdenden Zeit, in der man dankbar ist, für bestimmte Freiheitsgrade eine klare Restriktion aussprechen zu können. Ansonsten wird man ja wahnsinnig unter einer riesigen Entscheidungsmatrix. Hier erlebe ich immer wieder Fälle, in denen User überfordert sind, wenn ich ihnen zwei Optionen zur Auswahl stelle.

Das geniale am Chipletdesign von AMD ist die Funktionstrennung der Rechnenkerne vom IO-Chip. Denn letzterer, und das vermisse ich im Artikel, braucht an vielen Stellen weniger Transistoren als hohe Stromstärke. also einfach nur schlichtes Materiel. Und genau darum kann man problemlos günstigere ältere Prozesse nehmen und nur die Kerne in teuren und effektiven 7nm fertigen. Un genau das unterscheidet Ryzen vom alten Chipletdesign von Intel.

Da geht es nicht um Bedenkenträger, sondern um verzweifeltes Marketing. Sowohl AMD als auch Intel haben erst dann gegen die "minderwertigen, zusammengeklebten" Produkte der Konkurrenz gewettert, als sie selbst mit ihren jeweiligen monolithischen Designs keine Chance mehr gegen diese hatten. Also nur beim Phenom 1 gegen "zusammengeklebte Core 2 Quad und bei Cascadelake gegen zusammengeklebte Rome. An zusammengeklebten Pentium D hatte AMD dagegen zu Athlon-64-X2-Zeiten genausowenig etwas auszusetzen, wie Intel sich über Threadripper 1000 und 2000 lustig gemacht hätte. Solange mit solider Performance überzeugen konnte, hat man die hohlen Sprüche stecken gelassen.
(Mal gucken, wie das Duell zwischen Foveros und dem dann amtierenden Maler in 2-3 Jahren ausgeht. Vielleicht erleben wir eine weitere Retoure. :-))

Die alte Fertigung des I/O-Chips und die IF-Links tragen übrigens mutmaßlich recht viel zum Stromverbrauch der Zen2-Prozessoren bei. Wenn man Tests zu den Links der Zen+-Generation, den X570 und die Skalierung zwischen AM4, TRX4 und SP3 heranzieht, kommt man durchaus 20-50 W für Matisse. Ich würde nicht darauf wetten, dass sich diese technisch aufwendige Trennung dauerhaft rechnet, wenn die 7-nm-Kosten sinken und die Gesamtstückzahlen auch für getrennte Produktionslinien reichen.
 
Ich könnte mir auch gut zwei Designs vorstellen. Ein Chiplet und ein Chiplet mit I/O-Part, das auch als monolithisches Design dienen kann.

Das zeigt aber auch dass die absurd erscheindenenden Preise die Intel für die vielkernigen HEDT und Server CPUs aufgerufen hat nicht nur einfach Wucher und Abzocke waren. Die riesigen monolithischen Dies sind einfach verdammt teuer in der Herstellung.

Ich denke schon, dass die trotzdem noch ordentlich Marge hatten und vermutlich auch noch haben. Auch wenn die Herstellung teurer ist, ist sie vermutlich ein kleinerer Posten als die Entwicklung. Wucher und Abzocke sehe ich aber trotzdem nicht. Zumindest nicht mehr als sonst auf dem Markt. Vielleicht gibt es ja wirklich welche, die sich haben Abzocken lassen, indem sie alle Generationen mitgenommen haben, aber da kann Intel eigentlich nichts für. Das ist ein bisschen wie ein Reh, dass sich aufs Autodach schnallt und dann selbst erschießt. Das muss man quasi mitnehmen.
 
Das zeigt aber auch dass die absurd erscheindenenden Preise die Intel für die vielkernigen HEDT und Server CPUs aufgerufen hat nicht nur einfach Wucher und Abzocke waren.

Achso - na dann schaun wir mal auf Grundlage dieser Artikeldaten...

AMD zeigt in der Grafik nen 16-Kerner Chiplet bei "0.7" rum und ein monolithischen bei etwa "1.2". Also übern ganz groben Daumen wäre ein monolithischer 3950X 70% teurer in der reinen Herstellung gewesen.
Diese reinen Herstellungskosten machen von dem ganzen Paket grobe Größenordnung die halbe UVP aus (der rest ist R&D, Marketing, Marge usw.). Letztere waren 819$ zum Release. Als monolithisches Design wären wir hier rein theoretisch auf (819/2 x 1,7) + 819/2 gekommen, was rund 1100$ sind.

Wo genau sind jetzt die 1699$ die Intel für ihren 16-Kerner als UVP verlangen (im 14nm-Prozess der höchstwahrscheinlich günstiger zu fertigen ist als 7nm) keine Abzocke?


Klar sind das alles nur ganz grobe Schätzeisen und ich würde selbst auch nicht von "Abzocke" sprechen bei Intel (soe machen die preise eben so hoch wie der Martkt bereit ist sie zu zahlen...) aber es ist noch immer ziemlich offensichtlich dass Intel seine großen monolithischen Chips noch mit viel Marge verkauft hat. Jetzt, wo wir den HCC-Die mit 18 Kernen im Bereich von 1000€ sehen weil der 3950X harte Konkurrenz für 700€ ist... da wird die Marge dünner. Aber alles was weit über 1000€ war war einfach Reingewinn.
 
Das zeigt aber auch dass die absurd erscheindenenden Preise die Intel für die vielkernigen HEDT und Server CPUs aufgerufen hat nicht nur einfach Wucher und Abzocke waren. Die riesigen monolithischen Dies sind einfach verdammt teuer in der Herstellung.

Nö das ist an den Haaren herbei gezogen. AMD vergleicht hier im 7nm Prozess, das mit Intels durchoptimierten +++ Prozess zu vergleichen ist Absurd. Intels Produktionskosten dürften bei HEDT ganz ähnlich zu AMDs 16Kerner sein.
 
Die alte Fertigung des I/O-Chips und die IF-Links tragen übrigens mutmaßlich recht viel zum Stromverbrauch der Zen2-Prozessoren bei. .

Das I/O Die wird in 12nm gefertigt, der I/O des Chipsatzes in 14nm. Wie kommst du darauf das dieses I/O den Verbrauch hochtreiben sollte. 7nm ist kaum was anderes. AMD spart mit dem CCD (gegenüber CCX) in der Fläche, die Ausbeute ist sicher höher, weil den Rest das I/O Die übernimmt. Wenn man davon ausgeht das der X570 max 15w ziehen darf und 12nm effizienter ist, kann deine Rechnung nicht aufgehen.

Die Verluste beginnen sicher schon im Phy des Sockels.
 
Der X570 hat kein DDR4, keine IF-Links und weniger aktive PCI-Express-4.0-Lanes. Da liegen 2/3 der wirklich stromhungrigen Transistoren brach. Aber wie gesagt: Diese TDP ist auch nur ein Anhaltspunkt. Ian Cutress hat den Uncore-Stromverbrauch der 12-nm-Zen-CPUs mal unter die Lupe genommen und weitere Rückschlüsse kann man, wie gesagt, aus den verschiedenen Zen-2-Ausbaustufen schließen. Ich gebe nicht ohne Grund eine Spanne der Abschätzung von ±15 W an, aber der Energieumsatz des 12-/14-nm-Teils von Zen-2-CPUs (der große I/O-Chip wird in 14 nm gefertigt. Warum auch immer) ist definitiv nicht ohne. Das wird auch von zahlreichen Analysen bezüglich der Wärmeabfuhr unterstützt, die trotz der einseitigen Position der CPU-Kerne keine deutlich einseitige Hitzeentwicklung feststellen konnten.

Achso - na dann schaun wir mal auf Grundlage dieser Artikeldaten...

AMD zeigt in der Grafik nen 16-Kerner Chiplet bei "0.7" rum und ein monolithischen bei etwa "1.2". Also übern ganz groben Daumen wäre ein monolithischer 3950X 70% teurer in der reinen Herstellung gewesen.
Diese reinen Herstellungskosten machen von dem ganzen Paket grobe Größenordnung die halbe UVP aus (der rest ist R&D, Marketing, Marge usw.). Letztere waren 819$ zum Release. Als monolithisches Design wären wir hier rein theoretisch auf (819/2 x 1,7) + 819/2 gekommen, was rund 1100$ sind.

Wo genau sind jetzt die 1699$ die Intel für ihren 16-Kerner als UVP verlangen (im 14nm-Prozess der höchstwahrscheinlich günstiger zu fertigen ist als 7nm) keine Abzocke?

Die Hälfte? Beim 16-Kerner? Sicherlich nicht.
Genaue Zahlen sind verdammt selten und die letzten über ein Jahrzehnt alt. Aus den Endpreisen der Bulldozer, die immer noch Gewinn brachten, kann man einiges ableiten und für einen Core 2 Quad, der zwischen 400 und 1.000 Euro verkauft wurde, sind Intel mal 70-80 US-Dollar Stückkosten rausgerutscht. Der 3950X hat ein etwas komplexeres Package und AMD muss mangels eigener Fabs die Gewinnspannen von TSMC und Global Foundries einplanen, aber wenn der 3950X mehr als 100, maximal 150 Euro Stückkosten hat, würde mich das sehr wundern. Und das beinhaltet schon Packaging und Testing, also unabhängig vom internen Aufbau anfallende Kosten.

50 Prozent der UVP als Herstellungskosten werden bestenfalls einige Low-End-CPUs erreichen, aber im High-End wäre alles über 20 Prozent ruinös. Abzüglich Vertriebskosten, Händler-Gewinnspanne und Steuern blieben dann ja weniger als 200 Euro Einnahmen pro 3950X, aus denen AMD noch die Fixkosten, vor allem die Entwicklung, finanzieren müsste. Wie soll diese Rechnung denn beim Ryzen 5 3600 aufgehen, der 600 Euro billiger ist und immer noch weit mehr als die Hälfte des Produktionsaufwandes des 3950X hat? Da würde AMD pro Stück 300 Euro Reinverlust machen. :-)
 
Zuletzt bearbeitet:
Das I/Om Die wird in 12nm gefertigt, der I/O des Chipsatzes in 14nm. Wie kommst du darauf das dieses I/O den Verrbaucht hochtreiben soll.

Der I/O-Chip hat keinerlei Stromsparfunktionen und rennt voll durch (sowohl in der CPU als auch im Chipsatz). Die Package-Power der CPU fällt im tiefsten Idle kaum unter 25W obwohl die Chiplets im Milliwattbereich (!) liegen im Ruhezustand und der X570-Chipsatz hat auch seine 10-15W dauerhaft am Start.

Du kannst davon ausgehen, dass ein I/O-Chip in 7nm mit entsprechendem Powergating (ich tippe darauf dass sowas in kommenden Ryzen-generationen angepeilt wird) den Stromverbrauch von Ryzen-CPUs um locker 10W durch die Bank senken würde (bzw. das Powerbudget für höhere Boosts nutzt).

50 Prozent der UVP als Herstellungskosten werden bestenfalls einige Low-End-CPUs erreichen, aber im High-End wäre alles über 20 Prozent ruinös.

Da könnteste recht haben. Ich wollte einfach nicht zu aggressiv unten ansetzen da das Argument von Gerry dann noch viel "schlimmer" dagestanden hätte. Aber ja, sehr wahrscheinlich liegen die Herstellkosten noch deutlich unter den von mir angenommenen 50%.
Daten hab ich auch nur uralte. NVidia hat mal die Kosten eines vollaktiven GF110 (GTX580) bei 120$ genannt, also auch im Bereich vielleicht 25% des Kartenpreises (die Karte besteht ja aus mehr als der GPU also vom Gesamtprodukt vielleicht 30%).
 
Zuletzt bearbeitet:
Der I/O-Chip hat keinerlei Stromsparfunktionen und rennt voll durch (sowohl in der CPU als auch im Chipsatz). Die Package-Power der CPU fällt im tiefsten Idle kaum unter 25W obwohl die Chiplets im Milliwattbereich (!) liegen im Ruhezustand und der X570-Chipsatz hat auch seine 10-15W dauerhaft am Start.
Der Verbrauch hängt mit der IGP Taktfrequenz zusammen, beschäftigt euch bitte mal damit was alles an dem I/O Die hängt (Stromsparfunktion?, wie du senkst im laufenden Betrieb den Bustakt ab?), was hat das mit dem Fertigungsverfahren zu tun, rein gar nichts! Das kann man auch alles nachlesen.
 
Der Verbrauch hängt mit der IGP Taktfrequenz zusammen
Nein (jedenfalls nicht wesentlich).

(Stromsparfunktion?, wie du senkst im laufenden Betrieb den Bustakt ab?
PowerGating nicht genutzer Chipbereiche hat nichts mit Bustakten zu tun (und ja, selbst die kann man absenken)

was hat das mit dem Fertigungsverfahren zu tun
7nm verbraucht bei sonst gleichen Parametern weniger als 12nm. Sonst wäre die ganze Skalierung seit Jahrzehnten völlig schwachsinnig.


Das kann man auch alles nachlesen.
Würde ich dir mal empfehlen, ja.


Dass der I/O-Chip von Ryzen ein vergleichsweise großes Stück des Powerbudgets beansprucht ist seit Ewigkeiten klar, ebenso dass der quasi baugleiche X570 das gleiche "Problem" hat sollte spätestens nach dem Böser-Chipsatzlüfter-Hype bekannt sein. Dass AMD genau daran arbeitet für kommende Generationen ebenfalls. Das ist auch dann noch so wenn dus nicht wahrhaben willst. ;-)
 
Das zeigt aber auch dass die absurd erscheindenenden Preise die Intel für die vielkernigen HEDT und Server CPUs aufgerufen hat nicht nur einfach Wucher und Abzocke waren. Die riesigen monolithischen Dies sind einfach verdammt teuer in der Herstellung.

Bitte vergiss nicht das Intel Jahre lang die Kuh mit Quadcores gemolken hat und das so richtig ! :) Das hat sicher den Fortschritt um 4 - 6 Jahre verzögert. Verwerflich daran ist natürlich nichts. Die Kunden haben die CPUs ja auch aus den Händen gerissen.
 
PowerGating nicht genutzer Chipbereiche hat nichts mit Bustakten zu tun (und ja, selbst die kann man absenken).

Würde ich dir mal empfehlen, ja.
Mach mal, Powergating auf einem Bussystem. O.k., hab ich noch nie was von gehört. Wobei du meiner Frage einfach ausweichst.
Zen 2 - Microarchitectures - AMD - WikiChip

Dass der I/O-Chip von Ryzen ein vergleichsweise großes Stück des Powerbudgets beansprucht ist seit Ewigkeiten klar
Das ist einfach ein fabulierter Wert der Presse, weil man das Phy und andere Verluste nicht berücksichtig. AMD hat den Durchsatz auf der IF verdoppelt, das kostet Energie und an dem Die hängt noch mehr. Will siehen wie Intel auf dem Bustakt Powergating umsetzt. Nirgends!

I/O Support:
PCIe 4.0 Support
Infinity Fabric 2
MemClk from FClk
DDR4-3200 support
 
Wer hat denn was von Powergating beim Bussystem gesagt? Nein, ich will nicht den ganzen Chip abschalten, es ging um zeitweise NICHT GENUTZTE BEREICHE. Bitte erst Lesen.
Die gibt es NICHT. Einfach mal lesen was da dran hängt. Das würde furchtbare Latenzen erzeugen und genau das wollte AMD ja abschaffen.
 
Die gibt es NICHT.

Es gibt große Anzahlen von USB-Controllern, SATA-Controllern, PCIe-Lanes, Southbridgefunktionen und so weiter die man theoretisch in einen Schlafmodus versetzen könnte wenn sie nicht gebraucht werden wenn man sowas implementieren kann. Den IF natürlich nicht (obwohl im Extremfall selbst das technisch möglich wäre einen IF-Link einzuschläfern zu einbem Chiplet das gerade nur schlafende Kerne hat - das wäre aber kompliziert und würde schnelles aufwachen sehr erschweren das stimmt). Intel macht sowas übrigens bei ganzen RAM-Controllerteilen.

Das alles kombiniert damit den I/O in 7 statt 12 nm zu fertigen würde den Verbrauch wahrscheinlich zweistellig absenken. Was davon mit welchem Aufwand und wie wirtschaftlich umsetzbar ist weiß sicherlich nur AMD alleine aber pauschal zu behaupten das geht alles nicht ist auch nicht sinnig. Vielleicht sehen wir Ende des jahres bei den 4000ern schon einen Ansatz was gemacht werden kann.
 
Das alles kombiniert damit den I/O in 7 statt 12 nm zu fertigen würde den Verbrauch wahrscheinlich zweistellig absenken.
Ich glaube das nicht. Das ist jetzt etwas fernab der Diskussion, aber worum geht es AMD denn? Du weißt doch genauso wie ich, dass es auch in der Entwicklung ein Kosten-/Leistungsmodell geben muss, dass Eckpunkte hat. In erster Linie geht es um die Senkung der Anschaffungskosten für Prozessoren, nur so kann AMD punkten (und haben sie ja auch). Ein Die in 7nm hätte wahrscheinlich viel weniger Gesamtfläche belegt (in mm² inkl. CCD+I/O usw., was auch in geringerem Energieverbrauch resultieren kann), auf der anderen Seite bzgl. der Verfügbarkeit von Fertigungskapazitäten in 7nm, aber höhere Kosten oder sogar Knappheit in der Verfügbarkeit erzeugt hätte. Die Frage ist daher, ob der leicht gesteigerte Energieverbrauch des I/O (gemessen am Phy, der Anbindung usw.), im Verhältnis zur Senkung der Verbräuche der CCDs bei höherer Effizienz (in 7nm) nicht schon ausreichen, ein bestimmtes Effizienz- und damit auch Kostenmodell zu treffen. Zen soll sich fortentwickeln und das AMD sein Pulver gleich in dritter Gen verschiesst, denke ich nicht. Zudem sind sie davon abhängig was im Markt an Fertigungskapazitäten verfügbar ist.

Was unsere Diskussison aber gut aufzeigt ist, dass AMD beim X570 nicht einfach I/O Dies aus der Zen Produktion verwendet, sondern sie eine eigene Node in 14nm sind. Heißt also die anfänglichen Gerüchte dazu sind einfach nur FUD.
 
Zurück