• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht

Einem Patent nach plant AMD, einen schon durch Ryzen-3000- und 5000-Prozessoren bekannten Chiplet-Aufbau für Grafikkarten zu verwenden. AMD betont die Komplexität des Unterfanges, glaubt aber auch, dass die unterschiedlichen Einheiten mittels High Bandwidth Crosslinks effizient miteinander kommunizieren.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Grafikkarten im Chiplet-Design: Patent von AMD aufgetaucht
 

Pu244

Lötkolbengott/-göttin
Für Zocker wäre interessant ob AMD damit die allgemeinen Probleme von Multi GPU angehen kann. Momentan ist Multi GPU ja leider fast tot, obwohl es heue sinnvoller als je zuvor wäre.
 

Hannesjooo

Software-Overclocker(in)
Ich hab ja eigentlich nur noch darauf gewartet.
War mir schon klar nach dem dies auf der CPU Seite funktioniert hatte.
Einen Chip für allet :D. Nvidia kann dann nicht mehr die Methode jo wir bringen
semi gute Karten mit wenig Speicher um dann danach die "richtigen"
karten vergessen so wie jede andere Strategie :D
AMD hängt dann "einfach" noch paar Chipletts an die GPU und gut is.
 

LastManStanding

PCGH-Community-Veteran(in)
Wirklich sehr interessant. Hab mich schon gerfragt wann das so kommt. Aber das es von AMD kommen könnte wundert mich nicht.
 

gerX7a

Software-Overclocker(in)
Wirklich sehr interessant. Hab mich schon gerfragt wann das so kommt. Aber das es von AMD kommen könnte wundert mich nicht.
AMD ist hier absehbar nur Nachzügler. Das Patent ist von Mitte 2019, d. h. die haben sich bzgl. CDNA bisher rein auf ein monolithisches Design konzentriert und zogen dann erst nach.
Bei Intel ist schon lange bekannt, dass deren Xe-HPC grundsätzlich auf ein massives MCM-Design setzt und auch nVidia stellte schon in 2019 auf einer TechConf ein MCM-Datacenterdesign vor.
Darüber hinaus darf man mit deutlich höherer Wahrscheinlichkeit annehmen, dass sich (die Umsetzung des) Patents vorzugweise auf CDNA(2?) bezieht bzw. vorerst gar beschränkt. Auch bei den anderen beiden Playern ist es vorerst wahrscheinlicher für die kommende Consumer-Gen (2021/22) weiterhin von einem monolithischen Design auszugehen. Für AMD/nVidia wird das noch realtiv leicht möglich sein, da beiden im Maximalfall ein Wechsel auf 5nm offensteht, d. h. die könn(t)en hier beträchtliche Ressourcen freisetzen und bei Intel sieht es derzeit danach aus, als wenn deren Consumer-Xe-HPG im N6 gefertigt werden wird, also in TSMCs 3rd-Gen-7nm-Prozess.
 
Zuletzt bearbeitet:

chill_eule

Volt-Modder(in)
Ist nicht Intels neue XE GPU auch sowas wie ein chiplet design?

Die "kleben" doch auch 1, 2 oder 4 Einheiten zusammen, je nach Bedarf soweit ich gelesen habe :ka:
 

gerX7a

Software-Overclocker(in)
Jain. Details sind hauptsächlich zu Xe-HPC bekannt das aus diversen Bausteinen *) besteht, die man als Chiplets bezeichnen kann, d. h. es wird ein massives MCM-Desing werden. Schlussendlich ist aber auch die Frage, wie weit man hier unterscheiden will. MCM-Designs sind schon vergleichsweise alt und wurde nur sporadisch genutzt, da man bisher mit monolithischen Designs i. d. R. besser wegkam was die Integration und bspw. Latenzen, etc. angeht. **)
Intels aktuelle Datacenter-Designs sind mindestens MCM-Designs, so bspw. auf der aktuellen XG310, die vier Xe-LP-Dies auf einer Karte unterbringt. Bei den Dies handelt es sich jedoch um vollständige LP-Chips (10nm) inkl. Video- und Media-Engine, etc. was aber auch genau das Ziel dieser Karte ist. "Chiplets" dagegen teilen mehr die Funktionalität auf, d. h. ein Chiplet stellt keinen kompletten Chip dar und kann nicht eigenständig verwendet werden. Andernfalls wäre auch schon Zen(1) ein "Chiplet" gewesen, jedoch wird das Design gemeinhin nicht so bezeichnet. Hier wurde ein kompletter, monolithischer Zeppelin-Die entwickelt mitsamt 8 Kernen, Cache und vollständigem I/O. Das einzige was man zusätzlich machte war, dass man bis zu vier Dies per IF auf einem großen Package/Träger zusammenschalten konnte (Epcy/Naples und die erste TR-Gen). Einen vergleichbaren Aufbau nutzte Intel auch schon in 2019 mit Cascade Lake AP, bei dem zwei komplette XCC-Dies auf einem Package zusammengeschaltet wurde und einen 56 Kern-Xeon mit 12 Speicherkanälen hervorbrachten.
Bezüglich Xe-HP (ohne "C", auch für das Datacenter) weiß man noch nicht genau, ob die hier demonstrieren bis zu vier "Tiles", die immerhin zusammen 42 TFlops FP32 leisteten, Chiplets im eigentlichen Sinne sind oder ob es sich auch eher nur um zusammengeschaltete, eigenständige Chips handelt. Hier hat sich Intel noch nicht im Detail geäußert (und ebenso unklar ist die Informationslage bei Xe-HPG für Gamer; einzig was man hier im Hinterkopf behalten kann ist, dass Intel hier bereits in diesem Zusammenhang auch explizit davon sprach "Ethusiasts" adressieren zu wollen).
Aktuell weiß man lediglich zu Xe-HP, dass dessen "Tile" 512 EUs und 4096 ALUs besitzt und in der Demonstration mit rund 1,30 GHz betrieben wurde.
Könnte Intel bspw. im 2HJ21 mit HPG tatsächlich auch ein MCM-Design anbieten, würden die gleich im absoluten HighEnd einsteigen, aber ob es schon mit dieser ersten Consumer-Generation soweit sein wird, weiß ich nicht und ich gehe vorsichtig und vorerst davon aus, dass das dieses Jahr noch nicht bei Intel kommen wird. Zudem hätte Intel auch hier bzgl. HPG in Verbindung mit dem N6 noch ausreichend "Luft" für ein monolothisches Design, denn das "HP-Tile" (wenn man dieses zur Ableitung heranzieht) wird sich bei etwa um die 260 mm2 bewegen, d. h. das könnte man bei Bedarf auch noch in der HPG-Variante durchaus vergrößern. Hier wird man noch ein paar Monate abwarten müssen.

*) Ein Base Tile, ein Compute Tile, das Rambo Cache Tile und ein XeLink/IO-Tile, also ein recht komplexes Design.

**) AMD verwendet die Chiplet-Bauweise vorrangig, weil sie die für Epyc benötigen und für die höherkerneingen Ryzens. Insbesondere für den Consumer-Massenmarkt wären auch hier monolithische Chips vorteilhafter, aber in die Gesamtbilanz passt das derzeit bei AMD noch nicht so ganz rein. Mittelfristig würde ich jedoch annehmen, dass im Mainstream bei AMD die Chiplet-CPUs wieder durch monolithische APUs ersetzt werden.
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
AMD ist hier absehbar nur Nachzügler. Das Patent ist von Mitte 2019, d. h. die haben sich bzgl. CDNA bisher rein auf ein monolithisches Design konzentriert und zogen dann erst nach.
Bei Intel ist schon lange bekannt, dass deren Xe-HPC grundsätzlich auf ein massives MCM-Design setzt und auch nVidia stellte schon in 2019 auf einer TechConf ein MCM-Datacenterdesign vor.
Darüber hinaus darf man mit deutlich höherer Wahrscheinlichkeit annehmen, dass sich (die Umsetzung des) Patents vorzugweise auf CDNA(2?) bezieht bzw. vorerst gar beschränkt. Auch bei den anderen beiden Playern ist es vorerst wahrscheinlicher für die kommende Consumer-Gen (2021/22) weiterhin von einem monolithischen Design auszugehen. Für AMD/nVidia wird das noch realtiv leicht möglich sein, da beiden im Maximalfall ein Wechsel auf 5nm offensteht, d. h. die könn(t)en hier beträchtliche Ressourcen freisetzen und bei Intel sieht es derzeit danach aus, als wenn deren Consumer-Xe-HPG im N6 gefertigt werden wird, also in TSMCs 3rd-Gen-7nm-Prozess.
Ähm naja, aber AMD ist in diesem Bereich ganz klar Technologieführer.
 

PCGH_Torsten

Redaktion
Teammitglied
Wirklich sehr interessant. Hab mich schon gerfragt wann das so kommt. Aber das es von AMD kommen könnte wundert mich nicht.

Ein Patent heißt noch lange nicht, dass überhaupt etwas kommt. Die hier oberflächlich beschriebenen Konzepte sind eigentlich uralte Wunschvorstellungen (von daher mal wieder kritikwürdig, dass so etwas überhaupt patentierbar ist). Wie man sie so performant und günstig umsetzt, dass das Endergebnis monolithische GPUs schlägt, steht aber nicht drin. Technisch ist das zwar unter den gegebenen Schlagworten möglich, aber nichts davon ist neu – und bislang bedeutete es einen Mehraufwand, der weit größer war, als einfach eine mächtigere GPU zu entwickeln und zu bauen. Schlussfolgern kann man bislang nur, dass AMD sich weiter mit der Idee beschäftigt (was nun wirklich kein Geheimnis ist) und dass sie ein paar Konzepte derzeit nicht verfolgen. (Kein zentraler/Master-Chip, kein dedizierter Interconnect neben dem Zwischenspeichersystem, keine Verbindungskonzepte abseits eines Interposers in voller Größe,...)
 

gerX7a

Software-Overclocker(in)
Ähm naja, aber AMD ist in diesem Bereich ganz klar Technologieführer.
Wenn man davon ausgeht, dass Intel es tatsächlich schafft, dass sie den Großteil ihrer rund jährlichen 13 Mrd. US$ R&D sinnlos und ohne Resultate verpulvern, dann kann man den Satz vielleicht so versuchen in den Raum zu stellen.
In einer eher realistischeren Betrachtungsweise dürfte deine allgemein gehaltene, undifferenzierte Aussage wohl eher auf Intel als auf AMD zutreffen. Intel muss sich lediglich mit dem Pferdefuß ihrer Fertigung rumschlagen, die es ihnen nicht erlaubt ihre Entwicklungen in der bestmöglichen Art umzusetzen. Erst Alder Lake und Sapphire Rapids werden erstmals Produkte sein, bei denen man mal sinnvoll vergleichen kann und selbst hier ist noch unklar ob die nicht immer noch an dem 10nm-Prozess kranken werden (das hängt davon ab welchen Entwickungsschritt man nun noch einmal mit der 10nm Enhanced SuperFin-Iteration hinlegen können wird).
Darüber hinaus ist Intels Portfolio weitaus umfassender als das von AMD und AMD hat mit fertigungsrelevanten Themen so gut wie fast gar nichts mehr am Hut, d. h. wenn du deinen Satz so anbringen möchtest, solltes du den schon sinnvoll einschränken, denn in dieser allgemeine Form trifft der zweiflos nicht zu (und wenn man dann noch die Softwareseite hinzu nehemn würde, wird ein Vergleichsversuch noch viel schiefer ;-)).

Und auch wenn man es gemeinhin vielfach so darzustellen versucht, setzt sich AMD vorrangig über die Kernskalierung ab, die vornehmlich durch die Verwendung des moderneren Fertigungsprozesses von TSMC ermöglicht wird. Erst mit Zen3 konnte man sich jetzt auch mal architektonisch deutlich absetzen, insofern muss man damit rechnen, dass das Pendel auch leicht wieder zurückschwingen kann wenn Intel seine Fertigung wieder in den Griff bekommen wird, was aber erst mal abzuwarten sein wird.

Hier sollte man lernen zu unterscheiden zwischen "mir persönlich gefällt/ich mag meinen Ryzen" und wie ist Unternehmen XY technologisch/marktechnisch zu bewerten.

Ein Patent heißt noch lange nicht, dass überhaupt etwas kommt. [...]
Die Aussage in dieser allgemeinen Form ist zweifellos richtig, aber in dem Falle kann man ebenso gesichert davon ausgehen dass da was kommen wird, weil AMD ansonsten ins Hintertreffen geraten würde, weil die Leistungsniveaus, die nVidia und Intel mit ihren kommenden Designs anpeilen, mit monolithischen Chips nicht wirtschaftlich zu realisieren sind. - Wie ich aber auch schon schrieb, gehe ich bei einer ersten Implementation rein von Datacenter/Compute-Desings aus. Consumer-GPUs werden vermutlich erst mit einer späteren Gen folgen.
Letzten Endes hängt es auch vom Marktdruck ab. Sobald der erste Player sich mit einem MCM-Design im Consumer-Markt versuchen wird (und sich eine halbwegs erfolgreiche Implementation abzeichnet), werden die anderen zwangsweise zeitnah nachziehen müssen. Dran an dem Thema sind ja bereits alle.

Wieder mit in die Betrachtung reinnehmen sollte man in diesem Zuge auch Imagination Technologies, die mit ihrer B-Series bereits ein sehr interessantes und sehr effizientes Mutli-GPU-Design präsentieren konnten, das vorerst noch auf den Mobile- und Automotive-Bereich abzielt. Darüber hinaus wird ihre nachfolgende C-Series gar einen umfassenderen Raytracing-Support bietet, als es aktuell bei nVidia- und AMD-Hardware der Fall ist. Entsprechend würde ich bspw. ableiten, dass sich die Raytracing-Implementationen in deren Hardware mit der NextGen auch signifikant weiterentwickeln werden.
IT hat im Mobile-Segment mit beträchtlichem Kundenschwund zu kämpfen, d. h. man könnte hier durchaus einen (Wieder)Einsteig in den PC-Markt erwarten (wenn sie ihre kommenden Designs ausreichend skalieren können).
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Auf der Arbeit fehlt mir leider die Zeit dir einen Roman dazu zu schreiben,nur damit du das als differenziert ansiehst.
Fakt ist,AMD ist der einzige Hersteller der damit Massenprodukte anbietet und daher über weitreichende Patente und Erfahrungen verfügt in dem Bereich.man hat also zweifelsfrei hier die Technologieführerschaft derzeit inne.

Intel hat einen potentiell sehr interessanten Interposer für solche Chiplet Varianten (Core i 8000G),Hauptproblem bei einem solchen Aufbau ist aber die Cache Hierarchie.
 

SFT-GSG

Software-Overclocker(in)
Wenn man davon ausgeht, dass Intel es tatsächlich schafft, dass sie den Großteil ihrer rund jährlichen 13 Mrd. US$ R&D sinnlos und ohne Resultate verpulvern, dann kann man den Satz vielleicht so versuchen in den Raum zu stellen.
In einer eher realistischeren Betrachtungsweise dürfte deine allgemein gehaltene, undifferenzierte Aussage wohl eher auf Intel als auf AMD zutreffen. Intel muss sich lediglich mit dem Pferdefuß ihrer Fertigung rumschlagen, die es ihnen nicht erlaubt ihre Entwicklungen in der bestmöglichen Art umzusetzen. Erst Alder Lake und Sapphire Rapids werden erstmals Produkte sein, bei denen man mal sinnvoll vergleichen kann und selbst hier ist noch unklar ob die nicht immer noch an dem 10nm-Prozess kranken werden (das hängt davon ab welchen Entwickungsschritt man nun noch einmal mit der 10nm Enhanced SuperFin-Iteration hinlegen können wird).
Darüber hinaus ist Intels Portfolio weitaus umfassender als das von AMD und AMD hat mit fertigungsrelevanten Themen so gut wie fast gar nichts mehr am Hut, d. h. wenn du deinen Satz so anbringen möchtest, solltes du den schon sinnvoll einschränken, denn in dieser allgemeine Form trifft der zweiflos nicht zu (und wenn man dann noch die Softwareseite hinzu nehemn würde, wird ein Vergleichsversuch noch viel schiefer ;-)).

Und auch wenn man es gemeinhin vielfach so darzustellen versucht, setzt sich AMD vorrangig über die Kernskalierung ab, die vornehmlich durch die Verwendung des moderneren Fertigungsprozesses von TSMC ermöglicht wird. Erst mit Zen3 konnte man sich jetzt auch mal architektonisch deutlich absetzen, insofern muss man damit rechnen, dass das pendel auch leicht wieder zurückschwingen kann wenn Intel seine Fertigung wieder in den Griff bekommen wird, aber das wird man abwarten müssen.

Hier sollte man lernen zu unterscheiden zwischen "mir persönlich gefällt mein Ryzen" und wie ist Unternehmen XY technologisch/marktechnisch zu bewerten.


Die Aussage in dieser allgemeinen Form ist zweifellos richtig, aber in dem Falle kann man ebenso gesichert davon ausgehen dass da was kommen wird, weil AMD ansonsten ins Hintertreffen geraten würde, weil die Leistungsniveaus, die nVidia und Intel mit ihren Designs anpeilen, mit monolithischen Chips nicht wirtschaftlich zu realisieren sind. - Wie ich aber auch schon schrieb gehe ich bei einer ersten Implementation rein von Datacenter/Compute-Desings aus. Consumer-GPUs werden vermutlich erst mit einer späteren Gen folgen.
Firma 1 steckt viel Geld in die Entwicklung, ohne funktionierende Produkte am Markt.

Firma 2 hat weniger Budget, dafür aber konkurenzfähige Produkte am Markt, welche gekauft werden und Verbreitung finden.

Wer ist da Marktführer? Sicher nicht Firma 1....
 

gerX7a

Software-Overclocker(in)
Firma 1 steckt viel Geld in die Entwicklung, ohne funktionierende Produkte am Markt.

Firma 2 hat weniger Budget, dafür aber konkurenzfähige Produkte am Markt, welche gekauft werden und Verbreitung finden.

Wer ist da Marktführer? Sicher nicht Firma 1....

Wenn du uneingeschänkt "Marktführer" verwendest, stellt sich die Frage tatsächlich nicht, denn das ist im x86-Markt nach wie vor unangefochten Intel ... also erneut: Die Aussage bitte präzisieren, denn ansonsten ist die wertlos (oder driftet wieder ins Fanboy-Land ab; damit muss man in derartigen Foren zwar rechnen, richtiger werden diese Art Aussagen dadruch aber dennoch nicht).
Und nochmals: Keiner will dir deinen Ryzen madig reden, aber an AMDs markt/technischer Positionierung ändert sich nichts dadurch, weil eine Menge Gamer von deren CPUs begeistert sind. Würde ich in nächtser Zeit meine Gamingt-Plattform aktualisieren würde das wohl höchstwahrscheinlich auch ein Zen3 werden, deshalb schaue ich aber noch lange nicht mit verklärtem Blick auf die Firma. ;-)

@Gurdi: Fakt ist wahrscheinlch eher, dass dir bei Intel die Hintergründe und Fakten fehlen um das zu beurteilen, bzw. ich würde mal glatt soweit gehen, dass dir da voraussichtilch auch das Interesse bei dieser Firma fehlt, was voraussichtlich schlicht deinem Bias geschuldet ist (Availability Bias ;-)).
 
Zuletzt bearbeitet:

Technologie_Texter

BIOS-Overclocker(in)
Wozu sollte ich, wenn ich eh informiert bin?
Du liegst wie immer falsch, bzw hast etwas erfunden oder falsch verstanden!

Bist jetzt ist jedenfalls nichts bekannt, alles nur Gerüchte und für RDNA ist das aufgrund der kosten eher unwahrscheinlich.

Für CDNA wird das sicher kommen, dort stoßen die Karten aber auch in ganz andere Preisregionen vor...
 

RtZk

Lötkolbengott/-göttin
Wozu sollte ich, wenn ich eh informiert bin?
Du liegst wie immer falsch, bzw hast etwas erfunden oder falsch verstanden!

Bist jetzt ist jedenfalls nichts bekannt, alles nur Gerüchte und für RDNA ist das aufgrund der kosten eher unwahrscheinlich.

Für CDNA wird das sicher kommen, dort stoßen die Karten aber auch in ganz andere Preisregionen vor...

Informiert bist du schon mal ziemlich sicher nicht. Ich kann dir nur weiter raten Google zu nutzen da wirst du es ziemlich sicher ziemlich schnell finden.
Woher kommt eigentlich immer deine traurige Verbissenheit? Deine Posts strotzen nur so vor Aggression.
 

Technologie_Texter

BIOS-Overclocker(in)
Du bist ziemlich überheblich!
Aber lassen wir es einfach, du Zukunft wird dich eh bald einholen;)

Wirst schon sehen, deine Träumereien werden so nicht eintreffen...
 

PCGH_Torsten

Redaktion
Teammitglied
@gerX7a:

Ich sage nicht, dass die Erwartung von AMD-MCM-GPUs falsch ist, aber sie speißt sich nicht aus diesem Patent. Und die Logik, dass ein Produkt wird erscheinen müssen nur weil man andernfalls hinter die Konkurrenz zurückfällt, führt oft zu Trugschlüssen. Das präsenteste Beispiel dürfte wohl das komplette Intel-CPU-Line-Up seit 2017 sein. :-) Im Falle von AMD fehlen weiterhin jegliche Hinweise auf Techniken, die ohne riesige Si-Interposer auskommen, was eine Skalierung außerhalb des HPC-Marktes in meinen Augen unmöglich macht. In letztgenannten ist AMD bislang aber gar nicht mit speziell konstruierten Beschleunigern, sondern nur mit GPU-Ableitungen vertreten und bislang hat dort auch kein anderer Hersteller mehr als einen einzelnen Chip pro Generation für nötig gehalten. In kommenden Generationen sind Pläne nur von einem Hersteller bekannt, der einen heterogenen Fab-Bestand auslasten muss und, schon deutlich weniger konkret, von einem Hersteller der endlich mal zusehen muss, dass er für leistungsfähige Racks nicht mehr auf Lane-reiche Plattformen der direkten Konkurrenz zurückgreifen muss. Beides trifft auf AMD nicht zu. Und ob inter-Chip-IF energetisch weit genug skaliert oder ob AMD erst einmal etwas nach dem Vorbild von NVLink entwickeln müsste, solange ihnen EMIB-ähnliche Techniken nicht zur Verfügung stehen, weiß in der Öffentlichkeit auch niemand.


Auf der Arbeit fehlt mir leider die Zeit dir einen Roman dazu zu schreiben,nur damit du das als differenziert ansiehst.
Fakt ist,AMD ist der einzige Hersteller der damit Massenprodukte anbietet und daher über weitreichende Patente und Erfahrungen verfügt in dem Bereich.man hat also zweifelsfrei hier die Technologieführerschaft derzeit inne.

Intel hat einen potentiell sehr interessanten Interposer für solche Chiplet Varianten (Core i 8000G),Hauptproblem bei einem solchen Aufbau ist aber die Cache Hierarchie.

IBM verkauft seit über einem Jahrzehnt MCM-Prozessoren, Intels hatte das erste asymetrische MCM (sogar mit der Aufteilung Kerne + Caches <-> PCI-E + RAM) vor einem knappen Jahrzehnt in Großserie und Packages vergleichbarer oder noch höherer Komplexität sind im Mobile-Markt Standard. Korrekt ist, dass AMD die einzige aktuelle MCM-Implementation im Desktop-Endkundenmarkt und die einzige asymmetrische im x86-Servermarkt (Skylake AP ist symmetrisch, genauso wie es AMDs Magny Cours oder die Kernverdoppler in Sockel 604/771/775 waren). Aber das hat wenig mit Technologieführerschaft zu tun. In Märkten mit nur zwei bedeutenden Teilnehmern reicht es, wenn einer was anders macht als der andere und schon sind beide die "führenden" weil einzigen in ihrer jeweiligen Kategorie. Ob der jeweils bessere dann wegen diesem einen Unterschied besser ist oder weil er sonst vieles richtig macht, steht auf einem anderen Blatt Papier. Aktuell sollte man eher festhalten, dass TSMC-7-nm-Prozessoren klar vor Intel-7-nm-Designs führen. Und das sowohl unter den monolithischen als auch den MCM-Angeboten.
 

Strunzel

PC-Selbstbauer(in)
War zu erwarten das das kommt nachdem es bei den CPUs geklappt hat. Ich hoffe es bringt Innovation und Fortschritt.
 

Tarjei

Komplett-PC-Käufer(in)
...

**) AMD verwendet die Chiplet-Bauweise vorrangig, weil sie die für Epyc benötigen und für die höherkerneingen Ryzens. Insbesondere für den Consumer-Massenmarkt wären auch hier monolithische Chips vorteilhafter, aber in die Gesamtbilanz passt das derzeit bei AMD noch nicht so ganz rein. Mittelfristig würde ich jedoch annehmen, dass im Mainstream bei AMD die Chiplet-CPUs wieder durch monolithische APUs ersetzt werden.
Ich verstehe schon das monolithische Dies ganz klare Vorteile haben, aber wenn man mit seinem Chiplet-Design mehr Leistung bietet als die überlegene monolithische Herangehensweise des Konkurrenten dann ist das ja einstweilen vorteilhaft genug. Man muß vor allem Achtung zollen was da aus der nicht-so-vorteilhaften Methode herausgeholt wurde. Natürlich spielt da die Fertigung hin wie her rein,aber man muß klar konstatieren: was AMD aus Chiplet und geringeren Taktfrequwnzwn als der Mitbewerber rausholt ist mehr als nur gut. Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist als monolithische CPUs es unter den gegebenen Umständen wären verstehe ich nicht so richtig warum man wieder umschwenken sollte?Ja, bei Intel wird mit Sicherheit noch einiges kommen, das wirst du ja auch nicht müde zu betonen, aber jetzt ist es wie es ist.
 

Gurdi

Kokü-Junkie (m/w)
Aber das hat wenig mit Technologieführerschaft zu tun. In Märkten mit nur zwei bedeutenden Teilnehmern reicht es, wenn einer was anders macht als der andere und schon sind beide die "führenden" weil einzigen in ihrer jeweiligen Kategorie.
Ich sehe dennoch AMD in diesem Bereich deutlich vorne, es ist eines ein paar Chips auf einen Interposer zu klatschen und ein anderes eine High Peroformance CPU zu bauen die wirtschaftlich und leistungsstark ist. Das Problem mit den Latenzen ist die Crux, Multi Gpu´s haben wir auch schon des öfteren auf einer Platine gesehen.

Ich bezweifle auch das Nvidia sich eine entsprechende Technik einfach aus dem Hut zaubert, da wird man auch erstmal Lehrgeld zahlen müssen ähnlich wie AMD bei RT. In Sachen Cache ist AMD einfach Spitze derzeit, das muss man Ihn dann auch einfach mal zugestehen. Der Infinity Cache hat alle überrascht und zwar positiv.
 

PCGH_Torsten

Redaktion
Teammitglied
Mir wäre neue, dass ein Power10 keine Performance hätte oder das Intels Clarkdale ein dahingeklatschtes, unwirtschaftliches Design gewesen wäre. Im Gegenteil, die Hersteller schienen/scheinen mit ihren MCMs unter den jeweiligen Bedingungen durchaus zufrieden (gewesen) zu sein.

Ich verstehe schon das monolithische Dies ganz klare Vorteile haben, aber wenn man mit seinem Chiplet-Design mehr Leistung bietet als die überlegene monolithische Herangehensweise des Konkurrenten dann ist das ja einstweilen vorteilhaft genug. Man muß vor allem Achtung zollen was da aus der nicht-so-vorteilhaften Methode herausgeholt wurde. Natürlich spielt da die Fertigung hin wie her rein,aber man muß klar konstatieren: was AMD aus Chiplet und geringeren Taktfrequwnzwn als der Mitbewerber rausholt ist mehr als nur gut. Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist als monolithische CPUs es unter den gegebenen Umständen wären verstehe ich nicht so richtig warum man wieder umschwenken sollte?Ja, bei Intel wird mit Sicherheit noch einiges kommen, das wirst du ja auch nicht müde zu betonen, aber jetzt ist es wie es ist.

Die überlegene Fertigung "spielt" da nicht nur mit rein, das ist der entscheidende Faktor. Intel gibt leider seit einiger Zeit keine offiziellen Angaben zu Transistorzahlen heraus, aber für Skylake wurden 350 bis 500 Millionen Transistoren Unterschied zwischen Dual- und Quad-Core-Ausführung geschätzt. Also rund rund 175-250 Millionen Transistoren für einen einzelnen aktuellen Kern inklusive Caches und Ring-Bus-Segment in Intels weiterhin aktueller Architektur. Für die ganze CPU kommen noch I/O, IGP, IMC, etc. dazu. Ein Zen-3-CCD hat ohne I/O, IGP und IMC (alles auf dem IOD) 4,2 Milliarden Transistoren. Mit dem Transistorbudget eines Ryzen 5800X könnte man also einen 16- bis 24-kernigen Coffee Lake produzieren. Stattdessen tritt Intel mit rund der Hälfte davon an und versucht das, mehr schlecht als recht, durch leicht höhere Taktfrequenzen zu kompensieren. Das ist zwar ein Problem wenn man mit gleichem oder sogar höherem Energiebudget nur halb so viele Einheiten versorgen muss, bringt aber eben nicht annähernd so viel wie doppelt so viel Cache und doppelt so viel Logikeinheiten bei immer noch ansehnlichem Takt in einem 7nm-TSMC-Prozessor.
 

Tarjei

Komplett-PC-Käufer(in)
Mir wäre neue, dass ein Power10 keine Performance hätte oder das Intels Clarkdale ein dahingeklatschtes, unwirtschaftliches Design gewesen wäre. Im Gegenteil, die Hersteller schienen/scheinen mit ihren MCMs unter den jeweiligen Bedingungen durchaus zufrieden (gewesen) zu sein.



Die überlegene Fertigung "spielt" da nicht nur mit rein, das ist der entscheidende Faktor. Intel gibt leider seit einiger Zeit keine offiziellen Angaben zu Transistorzahlen heraus, aber für Skylake wurden 350 bis 500 Millionen Transistoren Unterschied zwischen Dual- und Quad-Core-Ausführung geschätzt. Also rund rund 175-250 Millionen Transistoren für einen einzelnen aktuellen Kern inklusive Caches und Ring-Bus-Segment in Intels weiterhin aktueller Architektur. Für die ganze CPU kommen noch I/O, IGP, IMC, etc. dazu. Ein Zen-3-CCD hat ohne I/O, IGP und IMC (alles auf dem IOD) 4,2 Milliarden Transistoren. Mit dem Transistorbudget eines Ryzen 5800X könnte man also einen 16- bis 24-kernigen Coffee Lake produzieren. Stattdessen tritt Intel mit rund der Hälfte davon an und versucht das, mehr schlecht als recht, durch leicht höhere Taktfrequenzen zu kompensieren. Das ist zwar ein Problem wenn man mit gleichem oder sogar höherem Energiebudget nur halb so viele Einheiten versorgen muss, bringt aber eben nicht annähernd so viel wie doppelt so viel Cache und doppelt so viel Logikeinheiten bei immer noch ansehnlichem Takt in einem 7nm-TSMC-Prozessor.
Nichtsdestotrotz wäre die Erfolgsaussicht bei Fertigung als monolithischer Chip aber deutlich geringer, oder? Denn dann würde der Die mit allem drum und dran doch schon wieder groß genug um vermehrt Ausschuß zu produzieren?
 

4thVariety

Software-Overclocker(in)
Worst case: AMD muss die Chips riesig fertigen wie bisher.
Best Case: vgl. Ryzen, da hat es mit den Chiplets auch geklappt.

Klar gibt es einen Bereich da kann Intel mithalten, z.B. beim 8-Kerner, dann wenn AMD auch nur einen I/O Die und ein Chiplet verbaut. Dann kuckt man aber rüber auf Epyc, da sehen die Xeons dann schon alt aus.

CPUs müssen modularer werden. Auf der einen Seite hat man Datencenter wo in 1U Gehäusen 20 NVMEs und mehr stecken. Da ist es keine Frage ob die CPU Rechenpower reicht, davon hat man genug. Aber die Bandbreite ist das Limit, man braucht also nicht die nächsten 64 Kerne, man braucht mehr Durchsatz. Auf der anderen Seite hat man CPUs als Zuarbeiter von Grafikkarten. Entweder im Gamingbereich, als auch bei Supercomputern.

Zwar haben Intel und AMD Kombinationen aus CPU und GPU, aber die sind weder Fisch noch Fleisch. Für Office ist die CPU totaler Overkill, für Gaming ist die GPU viel zu schwach. Zeichnet mal Eure typische CPU Last auf, wenn ihr keine Spiele zockt und alltägliche Dinge macht. Totaler Overkill. Selbst in den Spielen ist man ja GPU limitiert. Die Wahrheit ist, doch wenn ein Nicht-Gamer sagt, dass er einen neuen PC kaufen will weil sein alter ist 6 Jahre alt und langsam, dann SSD rein und fertig. Da liegt für Intel und AMD doch der Hund begraben. Jenseits von Ryzen 3 und i3 gibt es eigentlich keinen Bedarf mehr am Massenmarkt. Das werden AMD und Intel nur Überleben, wenn sie modeulare CPUs bauen in der die Funktionen für die Geld auf den Tisch gelegt werden ohne totales Neudesign mit auf das Die geklebt werden können. CPU + GPU +AI Kerne wird die Formel lauten wer dann in einem Laptop oder Aldi PC verbaut werden will.
 

Oberst Klink

Lötkolbengott/-göttin
Das Chiplet-Design hat viele Vorteile, vor allem höhere Ausbeute und bessere Nutzung der Wafer-Fläche. Kleinere GPUs bedeuten weniger Ausschuss und mehr Flexibilität. Sieht man ja bei Zen wie gut das funktioniert. Dürfte auch bedeuten, dass Grafikkarten günstiger werden oder zumindest mehr Leistung fürs gleiche Geld bieten.
 

Schinken

Software-Overclocker(in)
Worst case: AMD muss die Chips riesig fertigen wie bisher.
Best Case: vgl. Ryzen, da hat es mit den Chiplets auch geklappt.

Klar gibt es einen Bereich da kann Intel mithalten, z.B. beim 8-Kerner, dann wenn AMD auch nur einen I/O Die und ein Chiplet verbaut. Dann kuckt man aber rüber auf Epyc, da sehen die Xeons dann schon alt aus.

CPUs müssen modularer werden. Auf der einen Seite hat man Datencenter wo in 1U Gehäusen 20 NVMEs und mehr stecken. Da ist es keine Frage ob die CPU Rechenpower reicht, davon hat man genug. Aber die Bandbreite ist das Limit, man braucht also nicht die nächsten 64 Kerne, man braucht mehr Durchsatz. Auf der anderen Seite hat man CPUs als Zuarbeiter von Grafikkarten. Entweder im Gamingbereich, als auch bei Supercomputern.

Zwar haben Intel und AMD Kombinationen aus CPU und GPU, aber die sind weder Fisch noch Fleisch. Für Office ist die CPU totaler Overkill, für Gaming ist die GPU viel zu schwach. Zeichnet mal Eure typische CPU Last auf, wenn ihr keine Spiele zockt und alltägliche Dinge macht. Totaler Overkill. Selbst in den Spielen ist man ja GPU limitiert. Die Wahrheit ist, doch wenn ein Nicht-Gamer sagt, dass er einen neuen PC kaufen will weil sein alter ist 6 Jahre alt und langsam, dann SSD rein und fertig. Da liegt für Intel und AMD doch der Hund begraben. Jenseits von Ryzen 3 und i3 gibt es eigentlich keinen Bedarf mehr am Massenmarkt. Das werden AMD und Intel nur Überleben, wenn sie modeulare CPUs bauen in der die Funktionen für die Geld auf den Tisch gelegt werden ohne totales Neudesign mit auf das Die geklebt werden können. CPU + GPU +AI Kerne wird die Formel lauten wer dann in einem Laptop oder Aldi PC verbaut werden will.

In der Tendenz stimme ich dir zu, aber nicht völlig. Als Fan von Open World und Grand Strategy Games bib ich bei einigen Spielen im CPU Limit. Für Anno bspw. aber auch TW, Stellaris etc. gibts keinen Overkill :).
 

4thVariety

Software-Overclocker(in)
In der Tendenz stimme ich dir zu, aber nicht völlig. Als Fan von Open World und Grand Strategy Games bib ich bei einigen Spielen im CPU Limit. Für Anno bspw. aber auch TW, Stellaris etc. gibts keinen Overkill :).

Würden diese Spiele fundamental besser, wenn man eine 300TDP CPU hätte, die linear zur 100W CPU skaliert? Ich glaube nein. Auch diese Art von Spiel wird in die nächste Generation gehen, aber wir werden sehen, dass CPU Leistung weniger wichtig ist, weil die Aspekte der Weltsimulation über DeepLearning oder MachineLearning abgebildet werden und nicht mehr Brute-Force CPU. Das wird die CPU so wie wir sie kennen nicht ausrechnen, das wird dann die GPU machen, oder eine Hybrid CPU.

Middleware im Jahr 2020 bedeutet, dass man Unreal Engine mit allen erdenklichen Plugins und Texturpaketen lizenziert. Middleware der Zukunft ist, dass man z.B. eine Version der Alpha Engine von Google lizenziert, die all die Dinge übernimmt, die jetzt eine CPU mit 100W auffressen. Google, Nvidia, Microsoft, Facebook, die würden da gerne alle die Player sein, die so eine Middleware vertreibt. Ki, World State Simulation, Bildschirmphysik, sind alles Aufgaben die in Zukunft von der CPU nicht mehr gemacht werden. Tensor Cores, KI Cores, nennt es wie ihr wollt, spezialisierte Kerne die man mit auf die GPU oder das Chiplet packt und mit CPU sehr wenig zu tun haben.
 

gerX7a

Software-Overclocker(in)
@gerX7a:

Ich sage nicht, dass die Erwartung von AMD-MCM-GPUs falsch ist, aber sie speißt sich nicht aus diesem Patent. Und die Logik [...]
Natürlich tut sie das nicht alleinig, aber es ist ein Hinweis, der jedoch letzten Endes auch unnötig war für eine derart "prophetische" Aussage, denn dass bei Beschleunigern/GPUs MCMs als der nächste Schritt unausweichlich sind, ist schon seit längerem absehbar, da die Leistungsanforderungen ungebremst wachsen, insbesondere im Datacenter und von daher bleibt AMD keine andere Wahl als hier ins gleiche Horn zu blasen, denn nVidia und Intel sind an dem Thema offenkundig schon dran. *) AMD hat nun mit CDNA eine komplett eigenständige Beschleuniger-Hardware (ich vermeide hier explizit den Begriff GPU) aufgesetzt, weil sie nun dafür die Ressourcen haben, aber mit der kommen sie dennoch weiterhin nicht an nVidia dran, jedoch wird ihnen ohne eigenen Beschleuniger ein nennenswerter Teil des Marktes entgehen und das wollen sie offensichtlich nicht und entsprechend engagieren sie sich auch hier und d. h. hier müssen die auch leistungstechnisch mithalten oder gar mehr bieten können, denn nur über den Preis wird ihnen das nicht gelingen, wie man bereits in den letzten 5 Jahren sah.
"was eine Skalierung außerhalb des HPC-Marktes": Hier gehe ich aktuell per se erst mal von einer Einführung im Datacenter/HPC-Markt aus, so auch grundsätzlich bei allen drei Playern. Im Consumer-Segment kann man mit den aktuell zu Verfügung stehenden Fertigungsnodes auch noch ausreichend weiteroptimieren, ohne sich der Komplexität eines MCMs widmen zu müssen und das ganze dann auch noch in das enge Preiskorsett des Consumer-Marktes zwängen zu müssen.
"In letztgenannten ist AMD bislang aber gar nicht mit speziell konstruierten Beschleunigern, sondern nur mit GPU-Ableitungen vertreten": Nichts anderes verwendet ja auch nVidia, denn reine Beschleungier-Hardware kommt auch im GA100 nicht zum Einsatz. Der Chip ist immer noch eine vollwertige GPU, bei der im Vergleich zu den Consumer-Produkten lediglich die RT Cores fehlen und der man mehr FP64-Einheiten spendiert hat. Bei AMDs MI100 wird es dagegen schon nicht mehr ganz so einfach bzgl. dieser Aussage, denn das Design basiert zwar auf einer GCN-Basis, jedoch wurden hier wesentliche Einheiten der 3D-Pipeline gestrichen, d. h. zumindest funktional lässt sich das Design nur noch als reiner Beschleungier verwenden. Und auch bei nVidia gehe ich zumindest mittelfristig davon aus, dass man hier den Bereich HPC und AI irgendwann auftrennen wird, was schlicht daran liegen wird, weil der Konkurrenzdruck durch spezialisierte Hardware von Drittherstellern zu hoch wird, die hier mittlerweile beträchtliche Leistung zuwege bringen und das teils gar deutlich effizienter. Wenn Hopper in 2022 tatsächlich als MCM kommt, könnte das vielleicht schon eine erste Möglichkeit sein, unterschiedliche Compute-Tiles/Chiplets für Datacenterprodukte mit unterschiedlichen Schwertpunkten bereitzustellen, bspw. ein universelles Produkt wie jetzt auch, dass sich für HPC und AI eignet, vielleicht mit einem geringfügig höheren Schwerpuntk auf HPC und ein hochgradig auf AI spezialisiertes Produkt.
Ob dagegen AMD schon soweit sein wird, dass bspw. CDNA2 bereits als MCM kommt, kann ich selbstredend nicht beurteilen, denn dazu haben sie noch nichts verlauten lassen und wie du schon anmerktest, ist das Patent an sich nicht mehr als ein Hinweis bzw. die Bestätigung, dass sie ebenfalls an dem Thema dran sind, jedoch konnte man das auch ohne die Kenntnis um dieses Patent recht gesichert annehmen.
Bezüglich der etwas plakativen "Trugschlussaussage" stimme ich dir grundlegend zu, in diesem konkreten Fall hier bin ich mir dennoch sehr sicher behaupten zu können, dass man von AMD mit CDNA2 oder allerspätestens CDNA3 ein MCM/Chiplet-Design von ihnen zu sehen bekommen wird. Das einzige was noch zu berücksichtigen wäre, ist der mögliche Kauf von Xilinx, denn ggf. könnte AMD auch seine eigenen Bemühungen in diesem Bereich aufgeben und sein KnowHow an Xilinx übertragen und über die den Markt weiter aufzurollen versuchen, aber das wäre letzten Endes Haarspalterei, denn ob derartige Produkte am Ende aus Abteilung X oder Y kommen spielt keine Rolle, denn in dem Falle wäre das alles AMD.

*) @Gurdi: Und da wird auch selbstredend bei nVidia nichts "aus dem Hut gezaubert", denn ein derartiges Produkt ist schlicht das Ergebnis jahrelanger Forschung und Entwicklung. Beispielsweise AMD hat mal "eben" geschlagene 7 Jahre bis zu Zen2 gebraucht und bspw. Intel entwickelt an EMIB seit 2008. Eine erste Erwähnung von Volta fang man schon auf einer Roadmap in 2013: "Volta with stacked DRAM and about 1 TB/s". nVidia hat bereits in 2019 auf eine TechConf in Tokyo, wenn ich mich recht erinnere, ein MCM-Datacenter-Design präsentiert, ein Prototypdesign oder aber möglicherweise war das gar Material unmittelbar aus der Entwicklung von/zu Hopper.

Ich verstehe schon das monolithische Dies ganz klare Vorteile haben, aber wenn man mit seinem Chiplet-Design mehr Leistung bietet als die überlegene monolithische Herangehensweise des Konkurrenten dann ist das ja einstweilen vorteilhaft genug. Man muß vor allem Achtung zollen was da aus der nicht-so-vorteilhaften Methode herausgeholt wurde. Natürlich spielt da die Fertigung hin wie her rein,aber man muß klar konstatieren: was AMD aus Chiplet und geringeren Taktfrequwnzwn als der Mitbewerber rausholt ist mehr als nur gut. Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist als monolithische CPUs es unter den gegebenen Umständen wären verstehe ich nicht so richtig warum man wieder umschwenken sollte?Ja, bei Intel wird mit Sicherheit noch einiges kommen, das wirst du ja auch nicht müde zu betonen, aber jetzt ist es wie es ist.
Wie bereits gesagt dient die Fertigung in Chiplet-Bauweise in erster Linie einer effizienten Fertigung und weniger einer leistungsstarken und bei AMD hat nach wie vor TSMCs besserer Prozess einen wesentlichen Anteil an der Leistung, d. h. man kann sich leicht ausmalen, dass ein Vergleich gegen ein Willow Cove-Design im N7 deutlich anders ausfallen würde.
Darüber hinaus, wie bereits erklärt, ist die Fertigung der Consumer-Produkte für AMD zweifellos aufwendiger und teuerer als die für Intel und genau das ist auch der Grund, warum AMD hier im LowEnd/Midrange-Consumer-Markt sich irgendwann davon verabschieden wird und das untere bis mittlere Segment voraussichtlich auch mit monolithischen Designs (voraussichtlich APUs, ggf. gar teilweise mit deaktivierten iGPUs wie schon im letzten Jahrzehnt?) bedienen wird, denn es ist für AMD reichlich ineffizient für einen Sechs- und erst recht einen Vierkerner, von denen immer noch sehr, sehr viele verkauft werden (und das selbst bei MF) einen 125 mm2 großen IOD mit einem 74 mm2 großen CCD auf einem hochkomplexen Package mit aufwendigem Routing zu vereinen.
Ich weiß nicht ob das hier bei dir ein Typo war, dem ich vielleicht keine Bedeutung beimessen sollte, aber "Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist", denn das ist es zweifellos nicht der Fall, denn ansonsten würde AMDs Marge anders aussehen und man hätte nicht so deutlich die CPU-Preise anheben müssen, wie sie es nun bei Zen3 getan haben um ihr Margenziel zu erreichen. Es ist ertragreich, denn ansonsten würde AMD weitehrin rote Zahlen schreiben wie von ca. 2012 - 2017, aber es ist nicht "ertragreicher als" im Vergleich zu Intel, denn deren Marge wird hier zweifellos höher liegen und das nicht nur weil die gemeinhin teuerer sind (was sie sich aber auch erlauben können, voraussichtlich alleine schon deshalb und auch bei den OEMs, weil AMDs Kapazitäten beschränkt sind).
Einfach mal abwarten. Eine erste Möglichkeit sehe ich bereits in 2022 mit einer Kombination aus Zen4 und Zen3+ (APUs), aber vielleicht wird es gar noch eine weitere Generation dauern, denn was auch für die nächsten paar Jahre weiterhin absehbar ist, ist dass der Bedarf an Rechenleistung im Mainstream/Office-Bereich nur geringfügig ansteigen wird und da wird man mit der Zeit ganz automatisch nach weiterem Optimierungs/Einsparungspotential suchen um die Marge zu erhöhen. Hochkernige, leistungsstarke CPUs braucht man vorrangig fürs Gaming und im professionellen Bereich für bestimtme, ausgewählte Applikationen, jedoch nicht zum Mail-Schreiben, Facebook-Checken und Streaming-Schauen.
Und "ja, bei Intel wird sicherlich noch einiges kommen", denn die sind ja nicht insolvent und schließen morgen die Tore, aber was hat das mit dieser Diskussion zu tun, die sich eigenlich ausschließlich um AMD drehte?

In Anlehnung an Torstens Antwort, weil ich die Zahlen gerade "zur Hand" habe:
Intel Broadwell EP, 1Q16, 15 Kerne, 35 MiB L3 im MCC-Die, ~ 4,7 Mrd. Transistoren (mit vier Speicherkanälen, ECC und AVX2)
AMD Zen2-CCD, 3Q19, 8 Kerne und 32 MiB L3, ~ 3,9 Mrd. Transistoren und dabei hat man noch nicht einmal eine funktionierende CPU, denn es fehlt noch das cIOD, das weitere ~ 2,1 Mrd. Transistoren beisteuert.
Es ist bedauerlich (aber nachvollziehbar ;-)) dass Intel in den letzten 24 bis 36 Monaten sehr zurückhaltend bzgl. Fertigungsdetails wurde. Für bspw. das Skylake SP-XCC-Die mit 28 Kernen und 38,5 MiB L3 mit sechs Speichercontrollern und zwei AVX-512-FMA-Einheiten schätzt man gemeinhin 8 bis max. 9 Mrd. Transistoren ab.
Insofern, wenn es Intel nicht erneut oder dann mal komplett in den Sand setzt, darf man Enden 2022/Anfang 2023 durchaus gespannt auf deren 7nm (P1276) sein und vielleicht trauen sie sich ja dann auch mal wieder mit ein paar mehr Details aufzuwarten. ;-)

Nichtsdestotrotz wäre die Erfolgsaussicht bei Fertigung als monolithischer Chip aber deutlich geringer, oder? Denn dann würde der Die mit allem drum und dran doch schon wieder groß genug um vermehrt Ausschuß zu produzieren?
Wie gesagt, es geht nicht darum Serverprozessoren mit 28 und mehr Kernen als monolithisches Die zu beschwören. Es geht um grundsätzlich kleine Consumer-Chips, deren Größe noch mit einem guten Yield handhabbar ist und bei bspw. Intel darf man selbst annehmen, dass die mit ihrem lange eingefahrenen und vielfach optimierten 14nm-Prozess hier ebenfalls sehr gute Yields realisieren können, was voraussichtlich auch ein Eckpunkt ihrer Profitabilität sein wird. Beispielsweise Renoir (Zen2, 8 MiB L3, iGPU) im N7 hat 156 mm2. Intel fertig in 14nm den 9700/9900K mit 174 mm2 und damit nur wenig mehr und der hat ebenfalls eine iGPU on-Die. Bereits ein 9600K mit sechs Kernen, 9 MiB L3 und iGPU ist mit 150 mm2 kleiner als AMDs Renoir trotz 14nm vs. TSMCs 7nm.
Bei Epyc wird AMD weiterhin gesichert auf eine Chiplet-Bauweise setzen, schlicht weil sie einen 64-Kerner anders gar nicht hätten realisieren können und für Zen4 steht gar noch eine Erhöhung der Kernzahl an und bei den größeren Ryzen-Modellen wird man absehbar auch bei einer deratigen Bauweise bleiben, weil die dort Effizienzvorteile bietet (zumal die abgesetzten Stückzahlen bei diesen CPUs deutlich geringer sind, was die Rechtfertigung eines eigenständigen Chipdesigns deutlich erschwert).
 
Zuletzt bearbeitet:
T

tokthora

Guest
"Chiplets" dagegen teilen mehr die Funktionalität auf, d. h. ein Chiplet stellt keinen kompletten Chip dar und kann nicht eigenständig verwendet werden.

**) AMD verwendet die Chiplet-Bauweise vorrangig, weil sie die für Epyc benötigen und für die höherkerneingen Ryzens. Insbesondere für den Consumer-Massenmarkt wären auch hier monolithische Chips vorteilhafter, aber in die Gesamtbilanz passt das derzeit bei AMD noch nicht so ganz rein. Mittelfristig würde ich jedoch annehmen, dass im Mainstream bei AMD die Chiplet-CPUs wieder durch monolithische APUs ersetzt werden.
Du schreibst dir so richtig schön einen Quatsch zusammen, das lässt jedem die Nackenhaare hochstehen, anscheinend ist dir die letzte Änderung in der Clustertopologie entgangen, die nicht nur die IPC steigert sondern auch Gamer und damit Devs in diesem Bereich anspricht. Es ist im Falle der Kommunikation viel "günstiger" ein CCC an einen I/O anzubinden und nein, AMD hat überhaupt kein Problem mit den Kosten, weil MCM deutlich günstiger sind als ein monolithisches Design für alles, dann braucht es auch mehrere davon.

Zen3 sind allesamt aus der Epyc Produktion abgezwackt, dass heißt AMD produziert ein Chiplet für alles, die Änderungen in der Clustertopologie kommen dabei dem Gamersegment entgegen (und das war auch der Grund für ein 8C CCX, um zu verhindern, das die Threads zuviel springen), aber auch HPC und sparen vor allem einen Haufen Platz.

AMDs Patent dreht sich vor allem um HBX, dabei kann intern, also auf dem Träger das CPU und GPU "Chiplet" auf den selben (schnellen) L3 zugreifen (ist also etwas ähnliches wie SAM über PCIe, nur über einen schnelleren Crosslink), wüsste nicht das Intel mit XE sowas unterstützt.

Damit ist AMD auch nicht überhaupt spät dran, sondern absoluter Vorreiter was Chiplet Technologien angeht, während Intel im CPU Segment für HPC (Meshlet) und Gamer (Ringbus) produziert, frag dich mal was günstiger ist und wieviel Intel dafür zuletzt in 10nm versenkt hat. Im Gamerbereich hat sich Mesh absolut nicht durchgesetzt. Solche Probleme hat AMD mit Zen zum Beispiel nicht, weil man sehr flexibel reagieren kann, wie man an Zen3 sehr gut erkennt.
 
Zuletzt bearbeitet von einem Moderator:

PCGH_Torsten

Redaktion
Teammitglied
Einen gemeinsam mit den CPU-Kernen genutzten Cache haben Intel-IGPs spätesten seit Broadwell (dort sogar in MCM-Bauweise, je nach Ausführung), ich glaube aber sogar schon seit Sandy Bridge. Das war damals der fiese Stachel in der Seite von "the future is fusion (once we paid our debts and can start developing again)". ;-)

Nichtsdestotrotz wäre die Erfolgsaussicht bei Fertigung als monolithischer Chip aber deutlich geringer, oder? Denn dann würde der Die mit allem drum und dran doch schon wieder groß genug um vermehrt Ausschuß zu produzieren?

Das hängt von der allgemeinen Fehlerrate ab. Prozessor gegen Prozessor betrachtet ist ein MCM immer langsamer, energiehungriger, viel aufwendiger in der Entwicklung, aufwendiger und fehleranfälliger beim Packaging und zu allem Überfluss auch noch etwas mehr Siliziumfläche bedürftig, als ein Monolith mit den gleichen Recheneinheiten. Das verursacht nicht unerhebliche Kosten, die man auf der MCM-Schiene zwangsweise für jeden einzelnen Prozessor zahlt. Ein Monolith dagegen hat ein höheres Ausschussrisiko und natürlich ist ein Exemplar, dass gar nicht verkauft werden kann, noch eine viel größere Geldverschwendung. Die Frage ist: Wie oft kommt das vor? Wenn ein doppelt so großer Chip auch doppelt so oft ausfällt, senkt das den Yield von 50 Prozent auf 25 Prozent, von 80 Prozent auf 64 Prozent oder von 98 auf 96 Prozent? Bei einem eingespielten Prozess, der in der letztgenannten Größenordnung oder noch deutlich besser liegt, kann die Rechnung selbst mit vierfacher Teilung noch zu Gunsten des Single-Chips ausgehen. Wenn man dagegen als erster einen großen Prozessor in einem noch unerprobten Prozess (nennen wir ihn "T7nm") beauftragt, geht man vielleicht eher vom mittleren Verhältnis als Worst Case aus.

Auch andere Abwägungen hängen von den Rahmenbedingungen ab. Beispielsweise bedient AMD mit nur einem CCD-Designs alle Märkte vom Einsteiger-Desktop bis HPC. Intel müsste aktuell fünf-sechs Chips gegen AMD stellen und ein sechster/siebter als Kontrahent gegen die letzte Epyc-Ausbaustufe fehlt noch. Aber Intel hat auch viel größere Stückzahlen und einem Hersteller, der 20-30 Produktionslinien parallel betreibt kostet es ein Lächeln, 1-2 davon auf einen bestimmten Markt zu konzentrieren, während man mit 4-5 Linien viel eher auf Flexibilität angewiesen ist. Und AMD erreicht die Spannweite nicht nur dank MCM, sondern auch durch Teildeaktivierungen. Bei nicht wenigen Produkten um die Hälfte, bei einigen Epycs sogar werden sogar über 80 Prozent der Funktionen dieser Chips stillgelegt, während Intel im Schnitt über die Produktpalette bei 20-25 Prozent Deaktivierung liegen müsste. Auch hier spielt wieder die Yield-Rate rein: Wenn man ohnehin viele teildefekte Chips hat, stört das nicht. Wenn man aber schon extra ein MCM entwickelt, dann schmerzt es doppelt, wenn man am Ende trotzdem nur einen Teil des Fertigungsaufwandes bezahlt bekommt. Denn in der Bilanz ist es egal, ob X Prozent der Waferfläche als "defekt" im Müll gelandet sind oder "deaktiviert" an irgend einem verkauften Prozessor dranklebten, der für ein nicht nativ bedientes Marktsegment downgelabelt wurde.

tl;dr: Das "perfekte" Konzept gibt es nicht und man muss sehr genau gucken, welches in einem Einzelfall "optimal" ist.

Wie gesagt – Intel hat symmetrische MCMs, also das Erfolgskonzept der ersten Epyc- und der ersten beiden Threadrippergenerationen bereits Ende der 0er Jahre über drei Generationen hinweg in Großserie gehabt und asymmetrische MCMs mit der gleichen Aufgabenteilung und sogar der Ausnutzung unterschiedlicher Fertigungen wie bei Zen2/3 eine weitere Generation später (mit simplererer Aufteilung gab es das sogar schon in den 90ern). Sie hatten die Technologie, sie hat gut funktioniert, reichlich Gewinn gebracht – und nach ein paar Jahren hat man wieder Monolithen gefertigt. Und sie haben gut funktioniert und reichlich Gewinn gebracht, weil dieses Konzept unter veränderten Bedingungen wieder besser gepasst hat. Auch AMD, die IODs, CCDs und GPUs mit IF fertigen, baut APUs als Monolith, anstatt drei andere Chips zusammenzukleben. Was übrigens auch obige Angabe relativiert: Tatsächlich fertig AMD nämlich nicht "ein Chiplet". Sondern ein CCD, ein Mainstream IOD, ein High-End-/Server-IOD und ein APU-Design, braucht also auch vier verschiedene Chips (darunter einer bei dem jeder Fehler einen Totalausfall bedeutet) um eine Marktspanne abzudecken, für die Intel sechs oder sieben Monolithe auflegen müsste.
 
T

tokthora

Guest
Ist aber nicht vergleichbar Torsten, weil nicht 4 WGP Chiplet auf einen L3 Cache über HBX Phys zugreifen. Es geht vor allem um ein GPU Design auf dessen Basis, nicht CPU Design (sogar fixed function Blöcke ließen sich auslagern und auch abschalten wenn es dabei Funktionscluster sind). Das spart zudem Energie.

Zen 3 ist komplett Epyc. Ich nutze das Beispiel nur als Fortschrittsuntermauerung (Flexibilität inklusive), was den machbaren schnellen Crosslink angeht.

Das erinnert eher an Nvidia, und ARM Cores auf GPU Designebene. Das Intel das nicht passt, dürfte klar sein.

Es geht um eine Art Lastlevelcache, der als coheräntes Interconnect immer mehr an Bedeutung gewinnt, wie man unter RDNA2 aber sieht, auch einen Haufen Energie sparen kann und leistungsbestimmend wirkt. Die ausgelagerten Phys zur Anbindung von Ressourcen, kosten einfach immens viel Energie vor allem wenn die wachsen müssen. Da kannst du ein Die/Chiplet (MCM oder monolithisch) noch so fein fertigen. ML profitiert ungemein davon, weil es Latenzen reduziert.
 
Zuletzt bearbeitet von einem Moderator:

PCGH_Torsten

Redaktion
Teammitglied
Nein, es ist nicht "WGP" und es ist auch nicht "HBX". Weil das AMD-Marketingbegriffe sind, die es somit ausschließlich in AMD-Produkten gegeben wird. Aber "Crossfire" war auch nicht SLI und hat trotzdem funktioniert und obwohl es nie ein "Ultrabook" mit AMD-APU geben wird, verkaufen sich dünne, leichte Renoir-Notebooks trotzdem wunderbar (gibt es "Ultrathin" als Kampagne noch?), genauso wie AMD-CPUs ohne "Hyper-Threading". Namen sind Wurscht, das spannende ist die Technik dahinter. Und in dieser Hinsicht ist das Patent verdammt dünn: Chips mit Rechenkernen und Cache, werden über ein spezialisiertes Interface mit Chips mit gleichberechtigten Chips verbunden. Die ebenfalls Rechenkerne und Caches enthalten, welcher direkt zugänglich ist. :schnarch:

Keine Ahnung, wer so etwas als erster gebaut hat, aber unter den x86-Nachzüglern fand man es erstmals bei Dual-Pentium-Pro- beziehungsweise, wenn du auf größere Zahlen bestehst, Quad-Xeon-Slot-2-Systemen. Damals hieß das Interface noch "FSB" und die Recheneinheiten trugen ein "C" statt einem "G" vor dem PU und niemand hatte "Chiplet" in eine Ecke gekritzelt. Aber auf die Idee, dass es "schnell" und "machbar" sein sollte, war man bereits gekommen. Und spätestens mit der Voodoo 5 hat jemand die Idee auch schon mal auf einem gemeinsamen Substrat, ohne zentralen I/O-Chip und für 3D-Rendering umgesetzt. Das sind alles antike Ideen. Genauso Punkt-zu-Punkt Interfaces für die Verbindung gleichberechtigter Chips (x86-Markt seit dem ersten Multi-CPU-Opteron, bei IBM oder Cray afaik schon vorher) oder Si-Interposern für zusammenarbeitende Chip-Cluster (z.B. bei Xilinx schon 2011).

Spannend wäre: Wie baut man denn jetzt so einen Interconnect, der so schnell und so latenzarm ist, wie das heutige Rendering-Engines erfordern und zugleich auch noch energieeffizient und so günstig, dass ein Netto-Vorteil gegenüber einer größeren GPU bleibt? Das versucht man seit mindestens 15 Jahren und bislang ist man jedes mal gescheitert. Aber dazu steht im Patent nichts. Erinnert mich an Star-Trek-Autoren: "Wie funktioniert der Heisenbergkompensator?" "Danke der Nachfrage, er funktioniert gut."


Disclaimer: Letzterer Satz soll AMD nicht unterstellen, hier etwas vorzutäuschen, was sie gar nicht bauen können. Er soll nur unterstreichen, dass sie bislang nirgendwo verraten, wie sie die denn den heiligen Gral gefunden haben. Aber das wäre das einzig spannende, denn danach Suchende gibt und gab es zu genüge.
 

Technologie_Texter

BIOS-Overclocker(in)
Du schreibst dir so richtig schön einen Quatsch zusammen, das lässt jedem die Nackenhaare hochstehen, anscheinend ist dir die letzte Änderung in der Clustertopologie entgangen, die nicht nur die IPC steigert sondern auch Gamer und damit Devs in diesem Bereich anspricht. Es ist im Falle der Kommunikation viel "günstiger" ein CCC an einen I/O anzubinden und nein, AMD hat überhaupt kein Problem mit den Kosten, weil MCM deutlich günstiger sind als ein monolithisches Design für alles, dann braucht es auch mehrere davon.
Naja, manche versuchen AMD halt immer klein zu reden, das sollte man einfach ignorieren;)
 

Futhark

Komplett-PC-Aufrüster(in)
Spannend wäre: Wie baut man denn jetzt so einen Interconnect, der so schnell und so latenzarm ist, wie das heutige Rendering-Engines erfordern und zugleich auch noch energieeffizient und so günstig, dass ein Netto-Vorteil gegenüber einer größeren GPU bleibt? Das versucht man seit mindestens 15 Jahren und bislang ist man jedes mal gescheitert. Aber dazu steht im Patent nichts. Erinnert mich an Star-Trek-Autoren: "Wie funktioniert der Heisenbergkompensator?" "Danke der Nachfrage, er funktioniert gut."
Wenn sie es schaffen, ihre Technik so zu patentieren, dass möglichen Konkurrenten möglichst wenig Information über die neue Technik offenbart wird, während selbige gleichzeitig vollständig vom Patent geschützt ist, haben sie ja alles richtig gemacht. (Klar würde ich auch gerne wissen, wie es im Detail funktioniert!). Ich gehe mal stark davon aus, dass AMD einen guten Patentanwalt hat, der weiß, wie man das formulieren muss, ohne Fehler zu machen ode zu viel zu verraten. Wenn ihre Idee die zukünftigen GPUs schneller macht, freue ich mich aber auf einen entsprechenden Demonstrator.
 
Oben Unten