Intel-CPUs: Exzessive Nutzung von Chiplets geplant, Start mit 7-nm-Fertigung

Endlich ist es soweit, die ersten Exemplare können in 7nm produziert werden. Dann könnten die ersten fertigen Mainboards doch schon in spätestens 6 bis 9 Monaten fertig sein, oder? Auf die Leistung der neuen Bretter bin ich aber gespannt.
 
Maßgeschneiderter CPU´s wenn das den mal gut geht, ich hab da so ein ungutes Gefühl bei :-)

Maßgeschneidert ist halt Marketinggewäsch für: damit kann man xbeliebig CPUs zusammenstöpseln und in der Realität heißt es halt man steckt eben eine skalierbare Anzahl an Chiplets drauf.
Eben wie bei Ryzen oder Epyc, meinetwegen noch erweitert um Atom oder GPU Chiplets. EMIB ist da ja recht flexibel.

Monolithische dies wirds natürlich auch weitehin geben, schließlich hat man damit dennoch noch den einen oder anderen Vorteil
 
Maßgeschneidert ist halt Marketinggewäsch für: damit kann man xbeliebig CPUs zusammenstöpseln und in der Realität heißt es halt man steckt eben eine skalierbare Anzahl an Chiplets drauf.
Eben wie bei Ryzen oder Epyc, meinetwegen noch erweitert um Atom oder GPU Chiplets. EMIB ist da ja recht flexibel.

Monolithische dies wirds natürlich auch weitehin geben, schließlich hat man damit dennoch noch den einen oder anderen Vorteil

geht nicht in seinem posting über ein dicken haufen x86 cores, sondern ums "maßgeschneiderte" deswegen steht da auch IP cores mit properietärer technik. sowas wie x265 beschleunigung was wir so kennen aus dem consumer bereich.
schon seit jahren sind solch ip cores im desktop vertreten, aber keiner weiß davon, wie der zufallsgenerator bzw. eine verschlüsselungseinheit für aes/tls z.b. find grad kein bild von benchmark von alten core2quads ggü der nachfolger generation die bei aes z.b. den boden aufgewischt haben durch die IP cores. opensiv z.b. nutzt risc v cores und bietet design mit ip cores an denen man denen gibt. in 10-20 jahren wird aufn 0815 desktop eh risc v/arm laufen, weil es ebend effizienter ist für email/webapps. native anwendungen werden dann kleiner, weil die große masse einfach nicht zockt, photoshoped oder videos bearbeitet.
hier gibts nen user mit dem hat ich eine diskussion über webscripts und wieso man noscript/ublock/umatrix nutzt um schneller surfen zu tun. webapps sind die zukunft für otto-normal. geht ja schon richtung "cloud" wieso nicht gleich den kompletten clienten nur übern browser zugreifen zu lassen? lockins sind die zukunft siehe apple & co.
 
Maßgeschneidert ist halt Marketinggewäsch für: damit kann man xbeliebig CPUs zusammenstöpseln und in der Realität heißt es halt man steckt eben eine skalierbare Anzahl an Chiplets drauf.
Eben wie bei Ryzen oder Epyc, meinetwegen noch erweitert um Atom oder GPU Chiplets. EMIB ist da ja recht flexibel.

Monolithische dies wirds natürlich auch weitehin geben, schließlich hat man damit dennoch noch den einen oder anderen Vorteil
Naja, es verdient dann zumindest eher den Namen maßgeschneidert als irgendeine heutige CPU diesen Namen verdienen würde---bei denen werden ja nur Einzelfunktionen softwareseitig deaktiviert, um sie "maßzuschneidern"...
geht nicht in seinem posting über ein dicken haufen x86 cores, sondern ums "maßgeschneiderte" deswegen steht da auch IP cores mit properietärer technik. sowas wie x265 beschleunigung was wir so kennen aus dem consumer bereich.
schon seit jahren sind solch ip cores im desktop vertreten, aber keiner weiß davon, wie der zufallsgenerator bzw. eine verschlüsselungseinheit für aes/tls z.b. find grad kein bild von benchmark von alten core2quads ggü der nachfolger generation die bei aes z.b. den boden aufgewischt haben durch die IP cores. opensiv z.b. nutzt risc v cores und bietet design mit ip cores an denen man denen gibt. in 10-20 jahren wird aufn 0815 desktop eh risc v/arm laufen, weil es ebend effizienter ist für email/webapps. native anwendungen werden dann kleiner, weil die große masse einfach nicht zockt, photoshoped oder videos bearbeitet.
hier gibts nen user mit dem hat ich eine diskussion über webscripts und wieso man noscript/ublock/umatrix nutzt um schneller surfen zu tun. webapps sind die zukunft für otto-normal. geht ja schon richtung "cloud" wieso nicht gleich den kompletten clienten nur übern browser zugreifen zu lassen? lockins sind die zukunft siehe apple & co.
Wirst du das Posting noch überarbeiten, um es besser lesbar zu machen? (sowohl, was Layout als auch Formulierungen angeht, ist da noch viel Luft nach oben)
 
Dass sie dran sind ist mir voll und ganz bewusst---doch das heißt sehr wenig. Die Chipfertigung war auch ewig an der Entwicklung von EUV dran und gerade kommt sie an. Sie war ewig am Wechsel zu 450mm-Wafern dran und dieser ist nicht gekommen.

Von daher halte ich das dran sein nicht für eine sonderlich wichtige Info und erst recht handelt es sich dabei nicht um ein Diskussionsthema.


Wie gesagt, das wann und wie (in Kombi!) interessiert mich. Bei den CPUs begann es ja mit dem gleichen CPU-DIE mehrfach nebeneinander, danach erst wurden Speichercontroller und weiteres IO ausgelagert. Angesichts der seit Jahren schwachen MultiGPU-Technologien gehe ich davon aus, dass der erste Schritt bei den GPUs ausgelassen werden wird. Doch wird das wirklich der Fall sein? Kommt es vielleicht erst zu einer Chiplet-APU und danach zu einer Chiplet-GPU? Welcher Weg wird gewählt werden?

Dann vielleicht einfach noch mal lesen, was zuvor als vermeintlich unnütze Information gepostet wurde?
Der vermeintliche erste Schritt wird zweifelsfrei nicht ausgelassen, denn wie ich bereits schrieb, Xe sowohl in Form von HP als auch HPC kommt nächtest Jahr als MCM-Design. Das ist kein wenn, aber, vielleicht, sondern eine feste Roadmap. Spekulieren kann man lediglich über HPG, denn auch das könnte als MCM kommen, wenn ein Tile nicht zu viel Strom zieht.
Und bzgl. Chiplet-APU ... AMD hat hier nicht umsonst auf ein monolithisches Design zurückgewechselt, schlicht weil deren Technik aktuell die für den Mobile-Bereich notwendigen Power Savings nicht ermöglicht hätte. Auch Cezanne wird zweifelsfrei wieder ein monolithisches Design werden. Und fasst man Intels Lakefield als APU auf, denn der Begriff bezeichnet letzten Endes nicht mehr als die Kombination einer CPU und GPU, dann ist damit bereits ein Produkt im Markt, das weit über das von AMD bisher bekannte hinaus geht.
Also ... der Prozess ist schon längst im Gange. Und wird sich so bspw. auch unzweifelhaft im nächsten Jahr mit bspw. Alder Lake fortsetzen, der ebenfalls für Ende 2021 schon mehrfach bestätigt wurde und Intels Hybrid Technology implementiert (große mit kleinen Kernen oder nur große Kerne und Xe-iGPUs). Und wie ebenfalls von Alk und mir erklärt, sind auch AMD und nVidia bzgl. GPUs an dem Thema dran und man kann bereits bei den kommenden Generationen mit einem MCM-Design rechnen, also 2022.
Was dagegen Intel mit den noch kleineren IP-Blöcken skizziert hat, wird erst für 2024+ relevant werden ...
 
Dann vielleicht einfach noch mal lesen, was zuvor als vermeintlich unnütze Information gepostet wurde?
Der vermeintliche erste Schritt wird zweifelsfrei nicht ausgelassen, denn wie ich bereits schrieb, Xe sowohl in Form von HP als auch HPC kommt nächtest Jahr als MCM-Design. Das ist kein wenn, aber, vielleicht, sondern eine feste Roadmap. Spekulieren kann man lediglich über HPG, denn auch das könnte als MCM kommen, wenn ein Tile nicht zu viel Strom zieht.
Und bzgl. Chiplet-APU ... AMD hat hier nicht umsonst auf ein monolithisches Design zurückgewechselt, schlicht weil deren Technik aktuell die für den Mobile-Bereich notwendigen Power Savings nicht ermöglicht hätte. Auch Cezanne wird zweifelsfrei wieder ein monolithisches Design werden. Und fasst man Intels Lakefield als APU auf, denn der Begriff bezeichnet letzten Endes nicht mehr als die Kombination einer CPU und GPU, dann ist damit bereits ein Produkt im Markt, das weit über das von AMD bisher bekannte hinaus geht.
Also ... der Prozess ist schon längst im Gange. Und wird sich so bspw. auch unzweifelhaft im nächsten Jahr mit bspw. Alder Lake fortsetzen, der ebenfalls für Ende 2021 schon mehrfach bestätigt wurde und Intels Hybrid Technology implementiert (große mit kleinen Kernen oder nur große Kerne und Xe-iGPUs). Und wie ebenfalls von Alk und mir erklärt, sind auch AMD und nVidia bzgl. GPUs an dem Thema dran und man kann bereits bei den kommenden Generationen mit einem MCM-Design rechnen, also 2022.
Was dagegen Intel mit den noch kleineren IP-Blöcken skizziert hat, wird erst für 2024+ relevant werden ...
Ist HPG mittlerweile als auch MCM-Design bestätigt? Das wäre mir neu, was ich dazu gelesen habe, klang nur wie ein einziger Chip für einen Marktbereich und nicht etwa eine Lösung, die mehrere Szenarien abdecken könnte.
Entsprechend habe den Rest ausgeklammert. Die nicht sonderlich wichtige Info ist übrigens nach wie vor nur, dass die Hersteller insgesamt dabei sind. Die Details hingegen sind spannend; mir ging es darum, dass das bloße überhaupt an MCM rumentwickeln wenig mit dem eigentlichen Thema zu tun hat.

→ Solltest du was MCM bei HPG haben, dann bitte ich um Verlinkung.
 
Ah...das war also in der Intel Schublade....den von Intel in Richtung AMD so höhnisch verlachter Chip -Glue" (Kleber)( oder hat Jim Keller ihnen gleich ne Tube vor seinem Abgang da gelassen? :-D
Scherz beiseite.
Die Zerstückelung kann ja auch Latenz Probleme zur Folge haben..wird interessant zu sehen sein, wie sie dieses U.U. Problem lösen werden.

cpu's mit aufrüstbaren cache. :lol:

bis intel chiplets rauskommen dauerts ja nochn paar jährchen mit 7nm:ugly:

Das kann ja auch ganz neue Möglichkeiten bieten, eine eingebaute Leistungs Skalierbarkeit, die sich mittels kostenpflichtiger DLC ( Größerer Cache, etc) freischalten ließe. :-)
 
Zuletzt bearbeitet:
Ob die Ram Latenz dann genauso überl aussehen wird wie bei AMD (50ns+)? Teurer Ram solls dann wieder richten, vermutlich...:hmm:
 
Ist HPG mittlerweile als auch MCM-Design bestätigt? [...]

Bestätigt? Ist das eine provokante Frage oder ist die ernst gemeint? AMD und nVidia haben noch nicht einmal bestätigt, was in wenigen Wochen veröffentlicht werden soll und Intel soll jetzt schon bestätigen, was sie in 9+ Monaten veröffentlichen werden?
Darüber hinaus ist die Xe-Architektur grundsätzlich auf Skalierbarkeit ausgelegt. Die jeweiligen Compute-Tiles sind auf den konkreten Anwendungszweck hin ausgelegt (bspw. ein FP64-Support oder Matrix-Operationen sind optional, ebenso wie natürlicherweise der Rambo-Cache in HPC und in letzterem wird es bspw. auch keine 3D-Einheiten geben; dieses Design wird also rein auf Compute ausgelegt sein). Die Architektur soll auf eine (theoretische) Skalierung von bis zu 1000 EUs hin ausgelegt sein und es wurde ebenso schon bestätigt, dass multiple Tiles als mehrere GPUs oder zusammen als eine GPU arbeiten können, in dem Kontext auf der Hot Chips jedoch voraussichtich vorrangig mit Blick auf HP, jedoch, da es hier alles die Xe-Architektur ist und die Problematik bei regulären GPUs mittlerweile die gleiche ist, gibt es keinen Grund anzunehmen, dass man bei HPG nicht dazu imstande wäre. Hier werden voraussichtlich Verbrauch und thermische Limits jedoch vorerst wohl zu einer Beschränkung auf zwei Tiles führen? (Genau eine solche Zusammenschaltung für reguläre GPUs thematisierte Koduri bereits im letzten Jahr in einem Interview und strich hier die Wichtigkeit des SW-Stacks heraus. Hinzu kommt, dass Intel kürzlich erklärte, dass sie diese GPUs alle über einen einzigen SW-Stack/Treiber bedienen können und die Aussage bezog sich sowohl auf die HP(-Tiles) als auch auf die Kombination Tiger Lake U iGPU in Kombination mit einer optionalen mobilen dGPU wie der DG1.)
Und bspw. bereits das für das Datacenter gedachte Visual Compute Accelerator-Modell SG1, dass noch dieses Jahr herauskommt, wird bereits bis zu oder pauschal vier DG1-Tiles kombinieren, die auf Xe-LP basieren.
Abschließend kann man sich auch noch Gedanken dazu machen, was es wohl heißen könnte, dass Intel keine Auskunft dazu gibt, ob man Tiger Lake U's iGPU zusammen mit einer DG1 betreiben kann. Schon vor Monaten deuteten Linux-Treiber auf eine derartige Möglichkeit hin, wäre die Idee jedoch absurd, bzw. käme das Produkt unzweifelhaft nicht mit einer solchen Funktionalität auf den Markt, könnte man dem kurzerhand eine Absage erteilen, denn man kann sich an zwei Fingern ausrechnen, dass die Frage in wenigen Tagen beim Tiger Lake-Launch wieder aufkommen wird.
Xe ist jedoch weitestgehend auf eine Skalierbarkeit ausgelegt, sowohl HW-technisch wie auch mit Blick auf den SW-Stack, die Möglichkeit bleibt also weiterhin offen. Wenn diese HW-Kombination das bereits können sollte, könnte man bei HPG ebenfalls mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass es hier Multi-Tile-Produkte geben wird, die MidRange bis HighEnd im Consumer-Markt abdecken werden.
Da es dieses Jahr aber nur HW auf Basis von Xe-LP geben wird, wird man sich dahingehend noch ein wenig bzgl. konkreterer Infos gedulden müssen ...
 
Zuletzt bearbeitet:
Bestätigt? Ist das eine provokante Frage oder ist die ernst gemeint? (...)
Absolut ernst gemeint, denn Intel hat ja während der HotChipsConference glasklar bestätigt, dass HPC auf MultiTile setzen wird.

P.s.: Danke für das umfangreiche Posting---aber wie schon angerissen, dein vorheriges klang so, als wäre MultiTile-HPG plötzlich bestätigt gewesen.
 
Nicht nur HPC (= Ponte Vecchio, der massive MCM-Aufbau hierzu wurde übrigens schon Ende 2019 bestätigt), sondern auch HP. Und Koduri erklärte ebenso, dass es sich bei HPG um eine "andere/weitere Optimierung von Xe HP" handelt. Wie bereits implizit erklärt, ich halte Multi-Tile-Produkte auch bei HPG für sehr wahrscheinlich. Intel hat keinen Grund HighEnd links liegen zu lassen und alleine schon vertriebstechnisch sind diese als Halo-Produkte durchaus einiges Wert und Intel kann sich so etwas ressourcentechnisch problemlos leisten, insbesondere da vergleichbare (Packaging-)Technologien für LP (SG1) und HP eh schon zum Einsatz kommen, was den Aufwand überschaubar hält und wenn auch der SW-Stack anscheinend grundlegend darauf ausgelegt ist, drüfte das 2HJ21 durchaus interessant werden ...
 
Zuletzt bearbeitet:
Ich bin besonders auf die Lösungen von Nvidia und AMD bei den GPUs gespannt. Die Latenzen sind bei GPUs nochmals ein deutlich kritischeres Thema als bei CPUs, der Interconnect muss sehr niedrige Latenzen und zugleich enorme Bandbreiten liefern.
Nope, eigentlich können GPUs Latenz bei der Datenversorgung sogar besser ab als CPUs. Sieht man auch beim Vergleich der verwendeten RAM-Technologien
Differences Between DDR4 & GDDR5 Memory | GamersNexus - Gaming PC Builds & Hardware Benchmarks
Bandbreite dagegen brauche sie echt seeehr viel.
 
Zuletzt bearbeitet:
Passend dazu die Mutter aller monolithischen DIEs mit mehreren kW Leistungsaufnahme: Cerebras: Wafer-grosser Prozessor hat 850.000 Kerne - Golem.de

Krass, but can it run Crysis? :D

Fehlt am Ende nur, dass man noch maßgeschneidert auf sein Mainboard draufstecken kann.
Ach ne, gabs ja schon mal :P
Coprocessor - Wikipedia

Fortschritt ist manchmal auch nur eine Wellenbewegung.
Am Ende kaufen wir ja doch nur ein Teil, die CPU; obwohl das ganze den Begriff "central processing unit" ja dann mittlerweile etwas aufweicht :hmm: Verwirrend :huh:

PS: Dein link war sehr interessant @Olstyle :daumen:
 
Zuletzt bearbeitet:
Die Entwicklungen dahingehend sind schon lange am laufen bei AMD und NV.
Aktueller Gerüchtestand ist, dass NV mit "Hopper" (Nachfolger der Ampere-Architektur) mit Chiplets antreten wird. Glaskugel: Nach dem Ampere-Refresh RTX4000 (monolithisch, shrink) im Jahre 2021/22 könnte es also 2023/24 mit RTX5000 soweit sein. Bei AMD ähnlich mit RDNA3.

Was Intel angteht sehen wir nix neues - AMD pioniert vor und Intel wettert zuerst dagegen und übernimmt dann was gut ankommt/funktioniert. 64-bit, erste Dualcores, erste monolithische Quadcores und jetzt eben Chiplets.

Also je nachdem, ob du den Server-Markt ausklammerst oder nicht, hatte Intel entweder den ersten 64-Bit-Prozessor Jahre vor AMD oder den ersten Dual-Core eine Woche früher. ;-) Monolithische Quadcores waren sie nicht vorne, stimmt, dafür aber (wiederum je nach betrachteten Markt) bei allen höheren Ausbaustufen und historisch betrachtet heben sich die monolithischen AMD-Quadcores jetzt nicht als übermäßig technologieprägender Erfolg ab. Das gleiche gilt für die ersten Chiplets: Asymmetrische MCMs mit I/O- und Compute-Chip wurden erstmals 2010 als Core i3 und i5 verkauft. (Asymmetrische mit CPU + Cache sogar schon Mitte der 90er als Pentium M.) Aber für jede Technik gibt es Bedingungen unter denen sie sich lohnen und solche unter denen das nicht der Fall ist und wie auch der Hersteller von Renoir, Picasso und Raven Ridge bestätigt: Chiplets sind kein Allheilmittel. Insbesondere solange Silizium-Verbindungen nur als teuere vollflächige Interposer zur Verfügung standen, waren die Möglichkeiten sehr eingeschränkt und offensichtlich hat Intel mit EMIB-basierten Designs erst angefangen als EMIB tatsächlich fertig war.


Ja, lies nach wie das war: Intel hat den C2Q auf Chipletbasis gebracht. AMD hat sich damals über den Kleber lustig gemacht. 2018 folgte halt die Retourkutsche von Intel. Die gsnz lustigen glauben aber, dass sich Intel zuerst lustig gemacht hat, tatsächlich wars AMD
Aber das haben wohl einige, vor allem die jüngeren schon vergessen.
Ich find die originalfolien mit dem Handy grad nicht, gab aber total viel Häme von AMD weil Intel den Core 2 Quad ja nur zusammenklebt und Jahre später macht man es selber, deshalb die Retourkutsche mit Augenzwinkern von Intel

Leider fehlte bei Intels Retourkutsche jegliches Augenzwinkern. Das war eine ernstgemeinde Vermarktungsvorlage. Da nehmen sich leider beide Hersteller gar nichts: Wenn die eigenen Produkte nicht konkurrenzfähig sind, versucht man es mit einer Schmähkampagne. Amüsant war an der orginalen Vorlage dann auch vor allem das Timing: Zwei Jahre nach der Vorstellung zusammengeklebter Dual Cores entdeckte AMD auf einmal, dass die wichtigste Eigenschaft von CPUs nicht deren Leistung, sondern deren Bauweise ist. (Intel brachte dann weniger als ein Jahr später einen monolithischen Hexacore auf den Servermarkt, AMD selbst folgte weitere 1,5 Jahre später mit "zusammengeklebten" 12-Kernern.)
 
4 × 5 cm würde ich nicht einmal als "Monster" bezeichnen. Wenn man wirklich mehrere Chips kombinieren möchte, ist man schnell bei diesen Dimensionen. Aber auch ich habe so meine Zweifel, dass irgend jemand derart niedrige Flächenkosten inklusive Bearbeitung anbieten kann. Alleine die tausenden von TSVs für die Stromversorgung dürften teurer sein. Umgekehrt wären 20 US-Dollar schon sehr viel Geld in einem Markt, in dem die letzten von Herstellerseite genannten Gesamtkosten bei 80 US-Dollar lagen. (Zugegebenermaßen ist das 12 Jahre her und betraf bereits ein Dual-Chip MCM. Die Endkundenpreise sind allerdings noch vergleichbar, zu viel sollte sich also nicht geändert haben.)
 
Thema Interposer-Kosten Stand Anfang 2018:

"By far, the most cited reason why companies don’t adopt advanced packaging is cost. Currently, silicon interposers add about $30 to the price of a medium-sized die, according to several industry sources. For large chips, where multiple reticles need to be stitched together, that price can increase to more than $100."

Cheaper Packaging Options Ahead

auch interessant in diesem Kontext:

More 2.5D/3D, Fan-Out Packages Ahead
 
Zurück