Intel-CPUs: Exzessive Nutzung von Chiplets geplant, Start mit 7-nm-Fertigung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel-CPUs: Exzessive Nutzung von Chiplets geplant, Start mit 7-nm-Fertigung

Auf dem Architecture Day hat Intel angekündigt, dass Chiplets in Zukunft eine große Rolle spielen sollen. Das Unternehmen erwartet für die Zukunft den Einsatz von zahlreichen Chiplets im selben Produkt. Bis zu den ersten entsprechenden Produkten dauert es aber noch ein paar Jahre.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel-CPUs: Exzessive Nutzung von Chiplets geplant, Start mit 7-nm-Fertigung
 
War aber abzusehen, dass monolitische Chips an die Grenzen stoßen. Ähnlich wird es langsam auch bei den Grafikkarten sein, wenn sich die 5120 Shader für den Vollausbau bei Ampere und BigNavi bestätigen.
 
Erinnert mich an damals, als AMD die erste 64-Bit-CPU auf den Markt gebracht hat oder den ersten Dual-Core. Jetzt das Gleiche mit Chiplets.
 
War zu erwarten, daß es in diese Richtung gehen wird. Es ist einfach logisch: Kleinere Dies = signifikant mehr Yield = viel geringere Kosten = mehr Flexibilität.
Diesen Weg werden die GPU-Designer von NVidia und AMD/ATi letztlich auch gegen müssen, wenn die Herstellungskosten nicht durch die Decke gehen sollen.
 
War zu erwarten, daß es in diese Richtung gehen wird. Es ist einfach logisch: Kleinere Dies = signifikant mehr Yield = viel geringere Kosten = mehr Flexibilität.
Diesen Weg werden die GPU-Designer von NVidia und AMD/ATi letztlich auch gegen müssen, wenn die Herstellungskosten nicht durch die Decke gehen sollen.
Bzgl. GPUs stellt sich halt vor allen Dingen die Frage nach wann und wie...
...welche Teile der GPUs ließen sich gut aus dem Haupt-DIE auslagern, ohne, dass die Performance unter dieser Auslagerung gegenüber einer monolithischen Variante unterm Strich sinkt? Und: Ab wann kann damit dann sinnvoll begonnen werden?
 
Bzgl. GPUs stellt sich halt vor allen Dingen die Frage nach wann und wie...
...welche Teile der GPUs ließen sich gut aus dem Haupt-DIE auslagern, ohne, dass die Performance unter dieser Auslagerung gegenüber einer monolithischen Variante unterm Strich sinkt? Und: Ab wann kann damit dann sinnvoll begonnen werden?

Die Entwicklungen dahingehend sind schon lange am laufen bei AMD und NV.
Aktueller Gerüchtestand ist, dass NV mit "Hopper" (Nachfolger der Ampere-Architektur) mit Chiplets antreten wird. Glaskugel: Nach dem Ampere-Refresh RTX4000 (monolithisch, shrink) im Jahre 2021/22 könnte es also 2023/24 mit RTX5000 soweit sein. Bei AMD ähnlich mit RDNA3.

Was Intel angteht sehen wir nix neues - AMD pioniert vor und Intel wettert zuerst dagegen und übernimmt dann was gut ankommt/funktioniert. 64-bit, erste Dualcores, erste monolithische Quadcores und jetzt eben Chiplets.
 
Bzgl. GPUs stellt sich halt vor allen Dingen die Frage nach wann und wie...
...welche Teile der GPUs ließen sich gut aus dem Haupt-DIE auslagern, ohne, dass die Performance unter dieser Auslagerung gegenüber einer monolithischen Variante unterm Strich sinkt? Und: Ab wann kann damit dann sinnvoll begonnen werden?

Grundsätzlich sind an diesem Thema bereits alle Hersteller dran. Intel wird voraussichtlich mit Xe HP hier den Anfang machen, etwas später gefolgt von HPC Ponte Vecchio, der jedoch noch einmal mit seinem 3D-Packaging (Foveros) noch einen Schritt weiter geht. Gerüchten zufolge sind jedoch auch nVidia's Hopper und AMDs RDNA3 MCM-Designs und man ist hier zumindest an 2(,5)D-Designs dran.
Bezüglich Intels Xe HPG wird man abwarten müssen was Intel wann und wie veröffentlichen wird. Käme man hier zeitnah mit einem 2-Tile-Design in den Markt, würde Intel den Reigen bei den Consumer-GPUs gar ebenfalls beginnen. Bei den CPUs hat Intel hier bereits mit Lakefield ein erstes funktionierendes, komplexes 3D-Packaging vorgelegt, dass dann Ende 2021 mit Alder Lake in ein größeres Produkt münden wird, dort jedoch ggf. ohne die Notwendigkeit Foveros zu verwenden.
Und wie dann hier in einiger Ferne angerissen, wären die nächsten Schritte darüber hinaus dann die IP-Blöcke zu verkleinern und bspw. isolierte Rechenkerne, USB-, PCIe- oder DRAM-Controller, usw. auf einen einzelnen, winzigen Chip zu transferieren und diese dann im "Baukastenprinzip" zu kombinieren.
 
Die Entwicklungen dahingehend sind schon lange am laufen bei AMD und NV.(...)
Grundsätzlich sind an diesem Thema bereits alle Hersteller dran. (...)
Dass sie dran sind ist mir voll und ganz bewusst---doch das heißt sehr wenig. Die Chipfertigung war auch ewig an der Entwicklung von EUV dran und gerade kommt sie an. Sie war ewig am Wechsel zu 450mm-Wafern dran und dieser ist nicht gekommen.

Von daher halte ich das dran sein nicht für eine sonderlich wichtige Info und erst recht handelt es sich dabei nicht um ein Diskussionsthema.


Wie gesagt, das wann und wie (in Kombi!) interessiert mich. Bei den CPUs begann es ja mit dem gleichen CPU-DIE mehrfach nebeneinander, danach erst wurden Speichercontroller und weiteres IO ausgelagert. Angesichts der seit Jahren schwachen MultiGPU-Technologien gehe ich davon aus, dass der erste Schritt bei den GPUs ausgelassen werden wird. Doch wird das wirklich der Fall sein? Kommt es vielleicht erst zu einer Chiplet-APU und danach zu einer Chiplet-GPU? Welcher Weg wird gewählt werden?
 
Doch wird das wirklich der Fall sein? Kommt es vielleicht erst zu einer Chiplet-APU und danach zu einer Chiplet-GPU? Welcher Weg wird gewählt werden?
Auslagern einzelner Kernfunktionen. Warte mal ab was der Zusatzchip der Amperekarten so macht der da auf der Rückseite sein soll.
WENN man Chiplets bei Grafikkarten macht wäre der sinnigste Weg wohl, beispielsweise einen Raytracing-Chip und einen Rasterizer-Chip (und ne Tonne verdammt schnellen Cache dazwischen) zu verbauen. Und einen Multimedia/2D-Teil den man außerhalb von Games nutzen kann so dass der Rest abgeschaltet wird und ne High-End Karte im Windows nur 5W braucht wäre auch nett.
 
Ich bin besonders auf die Lösungen von Nvidia und AMD bei den GPUs gespannt. Die Latenzen sind bei GPUs nochmals ein deutlich kritischeres Thema als bei CPUs, der Interconnect muss sehr niedrige Latenzen und zugleich enorme Bandbreiten liefern. Das wird wirklich sehr interessant. Die Grenzen bei monolithischen DIEs haben wir längst erreicht, siehe Ampere und dessen erwartete Leistungsaufnahme sowie Kühllösung. Die RTX 3090 wird ein nie dagewesenes Monstrum :ugly:

Passend dazu die Mutter aller monolithischen DIEs mit mehreren kW Leistungsaufnahme: Cerebras: Wafer-grosser Prozessor hat 850.000 Kerne - Golem.de
 
Zuletzt bearbeitet:
Häää Intel, du hast mir doch vor nicht mal 3 Jahren gesagt, dass geklebte Produkte schlecht sind.

Besonders bei der Konkurrenz, wieso gehst du dann den selben Weg? :(

Jetzt fühle ich mich aber verarscht von dir als großes Unternehmen ;)
 
Wie war das nochmal mit dem Kleber?
Ich denke wenn einer diesen "Witz" nochmal bringt bei jeder News bekommt man Autismus vom lesen.

Die Entwicklungen dahingehend sind schon lange am laufen bei AMD und NV.
Aktueller Gerüchtestand ist, dass NV mit "Hopper" (Nachfolger der Ampere-Architektur) mit Chiplets antreten wird. Glaskugel: Nach dem Ampere-Refresh RTX4000 (monolithisch, shrink) im Jahre 2021/22 könnte es also 2023/24 mit RTX5000 soweit sein. Bei AMD ähnlich mit RDNA3.

Was Intel angteht sehen wir nix neues - AMD pioniert vor und Intel wettert zuerst dagegen und übernimmt dann was gut ankommt/funktioniert. 64-bit, erste Dualcores, erste monolithische Quadcores und jetzt eben Chiplets.
Totaler Schwachsinn, abgesehen davon das es unzählige Intel Entwicklungen gibt hat AMD sich selbst und ATi fast komplett eliminiert bei dem Versuch zum Global Player aufzusteigen. Die Geschichte des sauberen AMD's als moralische Alternative ist ein Märchen. Intel arbeitet ebenfalls an GPU Chiplets, wahrscheinlich längst vor dem Fertigungsfiakso.
 
Zuletzt bearbeitet:
Wie war das nochmal mit dem Kleber?

Ja, lies nach wie das war: Intel hat den C2Q auf Chipletbasis gebracht. AMD hat sich damals über den Kleber lustig gemacht. 2018 folgte halt die Retourkutsche von Intel. Die gsnz lustigen glauben aber, dass sich Intel zuerst lustig gemacht hat, tatsächlich wars AMD
Aber das haben wohl einige, vor allem die jüngeren schon vergessen.
Ich find die originalfolien mit dem Handy grad nicht, gab aber total viel Häme von AMD weil Intel den Core 2 Quad ja nur zusammenklebt und Jahre später macht man es selber, deshalb die Retourkutsche mit Augenzwinkern von Intel

Intel Core 2 Extreme QX6700 Processor Brings Quad Core Computing - PC Perspective
Erinnert mich an damals, als AMD die erste 64-Bit-CPU auf den Markt gebracht hat oder den ersten Dual-Core. Jetzt das Gleiche mit Chiplets.

Die erste 64 Bit CPU war aber nicht AMD (AMD hatte aber natürlich die erste x86-64, weil Intel noch auf Itanium (64 Bit only) hoffte), die erste Dualcore im Desktop (X86-64) war Intel AFAIR (Pentium D). Oder ich verwechsels grad mit oben genannten Quadcore
 
Zuletzt bearbeitet:
Man möchte meinen das ein Chiplet Design für Server von Intel sehr zeitnah kommen würde. Wäre dies doch eine gute Möglichkeit die eigenen 10nm Fertigung (kleine Chips + Taktfrequenz beschränkt) Nachteile zu negieren. In einem Design wie AMDs 8x 8C Threatripper Aufbau könnten die Intel 8C DIEs klein ausfallen und müssten nicht die höchsten Taktraten erreichen...
 
Zurück