News Chiplets überall: Neues Patent von Intel - auch GPUs werden zerlegt

PCGH-Redaktion

Kommentar-System
Teammitglied
In einem neuen Patent beschreibt Intel einen extremen Chiplet-Ansatz, bei dem ein SoC komplett zerlegt wird. Das betrifft unter anderem auch die GPU, die so flexibel erweitert werden könnte.

Was sagt die PCGH-X-Community zu Chiplets überall: Neues Patent von Intel - auch GPUs werden zerlegt

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Das ist mutig den sram von den alu zu trennen die Latenz wäre katastrophal das man den analog Anteil trennt ist logisch da dieser physisch nicht kleiner werden kann. (Si und displayanschlüsse)
Den sram aber von den alu zu trennen dürfte sich aber als Fehler erweisen.
 
Wie war das mit "zusammengeklebter Pampe"?

Naja logisch und kosteneffizient ist es wie wir bei AMD sehen.. auch wenn sich nicht alles stückeln lässt

Chiplets im GPU Bereich waren ja bekanntlich auch für AMD ein Erfolgskonzept :ugly:
Naja es wäre ausbaufähig gewesen wenn man weiter in die Richtung geforscht hätte.
Problematisch war halt das man mit 2-3 generation im technischen Rückstand damit angefangen hat..

Jetzt mit der nächsten Gen hat man es wieder aufgegeben und bringt maximal n Chip im Leistungsbereich einer 7900xt-xtx in Raster und Raytracing..
Ein RDNA4 Chip mit den Shadern, Speicherinterface und (96)CUs einer 7900xtx würde problemlos vor einer RTX4090 liegen.. bei ähnlichen Verbrauch.. AMD will halt nur nicht
 
Und du denkst das würden sie nicht?
Ich bin mir sicher, dass die Leute, die GPUs Entwickeln ne Menge mehr Ahnung haben als du und ich. Und wenn die der Meinung sind, dass Chiplets nichts bringen, dann vertraue ich denen.
Ich denke schon das sie daran forschen.. und das es durchaus im Produktiven Bereich workloads gibt wo das hervorragend funktioniert und Skaliert..
Spielengines sind allerdings wie wir wissen auch manchmal Recht zickig..

AMD sowie Nvidia sind da wahrscheinlich bereits seit Jahren dran.. und vielleicht macht AMD erstmal Pause um einen Chip zu entwickeln der dem ganzen auch als Unterbau würdig ist.. wer weis.

Per se hat der Aufbau bei der 7900xtx doch ganz ordentlich funktioniert.. die Grund Architektur darunter ist halt mäh.
Man hätte durchaus eine 4090 knacken können wenn man gewollt hätte.. hat sogar AMD selbst gesagt wenn ich mich richtig erinnere.. Problem war halt unter anderen TDP und abwärme..

Selbst wenn man jetzt 2x 8800xt zusammen kleben würde (2x ca 280w) hätte man ein TDP Monster.. weil der Einzel Chip zuviel verbraucht..
Ehe da die Effizienz nicht bei unter 200w angekommen ist bei der Leistung einer 7900xtx braucht AMD das halt nicht versuchen im direkten Vergleich zu Nvidia..
 
Zuletzt bearbeitet:
Ich denke schon das sie daran forschen.. und das es durchaus im Produktiven Bereich workloads gibt wo das hervorragend funktioniert und Skaliert..
Spielengines sind allerdings wie wir wissen auch manchmal Recht zickig..

AMD sowie Nvidia sind da wahrscheinlich bereits seit Jahren dran.. und vielleicht macht AMD erstmal Pause um einen Chip zu entwickeln der dem ganzen auch als Unterbau würdig ist.. wer weis.

Per se hat der Aufbau bei der 7900xtx doch ganz ordentlich funktioniert.. die Grund Architektur darunter ist halt mäh.
Man hätte durchaus eine 4090 knacken können wenn man gewollt hätte.. hat sogar AMD selbst gesagt wenn ich mich richtig erinnere.. Problem war halt unter anderen TDP und abwärme..

Selbst wenn man jetzt 2x 8800xt zusammen kleben würde (2x ca 280w) hätte man ein TDP Monster.. weil der Einzel Chip zuviel verbraucht..
Ehe da die Effizienz nicht bei unter 200w angekommen ist bei der Leistung einer 7900xtx braucht AMD das halt nicht versuchen im direkten Vergleich zu Nvidia..
CDNA nutzt bereits Chiplets - nur halt für reines compute, nicht für Grafik:

Wenn AMD jetzt RDNA und CDNA wiedervereint und UDNA draus macht, deutet sich eine Verwendung von Chiplets an.
Ein entsprechendes Patent zu Chiplets wurde Ende letztes Jahr von AMD eingereicht:
 
[...] Wenn AMD jetzt RDNA und CDNA wiedervereint und UDNA draus macht, deutet sich eine Verwendung von Chiplets an. [...]URL]
Da deutet sich gar nicths an. AMD nutzt schon längst eine Chiplet-Bauweise bei Consumer-GPUs, zwar weitestgehend ohne einen relevanten Impact auf den Markt, aber dennoch bereits Chiplet-Bauweise.
Und mit UDNA im Speziellen haben Chiplets auch nichts zu tun. Nur weil sie bei RDNA3 signifikante Probleme hatten und bei RDNA4 den Karren einmal komplett in den Sand gesetzt haben, heißt nicht automatisch, dass man bei RDNA5 wieder zurückrudert. Eher im Gegenteil, denn ohne ein Chiplet-Design im oberen Segment könnte sich AMD einen Konterversuch gegen nVidia gleich sparen, da das für sie wirtschaftlich schlicht nicht tragbar ist.

Darüber hinaus, UDNA wird irgendwann ab 2026/27+ erscheinen, da erst noch RDNA5 kommt und das wird gesichert nicht in 2025 erscheinen. ;-)

Darüber hinaus gilt für jeden der drei großen Player, dass eine Chiplet-Bauweise eingesetzt wird, wenn sie für den jeweiligen Hersteller vorteilhaft ist und nicht eher. Eine Implementation nur um "Hip" zu sein ist blödsinn, kostet Geld unnd erhöht die Fertigungskomplexität und damit das Entwicklungs- wie auch Fertigungsrisiko, siehe bei AMD nun zwei Generationen hintereinander.
nVidia hatte bisher schlicht keinen Grund ein entsprechendes Design in den Consumer-Markt zu bringen, weil sie den Markt mit den einfacher zu entwickelnden und zu fertigenden Monolithen dominieren. Sie demonstrierten schon 2019 auf einer Tech-Konferenz ein HPC-Chiplet-Design und jetzt, wo der Markt immer mehr AI-Performance für immer leistungsfähigere Chips verlangt (und bspw. 3nm-Kapazitäten überproportional teuer und auch begrenzt sind), nutzen sie es, so nun im großen Blackwell. Ob das Prof/Consumer-Top-Produkt ggf. doch noch ein Chiplet-Design wird, weiß man immer noch nicht gesichert, Spekulationen gab es dazu ja bereits mehr als genug. Ob sie es in dieser Gen tatsächlich schon benötigen, lässt sich zudem schwer abschätzen, da ihr neues Design voraussichtlich einen zumindest etwas dichter packenden Prozess nutzen wird (wenn sie auch keinen Full-Node-Sprung machen) und zudem dürfte nun erstmals vollumfänglich ihre cuLitho-Lib für das Design genutzt werden, was im besten Fall ebenso zu einem deutlich optimierteren, effizienteren Design führen könnte, denn nicht umsonst verfolgen alle Halbleiterhersteller diesen Weg und TSMC erklärte bereits bspw. auch cuLitho zu adaptieren.
Bei Intel ist dieses Patent hier eher einen Gähner wert, denn dass Intel diesen Weg verfolgt ist schon lange bekannt, denn bereits Koduri erklärte unmissverständlich diese Entwicklungsrichtung und mit bspw. PVC hatten sie ja bereits ein Design am Start, das lange Zeit an Komplexität von niemandem übertroffen werden konnte und Xe-HPC war bereits 2021/22 ein kleineres Multichip-Design fürs Datacenter. Im Consumer-Segment macht es für sie jedoch erst Sinn die zusätzlichen Kosten und Designkomplexität auf sich zu nehmen, wenn die grundlegenden GPU-Funktionalitäten einigermaßen konkurrenzfähig sind und hier war schon nahezu von Anbeginn an immer die Rede davon, dass man erst mit der 3rd Gen "Celestial" sich in etwa dort angekommen sehen würde. Ob das aber nun in konkrete Produkte dieser Art münden wird, ist erst mal eine wirtschaftliche Frage und bei Intels aktuell schwieriger Lage kann das auch bedeuten, dass man sehrwohl könnte, es aber aus kostengründen schlicht sein lässt, denn das ist ein schwieriger, hart umkämpfter Markt. Intel hat ein riesiges R&D, immer noch deutlich großer als AMD, die gerade erst in in den letzten zwei Jahren ihr R&D nennenswert erhöht haben, d. h. die hauen bei Intel Patente am "laufenden Meter" raus. Die Tatsache, dass man nicht eine "reißerische News" zu jedem dieser neuen Patente erhält, liegt schlicht daran, weil man für die gemeine Leserschaft zumeist nicht so einen einfachen Zusammenhang zu möglichen Produkten herstellen kann ... oder wollten einige Publikationen dies versuchen, könnten die in diesem Umfeld hier mit hoher Wahrscheinlichkeit erwarten, dass die Zielgruppe spätestens nach dem Lesen der ersten zwei von 17 Absätzen wegklicken würde. ;-)
 
Zuletzt bearbeitet:
Da deutet sich gar nicths an. AMD nutzt schon längst eine Chiplet-Bauweise bei Consumer-GPUs, zwar weitestgehend ohne einen relevanten Impact auf den Markt, aber dennoch bereits Chiplet-Bauweise.
Und mit UDNA im Speziellen haben Chiplets auch nichts zu tun. Nur weil sie bei RDNA3 signifikante Probleme hatten und bei RDNA4 den Karren einmal komplett in den Sand gesetzt haben, heißt nicht automatisch, dass man bei RDNA5 wieder zurückrudert. Eher im Gegenteil, denn ohne ein Chiplet-Design im oberen Segment könnte sich AMD einen Konterversuch gegen nVidia gleich sparen, da das für sie wirtschaftlich schlicht nicht tragbar ist.

Darüber hinaus, UDNA wird irgendwann ab 2026/27+ erscheinen, da erst noch RDNA5 kommt und das wird gesichert nicht in 2025 erscheinen. ;-)

Darüber hinaus gilt für jeden der drei großen Player, dass eine Chiplet-Bauweise eingesetzt wird, wenn sie für den jeweiligen Hersteller vorteilhaft ist und nicht eher. Eine Implementation nur um "Hip" zu sein ist blödsinn, kostet Geld unnd erhöht die Fertigungskomplexität und damit das Entwicklungs- wie auch Fertigungsrisiko, siehe bei AMD nun zwei Generationen hintereinander.
nVidia hatte bisher schlicht keinen Grund ein entsprechendes Design in den Consumer-Markt zu bringen, weil sie den Markt mit den einfacher zu entwickelnden und zu fertigenden Monolithen dominieren. Sie demonstrierten schon 2019 auf einer Tech-Konferenz ein HPC-Chiplet-Design und jetzt, wo der Markt immer mehr AI-Performance für immer leistungsfähigere Chips verlangt (und bspw. 3nm-Kapazitäten überproportional teuer und auch begrenzt sind), nutzen sie es, so nun im großen Blackwell. Ob das Prof/Consumer-Top-Produkt ggf. doch noch ein Chiplet-Design wird, weiß man immer noch nicht gesichert, Spekulationen gab es dazu ja bereits mehr als genug. Ob sie es in dieser Gen tatsächlich schon benötigen, lässt sich zudem schwer abschätzen, da ihr neues Design voraussichtlich einen zumindest etwas dichter packenden Prozess nutzen wird (wenn sie auch keinen Full-Node-Sprung machen) und zudem dürfte nun erstmals vollumfänglich ihre cuLitho-Lib für das Design genutzt werden, was im besten Fall ebenso zu einem deutlich optimierteren, effizienteren Design führen könnte, denn nicht umsonst verfolgen alle Halbleiterhersteller diesen Weg und TSMC erklärte bereits bspw. auch cuLitho zu adaptieren.
Bei Intel ist dieses Patent hier eher einen Gähner wert, denn dass Intel diesen Weg verfolgt ist schon lange bekannt, denn bereits Koduri erklärte unmissverständlich diese Entwicklungsrichtung und mit bspw. PVC hatten sie ja bereits ein Design am Start, das lange Zeit an Komplexität von niemandem übertroffen werden konnte und Xe-HPC war bereits 2021/22 ein kleineres Multichip-Design fürs Datacenter. Im Consumer-Segment macht es für sie jedoch erst Sinn die zusätzlichen Kosten und Designkomplexität auf sich zu nehmen, wenn die grundlegenden GPU-Funktionalitäten einigermaßen konkurrenzfähig sind und hier war schon nahezu von Anbeginn an immer die Rede davon, dass man erst mit der 3rd Gen "Celestial" sich in etwa dort angekommen sehen würde. Ob das aber nun in konkrete Produkte dieser Art münden wird, ist erst mal eine wirtschaftliche Frage und bei Intels aktuell schwieriger Lage kann das auch bedeuten, dass man sehrwohl könnte, es aber aus kostengründen schlicht sein lässt, denn das ist ein schwieriger, hart umkämpfter Markt. Intel hat ein riesiges R&D, immer noch deutlich großer als AMD, die gerade erst in in den letzten zwei Jahren ihr R&D nennenswert erhöht haben, d. h. die hauen bei Intel Patente am "laufenden Meter" raus. Die Tatsache, dass man nicht eine "reißerische News" zu jedem dieser neuen Patente erhält, liegt schlicht daran, weil man für die gemeine Leserschaft zumeist nicht so einen einfachen Zusammenhang zu möglichen Produkten herstellen kann ... oder wollten einige Publikationen dies versuchen, könnten die in diesem Umfeld hier mit hoher Wahrscheinlichkeit erwarten, dass die Zielgruppe spätestens nach dem Lesen der ersten zwei von 17 Absätzen wegklicken würde. ;-)
Zuviel zusammenhängender Text, ist zwar interessant bin allerdings nach 50% ausgestiegen.

Eine Gliederung macht es für den geneigten Leser einfacher. 😉
 
Und dann sticheln immer alle bezüglich "zusammengeklbter CPUs" .. mag verstehen, wer es kann ...
Ist immer das gleiche. Das sind genau die Leute die auch sagen:

"Konkurrenz ist gut und belebt das Geschäft. Und die Produkte von AMD sind gar nicht so schlecht... ja natürlich kaufe ich die 5080 ich hab schon immer NVIDIA gekauft, die Radeon GPU's sind ja geplagt von Treiberproblemen. Das gibt es bei NVIDIA nicht."

Gibt's bei RAM, Netzteilen und bestimmt auch bei sowas relativ irrelevanten wie Lüftern und Kabeln. Muss man nicht verstehen.
 
Zuviel zusammenhängender Text, ist zwar interessant bin allerdings nach 50% ausgestiegen.

Eine Gliederung macht es für den geneigten Leser einfacher. 😉
Jup. Ein paar Absätze sind gut für die Verdauung .. also des Textes ;-)
Auch kann man damit einen Spannungsbogen erschaffen, Leitfäden erstellen, Übergänge zu Synergie-Themen kreieren oder aber (!) ein komplexes Detail häppchenweise entzaubern, um für mehr Verständnis zu sorgen.
 
Zurück