Da deutet sich gar nicths an. AMD nutzt schon längst eine Chiplet-Bauweise bei Consumer-GPUs, zwar weitestgehend ohne einen relevanten Impact auf den Markt, aber dennoch bereits Chiplet-Bauweise.
Und mit UDNA im Speziellen haben Chiplets auch nichts zu tun. Nur weil sie bei RDNA3 signifikante Probleme hatten und bei RDNA4 den Karren einmal komplett in den Sand gesetzt haben, heißt nicht automatisch, dass man bei RDNA5 wieder zurückrudert. Eher im Gegenteil, denn ohne ein Chiplet-Design im oberen Segment könnte sich AMD einen Konterversuch gegen nVidia gleich sparen, da das für sie wirtschaftlich schlicht nicht tragbar ist.
Darüber hinaus, UDNA wird irgendwann ab 2026/27+ erscheinen, da erst noch RDNA5 kommt und das wird gesichert nicht in 2025 erscheinen.
Darüber hinaus gilt für jeden der drei großen Player, dass eine Chiplet-Bauweise eingesetzt wird, wenn sie für den jeweiligen Hersteller vorteilhaft ist und nicht eher. Eine Implementation nur um "Hip" zu sein ist blödsinn, kostet Geld unnd erhöht die Fertigungskomplexität und damit das Entwicklungs- wie auch Fertigungsrisiko, siehe bei AMD nun zwei Generationen hintereinander.
nVidia hatte bisher schlicht keinen Grund ein entsprechendes Design in den Consumer-Markt zu bringen, weil sie den Markt mit den einfacher zu entwickelnden und zu fertigenden Monolithen dominieren. Sie demonstrierten schon 2019 auf einer Tech-Konferenz ein HPC-Chiplet-Design und jetzt, wo der Markt immer mehr AI-Performance für immer leistungsfähigere Chips verlangt (
und bspw. 3nm-Kapazitäten überproportional teuer und auch begrenzt sind), nutzen sie es, so nun im großen Blackwell. Ob das Prof/Consumer-Top-Produkt ggf. doch noch ein Chiplet-Design wird, weiß man immer noch nicht gesichert, Spekulationen gab es dazu ja bereits mehr als genug. Ob sie es in dieser Gen tatsächlich schon benötigen, lässt sich zudem schwer abschätzen, da ihr neues Design voraussichtlich einen zumindest etwas dichter packenden Prozess nutzen wird (
wenn sie auch keinen Full-Node-Sprung machen) und zudem dürfte nun erstmals vollumfänglich ihre cuLitho-Lib für das Design genutzt werden, was im besten Fall ebenso zu einem deutlich optimierteren, effizienteren Design führen könnte, denn nicht umsonst verfolgen alle Halbleiterhersteller diesen Weg und TSMC erklärte bereits bspw. auch cuLitho zu adaptieren.
Bei Intel ist dieses Patent hier eher einen Gähner wert, denn dass Intel diesen Weg verfolgt ist schon lange bekannt, denn bereits Koduri erklärte unmissverständlich diese Entwicklungsrichtung und mit bspw. PVC hatten sie ja bereits ein Design am Start, das lange Zeit an Komplexität von niemandem übertroffen werden konnte und Xe-HPC war bereits 2021/22 ein kleineres Multichip-Design fürs Datacenter. Im Consumer-Segment macht es für sie jedoch erst Sinn die zusätzlichen Kosten und Designkomplexität auf sich zu nehmen, wenn die grundlegenden GPU-Funktionalitäten einigermaßen konkurrenzfähig sind und hier war schon nahezu von Anbeginn an immer die Rede davon, dass man erst mit der 3rd Gen "
Celestial" sich in etwa dort angekommen sehen würde. Ob das aber nun in konkrete Produkte dieser Art münden wird, ist erst mal eine wirtschaftliche Frage und bei Intels aktuell schwieriger Lage kann das auch bedeuten, dass man sehrwohl könnte, es aber aus kostengründen schlicht sein lässt, denn das ist ein schwieriger, hart umkämpfter Markt. Intel hat ein riesiges R&D, immer noch deutlich großer als AMD, die gerade erst in in den letzten zwei Jahren ihr R&D nennenswert erhöht haben, d. h. die hauen bei Intel Patente am "laufenden Meter" raus. Die Tatsache, dass man nicht eine "reißerische News" zu jedem dieser neuen Patente erhält, liegt schlicht daran, weil man für die gemeine Leserschaft zumeist nicht so einen einfachen Zusammenhang zu möglichen Produkten herstellen kann ... oder wollten einige Publikationen dies versuchen, könnten die in diesem Umfeld hier mit hoher Wahrscheinlichkeit erwarten, dass die Zielgruppe spätestens nach dem Lesen der ersten zwei von 17 Absätzen wegklicken würde.