Merkst du eigentlich noch was?
Natürlich hat das was mit gut daran tun zu tun, deine Äußerungen sind eine Erklärung warum sie gut daran tun es so zu handhaben.
Ich will hoffen, dass sie das nich getan haben und glaube auch, dass dies so ist. AMD, NV, Intel werden alle wissen, das MCM am Ende der nächste große Step sein wird müssen, trotz aller Nachteile. Aber wir werden bei Blackwell bereits sehen, dass wir in N4 800 bis 900 mm² monolithisch belichten müssen um einen Chip zu produzieren der einigermaßen sinnvoll über dem Vorgänger platziert ist
Natürlich merke ich noch was, sonst hättest du nicht obige Antwort von mir erhalten

, denn das lapidare "Guttun" klang nach bzw. hinterlies einen Tenor der Art ach ne, komm, wir könnten aber wir lassen es einfach mal, kein Bock ... So ist es jedoch definitiv nicht, Es ist ganz klar dem Marktdruck geschuldet, da es sie wirtschaftlich überfordert. nVidia hat nahezu den gesamten Markt in der Hand und entsprechend bleibt kaum Spielraum um etwas zu verdienen, insbesondere, wenn das gelieferte Produkt dann nicht einwandfrei ist.
Vielleicht haben wir uns auch nur missverstanden und du kannst meine Antwortz auch nur als Präzisierung verstehen, das "
merkst du was" war jedenfalls überflüssig.
Zum zweiten Teil: Hier die Aussage nicht missverstehen. MCM dient keinem Selbstzweck oder einem Coolness-Faktor. Eine entsprechende Entwicklung dient einem wohldefinierten Zweck, der von Hersteller zu Hersteller und gar von einzelnem Produkt zu Produkt unterschiedlich gelagert sein kann und so wird es auch weiterhin monolithische Produkte geben.
Bei
AMD bspw. diente der MCM-Aufbau von RDNA3 dazu günstiger zu fertigen aber nicht den Marktführer leistungstechnisch in die Schranken zu weisen. Du erinnerst dich vielleicht noch an die Fieberträume so mancher Fanboys hier, die davon träumten ein CDNA-änhliches Design in den Consumer-Markt zu bringen und die Shaderzahl so "beliebig" erhöhen zu können. Am Ende kam ein weitaus konservativeres Design mit einem weiterhin monolithischen Graphics Core und man hatte lediglich das/die Speicher-PHY/Controller ausgelagert, was schlicht eine Maßnahme zur Eindämmung der Komplexität war und weil man wusste, dass man mit dem IF Latenzprobleme bekommen würde, wenn man mit dieser Version Shader-Blöcke zusammenschließen wollte. Und selbst hier lief man schon in handfeste Entwicklungsprobleme.
Bei
Intel weiß man, dass MCM schon von Beginn an mit in der Planung war und mit EMIB/Foveros sind sie hier sehr gut aufgestellt. Hier hätte man ihnne tatsächlich glauben können, dass sie mit einer gereiften 3rd Gen Celestial den HighEnd-Markt angehen werden und hier absehbar auch mit einem MCM-Design (
das hatte sie ja bereits mit Xe-HPC und mit PVC gar im Extrem). Mit der strategeischen Neuausrichtung Ende 2022/23 und jetzt on top den beträchtlichen finanziellen Problemen in 2024 würde ich diese Ambitionen jedoch auch bei denen komplett auf Eis liegen sehen und man darf froh sein, wenn es von Celestial weiterhin dedizierte LowEnd- und Midrange-GPUs geben und die Arch nicht nur noch als iGPU-Design weiterexistieren wird.
Bei
nVidia weiß man aktuell immer noch nicht was der große GB202 sein soll, ggf. doch ein MCM a la dem großen HPC-Blackwell mit zwei zusammengeschalteten Chips (vielleicht 2xGB203?) oder ob es doch ein rein monolithisches Design wird. Entwicklungstechnisch wird nVidia mit seinem R&D sicherlich für beide Szenarien was im Feuer gehabt haben.
Darüber hinaus kann man aktuell schlecht abschätzen, was nVdia abliefern kann und was nicht. Ich würde bzgl. dem GB202 aktuell von einem monolithischen Design ausgehen. Darüber hinaus kann der möglicherweise durchaus kleine Vorteile durch einen Sub-Node-Sprung mitnehmen, da man immer noch nicht 100%ig weiß, was der customized 4N von damals und der jetzige 4NP tatsächlich als Basis nutzen. Selbst heute noch widersprechen sich die Aussagen, d. h. man könnte spekulativ gar vermuten, dass der 4N eine N5-Basis hatte und der 4NP- nun eine N4P oder N4X-Basis.
Ergänzend darf man hier mit sehr hoher Wahrscheinlichkeit davon ausgehen dass nVidia AI-unterstützt entwickelt hat, was signifikante Zugewinne ermöglichen soll. Cadence sprach erst kürzlich bzgl. seiner eigenen AI-Design-Möglichkeiten davon, dass die für seine Kunden in etwa Vergleichbar sein sollen zu einem Full-Node-Sprung bzgl. PPA. Man darf also abwarten, was die abliefern können werden ...
Zur
Reticle Size, die ist auf maximal 858 mm2 beschränkt, was eine Limitierung der aktuellen Belichtungsmaschinen darstellt, d. h. 900 mm2-Chips kann es nur per MCM geben. (
Das höchst spezielle Beispiel der Wafer Scale Engine hier bitte nicht in diesen Kontext einwerfen.)
Mit der Verwendung späterer High-NA-Scanner (
ab Intel 14A und bei TSMC voraussichtlich ab der 2nd 2nm-Gen) wird sich die belichtbare Chipfläche dann gar noch mal halbieren, Das wird dann auch dazu führen, dass bereits für MidRange-Produkte eher eine MCM-Fertigung ins Auge gefasst werden wird, aber bis bspw. Consumer-GPUs eine derart moderne Fertigung nutzen werden, wird noch einige Zeit ins Land gehen. Aufgrund der weiter steigenden Kosten darf man gar vermuten, dass die Hersteller die Fertigung möglicherweise aufteilen werden und für die untere Hälfte des Marktsegmentes eher noch bei einem älteren, günstigeren Node verbleiben werden und nur fürs HighEnd den nächsten Node-Step mitnehmen ...