Deine Grundargumente sind ja auch alle nicht verkehrt, aber eben selbst in der Summe nicht
so stark.
Und 70 Prozent Yield sind nicht "gut". Sondern meiner Meinung nach eher mies und nahe der Untergrenze, ab der man sich bei Chips mit hoher Marge eine Produktion überlegen kann. AMD soll so einen Wert meiner Erinnerung nach ganz am Anfang der Zen-2-Produktion, mehrere Monate vor Launch gehabt haben. Damals waren sie der erste Nutzer dieser Variation von TSMC N7-Fertigung (mobile Apples waren die einzigen vorangehenden Chips); möglicherweise lief das sogar noch als risk production. Auf alle Fälle nicht mature.
Konkrete Zahlen für letzteres kann ich, als eher im Bereich Plattformen aktiver Redakteur, genauso wenig bieten, wie jeder andere auch. Schätzungen für den immer noch nur eingeschränkt brauchbaren N3 liegen aktuell bei beispielsweise 55 Prozent, das konnte TSMC gar nicht mehr Wafer-weise verkaufen, sondern nur auf Basis funktionierender Chips abrechnen. Für den
Beginn der eigentlichen Serienfertigung wurden 80 Prozent versprochen und nach der Serienfertigung ist wenigstens noch einmal eine Halbierung der Fehlerdichte üblich. Also kann man ab 90 Prozent von einem normalem Yield sprechen. (Wobei man natürlich auch die Chipgröße berücksichtigen muss. Seitens der Foundry gibt es nur eine Fehlerdichte, deren Auswirkungen auf den Yield sind auch eine Frage des zu fertigenden Chips, s.u.)
Die letzte nicht geschätzte Zahl direkt vom Hersteller gab es dieses Frühjahr bei einer Intel-Präsentation, allerdings ging es da ums Packaging. Co-EMIB & Co können einen Chip ja auch noch nach der Ausbelichtung schrotten, aber für diese Schritte wurden "high 99.9" versprochen. Eine Angabe, die nicht Teil der auch als IDF-2.0-Werbung gedachten Präsentation war, sondern erst auf Nachfrage im Q&A fiel. Zumindest an dieser Stelle ist so ein Yield also kein erwähnenswertes supergeil-Uber-Feature, sondern einfach Standard für einen an Kunden vermarkteten Prozess.
Selbstverständlich stimmt ersteres, da man aus einem Wafer deutlich mehr Chiplets bekommt, als würde man riese Monolithen fertigen. Einfache Mathematik, die auch schon oft von anderen Usern vorgerechnet wurde.
Kannst dir ja ausrechnen wie viel 96 Core Monolithen man aus einem Wafer bekommen würde, ein entsprechender Yield vorausgesetzt.
Ja, ich kann mir das ausrechnen. Du hast es scheinbar nie gemacht. Bei einem wirklich rund laufenden Fertigung (s.o., ich nehme mal eine Fehlerdichte von 0,0001/cm²) und den Standard-Wafer-Parametern des
beliebtesten Rechners, ergibt ein 300-mm-Wafer 836 gute 7-×-10-mm-CCDs – 99.99er Yield. Das reicht für 69 96-Kerner.
Packe ich die gleichen zwölf Kernbereiche zu circa. 5,5 × 10 mm auf einen gemeinsem Chip, füge den gleichen 1,5 × 4 mm Management-Bereich hinzu sowie vier bis fünf Interface-Bereichen (3 würden eigentlich reichen), habe ich einen gigantischen 30 × 23,5 mm 96-Kern-Monolithen. Der käme bei gleicher Defektdichte nur noch auf .93, was aber immer noch 72 Stück prom 300-mm-Wafer bedeutet. Also drei
mehr als mit dem Chiplet-Ansatz. (Alle Flächenschätzungen auf Basis von Zen-4-Die-Shots)
Braucht man 0,4 statt 0,2 mm Abstand zwischen einzelnen Chips zum zersägen, schrumpft die Ausbeute guter Exemplare umgekehrt auf 66 Chiplet-96-Kerner und weiterhin 72 Monolithen. Das wären dann schon 9 Prozent mehr. Sowas kann man, in der Tat, alles ausrechnen. Bevor man gegenteiltige Behauptungen postet.
Bezüglich der Ausbeute lohnen sich Chiplets nur wenn die Fertigung Probleme bereitet. Der Crossover in diesem, sehr extremen Rechenbeispiel*, liegt bei 0,008 Fehlern pro cm². Da schaffen die Chiplets immer noch 831 intakte Exemplare, was weiterhin knapp für 69 CPUs reicht (Yield 99.4), während die Monolithen schon auf 68 CPUs absacken (Yield 94.5). Bei hohen Fehlerraten, z.B. 0,08/cm², wo die Chiplets ihrerseits mäßige 95 Prozent Yield erzielen (=> nicht ganz 66 96-Kerner), brechen die Monolithen dann katastrophal auf 59 Prozent ein (=> 42 komplett intakte Chips). Sowas braucht man sich mit "einfacher Mathematik" aber nicht mehr angucken, da spielen die Verwertungsmöglichkeiten für teildefekte Chips eine zu große Rolle und du hast deine falsche Aussage ausdrücklich auf gute Yields bezogen. 59-Prozent-Prozesse gehören da nicht dazu.
*: Verzichtet man auf Bashing und Cherry Picking und legt das aktuell größte monolithische Design (Sapphire Rapdids MCC) mit seinen 32 Kernen einer realitätsnahen Betrachtung zu Grunde, so verschieben sich die Grenzen deutlich. Mit obigen Daten für die einzelne Bestandteile wäre der (not-so-)"Big Chip"-Ansatz dann maximal 20 × 12,5 mm groß und man hätte mit der sehr guten Fertigung 218 CPUs pro Wafer gegenüber 209 mit Chiplets. Der Crossover träte bei 0,025 Fehler/cm² ein mit 205 intakten Monolithen (94 Prozent Yield) gegen 205,5 Chiplet-CPUs (98 Prozent Yield). Real misst SRP MMC überigens 30 × 25 mm, ist also noch etwas größer als das hypothetische Kernmonster aus der ersten Rechnung, nur passen wegen des antiken Fertigungsprozesses unter der vielen Co-Prozessoren halt keine 96 Rechenkerne drauf. (63 Slices sind aber gar nicht mal weit weg.)
Zu beachten ist in allen Rechnungen, dass die Chiplet-Varianten einen aufwendigen zentralen Hub und ein komplexeres Package brauchen, um vier respektive zwölf Compute-Chips zu vernetzen, während der Monolith seinerseits nach Navi-31-Vorbild als zentraler Knoten zwischen simplen I/O-Bridges dienen kann. Nimmt man noch die Teilverwertung hinzu, dürfte der 32-Kern-Monolith selbst bei 0,1 Fehlern/cm² (171 komplett intakte Chips + teildefekte) mit einer schrottigen 78-Prozent-Yield-Rate noch genauso viel Profit einbringen, wie Chiplets mit 195× 32-Kernen je Wafer. Wer, wie Nvidia, ausschließlich Monolithen anbietet, spart zudem die Entwicklungskosten für die Interfaces und verschiebt die ökonomische Grenze so noch ein weiteres Stück in Richtung Monolith.
Das wäre die Frage, ob sie das schon können?
AMD hat mit allen dafür nötigen Techniken spätestens seit Zen 1 und Vega Erfahrung und TSMC sowieso. Die Frage ist nicht, ob sie das können, sondern ob es technisch sinnvoll wäre, so etwas mit der aktuellen Technik zu versuchen. Und meine Antwort darauf habe ich gegeben: Unwahrscheinlich. Monolithen haben einfach zu viele Vorteile.