AW: Nvidia ohne Eile beim Chiplet-Design für GPUs
Das ist mir schon alles klar, ich kenne das Problem - ich meinte das eher so, dass Chiplet-Design aus rein technologischer Sicht eigentlich ein Rückschritt ist und an vielen Stellen halt Kompromisse gemacht werden müssen (gerade bei Interconnects). Bei gleichem Prozess und gleicher Güte des Siliziums, wenn das technisch erreichbar wäre, würde eine MCM-CPU gegen eine monolithische CPU kein Land mehr sehen. Deswegen finde ich es schade, aber anders gehts halt nicht
Das hat was mit dem Yield in Abhängigkeit von der Die-Größe zu tun. Nehmen wir mal an, du sammelst bei deiner Fertigung 100 Killerdefekte pro Wafer. Wenn du kleine Chips hast, wo sagen wir mal 500 auf einen Wafer passen, sind im schlimmsten Fall 100 Chips Schrott. Aber du hast noch 400 gute... also 80% Yield. Jetzt hat du so Monsterchips, wo vielleicht 50-100 auf einen 300mm-Wafer gehen und bei gleicher Defektdichte sind in schlimmsten fall alle Chips teildefekt oder komplett Schrott... also 0% Yield. Null Ausbeute bei einem extrem teuren Prozeß ist gleich null Verkaufswert. Umso teurer werden dann die funktionierenden Dies verkauft. So ein Wafer läuft durch die Linie über mehrere Monate, bis er fertig ist und hat zig tausende Arbeitschritte hinter sich, wenn er dann fertig ist. Ich hoffe du siehst jetzt das Problem, was auftritt, je größer die Dies werden.
Das ist mir schon alles klar, ich kenne das Problem - ich meinte das eher so, dass Chiplet-Design aus rein technologischer Sicht eigentlich ein Rückschritt ist und an vielen Stellen halt Kompromisse gemacht werden müssen (gerade bei Interconnects). Bei gleichem Prozess und gleicher Güte des Siliziums, wenn das technisch erreichbar wäre, würde eine MCM-CPU gegen eine monolithische CPU kein Land mehr sehen. Deswegen finde ich es schade, aber anders gehts halt nicht