Ich glaube nicht, dass der Unterschied TSMC zu Samsung derartig groß ist, klar reden wir hier sicherlich von 10%, aber dann ist auch gut und so wie RDNA2 bereits performt, man vergisst man neben dem absoluten Balken gerne den relativen, wird ein MCM Design zwei grundlegende Vorteile haben. Zum einen wird man auf Grund der schieren Anzahl an Shadern dem Sweet Spot näher kommen, man muss zwangsläufig niedriger takten und steigert die Effizienz. Zum anderen sollte ein MCM Design Vorteile bei der Wärmeableitung haben, weshalb man unter Umständen einen höheren Gesamtverbrauch anstreben kann.
Der Unterschied ist durchaus signifikant. Die Hersteller vergleichen bzgl. PPA leider nur hausintern, was man jedoch direkt vergleichen kann ist das "A" und da zeigt sich zwischen TSMCs 7nm mit 91,2 MTr/mm2 und Samsung's 8LPE mit 61,2 MTr/mm2 ein deutlicher Unterschied. Letzterer ist eine 10nm-Weiterentwicklung der primär noch zusätzlich eine UHD-Lib spendiert wurde. RDNA2 hat mit der Verwendung des N7 durchaus einen signifikanten Vorteil zu verzeichnen.
Hinzu kommt, dass nVidia bei Ampere vergleichsweise dicht packt um einen kleinen Chip zu implementieren, was vermutlich auch zwangsweise bedingt, dass Ampere niedriger takten muss und nur in der Range der Vorgeneration arbeitet. Dafür hat man hier jedoch die Ausführungseinheiten deutlich verbreitert.
*) Für einen echten herstellerübergreifenden Vergleich bräuchte man eigentlich zwei vergleichbare Designs in den unterschiedlichen Prozessen gefertigt. Beispielsweise nVidia hatte so etwas mal bei Pascal, bei dem sie relativ spät im Lebenszyklus auch eine GPU bei Samsung in einem 14nm-Node in jedoch nur kleiner Stückzahl fertigen ließen (Samsung brauchte hier zu lange; der GP107, wenn ich mich recht erinnere, ein Wechsel von TSMCs 16nm auf den Samsung-Prozess).
Für mich ist das MCM Design die Technik der Zukunft, spannend wird zu sehen sein, wie sich der erste Versuch schlagen wird. Das schreibe ich ja schon die ganze Zeit, nur weil man auf dem Papier die höhere Leistung hat, bedeutet dies im Praxisbench noch lange nicht den längsten Balken.
MCM ist für weiter wachsende, hochkomplexe Designs schlicht eine fertigungstechnische Notwendigkeit, weil diese ansonsten nicht mehr wirtschaftlich realisierbar sind. Wenn Unternehmen jedoch die Möglichkeit haben auf derartige zusätzliche Komplexität zu verzichten, werden die das auch machen. Intel bspw. hatte bisher keinen Grund MCMs zu fertigen, weil die das erst mit einem effizienteren Node richtig hätten ausfahren können (obwohl die Packaging-technisch voraussichtlich gar eher noch mehr Möglichkeiten zur Verfügung haben als die Konkurrenz). In der Zwischenzeit haben sie mit ihren monolithischen 14nm-Designs weiterhin gut verdient. Beispielsweise AMDs Consumer-Chiplet-Designs sind dagegen vergleichsweise teuer in der Fertigung (und man ist dennoch gezwungen den Marktführer preislich zu unterbieten und eine geringere Marge hinzunehmen um Wachstum zu erzielen). Auf der anderen Seite ermöglicht AMD das MCM aber auch Epyc, am Ende also in der Gesamtbetrachtung eine Mischkalkulation.
Einzig im Mobilbereich hilft ihnen das nicht und sie waren gezwungen ein einzelnes, monolithisches Design zu entwickeln, mit dem sie alle Mobile-Chips und auch APUs abbilden, erneut ein Zeugnis der internen Zwänge um diese Märkte effizient und mit weiterem Wachstum bedienen zu können. Erst jetzt können sie es sich leisten mehere Designs anzugehen (so bspw. zusätzlich Van Gogh, jedoch eine etwas schräge Kombination, da nun modernes RDNA2 mit dagegen alten Zen2-Cores).
Bei GPUs wird AMD mit seinem kleinen Volumen weitaus anfälliger bzgl. Yield-Thematiken bei übergroßen Chips sein, d. h. für die rentiert sich eine frühzeitige Verfolgung eines MCM-Ansatzes eher (bzw. für die wird es eher notwendig diesen Weg zu gehen).
nVidia ist offensichtlich der Meinung, dass die in der NextGen (aus wirtschaftlicher Sicht) noch ohne MCM auskommen (wenn man den Gerüchten Glauben schenken darf). Die werden sich sicherlich was dabei gedacht haben, denn die sind nicht umsonst der unangefochtene Marktführer. Ob ihre Planung am Ende auch zum gewünschten Erfolg führen wird, ist dagegen ein anderes Thema.
Wenn NV bei Samsung bleibt, würde ich die Chancen aber weit jenseits von 50/50 sehen, selbst bei TSMC sehe ich in der aktuellen Gerüchteküche leichte bis mittlere Vorteile bei AMD. Wurde hier sogar 60/40 pro AMD sagen, wenn Nvidia bei Samsung bleiben muss, sogar eher in Richtung 70/30. Warum? Wer hätte denn bei RDNA2 gedacht, dass AMD Wort hält? Sie haben 50% versprochen und sogar etwas mehr geliefert. Nvidia hat mit der aktuellen Generation eigentlich nichts geliefert, wenn man ehrlich ist, alles was NV gewonnen hat ist durch Mehrverbrauch und den Shrink bedingt, in der Architektur haben sie eine maßlose Enttäuschung hingelegt.leider vergessen daß die Leute gerne, sehe auch bisher keinen Grund anzunehmen, dass Lovelace hier eine Wende einleitet. So ruhig war es letztlich selten bei Nvidia.
Wenn die Gerüchte korrekt sind und es bei nVidia ein monolithischer Chip mit rd. 18.000 ALUs werden soll, dann wird das zweifellos ein TSMC-Prozess werden, also bspw. der N5, N5P oder gar N4. Samsung's 5LPE kommt hier aufgrund der deutlich kleineren Logikdichte eher nicht infrage, denn Samsung's 5nm-Prozess ist nicht so ganz mit TSMCs N5 zu vergleichen sondern liegt deutlich näher an deren N6 (einem 7nm-Node).
Was jedoch denkbar wäre ist, dass nVidia weiterhin beide Foundries nutzt um die Kapazitäten optimal zu verteilen. Beispielsweise die Top-Consumer-Chips könnten bei TSMC entstehen, Mittelklassechips und kleiner könnten bspw. Samsungs 5LPE nutzen, der zudem auch bezogen auf die Wafer-Kosten günstiger sein dürfte, was die Mege noch einmal optimieren würde.
Btw, warum sollte Ampere eine "maßlose Enttäuschung" sein. Ampere ist Turing in jedweder Hinsicht überlegen, bspw. egal von welcher Richtung man sich einer RTX 2080 Ti nähert. Die RTX 3080 ist deutlich günstiger, signifikant schneller, verbraucht realtiv gesehen nicht ansatzweise so viel mehr, sodass ihre Effizienz am Ende durchgehend besser als bei Turing ist. Die RTX 3070 ist leistungstechnisch recht gut vergleichbar, kostet aber nicht einmal halb so viel und ist gar deutlich effizienter als das Turing-Pendant.
Und btw, sieht man sich die Absatzzahlen und Verbreitung an, dann scheint offensichtlich nur ein kleiner Teil des Marktes deine Ansicht zu dieser "Enttäuschung" zu teilen, denn anders lassen sich die Zahlen trotz der derzeit exorbitanten Preise nicht erklären.