a) Ich glaube eher nicht, dass da irgenwem was "
aus dem Gesicht gefallen sein wird". Die werden als marktführender GPU-Hersteller sehr genau abschätzen können was die Konkurrenz voraussichtlich plant und deren Designs umfangreich ananlysierne und dementsprechend auch selbst hochrechnen, was davon ausgehend die nächsten Schritte sein werden (wie AMD und Intel auch) und RDNA2 wird grundlegend nicht für nVidia überraschend gewesen sein können, da die Hardware schon seit Mitte 2019 bei Kunden im Umlauf war in Form der Konsolen. Beispielsweise inbesondere NVs SI-Entscheidung deutet sehr stark darauf hin, dass man schon von langer Hand wusste, dass das bei AMD etwas wie 256 Bit mit 16 GiB Speicher werden (
und die GPUs dann natürlich einen größeren Cache brauchten). An der Architektur selbst hat sich aber nach bisherigem Kenntnisstand seit 2018 nichts mehr bei AMD an RDNA2 geändert.
b) Gerade hier wird es eigentlich genau umgekehrt sein. Sobald der erste Hersteller mit einem MCM-Design vorprescht wird er, wenn er die damit verbundenen Probleme zufriedenstellend lösen konnte, den anderen davonziehen und das bedeutet, dass hier alle zwingend am Ball bleiben müssen und das bedeutet wiederum, dass alle drei derzeit mit hohen Engagement an dem MCM-Thema dran sind und dass man voraussichtlich in relativ kurzer Folge von allen Herstellern entsprechende Designs zu sehen bekommen wird.
Beispielsweise alleine schon Intel's Bestrebungen und die nachweisliche Funktionaität ihres Xe-HP mit 4 Tiles (sicherlich kein Stromsparwunder
) dürften AMD und nVidia genügend Feuer unterm Hintern machen, damit die Gas geben, denn möglicherweise könnte Intel, nachdem sie vielleicht erst im LowEnd/Midrange mit einem Produkt auf Basis von HGP starten, dann doch plötzlich die Entwickung auch auf HPG übertragen und mit MCM-Designs daherkommen. Da wollen sich zweifellos weder AMD noch nVidia überraschen lassen und da es keine kurzfristigen Reaktionsmöglichkeiten bei derartigen Produkten gibt, bleibt nun nur konkret die nächste/kommende Generation oder halt die übernächste (2024?) ins Auge zu fassen.
c) "Software" hängt hier davon ab, was du damit meinst. Dem aktuellen Verständnis nach werden diese GPUs vollkommen tranparent für die Applikationen als eine einzige, große GPU auftreten. jedoch in den Treibern wird es voraussichtlich mehr Arbeit zu erledigen geben. Möglicherweise wird auch Micrsooft in DirectX noch ein wenig Hand anlegen, aber im Idealfall sollte die eigentliche Software davon unberührt sein, was auch grundsätzlich so sein muss, denn derartige Designs werden zuerst im HighEnd Einzug halten, d. h. sämtliche Software müsste andernfalls zusätzliche Programmflussweichen für dieses (vorerst) kleine Marktsegment enthalten, die bestimmen, ob man auf einer Single- oder MC-GPU läuft und das werden Entwickler eher zu vermeiden suchen (siehe die eher geringe Multi-GPU-Unterstützung).
Da hast du mich vieleicht ein bischen zu wörtlich genommen oder ich hab es nicht klar formuliert.
Ich gehe auch nicht davon aus, dass Jensen am Tag des Release überrascht wurde, sondern diese Überraschung durchaus vorher eingetreten ist. Nicht umsonst haben sie mit der 3080 die Takt und Verbrauchsschraube dermaßen angezogen, sie wussten scheinbar ziemlich genau wo AMD landen wird und dies wurde entsprechend in den letztlichen Release der Karten einbezogen. Dennoch glaube ich, dass man seitens Nvidia grundlegend überrascht war, in meinen Augen war dies auch deutlich nach 2019 der Fall, denn es scheint mir schon so, dass die Änderungen am Leistungsverbrauch etwas zu schnell umgesetzt werden mussten, so dass es nunmal am Anfang extreme Probleme bei einigen Karten gab. Ich weiß auch nicht, inwieweit man von den Konsolen (2019 waren dort aber doch auch nur maximal Betakonsolen verteilt?) auf die letztliche BigNavi schließen kann. Keine Ahnung in wieweit Cache usw. bereits dort seine Spuren hinterlassen hat.
Bzgl. eines MCM Design kann deine Variante sicherlich zutreffen, Ryzen, bzw. Zen hat uns aber doch eines besseren belehrt. Intel zieht nicht nach, 4 Jahre sind jetzt sein Zen 1 vergangen und auch in 2022 und 2023 kommt nichts in der Richtung und das obwohl man bei einer CPU den eindeutigen Vorteil des Designs erkennt, Skalierbarkeit. Im Gegenteil, AMD ist mit Zen3 wieder ein Stück zurückgegangen.
Bei Grafikkarten gibt es derzeit dazu noch das ungelöste Problem des Loadbalancing, ich glaube auch daran, dass MCM die Zukunft wird, aber in der nächsten Generation? Das bleibt für mich extrem fraglich. Ob der zweite Hersteller nachziehen wird, wird nämlich in erster Linie davon abhängen, ob der andere Erfolg hat, ich glaube nicht, dass ein "Zen1" Pendant ausreichen würde um Nvidia zum umdenken zu bringen, ähnlich der Situation bei Intel. Denn ich glaube auch, dass Intel letztlich von Zen3 überrollt wurde, zum einen die exakte Zeitlinie, die Tag auf Tag eingehalten wurde, aber auch zum anderen die wirklich gute Skalierbarkeit der CPUs. Bei Zen1 wird Intel sich sicherlich noch gedacht haben, ach ja, 8 können wir auch, an 16 Kerne im Desktop hat sicherlich noch keiner gedacht. (auch hier gehe ich nicht vom Zeitpunkt des Release aus, sondern bei Bekanntwerden von Zen1 für Intel).
Mit Software meine ich tatsächlich alles drum herum, zum einen den Treiber, zum anderen aber eben auch die Engine (ob DX, Vulkan oder sonstwas), zum anderen aber eben auch die Publisher. Ich gehe schon davon aus, dass MCM Designs grundlegend andere Stärken haben werden und demnach auch anders programmiert werden müssen. Ein gut skalierender DX12 Titel, tut dies nicht automatisch mit Vulkan und so wird es auch mit MCM sein, da wird schon in der grundlegenden Spieleengine entsprechende Arbeit einfließen müssen. Daher glaube ich nicht an einen durchschlagenden Erfolg in der nächsten oder übernächsten Generation. Auf lange Sicht wird dies aber eine Lösung sein können (wenn nicht müssen), wir nähern uns dem Ende des Shrinkens auf der heutigen Technik und entweder werden Chips dann größer, was nunmal immer die Yields extrem beeinflussen wird, oder aber man produziert viele kleine Chips, die eben eine gute Ausbeute bedeuten und wo der Preis pro mm² dann eben günstiger wird.
(siehe die eher geringe Multi-GPU-Unterstützung).
das sah auch schon mal anders aus und viele Hersteller haben sich viele Gedanken gemacht. Zu Zeiten der SLI, Crossfire und der dann folgenden DualGPU Karten wurde doch eine Menge versucht und gemacht, wenn man an die ersten Sessions mit zwei 7900GTX denkt? Das war grausam und zwischen 60 und 30fps hat man keinen wirklichen Unterschied erkannt, beides war langsam und grausam. Das hat man mit der Zeit wirklich gut überarbeitet, aber man hat eben die grundlegenden Probleme nie ablegen können. Ob man dies nun in ein oder zwei Generationen schafft? Ich glaube leider nicht daran, dagegen hätte ich aber auch nichts.
P.S.
Noch eine Ergänzung, bzw. eine Frage, technisch bist du viel weiter in der Materie als ich. Gäbe es denn nicht die Möglichkeit, RT auf eine zweite GPU auszulagern? Bei AMD können die Shader ja beides? Zumindest wenn ich das richtig verstanden habe, daher könnte man eine GPU ja nur zur RT Berechnung nutzen und die zweite davon unabhängig für die Pixel. Das wäre im Bereich RT sicherlich ein Quantensprung, dafür beraucht es aber auch deutlich mehr RT Spiele.