So ein Umstieg auf ein Chipletdesign ist bei GPU's sicherlich genauso schwierig wie bei CPU's.
Schaut euch einfach an, wie lange die Optimierung bei Ryzen gedauert hat.
Und nun schaut euch an, wie rasend schnell ein Chip werden kann, wenn man wie bei Apple einfach den ganzen PC in ein Stück Silizium gießt (dafür dann natürlich sämtliche Konfigurationsmöglichkeiten wie bei einem PC aufgibt und alles in einem Stück beim Defekt entsorgen muss).
Was ist also das Problem und die Ursache?
Jede notwendige Querverbindung hemmt die Leistung und verursacht neue Komplikationen.
Ratet mal, was passiert, wenn NVidia nächstes Mal gezwungen ist das ohne Erfahrung umzusetzen?
Die wehren sich nicht umsonst mit Händen und Füßen dagegen und gehen den leichten, aber extrem kostspieligen Weg für die Kundschaft durch Riesenchips.
Vermutlich sind die schon seit Jahren parallel mit der Entwicklung zugange.
Man sieht es ja auch bei Intel, wie lange das bei den Prozessoren dauert, bis man von dem bisherigen Konzept weg kommt.
Und man darf ja nicht vergessen, wie schwer es damals SLI und Crossfire gehabt haben, und wie die Designer am Ende darüber gestolpert sind.
Oder 3DFX Voodoo, mit ihren 4er Chips.
Das ist nicht so wie beim Fliesen verlegen, wo man die Cacheln dann einfach aneinanderlegt und dann hoffentlich rechtwinkelig und in der passenden Höhe ausrichtet.
Da fängt der Spaß doch gerade erst an.
RDNA3 ist quasi das Funktionskonzept (hauptsache es läuft überhaupt erst einmal, so wie Ryzen 1), RDNA4 wird dann sicherlich die eigentliche Optimierung des Ganzen (Ryzen 2+++), und man wird sich dann auch um die wirkliche Verbesserung beim Raytracing kümmern können, um den Rückstand zu NVidia wirklich (auf)schließen zu können.