Vielleicht werden wir die Chiplets nur in hochpreisigen Produkten finden, denn vielleicht wäre es sinnvoll [...]
Wahrscheinlicher ist, dass es sich um ein MCM-Design als um ein Chiplet-Design *) handeln wird, d. h. hier werden eher zwei vollwertige GPUs auf einem Träger kombiniert (wenn das Gerücht zutrifft). Ein anderes Design düfte für AMD im Consumer-Segment wirtschafltich eher noch nicht erstrebenswert sein. Ebenso steigt auch nicht unbedingt die Wahrscheinlichkeit der Verwendung von HBM bei AMD mit einem solchen Design im Consumer-Segment, eher im Gegenteil. Mit der Kombination aus InfinityCache und schmalbandigem SI ist man einigermaßen gut gefahren und das gleiche Setup könnte man (optional mit 16 Gbps) GDDR6 fortführen und hätte im Dual-Chip-Modell die Möglichkeit jeweils zwei Controller zu deaktivieren und hier mit insgesamt 12 Controllern zu arbeiten (also bspw. 12 oder 24 GiB bei bis zu 768 GiB/s).
*) AMD verwendet zwar auch den Begriff "
Chiplet" in seinem Patent 2020/0409859A1, jedoch stellen die Grafiken dar, dass dort komplette GPU-Chips verbunden werden.
Zudem, sollte das Gerücht zutreffen, kann man sich sicher sein, dass auch nVidia zeitnah ein MCM-Consumer-Design veröffentlichen wird (
von Hopper weiß man das ja bereits; möglicherweise hier auch als Chiplet, nur der zielt auf das Datacenter ab, denn hier dürfte Intel's Xe-HPC der Hauptkonkurrent sein). Und bei Intel weiß man schon länger von der grundlegenden MCM-Fähigkeit ihres Xe-HP, d. h. hier wird man absehbar auch MCM-Designs auf Basis von Xe-HPG zu sehen bekommen (
hier jedoch möglicherweise erst im nächsten Jahr, da Intel ggf. einen schrittweisen RampUp seiner GPUs plant oder gar erst mit der nächsten Xe-Gen, weil man zuerst im Entry-Level bis MidRange starten wird?).
Zur Performance: Übertrieben hohe Ansprüche sollte man hier nicht stellen, also "2,5x eine 6900XT" ist voraussichtlich überzogen, denn AMDs IF kostet Leistung (i. V. z. einem monolithischen Design) und die in Summe deutlich größere GPU wird auch etwas weniger gut auszulasten sein. Darüber hinaus ist auch die Frage wie AMD den einzelnen Chip auslegt, wenn es absehbar Zwei-Chip-Karten geben wird, denn in dem Falle könnte ein einzelner Navi 31 auch nur genau so schnell wie ein Navi 21 sein, dafür aber bspw. eine bessere RT-Implementation aufweisen und auch etwas mehr Transistoren für AI verwenden um bspw. etwas wie ein AI-basiertes Supersampling effektiver anbieten zu können. Hier wird man einfach abwarten müssen.
Zudem, wie
@BigBoymann andeutete, ist auch der Verbrauch eine offene Frage, wenn man nicht plötzlich 450+ W-Karten in den Markt bringen will. TSMC gab für den N5 ggü. dem N7 eine Verbrauchsreduktion bei Iso-Leistung um die 20 % an, d. h. vermutlich werden die Chips in den MCM-Karten auch niedriger takten als in den SingleChip-Karten und auch der IF könnte hier gegen einen zu hohen Takt bei einem einzelnen Chip sprechen, denn der Kommunikationsaufwand ist hier bedeutent größer als auf einer CPU, d. h. der IF kann hier schnell zum Flaschenhals werden. Hier wird man schlicht abwarten müssen. Ich würde eher einen Leistungszugewinn im Bereich 1,5x bis 1,9x erwarten für das Topmodell i. V. z. zu einer RX 6900 XT. (
RT und AI könnten bspw. höher ausfallen, wenn die Hardware entsprechend erweitert wird.)
@Brexzidian7794: Nein, wäre es nicht, denn ansonsten würde man diese neuen Aufwendungen vermeiden und schlicht Crossfire implementieren. Die (beiden) GPUs auf einem gemeinsamen Träger implentiert und mit einem schnellen Interconnect verbudnen, ist eine andere Geschichte und im Idealfall sollte dieses MCM-Design nach außen hin vollkommen transaprent wie eine einzige GPU ggü. dem Grafik-API auftreten. (
Beispielsweise Imagination Technologies hat das gemäß ihrer eigenen Aussagen bei ihrer B-Series bereits geschafft.)