@gerX7a:
Ich sage nicht, dass die Erwartung von AMD-MCM-GPUs falsch ist, aber sie speißt sich nicht aus diesem Patent. Und die Logik [...]
Natürlich tut sie das nicht alleinig, aber es ist ein Hinweis, der jedoch letzten Endes auch unnötig war für eine derart "
prophetische" Aussage, denn dass bei Beschleunigern/GPUs MCMs als der nächste Schritt unausweichlich sind, ist schon seit längerem absehbar, da die Leistungsanforderungen ungebremst wachsen, insbesondere im Datacenter und von daher bleibt AMD keine andere Wahl als hier ins gleiche Horn zu blasen, denn nVidia und Intel sind an dem Thema offenkundig schon dran. *) AMD hat nun mit CDNA eine komplett eigenständige Beschleuniger-Hardware (ich vermeide hier explizit den Begriff GPU) aufgesetzt, weil sie nun dafür die Ressourcen haben, aber mit der kommen sie dennoch weiterhin nicht an nVidia dran, jedoch wird ihnen ohne eigenen Beschleuniger ein nennenswerter Teil des Marktes entgehen und das wollen sie offensichtlich nicht und entsprechend engagieren sie sich auch hier und d. h. hier müssen die auch leistungstechnisch mithalten oder gar mehr bieten können, denn nur über den Preis wird ihnen das nicht gelingen, wie man bereits in den letzten 5 Jahren sah.
"
was eine Skalierung außerhalb des HPC-Marktes": Hier gehe ich aktuell per se erst mal von einer Einführung im Datacenter/HPC-Markt aus, so auch grundsätzlich bei allen drei Playern. Im Consumer-Segment kann man mit den aktuell zu Verfügung stehenden Fertigungsnodes auch noch ausreichend weiteroptimieren, ohne sich der Komplexität eines MCMs widmen zu müssen und das ganze dann auch noch in das enge Preiskorsett des Consumer-Marktes zwängen zu müssen.
"
In letztgenannten ist AMD bislang aber gar nicht mit speziell konstruierten Beschleunigern, sondern nur mit GPU-Ableitungen vertreten": Nichts anderes verwendet ja auch nVidia, denn reine Beschleungier-Hardware kommt auch im GA100 nicht zum Einsatz. Der Chip ist immer noch eine vollwertige GPU, bei der im Vergleich zu den Consumer-Produkten lediglich die RT Cores fehlen und der man mehr FP64-Einheiten spendiert hat. Bei AMDs MI100 wird es dagegen schon nicht mehr ganz so einfach bzgl. dieser Aussage, denn das Design basiert zwar auf einer GCN-Basis, jedoch wurden hier wesentliche Einheiten der 3D-Pipeline gestrichen, d. h. zumindest funktional lässt sich das Design nur noch als reiner Beschleungier verwenden. Und auch bei nVidia gehe ich zumindest mittelfristig davon aus, dass man hier den Bereich HPC und AI irgendwann auftrennen wird, was schlicht daran liegen wird, weil der Konkurrenzdruck durch spezialisierte Hardware von Drittherstellern zu hoch wird, die hier mittlerweile beträchtliche Leistung zuwege bringen und das teils gar deutlich effizienter. Wenn Hopper in 2022 tatsächlich als MCM kommt, könnte das vielleicht schon eine erste Möglichkeit sein, unterschiedliche Compute-Tiles/Chiplets für Datacenterprodukte mit unterschiedlichen Schwertpunkten bereitzustellen, bspw. ein universelles Produkt wie jetzt auch, dass sich für HPC und AI eignet, vielleicht mit einem geringfügig höheren Schwerpuntk auf HPC und ein hochgradig auf AI spezialisiertes Produkt.
Ob dagegen AMD schon soweit sein wird, dass bspw. CDNA2 bereits als MCM kommt, kann ich selbstredend nicht beurteilen, denn dazu haben sie noch nichts verlauten lassen und wie du schon anmerktest, ist das Patent an sich nicht mehr als ein Hinweis bzw. die Bestätigung, dass sie ebenfalls an dem Thema dran sind, jedoch konnte man das auch ohne die Kenntnis um dieses Patent recht gesichert annehmen.
Bezüglich der etwas plakativen "Trugschlussaussage" stimme ich dir grundlegend zu, in diesem konkreten Fall hier bin ich mir dennoch sehr sicher behaupten zu können, dass man von AMD mit CDNA2 oder allerspätestens CDNA3 ein MCM/Chiplet-Design von ihnen zu sehen bekommen wird. Das einzige was noch zu berücksichtigen wäre, ist der mögliche Kauf von Xilinx, denn ggf. könnte AMD auch seine eigenen Bemühungen in diesem Bereich aufgeben und sein KnowHow an Xilinx übertragen und über die den Markt weiter aufzurollen versuchen, aber das wäre letzten Endes Haarspalterei, denn ob derartige Produkte am Ende aus Abteilung X oder Y kommen spielt keine Rolle, denn in dem Falle wäre das alles AMD.
*)
@Gurdi: Und da wird auch selbstredend bei nVidia nichts "
aus dem Hut gezaubert", denn ein derartiges Produkt ist schlicht das Ergebnis jahrelanger Forschung und Entwicklung. Beispielsweise AMD hat mal "eben" geschlagene 7 Jahre bis zu Zen2 gebraucht und bspw. Intel entwickelt an EMIB seit 2008. Eine erste Erwähnung von Volta fang man schon auf einer Roadmap in 2013: "
Volta with stacked DRAM and about 1 TB/s". nVidia hat bereits in 2019 auf eine TechConf in Tokyo, wenn ich mich recht erinnere, ein MCM-Datacenter-Design präsentiert, ein Prototypdesign oder aber möglicherweise war das gar Material unmittelbar aus der Entwicklung von/zu Hopper.
Ich verstehe schon das monolithische Dies ganz klare Vorteile haben, aber wenn man mit seinem Chiplet-Design mehr Leistung bietet als die überlegene monolithische Herangehensweise des Konkurrenten dann ist das ja einstweilen vorteilhaft genug. Man muß vor allem Achtung zollen was da aus der nicht-so-vorteilhaften Methode herausgeholt wurde. Natürlich spielt da die Fertigung hin wie her rein,aber man muß klar konstatieren: was AMD aus Chiplet und geringeren Taktfrequwnzwn als der Mitbewerber rausholt ist mehr als nur gut. Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist als monolithische CPUs es unter den gegebenen Umständen wären verstehe ich nicht so richtig warum man wieder umschwenken sollte?Ja, bei Intel wird mit Sicherheit noch einiges kommen, das wirst du ja auch nicht müde zu betonen, aber jetzt ist es wie es ist.
Wie bereits gesagt dient die Fertigung in Chiplet-Bauweise in erster Linie einer effizienten Fertigung und weniger einer leistungsstarken und bei AMD hat nach wie vor TSMCs besserer Prozess einen wesentlichen Anteil an der Leistung, d. h. man kann sich leicht ausmalen, dass ein Vergleich gegen ein Willow Cove-Design im N7 deutlich anders ausfallen würde.
Darüber hinaus, wie bereits erklärt, ist die Fertigung der Consumer-Produkte für AMD zweifellos aufwendiger und teuerer als die für Intel und genau das ist auch der Grund, warum AMD hier im LowEnd/Midrange-Consumer-Markt sich irgendwann davon verabschieden wird und das untere bis mittlere Segment voraussichtlich auch mit monolithischen Designs (voraussichtlich APUs, ggf. gar teilweise mit deaktivierten iGPUs wie schon im letzten Jahrzehnt?) bedienen wird, denn es ist für AMD reichlich ineffizient für einen Sechs- und erst recht einen Vierkerner, von denen immer noch sehr, sehr viele verkauft werden (und das selbst bei MF) einen 125 mm2 großen IOD mit einem 74 mm2 großen CCD auf einem hochkomplexen Package mit aufwendigem Routing zu vereinen.
Ich weiß nicht ob das hier bei dir ein Typo war, dem ich vielleicht keine Bedeutung beimessen sollte, aber "
Und so lange wie das so funktioniert und auch noch wirtschaftlich ertragreicher ist", denn das ist es zweifellos nicht der Fall, denn ansonsten würde AMDs Marge anders aussehen und man hätte nicht so deutlich die CPU-Preise anheben müssen, wie sie es nun bei Zen3 getan haben um ihr Margenziel zu erreichen. Es ist ertragreich, denn ansonsten würde AMD weitehrin rote Zahlen schreiben wie von ca. 2012 - 2017, aber es ist nicht "ertragreicher als" im Vergleich zu Intel, denn deren Marge wird hier zweifellos höher liegen und das nicht nur weil die gemeinhin teuerer sind (was sie sich aber auch erlauben können, voraussichtlich alleine schon deshalb und auch bei den OEMs, weil AMDs Kapazitäten beschränkt sind).
Einfach mal abwarten. Eine erste Möglichkeit sehe ich bereits in 2022 mit einer Kombination aus Zen4 und Zen3+ (APUs), aber vielleicht wird es gar noch eine weitere Generation dauern, denn was auch für die nächsten paar Jahre weiterhin absehbar ist, ist dass der Bedarf an Rechenleistung im Mainstream/Office-Bereich nur geringfügig ansteigen wird und da wird man mit der Zeit ganz automatisch nach weiterem Optimierungs/Einsparungspotential suchen um die Marge zu erhöhen. Hochkernige, leistungsstarke CPUs braucht man vorrangig fürs Gaming und im professionellen Bereich für bestimtme, ausgewählte Applikationen, jedoch nicht zum Mail-Schreiben, Facebook-Checken und Streaming-Schauen.
Und "
ja, bei Intel wird sicherlich noch einiges kommen", denn die sind ja nicht insolvent und schließen morgen die Tore, aber was hat das mit dieser Diskussion zu tun, die sich eigenlich ausschließlich um AMD drehte?
In Anlehnung an Torstens Antwort, weil ich die Zahlen gerade "zur Hand" habe:
Intel Broadwell EP, 1Q16, 15 Kerne, 35 MiB L3 im MCC-Die, ~ 4,7 Mrd. Transistoren (mit vier Speicherkanälen, ECC und AVX2)
AMD Zen2-CCD, 3Q19, 8 Kerne und 32 MiB L3, ~ 3,9 Mrd. Transistoren und dabei hat man noch nicht einmal eine funktionierende CPU, denn es fehlt noch das cIOD, das weitere ~ 2,1 Mrd. Transistoren beisteuert.
Es ist bedauerlich (aber nachvollziehbar
) dass Intel in den letzten 24 bis 36 Monaten sehr zurückhaltend bzgl. Fertigungsdetails wurde. Für bspw. das Skylake SP-XCC-Die mit 28 Kernen und 38,5 MiB L3 mit sechs Speichercontrollern und zwei AVX-512-FMA-Einheiten schätzt man gemeinhin 8 bis max. 9 Mrd. Transistoren ab.
Insofern, wenn es Intel nicht erneut oder dann mal komplett in den Sand setzt, darf man Enden 2022/Anfang 2023 durchaus gespannt auf deren 7nm (P1276) sein und vielleicht trauen sie sich ja dann auch mal wieder mit ein paar mehr Details aufzuwarten.
Nichtsdestotrotz wäre die Erfolgsaussicht bei Fertigung als monolithischer Chip aber deutlich geringer, oder? Denn dann würde der Die mit allem drum und dran doch schon wieder groß genug um vermehrt Ausschuß zu produzieren?
Wie gesagt, es geht nicht darum Serverprozessoren mit 28 und mehr Kernen als monolithisches Die zu beschwören. Es geht um grundsätzlich kleine Consumer-Chips, deren Größe noch mit einem guten Yield handhabbar ist und bei bspw. Intel darf man selbst annehmen, dass die mit ihrem lange eingefahrenen und vielfach optimierten 14nm-Prozess hier ebenfalls sehr gute Yields realisieren können, was voraussichtlich auch ein Eckpunkt ihrer Profitabilität sein wird. Beispielsweise Renoir (Zen2, 8 MiB L3, iGPU) im N7 hat 156 mm2. Intel fertig in 14nm den 9700/9900K mit 174 mm2 und damit nur wenig mehr und der hat ebenfalls eine iGPU on-Die. Bereits ein 9600K mit sechs Kernen, 9 MiB L3 und iGPU ist mit 150 mm2 kleiner als AMDs Renoir trotz 14nm vs. TSMCs 7nm.
Bei Epyc wird AMD weiterhin gesichert auf eine Chiplet-Bauweise setzen, schlicht weil sie einen 64-Kerner anders gar nicht hätten realisieren können und für Zen4 steht gar noch eine Erhöhung der Kernzahl an und bei den größeren Ryzen-Modellen wird man absehbar auch bei einer deratigen Bauweise bleiben, weil die dort Effizienzvorteile bietet (zumal die abgesetzten Stückzahlen bei diesen CPUs deutlich geringer sind, was die Rechtfertigung eines eigenständigen Chipdesigns deutlich erschwert).