Ist sie überhaupt nicht, dass ist ja das Gerücht. HBM spart Platz [...]
"
HBM spart Platz": Korrekt aber für die aktuellen Mainstream-Speicherbestücken derzeit noch sekundär und das Platzsparen kostet zusätzliches Geld, weil der Interposer deutlich teuerer ist als ein einfaches Package-Substrat für einen normalen Chip.
"
durch das breitere Interface lassen sich fast alle Chiplet verwende": Inkorrekt, hat nichts mit der Chipausbeute zu tun. Darüber hinaus, Speicherchips haben per se mit die höchsten Yields in der Halbleiterfertigung.
Das extrem breite Interface und die niedrige Pro-Pin-Geschwindigkeit dienen der Bandbreitenerhöhung UND dem Stromsparen, was ein wesentliches Kriterium für HBM ist (und kein "Nebeneffekt"). Der immer weiter steigende Energiebedarf für die ungeremst wachsenden Speichersubsysteme (Kapazität wie auch Bandbreite) wird zunehmend zum Problem.
"
warum sollte Nv technisch etwas für AMD pushen?" Unzutreffend, AMD hat mittlerweile nicht mehr damit zu tun als Intel, nVidia Xilinx und andere, denn HBM ist seit 2013 ein offizieller JEDEC-Standard und wird von denen in Verbindung mit den Speicherherstellern vorangetrieben. Genaugenommen haben Intel und nVidia schon seit längerem mehr mit HBM zu tun als AMD selbst.
"
Wer glaubt GDDR6X ist billiger, glaubt auch an den Weihnachtsmann": Das ist keine Frage des Glaubens sondern schlichte wirtschaftliche Beobachtung ... und das bei allen Marktteilnehmern, inkl. AMD, Intel, nVidia & Co. HBM wird nur dort eingesetzt, wo es technisch sinnvoll vertretbar ist und die zusätzlichen Kosten durch technische Vorteile ausgeglichen werden können. Andernfalls greift man auf normales (LP)DDR oder GDDR zurück (je nach konkretem Produkt). Vergleichbares beobachtet man auch bei nVidia, die bspw. HBM2 noch vor AMD einsetzten, jedoch nur dort, wo es sinnvoll und wirtschaftlich war.
Und im Gegesatz zu einem einfachen DRAM-Chip ist ein HBM-Stack weitaus komplexer, denn hier müssen die Chips mit extremer Präzision übereinander gestapelt und Tausende von TSVs ausgerichtet und validiert werden. Hinzu kommt auch ein komplexeres Interface.
AMD hat in der Vergangenheit nicht HBM verwendet, weil es ja angeblich so bilig ist, sondern weil sie es mussten, denn andernfalls wären sie noch weniger konkurrenzfähig gewesen mit ihren jeweiligen Designs.
Und die Radeon VII ist dahingehend auch ein schönes Beispiel. Die hat AMD unerwartet und ohne Ankündigung ausgekoppelt und man wusste zu Beginn auch gar nicht so recht, wie sie im Consumer-Markt positioniert werden sollte und hat sich hier mehrfach wiedersprochen. Als die Karte dann kam, war sie nicht wirklich konkurrenzfähig weil sie viel zu teuer im Vergleich zu den Geforce-Modellen war. Und als dann der Preis zwei, drei Monate später zu Fallen begann wurde die Karte nur zwei, drei weitere Monate später bereits EOL gesetzt, weil der Verkauf für AMD damit unrentabel wurde.
Entsprechend schön auch von dir der Bezug zur Marge, auch wenn so nicht von dir intendiert
, etwas gesunkener Preis und weg war die Karte und das obwohl AMD die Lücke im oberen Segment mit nichts füllen konnte (absehbar und konkret gar für die rund nächsten 12 - 15 Monate), schlicht weil die Marge bei dem Design unterirdisch gewesen sein dürfte, was auch nicht verwunden sollte, da das Design inkl. PCB ursprünglich für Instinct-Karten konzipiert wurde, die für das 6- bis 14-fache verkauft werden/wurden.