Vielen Dank für die aktuellere Quelle; zu HBM-Preisen ist nur schwer etwas zu finden und die ursprüngliche Quelle verkauft ihre Reports nur gegen Geld, d. h. hier ist man auf eine Rezitierung angewiesen.
"
Gibt natürlich x Gründe wieso es am Ende doch nur 384Bit 16-18Gbps für arme werden."
Da bedarf es tatsaächlich nicht viel.
Einerseits Marge, andererseits der geringe Marktdruck für 16 GiB und zu guter Letzt noch der Umstand, dass die Verwendung von HBM eine entsprechend angepasste Architektur erfordert und damit meine ich nicht nur den Tausch der Speichercontroller. Typischerweise wird das ganze Cache-Subsystem einer solchen Architektur auf die Verwendung von HBM ausgelegt, die dementsprechend anders aussieht, als wenn sie für einen Betrieb zusammen mit GDDR6 konzipiert worden wäre.
Aktuell dürfte es für AMD diesbezüglich noch zu früh sein, denn die sind derzeit noch zu klein für derartige Anpassungen, insbeondere in einem Segment, in denen ihnen ein starker Wind entgegen bläßt und die Absätze/Marktanteile ungewiss sind (
und aktuell eher klar zugunsten von nVidia tendieren). AMD wird für RDNA2 voraussichtlich nur ein Design abliefern und das wird dann die ganze Palette von (Low?), MidRange bis HighEnd abdecken und entsprechend voraussichtlich ausschließlich auf GDDR6 ausgelegt sein.
Hinzu kommt, dass AMD bereits ein zweites, komplett eigenständiges Design in der Entwicklung hat; das nennt sich CDNA und ist explizit auf das Datacenter (Instinct-Beschleunigerkarten) ausgelegt. Entsprechend dürfte AMD seine Ressourcen aktuell schon ausgeschöpft haben.
Bei nVidia wird es diesmal wohl etwas anders aussehen als zuletzt. Wenn man hier tatsächlich nur im Grunde eine Architetur präsentiert (aktuell ist immer nur von Ampere und GA-Chips die Rede). nVidia wird hier voraussichtlich bei den konkreten Chips differenzieren (wenn die bisher gerüchteweise in Umlauf gebrachten Namen denn korret sind) und den GA100 explizit für das Datacenter konzipieren und mit einem HBM-Interface ausstatten. Die kleineren Ampere-Chips werden auch hier voraussichtlich auf GDDR6 ausgelegt sein und für den Consumer- und Professional Vizualization-Markt verwendet werden.
Ich bin auf jeden Fall gespannt was es im Herbst bzw. 4Q20 werden wird auf beiden Seiten und hoffe natürlch auch, dass AMD im Consumer-Markt was konkurrenzfähiges auf die Beine stellen kann.
Ich wäre mir da nicht so sicher ob es für AMD diesbezüglich noch zu früh ist.
Ich verweise hier mal auf die letzten Gerüchte bzgl. NAVI 12 (Aka Navi 10 + HBM2 + deep learning capabilities) :
Unknown Navi GPU with HBM2 to Feature Machine Learning Capabilities – AdoredTV
Die Chance das HBM2 beim (Top Dog) wirklich auch bei den Gaming-Grafikkarten Einzug halten wird würde ich allerdings auch nicht als allzu groß ansehen (<50%)
Bei Grafikkarten für die Apple Mac Pro Workstations bin ich mir allerdings zu >90% sicher das es RDNA2 Karten mit HBM2 eh geben wird.
Warum nicht Synergien schaffen wenn man für Apple eh einen Sonderweg fahren wird.
Alleine schon die Benötigte Menge an HBM2 die Apple, AMD (CDNA) und NVIDIA bei ihren kommenden Karten benötigen werden, sollte die Kosten
für HBM2 weiter in Richtung GDDR6 drücken, damit sollten auch gewisse Skaleneffekte möglich sein.
Gerade in Hinsicht das Micron dieses Jahr ebenfalls mit der Produktion von HBM2 beginnen wird und sich somit ein dritter Player am Spiel beteiligt sollte dem Preis förderlich sein.
So nebenbei auch wenn es eher symbolisch ist, hat AMD mit SK-Hynix HBM entwickelt un d das eigene Baby ist einem doch am liebsten.
Für mich ist die Sache auf jeden Fall klar ohne HBM2 keine Performance Krone.
Mit einem 384 Bit Si wird man wohl auch weiterhin auf dem 2. Platz aushalten müssen.
Dabei hätten sie jetzt fast alle Trümpfe selbst in der Hand.
HBM2 zum jetzigen Zeitpunkt passt einfach wie die Faust aufs Auge.
Allein schon die Flächenersparnis um den Faktor 1.5-175 für den PHY Controller, würde Hochgerechnet in etwa der benötigten Fläche für die RT / Tensor cores entsprechen.
Bei der Energieerparnis wird man bei einem Kolportierten 500mm2 Chip wohl auch in etwa 50W im Vergleich zu einem 384Bit Si einsparen können.
Ausgehend von der next gen. XBox wo 56CU's inkl. RT auf ca. 300mm2 verbaut wurden würde ein 80CU unter der Annahme das sonst nichts verbessert wurde, lediglich einer Fläche von 429mm2 benötigen, bzw. mit HBM2 sogar nur ca. 400mm2.
Wenn man sich die Taktrate der PS5 und Xbox genauer ansieht sollten dabei ca. 2GHz realistisch sein.
Wie man sieht, könnten auf einer Fläche von 500mm2 auch locker 96 oder gar 112 CU's platz finden, allerdings ist es wohl doch am wahrscheinlichsten das es bei 80 relativ hochgetakteten (vorausgesetzt HBM2 da sonst nicht nötig) bleiben wird.
Bei 384 Bit GDDR6 können sie auch gleich wieder auf 1.5GHz runter takten, da eh das Si limitiert. (Hätte natürlich für eine solche Karte natürlich einen Verbrauch von < 200W zur Folge, was auch nicht schlecht wäre wenn man bedenkt das sie doch deutlich schneller als eine 2080ti wäre.
Die Frage wäre also was wird mit den restlichen ca. 100mm2 Die Fläche angestellt.
Nvidia benötigt z.B. eine Fläche von ca. 1.95mm2 pro TPC (tensor 1.25 / RT 0.7) ---> 10.89mm2 TU106 - 1.95mm2 = 8.94mm2 ---> +21.8% ----> x1.5 (Ampere???) ----> 32.7%
AMD (NAVI 10) Shader Engine WGP (20) 4.53mm2 (ohne RT / tensor cores für deep learning) ----> +32.5% (6.0mm2) bzw. 240mm2 bei 40WGP (80CUs)
+ gleichzeitig einer nahezu Verdoppelung des Frontends: L1 /L2 Chache ROPS .... um ca. 70% (L1/L2 x2???) ----> 93.2 auf 160mm2
Das hätte massive Verbesserungen zum bereits sehr performanten RDNA2 Derivat in der XBox / PS5 zur Folge. (240 + 160 + CPU command core 10mm2 + I/O 40mm2 = 450mm2 + SI (HBM2 ca. 50-60 / 384Bit ca. 100mm2)
Das alles mit einem 384Bit Si wo 18Gbps Speicher noch in der Schwebe stehen zu befeuern wäre als würde man Perlen vor die Säue werfen.
Klar NVIDIA könnte mit einem Salvage seines >800m2 konntern und wohl eher Symbolisch wieder die Performance-Krone einnehemen aber hat es NVIDIA so nötig dies zu tun (ich denke schon falls HBM2 kommen sollte
) aber
das teil wird so unnötig und überhaupt wie hoch will man denn 7000-8000 Shader takten wollen. Da kann man ja froh sein wenn sie am Ende überhapt noch 20% schneller als Ampere / Big Navi >5000 für den doppelten Preis ist.