AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an
Ich habe hier auf Basis 10 gerechnet, was bei solchen Low-Level/Bit/s-Angaben eigentlich mal üblich war. Anscheinend hat sich das nun auf Basis 2 geändert. Mit 18 Gbps (auf Basis 2) ergeben sich für GDDR6 damit 352 Bit = 792 GiB/s, 384 Bit = 864 GiB/s und theoretisch für 512 Bit = 1152 GiB/s (aber "nur" 1,125 TiB/s ) *)
Deine untere/zweite Frage verstehe ich nicht. Bezog sich die überhaupt auf mich?
Abseits dessen, die JEDEC-Spezifikation JESD235B und C **) definiert pro Stack/Package bis zu 12 Lagen mit maximal 24 GiB Kapazität (die Höhe des Package bleibt jeweils die gleiche). Hersteller können hier 1- oder 2-GiB-Dies pro Lage verwenden. Entsprechend Fertigungseffizienz wird es aber nicht jede mögliche Kombination am Markt geben. Aktuell kann man 8 und 16 GiB-Chips erwarten, die voraussichtlich am meisten nachgefragt werden dürften. Bereits der Markt für aktuelle HBM2E-4GiB-Stacks dürfte recht klein oder gar nicht existent sein (und ist zu unterschieden von altem HBM2). Den Vollausbau mit 24 GiB hat bspw. Samsung Ende letzten Jahres angekündigt.
Also mit 4 Stacks (4096 Bit-Interface) sind aktuell bis zu 64 GiB möglich, was in kürze erscheinende HPC-Beschleuniger bereits ausnutzen werden. Basierend auf HBM2E sind etwas später damit gar bis zu 96 GiB möglich.
*) Entsprechend darf man sich nicht von den auf Wikipedia teilweise verwendeten GT/s- und MT/s-Angaben verwirren lassen, die ausschließlich 10^9 und 10^6 bezeichnen und in diesem Kontexten offensichtlich falsch verwendet werden, so bspw. in
High Bandwidth Memory - Wikipedia
wo man bspw. die 3,2/3,6 Gbps mit 3,2/3,6 GT/s gleichsetzt.
**) B vom Dez.'18 definiert bis zu 2,4 Gbps und C vom Jan.'20 bis zu 3,2 Gbps. Darüber hinaus ist C nur ein minor Update bzgl. der Geschwindigkeit pro Pin. Die Industrie ist der Standadisierung jedoch schon voraus, denn bspw. Micron und SK Hynix werden dieses Jahr schon reguläre 3,6 Gbps-Chips fertigen und dementsprechend erwähnte Samsung nicht umsonst die Übertaktbarkeit seiner Module.
Naja, wie sich dann schon aus deiner eigenen Aussage ableitet ... offensichtlich gibt es keinen Markt für ein derart teueres Design im Consumer-Markt.
AMDs Fury X vom Juli 2015 war das "Erstlingswerk" mit HBM(1). Den musste man natürlich mal verbauen, denn einen neuen Standard kann man nur schwer etablieren, wenn man den nicht auch mal konkret in einem Produkt anwendet. Über AMDs Marge kann man nur spekulieren, aber am Ende konkurrierte man hier mit der gleichteueren GTX 980 Ti mit GDDR5, die oftmals gar etwas schneller war (trotz -34 % weniger Speicherbandbreite).
Und nach Vega 10 war bei AMD das Ende von HBM bereits wieder erreicht und nVidia hat sich gar noch nie berufen gefühlt HBM in Consumer-Karten zu verbauen.
Eine Verwendung in den neuen Konsolen war bisher nicht Teil des Threads hier, ist aber auch ein vollkommen anderes Thema, da der Konsolenmarkt als vollkommen eigenständig anzusehen ist.
AMD dürfte in den letzten Jahren weitaus mehr Konsolen-APUs als dGPUs abgesetzt haben.
Beispielsweise der 2016er Jahresabschluss weist für die Computing und Graphics-Sparte 1,97 Mrd. Net Revenue aus, die neben allen GPUs zudem auch sämtliche Consumer-CPUs, (Mobile-)APUs und Chipsätze enthält. Dagegen die Enterprise, Embedded and Semi-Custom-Sparte verbuchte 2,31 Mrd. US$ Net Revenue und enthält die Konsolen-APUs, wohingegen AMD bekanntermaßen serverseitig nichts erwähnenswertes in dem Zeitraum anzubieten hatte.
Dass HBM2 in den Konsolen möglicherweise auch verwendet wird, ist nicht auszuschließen, stellt die Hersteller aber gleichermaßen vor das Kostenproblem, den insbesondere die Konsolenhardware ist extrem preissensitiv. Was die Möglichkeit jedoch im Vergleich zu dGPUs erhöht, ist die weitaus größere Verhandlungsbasis, da man hier über Jahre hinweg die Abnahme von hohen Stückzahlen verhandeln kann. Man wird abwarten müssen ... aktuell ist das jedoch dennoch nur ein von Fans ausgehobenes Gerücht ohne Substanz ... das kann so kommen, muss es aber nicht ...
öhm [...]
Ich habe hier auf Basis 10 gerechnet, was bei solchen Low-Level/Bit/s-Angaben eigentlich mal üblich war. Anscheinend hat sich das nun auf Basis 2 geändert. Mit 18 Gbps (auf Basis 2) ergeben sich für GDDR6 damit 352 Bit = 792 GiB/s, 384 Bit = 864 GiB/s und theoretisch für 512 Bit = 1152 GiB/s (aber "nur" 1,125 TiB/s ) *)
Deine untere/zweite Frage verstehe ich nicht. Bezog sich die überhaupt auf mich?
Abseits dessen, die JEDEC-Spezifikation JESD235B und C **) definiert pro Stack/Package bis zu 12 Lagen mit maximal 24 GiB Kapazität (die Höhe des Package bleibt jeweils die gleiche). Hersteller können hier 1- oder 2-GiB-Dies pro Lage verwenden. Entsprechend Fertigungseffizienz wird es aber nicht jede mögliche Kombination am Markt geben. Aktuell kann man 8 und 16 GiB-Chips erwarten, die voraussichtlich am meisten nachgefragt werden dürften. Bereits der Markt für aktuelle HBM2E-4GiB-Stacks dürfte recht klein oder gar nicht existent sein (und ist zu unterschieden von altem HBM2). Den Vollausbau mit 24 GiB hat bspw. Samsung Ende letzten Jahres angekündigt.
Also mit 4 Stacks (4096 Bit-Interface) sind aktuell bis zu 64 GiB möglich, was in kürze erscheinende HPC-Beschleuniger bereits ausnutzen werden. Basierend auf HBM2E sind etwas später damit gar bis zu 96 GiB möglich.
*) Entsprechend darf man sich nicht von den auf Wikipedia teilweise verwendeten GT/s- und MT/s-Angaben verwirren lassen, die ausschließlich 10^9 und 10^6 bezeichnen und in diesem Kontexten offensichtlich falsch verwendet werden, so bspw. in
High Bandwidth Memory - Wikipedia
wo man bspw. die 3,2/3,6 Gbps mit 3,2/3,6 GT/s gleichsetzt.
**) B vom Dez.'18 definiert bis zu 2,4 Gbps und C vom Jan.'20 bis zu 3,2 Gbps. Darüber hinaus ist C nur ein minor Update bzgl. der Geschwindigkeit pro Pin. Die Industrie ist der Standadisierung jedoch schon voraus, denn bspw. Micron und SK Hynix werden dieses Jahr schon reguläre 3,6 Gbps-Chips fertigen und dementsprechend erwähnte Samsung nicht umsonst die Übertaktbarkeit seiner Module.
Bei der Fury ...
Naja, wie sich dann schon aus deiner eigenen Aussage ableitet ... offensichtlich gibt es keinen Markt für ein derart teueres Design im Consumer-Markt.
AMDs Fury X vom Juli 2015 war das "Erstlingswerk" mit HBM(1). Den musste man natürlich mal verbauen, denn einen neuen Standard kann man nur schwer etablieren, wenn man den nicht auch mal konkret in einem Produkt anwendet. Über AMDs Marge kann man nur spekulieren, aber am Ende konkurrierte man hier mit der gleichteueren GTX 980 Ti mit GDDR5, die oftmals gar etwas schneller war (trotz -34 % weniger Speicherbandbreite).
Und nach Vega 10 war bei AMD das Ende von HBM bereits wieder erreicht und nVidia hat sich gar noch nie berufen gefühlt HBM in Consumer-Karten zu verbauen.
Ich denke eine Verwendung in der ps5 ist nicht unwahrscheinlich [...]
Eine Verwendung in den neuen Konsolen war bisher nicht Teil des Threads hier, ist aber auch ein vollkommen anderes Thema, da der Konsolenmarkt als vollkommen eigenständig anzusehen ist.
AMD dürfte in den letzten Jahren weitaus mehr Konsolen-APUs als dGPUs abgesetzt haben.
Beispielsweise der 2016er Jahresabschluss weist für die Computing und Graphics-Sparte 1,97 Mrd. Net Revenue aus, die neben allen GPUs zudem auch sämtliche Consumer-CPUs, (Mobile-)APUs und Chipsätze enthält. Dagegen die Enterprise, Embedded and Semi-Custom-Sparte verbuchte 2,31 Mrd. US$ Net Revenue und enthält die Konsolen-APUs, wohingegen AMD bekanntermaßen serverseitig nichts erwähnenswertes in dem Zeitraum anzubieten hatte.
Dass HBM2 in den Konsolen möglicherweise auch verwendet wird, ist nicht auszuschließen, stellt die Hersteller aber gleichermaßen vor das Kostenproblem, den insbesondere die Konsolenhardware ist extrem preissensitiv. Was die Möglichkeit jedoch im Vergleich zu dGPUs erhöht, ist die weitaus größere Verhandlungsbasis, da man hier über Jahre hinweg die Abnahme von hohen Stückzahlen verhandeln kann. Man wird abwarten müssen ... aktuell ist das jedoch dennoch nur ein von Fans ausgehobenes Gerücht ohne Substanz ... das kann so kommen, muss es aber nicht ...
Zuletzt bearbeitet: