High-Bandwidth Memory: Samsung produziert HBM ab 2016

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu High-Bandwidth Memory: Samsung produziert HBM ab 2016

Auf dem Intel Developer Forum 2015 in San Francisco hat Samsung angekündigt, ab 2016 High-Bandwidth Memory in großen Mengen produzieren zu wollen. Die Angaben entsprechen dem, was SK Hynix als "HBM-2" definiert, wobei zunächst der Grafikkarten- und HPC-Markt bedient werden soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: High-Bandwidth Memory: Samsung produziert HBM ab 2016
 
Wäre es nicht eigentlich Möglich zur CPU noch 8 HBM-Stacks mit insg. 2 TB/s und 64 GB auf einen Interposer zu packen und dann ein Board mit ca. 8 CPUs, auf dem dann quasi nur noch die Stromversorgung, das Chipset und die PCIe-Steckplätze untergebracht werden müssen, zu bauen? :D

Bin auf jeden Fall gespannt was uns noch alles so an HBM-Produkten erwartet ;)
 
Als Riegel funktioniert das natürlich nicht.
Die Geschwindigkeit muss auch vom Interface kommen.
4096-Bit kann man nicht durch das Substrat vom Mainboard routen.
 
Und als RAM für Samsungs SoCs in den Smartphones?
Wäre schon genial, so 4 GB HBM als geteilten Speicher für GPU und CPU im Smartphone, vor allem da die Latenzen niedriger und die Geschwindigkeit mit 128-256 GB/s (Je nach Takt) statt mit 25.6 GB/s (LPDDR4) wesentlich höher wäre. Jetzt müssen die Smartphone SOCs das dann nur noch ausnutzen können bzw. auch mal solche Sachen wie HSA, hUMA und ähnliche Sachen integrieren, wenn das nicht schon längst passiert ist :D

Bleibt nur die Frage wie groß die Änderungen sein müssten, damit die ARM-SOCs HBM nutzen können ;)
 
Für Smartphones ist etwas ähnliches wie HBM spezifiziert.
Wide IO2 (25.6-51.2 GB/s vs. 128-256 HBM pro stack).

Dort stellt sich die Frage wie man das umsetzt, entweder alles auf einem Interposer oder den RAM auf oder wenn das besser ist, unter den SoC.
 
JEDEC, nicht VESA. Und wenn Samsungs HBM den Spezifikationen von Hynix HBM "2" entspricht läuft der bei 1000MHz, schafft also 2Gbit/s pro DQ. Anders würde man auch nicht auf die hier genannten 256GB/s pro Stack (mit 8 Channels) kommen. Wenn ich auf "Fehler im Artikel" klicke passiert bei mir gar nichts, soll das so sein? Addblock und Noscript sind nicht aktiv.
 
:ugly:

Da steht wirklich VESA im Artikel.
Ich weiß schon, warum ich die meisten Artikel bei PCGH gar nicht erst lese und sofort in den Kommentarbereich wandere.


@ maguumo

Wenn du auf "Fehler im Artikel" klickst solltest du eine entsprechende e-mail schreiben können.
FireFox bietet mir dazu erst einmal die möglichen clienten an.
 
Wäre es nicht eigentlich Möglich zur CPU noch 8 HBM-Stacks mit insg. 2 TB/s und 64 GB auf einen Interposer zu packen
möglich wären auch noch mehr Stacks, aber es muß halt auch wirtschaftlich sinn ergeben.
das man beim HBM1 auf 4Gb beschränkt ist stimmt ja auch nicht, AMD hätte Fiji auch mit mehr als 4 Stacks planen können, aber dann wird halt der interposer größer/teurer.


Bleibt nur die Frage wie groß die Änderungen sein müssten, damit die ARM-SOCs HBM nutzen können ;)
naja, einfach ein anderer PHY, also ein redesign.
nur wäre das aktuell für smartphones eh zu teuer.

bei den 14/16nm GPUs bekommen die billigeren sicher auch nur GDDR5, weil es eben kostengünstiger ist.
 
möglich wären auch noch mehr Stacks, aber es muß halt auch wirtschaftlich sinn ergeben.
das man beim HBM1 auf 4Gb beschränkt ist stimmt ja auch nicht, AMD hätte Fiji auch mit mehr als 4 Stacks planen können, aber dann wird halt der interposer größer/teurer.

Größere Interposer sind momentan nicht machbar. Der Fiji Interposer ist am Reticle Limit.
 
Zurück