HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten

Der von SK Hynix mitentwickelte Stapelspeicher HBM (High Bandwidth Memory) soll in der nächsten Ausbaustufe mindestens 44 Prozent mehr Bandbreite bieten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten
 
CB-Crossposting:
Das wichtigste ist, dass sich Hersteller (sowohl DRAM-, als auch GPU-, als auch APU-, als auch Grakahersteller) klar zu HBM (3) im Consumermarkt bekennen.

Die jetzige Situation bietet insbesondere nahezu perfekte Umstände, um HBM im Grakabereich zu etablieren:
  1. Durch marginal höhere Preise auf Grund der höheren Kosten lässt sich momentan niemand abschrecken. Wie auch, wenn die Karten ohnehin nur deutlich über der UVP zu haben sind?
  2. Ampere hat klar gezeigt, dass die Glanzzeiten von GDDR vorüber sind. Der Speichertemperaturskandal zwar durch Nvidias Knausrigkeit ausgelöst, doch die schlechten Eigenschaften von GDDR6X waren die Ursache: Der Speicher ist einfach zu ineffizient.
  3. Die nächste Grakageneration ist einen großen Effizienzgewinn schuldig. Mit HBM ist es leichter, diesmal zu liefern.
  4. Mittlerweile werden auch GDDR-PCBs gerne kompakt gebaut. HBM spielt den Wünschen der Grakahersteller daher mittlerweile sogar in die Hände, während sie ursprünglich sichtlich überfordert waren, auf Basis von HBM-GPUs Karten zu designen.
Wenn HBM sich erst einmal im Consumergrakamarkt etablieren konnte, wird das nächst wichtigste Segment --- Consumer-APUs als Level4-Cache --- viel leichter folgen und den Erfolg zementieren können.

Er ist lange überfällig...
...HBM (beziehungsweise Stapelspeicher generell) muss für die ChipletsEverywhere-Ära als Massenprodukt etabliert sein.
 
Wird HBM nicht auch sehr warm?

Die Werte klingen schon beeindruckend. Ich wusste gar nicht, das HBM2e bis zu 460GB/s schafft.

Daher mal eine Frage an die Experten^^

Nehmen wir mal an Nvidia hätte der RTX3090 HBM2e Speicher spendiert. So bräuchte man für 24GB wahrscheinlich 3x8GB Stacks. bei leicht niedrigeren Werten (400GB/s) um die Kosten zu schmälern, würde so eine RTX3090 auf extreme 1,2TB/s kommen. Damit wäre man nochmal knapp 300GB/s über der mit GDDR6X Speicher.

Wie viel Watt würde man denn ggü. den 24 GDDR6X Bausteinen sparen und würde dadurch auch der Chip kleiner ausfallen?
 
In Summe ein netter Appell von CB, aber ansonsten relativ wertlos.
HBM (und dann gesichert erst mal HBM2 und nicht etwa HBM3) wird kommen, wenn AMD und nVidia diesbezüglich für sich einen Vorteil und die Notwendigkeit dazu sehen, nicht eher. Da HBM keine Einzelkomponente ist zu der man, wie zu GDDR6, einfach Preise für einen direkten Vergleich heraussuchen kann, wird das weiterhin schwer zu vergleichen bleiben, jedoch ist der aktuell zuverlässigste Schluss immer noch, dass HBM selbst in der aktuellen Generation preislich (mit Blick auf die gesamte Chipverwertung) keine Option war. Für die 2022er-Generation darf man spekulieren, ob da was im HighEnd kommen mag. Denkbar wäre bspw. bei AMD auch die kostengünstige Fortsetzung ihres bisherigen Ansatzes, also vielleicht eine Verbreiterung des SI's auf bspw. 320 Bit und etwas schnellerer GDDR6 und man hat in Verbindung mit einem großen L3 den benötigten Bandbreitenzugewinn. Hier wird man einfach abwarten müssen ...
Der einzige Punkt, der hier die Waagschale etwas mehr in Richtung HBM kippen könnte (immer noch der Konjunktiv), wäre, wenn tatsächlich MCM-Designs verwendet werden und Speicher bzw. I/O in einen separaten Die ausgelagert wären, den man austauschen könnte, sodass man die Compute Chips an einen GDDR- und an einem HBM-Die anschließen könnte. Das könnte die benötigte Flexibilität bieten, um eher HBM zu verwenden, andererseits wird ein Chiplet-Design die Fertigung per se verteuern ... deshalb weiterhin vorerst nicht mehr als eine Möglichkeit und vielleicht muss man auch noch weitere drei Jahre auf HBM-GPUs warten. ;-)

@Blackout27: Warm, nein, verbraucht etwa nur halb so viel wie reguläres GDDR6, d. h. Chip und PHY.
Bandbreite, ist schon lange so, SK Hynix' Massenfertigung von 3,6 Gbps-Stapeln läuft schon seit Juli 2020.
Zum Gedankenexperiment: 24 GiB wären im best case gar zwei Stacks, die dann 922 GiB/s schaffen würde ... die Karte würde deutlich sparsamer werden oder man könnte dem Chip einen größeten TDP-Spielraum geben, wobei ich eher ersteres präferieren würde, da die HighEnd-Chips alle am Limit betrieben werden, d. h. hier übermäßig was "reinzubuttern" bringt unverhältnismäßig wenig Mehrleistung.
Technisch geht selbst mit Bestandstechnik schon viel, aber am Ende sind das Produkte für den Massenmarkt, die einerseits bezahlbar und konkurrenzfähig sein müssen und andererseits dem Hersteller dennoch eine bestimmte Marge bescheren sollen, Parameter, die nicht einfach abzuwägen sind. Offensichtlich hat es für HBM bei den GPU-Herstellern im Consumer-Segment noch nicht gereicht.
 
Zuletzt bearbeitet:
Bin schon lange ein Fan von HBM und dessen Möglichkeiten.
Leider wird Dieser wohl erst massentauglich, wenn NV, als Platzhirsch, ihn in Consumerkarten anbietet.
HBM ist dem "normalen" RAM klar überlegen.
Gruß T.
 
@Blackout27: Warm, nein, verbraucht etwa nur halb so viel wie reguläres GDDR6, d. h. Chip und PHY.
Bandbreite, ist schon lange so, SK Hynix' Massenfertigung von 3,6 Gbps-Stapeln läuft schon seit Juli 2020.
Zum Gedankenexperiment: 24 GiB wären im best case gar zwei Stacks, die dann 922 GiB/s schaffen würde ... die Karte würde deutlich sparsamer werden oder man könnte dem Chip einen größeten TDP-Spielraum geben, wobei ich eher ersteres präferieren würde, da die HighEnd-Chips alle am Limit betrieben werden, d. h. hier übermäßig was "reinzubuttern" bringt unverhältnismäßig wenig Mehrleistung.
Technisch geht selbst mit Bestandstechnisch schon viel, aber am Ende sind das Produkte für den Massenmarkt, die einerseits bezahlbar sein müssen und andererseits dem Hersteller dennoch eine bestimmte Marge bescheren sollen, Parameter, die nicht einfach abzuwägen sind. Offensichtlich hat es für HBM bei den GPU-Herstellern im Consumer-Segment noch nicht gereicht.

Vielen Dank für die Ausführung :daumen:
Klingt alles sehr gut und würde Ampere sicher was den Verbrauch angeht, helfen.
Ich behalte das mal im Hinterkopf wenn die RTX4000er Serie kommt die wahrscheinlich auch wieder auf GDDR6X setzen wird. Wahrscheinlich / Hoffentlich dann mit 2GB Bausteinen.
 
Bisher konnte HBM seine überlegene Bandbreite nicht in Leistung für normale Zocker umsetzen. Solange sich da nichts ändert sehe ich schwarz. AMD ist ja gleich zweimal wirklich übel auf die Fresse geflogen und ich denke mal nicht, dass die so schnell einen neuen Anlauf wagen, wo sie es erst geschafft haben, davon wegzukommen. Am Ende gilt das, was ein großer deutscher Philosoph gesagt hat "wichtig ist, was hinten rauskommt".

Die ultimative Bandbreite ist zwar toller Nerdporn (ich meine über 2,5TB/sec in der Graka, das hat schon was, genau wie über ein viertel Petaflop in irgendwas, das Nvidias Tensorkerne in der RTX3090 leisten können), aber am Ende ist es völlig egal, ob die Leistung mit HBM oder altem EDO RAM erreicht wird.
 
"Veröffentlichungsdatum für HBM3 in Aussicht gestellt, jedoch dürfte allerfrühestens 2022 damit zu rechnen sein."

Passt genau zum Release von RDNA3 (HBM3) mit 32 GB ! :daumen:

MfG Föhn.
 
Kann man kategorisch ausschließen. Wenn HBM in der NextGen kommen sollte, dann HBM2E, aber sicherlich nicht das teuerste und zu der Zeit zudem mäßig verfügbare HBM3.
Selbst bei Datacenterprodukten ist der Druck derzeit gering. Es gibt zwar schon vereinzelte Ankündigungen zu HBM3 für 2022+, aber insgesamt dürfte erst einmal auch hier die Adaption von HBM2E fortschreiten. Selbst nVidia's GA100 hat noch viel Luft nach oben mit HBM2E.

Zudem spricht, wenn dann auch mehr für nVidia als für AMD, da AMD bzgl. ihrer Marge deutlich beschränkter ist, da sie den deutlich kleineren Marktanteil inne haben, d. h. die höheren Entwicklungs- und Fertigungskosten müssen sie über ihr kleineres Umsatzvolumen wieder reinholen. Bei AMD gehe ich eher davon aus, dass die mit RDNA3 ihre nun eingeschlagene Schiene erst mal fortsetzen werden. Beispielsweise könnte man selbst bei 256 Bit GDDR6 bleiben und für das/die größten Modelle den L3 pimpen, indem man noch ein zusätzliches Cache-Modul oben drauf stacked, wenn das thermisch möglich ist.
 
Zuletzt bearbeitet:
Würde gerne Mal eine CPU mit HBM Cache sehen.
8 Zen Kerne, 96 MB L3, 16GB HBM3 shared iGPU/CPU
I/O mit iGPU und 20 CUs, Dual-Channel Speicher Interface.

Gerne auch für 999-1299€
 
Würde gerne Mal eine CPU mit HBM Cache sehen.
8 Zen Kerne, 96 MB L3, 16GB HBM3 shared iGPU/CPU
I/O mit iGPU und 20 CUs, Dual-Channel Speicher Interface.

Gerne auch für 999-1299€
Dürfte nicht mehr allzu lange hin sein. Sapphire Rapids SP soll noch in diesem Jahr vorgestellt werden und wird derzeit (in bestimmten Varianten) mit bis zu 64 GiB HBM2E L4$ kolportiert. Mit dem Preis wirst du aber absehbar nicht hinkommen. ;-)
Bei AMD kommt so was auch, aber erst Ende 2022 mit Epyc Genoa.

Hab gelesen, dass RDNA2 auch HBM2e "kann".
Genau deswegen hab ich auf eine 6900XTX mit 32 GB HBM2e gehofft ... :love:

MfG Föhn.
Irgendwelcher weltfremder Irrsinn von verwirten Fans. Nein, kann er definitiv nicht, weil das pauschal Wafer-Fläche verschwenden würdem da ein GDDR- und HBM-PHY komplett anders arbeiten und daher vollumfänglich implementiert werden müssten und die eine Siliziumfläche läg immer ungenutzt brach.
Darüber hinaus wäre, wenn Navi21 so eine Dual-Implementation gehabt hätte, bspw. die Radeon Pro W6800 der ideale Kandidat für eine Verwendung von HBM2 gewesen. Das Design verwendet aber ebenso normales GDDR6.
(Darüber hinaus weist auch das Die-Shot von Navi21 keine Auffälligkeiten auf- ;-) Zum Vergleich: Das GDDR-PHY (8x 32 Bit) auf Navi21 nimmt bereits rund 10 % der Chipfläche in Anspruch.)

Wie gesagt, AMD wird seinen Weg mit schmalbandigem GDDR6 wahrscheinlich fortsetzen. Intel wird absehbar einen ähnlichen Weg gehen, denn deren großes Modell hat ebenso nur ein 256 Bit-SI und vermutlich ein entsprechend angepasstes Cache-Subsystem, wenn auch sicherlich nicht so groß wie der L3 bei AMD, da Intels Tile in einer kleineren Leistungsstufe rangiert als der Vollausbau von Navi21. Und für nVidia könnte in 2022 ein tendenziell ähnlicher Weg anstehen. Die könnten bei ihrem OC-GDDR6 bleiben und einfach ihren L2$ vergrößern oder gar einen L3$ hinzufügen. Beispielsweise der GA100 hat mit 40 MiB einen absolut riesigen L2$ (wohlgemerkt, L2$, nicht wie bei RDNA2's IFC ein L3$).
 
Zuletzt bearbeitet:
Irgendwelcher weltfremder Irrsinn von verwirten Fans.


Ist jetzt zwar nicht genau der Artikel den ich meinte, aber von "verwirrten Fans" lese ich da nüschte ...

MfG Föhn.
 
Nein, keine verwirten Fans, nur
"Big Navi: Wilde Gerüchte um 24 GiB HBM2e "
und
"SK Hynix hat nun ausrichten lassen, dass das herumgereichte Foto eine Fälschung sein soll"
Da frag ich mich echt, was ich von deinem/n Post/s halten soll?
 
Nein, keine verwirten Fans, nur
"Big Navi: Wilde Gerüchte um 24 GiB HBM2e "
und
"SK Hynix hat nun ausrichten lassen, dass das herumgereichte Foto eine Fälschung sein soll"
Da frag ich mich echt, was ich von deinem/n Post/s halten soll?
Wie bereits vorhin geschrieben, dass ich mal gelesen habe, dass Navi mit seinem Speicher Interface auch mit HBM umgehen könnte. Habe NICHT behauptet, dass dem so sei ...

https://www.3dcenter.org/news/hardw...-limits-zu-amds-rdna2-grafikchips-offengelegt

MfG Föhn.
 

Anhänge

  • Navi HBM.jpg
    Navi HBM.jpg
    868,2 KB · Aufrufe: 4
Zurück