• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten

Der von SK Hynix mitentwickelte Stapelspeicher HBM (High Bandwidth Memory) soll in der nächsten Ausbaustufe mindestens 44 Prozent mehr Bandbreite bieten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten
 

CD LABS: Radon Project

Volt-Modder(in)
CB-Crossposting:
Das wichtigste ist, dass sich Hersteller (sowohl DRAM-, als auch GPU-, als auch APU-, als auch Grakahersteller) klar zu HBM (3) im Consumermarkt bekennen.

Die jetzige Situation bietet insbesondere nahezu perfekte Umstände, um HBM im Grakabereich zu etablieren:
  1. Durch marginal höhere Preise auf Grund der höheren Kosten lässt sich momentan niemand abschrecken. Wie auch, wenn die Karten ohnehin nur deutlich über der UVP zu haben sind?
  2. Ampere hat klar gezeigt, dass die Glanzzeiten von GDDR vorüber sind. Der Speichertemperaturskandal zwar durch Nvidias Knausrigkeit ausgelöst, doch die schlechten Eigenschaften von GDDR6X waren die Ursache: Der Speicher ist einfach zu ineffizient.
  3. Die nächste Grakageneration ist einen großen Effizienzgewinn schuldig. Mit HBM ist es leichter, diesmal zu liefern.
  4. Mittlerweile werden auch GDDR-PCBs gerne kompakt gebaut. HBM spielt den Wünschen der Grakahersteller daher mittlerweile sogar in die Hände, während sie ursprünglich sichtlich überfordert waren, auf Basis von HBM-GPUs Karten zu designen.
Wenn HBM sich erst einmal im Consumergrakamarkt etablieren konnte, wird das nächst wichtigste Segment --- Consumer-APUs als Level4-Cache --- viel leichter folgen und den Erfolg zementieren können.

Er ist lange überfällig...
...HBM (beziehungsweise Stapelspeicher generell) muss für die ChipletsEverywhere-Ära als Massenprodukt etabliert sein.
 

Blackout27

Volt-Modder(in)
Wird HBM nicht auch sehr warm?

Die Werte klingen schon beeindruckend. Ich wusste gar nicht, das HBM2e bis zu 460GB/s schafft.

Daher mal eine Frage an die Experten^^

Nehmen wir mal an Nvidia hätte der RTX3090 HBM2e Speicher spendiert. So bräuchte man für 24GB wahrscheinlich 3x8GB Stacks. bei leicht niedrigeren Werten (400GB/s) um die Kosten zu schmälern, würde so eine RTX3090 auf extreme 1,2TB/s kommen. Damit wäre man nochmal knapp 300GB/s über der mit GDDR6X Speicher.

Wie viel Watt würde man denn ggü. den 24 GDDR6X Bausteinen sparen und würde dadurch auch der Chip kleiner ausfallen?
 

gerX7a

Software-Overclocker(in)
In Summe ein netter Appell von CB, aber ansonsten relativ wertlos.
HBM (und dann gesichert erst mal HBM2 und nicht etwa HBM3) wird kommen, wenn AMD und nVidia diesbezüglich für sich einen Vorteil und die Notwendigkeit dazu sehen, nicht eher. Da HBM keine Einzelkomponente ist zu der man, wie zu GDDR6, einfach Preise für einen direkten Vergleich heraussuchen kann, wird das weiterhin schwer zu vergleichen bleiben, jedoch ist der aktuell zuverlässigste Schluss immer noch, dass HBM selbst in der aktuellen Generation preislich (mit Blick auf die gesamte Chipverwertung) keine Option war. Für die 2022er-Generation darf man spekulieren, ob da was im HighEnd kommen mag. Denkbar wäre bspw. bei AMD auch die kostengünstige Fortsetzung ihres bisherigen Ansatzes, also vielleicht eine Verbreiterung des SI's auf bspw. 320 Bit und etwas schnellerer GDDR6 und man hat in Verbindung mit einem großen L3 den benötigten Bandbreitenzugewinn. Hier wird man einfach abwarten müssen ...
Der einzige Punkt, der hier die Waagschale etwas mehr in Richtung HBM kippen könnte (immer noch der Konjunktiv), wäre, wenn tatsächlich MCM-Designs verwendet werden und Speicher bzw. I/O in einen separaten Die ausgelagert wären, den man austauschen könnte, sodass man die Compute Chips an einen GDDR- und an einem HBM-Die anschließen könnte. Das könnte die benötigte Flexibilität bieten, um eher HBM zu verwenden, andererseits wird ein Chiplet-Design die Fertigung per se verteuern ... deshalb weiterhin vorerst nicht mehr als eine Möglichkeit und vielleicht muss man auch noch weitere drei Jahre auf HBM-GPUs warten. ;-)

@Blackout27: Warm, nein, verbraucht etwa nur halb so viel wie reguläres GDDR6, d. h. Chip und PHY.
Bandbreite, ist schon lange so, SK Hynix' Massenfertigung von 3,6 Gbps-Stapeln läuft schon seit Juli 2020.
Zum Gedankenexperiment: 24 GiB wären im best case gar zwei Stacks, die dann 922 GiB/s schaffen würde ... die Karte würde deutlich sparsamer werden oder man könnte dem Chip einen größeten TDP-Spielraum geben, wobei ich eher ersteres präferieren würde, da die HighEnd-Chips alle am Limit betrieben werden, d. h. hier übermäßig was "reinzubuttern" bringt unverhältnismäßig wenig Mehrleistung.
Technisch geht selbst mit Bestandstechnik schon viel, aber am Ende sind das Produkte für den Massenmarkt, die einerseits bezahlbar und konkurrenzfähig sein müssen und andererseits dem Hersteller dennoch eine bestimmte Marge bescheren sollen, Parameter, die nicht einfach abzuwägen sind. Offensichtlich hat es für HBM bei den GPU-Herstellern im Consumer-Segment noch nicht gereicht.
 
Zuletzt bearbeitet:

Tolotos66

Volt-Modder(in)
Bin schon lange ein Fan von HBM und dessen Möglichkeiten.
Leider wird Dieser wohl erst massentauglich, wenn NV, als Platzhirsch, ihn in Consumerkarten anbietet.
HBM ist dem "normalen" RAM klar überlegen.
Gruß T.
 

Blackout27

Volt-Modder(in)
@Blackout27: Warm, nein, verbraucht etwa nur halb so viel wie reguläres GDDR6, d. h. Chip und PHY.
Bandbreite, ist schon lange so, SK Hynix' Massenfertigung von 3,6 Gbps-Stapeln läuft schon seit Juli 2020.
Zum Gedankenexperiment: 24 GiB wären im best case gar zwei Stacks, die dann 922 GiB/s schaffen würde ... die Karte würde deutlich sparsamer werden oder man könnte dem Chip einen größeten TDP-Spielraum geben, wobei ich eher ersteres präferieren würde, da die HighEnd-Chips alle am Limit betrieben werden, d. h. hier übermäßig was "reinzubuttern" bringt unverhältnismäßig wenig Mehrleistung.
Technisch geht selbst mit Bestandstechnisch schon viel, aber am Ende sind das Produkte für den Massenmarkt, die einerseits bezahlbar sein müssen und andererseits dem Hersteller dennoch eine bestimmte Marge bescheren sollen, Parameter, die nicht einfach abzuwägen sind. Offensichtlich hat es für HBM bei den GPU-Herstellern im Consumer-Segment noch nicht gereicht.

Vielen Dank für die Ausführung :daumen:
Klingt alles sehr gut und würde Ampere sicher was den Verbrauch angeht, helfen.
Ich behalte das mal im Hinterkopf wenn die RTX4000er Serie kommt die wahrscheinlich auch wieder auf GDDR6X setzen wird. Wahrscheinlich / Hoffentlich dann mit 2GB Bausteinen.
 

Pu244

Lötkolbengott/-göttin
Bisher konnte HBM seine überlegene Bandbreite nicht in Leistung für normale Zocker umsetzen. Solange sich da nichts ändert sehe ich schwarz. AMD ist ja gleich zweimal wirklich übel auf die Fresse geflogen und ich denke mal nicht, dass die so schnell einen neuen Anlauf wagen, wo sie es erst geschafft haben, davon wegzukommen. Am Ende gilt das, was ein großer deutscher Philosoph gesagt hat "wichtig ist, was hinten rauskommt".

Die ultimative Bandbreite ist zwar toller Nerdporn (ich meine über 2,5TB/sec in der Graka, das hat schon was, genau wie über ein viertel Petaflop in irgendwas, das Nvidias Tensorkerne in der RTX3090 leisten können), aber am Ende ist es völlig egal, ob die Leistung mit HBM oder altem EDO RAM erreicht wird.
 

onkel-foehn

Software-Overclocker(in)
"Veröffentlichungsdatum für HBM3 in Aussicht gestellt, jedoch dürfte allerfrühestens 2022 damit zu rechnen sein."

Passt genau zum Release von RDNA3 (HBM3) mit 32 GB ! :daumen:

MfG Föhn.
 

gerX7a

Software-Overclocker(in)
Kann man kategorisch ausschließen. Wenn HBM in der NextGen kommen sollte, dann HBM2E, aber sicherlich nicht das teuerste und zu der Zeit zudem mäßig verfügbare HBM3.
Selbst bei Datacenterprodukten ist der Druck derzeit gering. Es gibt zwar schon vereinzelte Ankündigungen zu HBM3 für 2022+, aber insgesamt dürfte erst einmal auch hier die Adaption von HBM2E fortschreiten. Selbst nVidia's GA100 hat noch viel Luft nach oben mit HBM2E.

Zudem spricht, wenn dann auch mehr für nVidia als für AMD, da AMD bzgl. ihrer Marge deutlich beschränkter ist, da sie den deutlich kleineren Marktanteil inne haben, d. h. die höheren Entwicklungs- und Fertigungskosten müssen sie über ihr kleineres Umsatzvolumen wieder reinholen. Bei AMD gehe ich eher davon aus, dass die mit RDNA3 ihre nun eingeschlagene Schiene erst mal fortsetzen werden. Beispielsweise könnte man selbst bei 256 Bit GDDR6 bleiben und für das/die größten Modelle den L3 pimpen, indem man noch ein zusätzliches Cache-Modul oben drauf stacked, wenn das thermisch möglich ist.
 
Zuletzt bearbeitet:

Ghostshield

PC-Selbstbauer(in)
Würde gerne Mal eine CPU mit HBM Cache sehen.
8 Zen Kerne, 96 MB L3, 16GB HBM3 shared iGPU/CPU
I/O mit iGPU und 20 CUs, Dual-Channel Speicher Interface.

Gerne auch für 999-1299€
 

gerX7a

Software-Overclocker(in)
Würde gerne Mal eine CPU mit HBM Cache sehen.
8 Zen Kerne, 96 MB L3, 16GB HBM3 shared iGPU/CPU
I/O mit iGPU und 20 CUs, Dual-Channel Speicher Interface.

Gerne auch für 999-1299€
Dürfte nicht mehr allzu lange hin sein. Sapphire Rapids SP soll noch in diesem Jahr vorgestellt werden und wird derzeit (in bestimmten Varianten) mit bis zu 64 GiB HBM2E L4$ kolportiert. Mit dem Preis wirst du aber absehbar nicht hinkommen. ;-)
Bei AMD kommt so was auch, aber erst Ende 2022 mit Epyc Genoa.

Hab gelesen, dass RDNA2 auch HBM2e "kann".
Genau deswegen hab ich auf eine 6900XTX mit 32 GB HBM2e gehofft ... :love:

MfG Föhn.
Irgendwelcher weltfremder Irrsinn von verwirten Fans. Nein, kann er definitiv nicht, weil das pauschal Wafer-Fläche verschwenden würdem da ein GDDR- und HBM-PHY komplett anders arbeiten und daher vollumfänglich implementiert werden müssten und die eine Siliziumfläche läg immer ungenutzt brach.
Darüber hinaus wäre, wenn Navi21 so eine Dual-Implementation gehabt hätte, bspw. die Radeon Pro W6800 der ideale Kandidat für eine Verwendung von HBM2 gewesen. Das Design verwendet aber ebenso normales GDDR6.
(Darüber hinaus weist auch das Die-Shot von Navi21 keine Auffälligkeiten auf- ;-) Zum Vergleich: Das GDDR-PHY (8x 32 Bit) auf Navi21 nimmt bereits rund 10 % der Chipfläche in Anspruch.)

Wie gesagt, AMD wird seinen Weg mit schmalbandigem GDDR6 wahrscheinlich fortsetzen. Intel wird absehbar einen ähnlichen Weg gehen, denn deren großes Modell hat ebenso nur ein 256 Bit-SI und vermutlich ein entsprechend angepasstes Cache-Subsystem, wenn auch sicherlich nicht so groß wie der L3 bei AMD, da Intels Tile in einer kleineren Leistungsstufe rangiert als der Vollausbau von Navi21. Und für nVidia könnte in 2022 ein tendenziell ähnlicher Weg anstehen. Die könnten bei ihrem OC-GDDR6 bleiben und einfach ihren L2$ vergrößern oder gar einen L3$ hinzufügen. Beispielsweise der GA100 hat mit 40 MiB einen absolut riesigen L2$ (wohlgemerkt, L2$, nicht wie bei RDNA2's IFC ein L3$).
 
Zuletzt bearbeitet:

onkel-foehn

Software-Overclocker(in)
Irgendwelcher weltfremder Irrsinn von verwirten Fans.


Ist jetzt zwar nicht genau der Artikel den ich meinte, aber von "verwirrten Fans" lese ich da nüschte ...

MfG Föhn.
 

gerX7a

Software-Overclocker(in)
Nein, keine verwirten Fans, nur
"Big Navi: Wilde Gerüchte um 24 GiB HBM2e "
und
"SK Hynix hat nun ausrichten lassen, dass das herumgereichte Foto eine Fälschung sein soll"
Da frag ich mich echt, was ich von deinem/n Post/s halten soll?
 

CD LABS: Radon Project

Volt-Modder(in)

onkel-foehn

Software-Overclocker(in)
Nein, keine verwirten Fans, nur
"Big Navi: Wilde Gerüchte um 24 GiB HBM2e "
und
"SK Hynix hat nun ausrichten lassen, dass das herumgereichte Foto eine Fälschung sein soll"
Da frag ich mich echt, was ich von deinem/n Post/s halten soll?
Wie bereits vorhin geschrieben, dass ich mal gelesen habe, dass Navi mit seinem Speicher Interface auch mit HBM umgehen könnte. Habe NICHT behauptet, dass dem so sei ...

https://www.3dcenter.org/news/hardw...-limits-zu-amds-rdna2-grafikchips-offengelegt

MfG Föhn.
 

Anhänge

  • Navi HBM.jpg
    Navi HBM.jpg
    868,2 KB · Aufrufe: 3

Rollora

Kokü-Junkie (m/w)
RDNA 2 als Architektur "kann" sicherlich HBM(2e).
Ja gut, RDNA 1/2/3 oder welche Arch auch immer kann, mit was auch immer der Speichercontroller sie versorgt.
Ich schätze du meintest aber eh, dass RDNA2 auch ein HBM Speicherinterface mitführen, wie manche hier schreiben.
Dass die RDNA2 Chips alle einen HBM Controller mitschleppen würden hör ich hier zum ersten Mal
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Diese Aussage allein ist eigentlich Unsinn.

RDNA2 als Architektur "kann" das schon mal nicht, weil RDNA2 kein Speichercontroller ist;)
Ja gut, RDNA 1/2/3 oder welche Arch auch immer kann, mit was auch immer der Speichercontroller sie versorgt.
Aus dem Grund steht es ja auch in Anführungsstrichen. Ich finde "kann" in dem Kontext doch auch nicht sinnvoll...
(oh, ich sehe gerade, dass das Originalzitat auch schon kann in Anführungszeichen gesetzt hatte. Das ist erschwert ein Verständnis natürlich sehr...)
 

Rollora

Kokü-Junkie (m/w)
Aus dem Grund steht es ja auch in Anführungsstrichen. Ich finde "kann" in dem Kontext doch auch nicht sinnvoll...
(oh, ich sehe gerade, dass das Originalzitat auch schon kann in Anführungszeichen gesetzt hatte. Das ist erschwert ein Verständnis natürlich sehr...)
ja, jede Architektur "kann" das. Es wäre wünschenswert, wenn es auch genützt wird. Sber eigentlich ist der Vorteil im Consumerbereich inzwischen eh gering. Spart man sich 15 Watt und etwas Chipfläche (beim Verzicht auf GDDR6 Controller), aber dann haut msn uns eieder 300 W Chips um die Ohren wo das Rrsparnis schon fast wieder egal ist und fie Mehrleistung hält dich such in Grenzen. In Laptops wärs evtl sinnvoll
 

DARPA

Volt-Modder(in)
Bisher konnte HBM seine überlegene Bandbreite nicht in Leistung für normale Zocker umsetzen.
Die Aussage finde ich komisch.

Speichertransferrate ist Speichertransferrate, egal ob da jetzt GDDR oder Stapelspeicher verwendet wird. Unterschiede könnte man höchstens bei den Latenzen messen, aber das nur nebenbei.

Ob die Transferrate jetzt passend ist, liegt vorallem an den Spezifikationen der GPU und der µArch.
Aber welcher Speicher am Ende dran hängt ist der GPU eigentlich egal.

Die einzige Karte die in Bandbreite schwimmt ist die Radeon VII. Und die ist der Frametime König.
Ob das aber an HBM liegt kann ich nicht sagen. Kann auch Zufall sein.

Dazu ist ne 3090 jetzt auch schon bei 900+ GB/s, also voll im "Anwendungsfenster" von HBM.

Technologisch hat HBM gegenüber GDDR eigenlich nur Vorteile. Der große Nachteil sind die Kosten fürs Packaging.
 

Pu244

Lötkolbengott/-göttin
Die Aussage finde ich komisch.

Speichertransferrate ist Speichertransferrate, egal ob da jetzt GDDR oder Stapelspeicher verwendet wird. Unterschiede könnte man höchstens bei den Latenzen messen, aber das nur nebenbei.

Ich meinte damit, dass keine Karte mit HBM sich von ihrer Konkurrenz absetzen konnten. Die Furx (X) nicht von der GTX 980(Ti) und R9 390X sowie Vega nicht von der GTX 1070/80. Vega hat sogar eine verhältnismäßig schlechte Vorstellung geliefert. Auchj die Radeon VII konnte sichnur gegen die RTX 2070(S) oder auch RTX 2080 behaupten.

Technologisch hat HBM gegenüber GDDR eigenlich nur Vorteile. Der große Nachteil sind die Kosten fürs Packaging.

Solange man diese Vorteile nicht in mehr Leistung verwandeln kann, bleiben eben nur die Nachteile.
 

DARPA

Volt-Modder(in)
Solange man diese Vorteile nicht in mehr Leistung verwandeln kann, bleiben eben nur die Nachteile.
Fun Fact: Ist doch das zu erwartende Verhalten, dass die fps identisch sind.

Eine Speichertechnologie soll ausreichend Bandbreite zur Verfügung stellen.
Was die GPU daraus macht liegt an der GPU.
Deswegen vergleicht man 2 Technologien auch immer im gleichen Betriebspunkt.

Also nur weil die fps am Ende gleich sind spielen alle Vor- und Nachteile beider Technologien für dich keine Rolle mehr.
Gut, dann brauchen wir auch nicht weiter reden. Ich interessiere mich für den ganzen Shit, du ja eher nicht so.
 

Pu244

Lötkolbengott/-göttin
Also nur weil die fps am Ende gleich sind spielen alle Vor- und Nachteile beider Technologien für dich keine Rolle mehr.
Gut, dann brauchen wir auch nicht weiter reden. Ich interessiere mich für den ganzen Shit, du ja eher nicht so.

Ja, denn es ist einfach ausschließlich Nerdporn.

Die Technik dahinter ist zwar interessant und es war schon eine tolle Vorstellung, dass die Fury X ein halbes TB pro Sekunde über die Leiterbahnen schieben kann, allerdings war sie die deutlich schlechtere Karte. Solange es kleine praktischen Vorteile gibt, bleiben eben nur die Nachteile und damit ist die alte Technik einfach überlegen.

Ein weiterer Nerdporn war die PS3. Es ist schon eine echt geniale Vorstellung, dass die 230 GFLOPs ungefähr so schnell sind, wie der knapp 10 Jahre später erschienene i7 5960X. Allerdings gab es nichts, wofür das in der PS3 praktisch genutzt wurde, nur unter Linux (dessen Unterstützung später entfernt wurde) konnte man die irre Leistungsfähigkeit nutzen. Die geniale CPU ist quasi nutzlos und die 400 Mio $ Entwicklungskosten waren umsonst, aber immer ist es eine gute Sache für das Technikmuseum.

Wenn HBM irgendwann (für Zocker) einen praktischen Nutzen hat, dann sieht die Sache natürlich anders aus.
 

DARPA

Volt-Modder(in)
Da hast du recht, die Umsetzung sollte natürlich sinnvoll sein und zum Produkt passen.

Guck dir z.B. die 3090 an, welcher Aufwand, welche Stunts da betrieben werden. Das ist doch auch nicht gesund. Sowas wird immer gern unterschlagen.
Jetzt stell dir ne 3090 mit HBM vor, z.B. 4 Stacks wie bei der VII und 1024 GB/s.
Wären zwar nur 16 statt 24 GB aber immer noch ausreichend. Dazu wesentlich einfachere Anforderungen an PCB und Kühlung bei besseren Temperaturen und mehr Power Budget für die Cuda Cores.
Klingt doch sexy, oder? :D
 
Oben Unten