HBM3: Neuer Speicher soll 665 GB/s per Stack für HPC und Co. bieten

RDNA 2 als Architektur "kann" sicherlich HBM(2e).
Ja gut, RDNA 1/2/3 oder welche Arch auch immer kann, mit was auch immer der Speichercontroller sie versorgt.
Ich schätze du meintest aber eh, dass RDNA2 auch ein HBM Speicherinterface mitführen, wie manche hier schreiben.
Dass die RDNA2 Chips alle einen HBM Controller mitschleppen würden hör ich hier zum ersten Mal
 
Zuletzt bearbeitet:
Diese Aussage allein ist eigentlich Unsinn.

RDNA2 als Architektur "kann" das schon mal nicht, weil RDNA2 kein Speichercontroller ist;)
Ja gut, RDNA 1/2/3 oder welche Arch auch immer kann, mit was auch immer der Speichercontroller sie versorgt.
Aus dem Grund steht es ja auch in Anführungsstrichen. Ich finde "kann" in dem Kontext doch auch nicht sinnvoll...
(oh, ich sehe gerade, dass das Originalzitat auch schon kann in Anführungszeichen gesetzt hatte. Das ist erschwert ein Verständnis natürlich sehr...)
 
Aus dem Grund steht es ja auch in Anführungsstrichen. Ich finde "kann" in dem Kontext doch auch nicht sinnvoll...
(oh, ich sehe gerade, dass das Originalzitat auch schon kann in Anführungszeichen gesetzt hatte. Das ist erschwert ein Verständnis natürlich sehr...)
ja, jede Architektur "kann" das. Es wäre wünschenswert, wenn es auch genützt wird. Sber eigentlich ist der Vorteil im Consumerbereich inzwischen eh gering. Spart man sich 15 Watt und etwas Chipfläche (beim Verzicht auf GDDR6 Controller), aber dann haut msn uns eieder 300 W Chips um die Ohren wo das Rrsparnis schon fast wieder egal ist und fie Mehrleistung hält dich such in Grenzen. In Laptops wärs evtl sinnvoll
 
Bisher konnte HBM seine überlegene Bandbreite nicht in Leistung für normale Zocker umsetzen.
Die Aussage finde ich komisch.

Speichertransferrate ist Speichertransferrate, egal ob da jetzt GDDR oder Stapelspeicher verwendet wird. Unterschiede könnte man höchstens bei den Latenzen messen, aber das nur nebenbei.

Ob die Transferrate jetzt passend ist, liegt vorallem an den Spezifikationen der GPU und der µArch.
Aber welcher Speicher am Ende dran hängt ist der GPU eigentlich egal.

Die einzige Karte die in Bandbreite schwimmt ist die Radeon VII. Und die ist der Frametime König.
Ob das aber an HBM liegt kann ich nicht sagen. Kann auch Zufall sein.

Dazu ist ne 3090 jetzt auch schon bei 900+ GB/s, also voll im "Anwendungsfenster" von HBM.

Technologisch hat HBM gegenüber GDDR eigenlich nur Vorteile. Der große Nachteil sind die Kosten fürs Packaging.
 
Die Aussage finde ich komisch.

Speichertransferrate ist Speichertransferrate, egal ob da jetzt GDDR oder Stapelspeicher verwendet wird. Unterschiede könnte man höchstens bei den Latenzen messen, aber das nur nebenbei.

Ich meinte damit, dass keine Karte mit HBM sich von ihrer Konkurrenz absetzen konnten. Die Furx (X) nicht von der GTX 980(Ti) und R9 390X sowie Vega nicht von der GTX 1070/80. Vega hat sogar eine verhältnismäßig schlechte Vorstellung geliefert. Auchj die Radeon VII konnte sichnur gegen die RTX 2070(S) oder auch RTX 2080 behaupten.

Technologisch hat HBM gegenüber GDDR eigenlich nur Vorteile. Der große Nachteil sind die Kosten fürs Packaging.

Solange man diese Vorteile nicht in mehr Leistung verwandeln kann, bleiben eben nur die Nachteile.
 
Solange man diese Vorteile nicht in mehr Leistung verwandeln kann, bleiben eben nur die Nachteile.
Fun Fact: Ist doch das zu erwartende Verhalten, dass die fps identisch sind.

Eine Speichertechnologie soll ausreichend Bandbreite zur Verfügung stellen.
Was die GPU daraus macht liegt an der GPU.
Deswegen vergleicht man 2 Technologien auch immer im gleichen Betriebspunkt.

Also nur weil die fps am Ende gleich sind spielen alle Vor- und Nachteile beider Technologien für dich keine Rolle mehr.
Gut, dann brauchen wir auch nicht weiter reden. Ich interessiere mich für den ganzen Shit, du ja eher nicht so.
 
Also nur weil die fps am Ende gleich sind spielen alle Vor- und Nachteile beider Technologien für dich keine Rolle mehr.
Gut, dann brauchen wir auch nicht weiter reden. Ich interessiere mich für den ganzen Shit, du ja eher nicht so.

Ja, denn es ist einfach ausschließlich Nerdporn.

Die Technik dahinter ist zwar interessant und es war schon eine tolle Vorstellung, dass die Fury X ein halbes TB pro Sekunde über die Leiterbahnen schieben kann, allerdings war sie die deutlich schlechtere Karte. Solange es kleine praktischen Vorteile gibt, bleiben eben nur die Nachteile und damit ist die alte Technik einfach überlegen.

Ein weiterer Nerdporn war die PS3. Es ist schon eine echt geniale Vorstellung, dass die 230 GFLOPs ungefähr so schnell sind, wie der knapp 10 Jahre später erschienene i7 5960X. Allerdings gab es nichts, wofür das in der PS3 praktisch genutzt wurde, nur unter Linux (dessen Unterstützung später entfernt wurde) konnte man die irre Leistungsfähigkeit nutzen. Die geniale CPU ist quasi nutzlos und die 400 Mio $ Entwicklungskosten waren umsonst, aber immer ist es eine gute Sache für das Technikmuseum.

Wenn HBM irgendwann (für Zocker) einen praktischen Nutzen hat, dann sieht die Sache natürlich anders aus.
 
Da hast du recht, die Umsetzung sollte natürlich sinnvoll sein und zum Produkt passen.

Guck dir z.B. die 3090 an, welcher Aufwand, welche Stunts da betrieben werden. Das ist doch auch nicht gesund. Sowas wird immer gern unterschlagen.
Jetzt stell dir ne 3090 mit HBM vor, z.B. 4 Stacks wie bei der VII und 1024 GB/s.
Wären zwar nur 16 statt 24 GB aber immer noch ausreichend. Dazu wesentlich einfachere Anforderungen an PCB und Kühlung bei besseren Temperaturen und mehr Power Budget für die Cuda Cores.
Klingt doch sexy, oder? :D
 
Zurück