HBM-Speicher: Auch Micron steigt ein, noch 2020 erste Produkte

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HBM-Speicher: Auch Micron steigt ein, noch 2020 erste Produkte

Während der Bekanntgabe der Quartalszahlen hat Micron auch einen knappen Ausblick auf die kommenden Produkte des Unternehmens gegeben. Demnach will Micron 2020 endlich die Konkurrenz zu Samsung und SK Hynix aufnehmen und ebenso HBM-Speicher auf den Markt bringen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: HBM-Speicher: Auch Micron steigt ein, noch 2020 erste Produkte
 
Bisher konnte HBM seine Vorteile noch nicht ausspielen, jedenfalls waren die bisherigen Zockerkarten allesamt Flops (wenn man die Radeon VII ausnimmt, die allerdings auch keine Vorteile ausspielen konnte).
 
Also ich empfinde meine Karte nicht als Flop und da wo HBCC etwas bringt, ist es echt klasse. Zumal der HBM2 schon was Anderes ist, als der HBM der Fury.
Vor ein paar Wochen wurde hier noch geunkt, das Big Navi oder Ampere NIEMALS mit HBM kommen wird. Ich hielt dagegen und es wird vllt doch wahrscheinlicher.
Ich würde ungern gegen GDDR6-VRAM tauschen müssen mit einer neuen Karte.
Gruß T.
 
Schade eigentlich da HMC vor HBM kam, der Stromverbrauch wirklich niedriger war (Bei Fiji noch war der Verbrauch nicht niedriger als GDDR5) und sogar schneller war.
naja, egal. Wenn sie dann alle HBM2 herstellen wird der Preis hoffentlich sinken - wenn sie nicht wieder Preisabsprache machen.
 
Also ich empfinde meine Karte nicht als Flop und da wo HBCC etwas bringt, ist es echt klasse. Zumal der HBM2 schon was Anderes ist, als der HBM der Fury.
Gruß T.

Der Stromverbrauch ist wesentlich höher, als bei Pascal (sollte einer der großen Vorteile von HBM sein), die versprochene Leistung (Vega 64 sollte mit der GTX 1080Ti mindestens gleichziehen oder sie sogar schlagen) war auch nichts zu sehen. Wenn man bedenkt, was angekündigt war, dann ist es ein gigantischer Flop gewesen. Womit ich nicht sagen will, dass die Karten für den richtigen Preis, nicht genial waren.

Ich würde ungern gegen GDDR6-VRAM tauschen müssen mit einer neuen Karte.
Gruß T.

Wichtig ist, was hinten rauskommt. Auch wenn es wohl ein erhabenes Gefühl ist, dass die eigene Karte 1TB oder mehr pro Sekunde durchschubst.
 
Der Stromverbrauch ist wesentlich höher, als bei Pascal (sollte einer der großen Vorteile von HBM sein), die versprochene Leistung (Vega 64 sollte mit der GTX 1080Ti mindestens gleichziehen oder sie sogar schlagen) war auch nichts zu sehen. Wenn man bedenkt, was angekündigt war, dann ist es ein gigantischer Flop gewesen. Womit ich nicht sagen will, dass die Karten für den richtigen Preis, nicht genial waren.



Wichtig ist, was hinten rauskommt. Auch wenn es wohl ein erhabenes Gefühl ist, dass die eigene Karte 1TB oder mehr pro Sekunde durchschubst.

Der Stromverbrauch war aber nicht das Problem des HBM, sondern allgemein von GCN. Daher ein schlechter Vergleich und nur einige wenige Trottel haben wirklich gedacht, die Vega64 könnte mit der Ti mithalten. Das war damals etwa so realistisch, wie 2020 noch 10nm-Desktop-Intel-CPUs...
Der Speicher ist GDDR6 immer noch weit überlegen und es ist verdammt schade, dass er nicht häufiger verwendet wird. Wenn durch Micron die Preise jetzt sinken und HBM dadurch interessanter wird, wäre für uns alle positiv.
 
HBM ist und bleibt teuer. Die Fertigung ist weitaus komplexer als ein simpler, planarer DRAM-Chip. In Gaming-CPUs wird man es bestenfalls (wenn überhaupt) in den absoluten HighEnd-Modellen vorfinden.
Bei nVidia würde ich davon ausgehen, dass bestenfalls der GA100 auf HBM2 setzen wird und dieses Die wird voraussichtlich Datacenterprodukten vorbehalten bleiben. Wenn der GA102 zumindest auch auf den Consumer-Karten die vollen 384 Bit bietet, werden das hier 12 GiB GDDR6 werden, dann voraussichtlich mit etwas schnelleren 16 Gbps-BGAs, was die Speicherbandbreite einer möglichen 3080 Ti ggü. einer 2080 Ti um rd. +25 % steigert. *)

Beispielsweise zur Vega 64/56 schätzte man die 8 GiB HBM2 auf in Summe 150 - 160 US$ zzgl. weiteren 25 US$ für Interposer und Packaging. Der Wert blieb auch bis Anfang 2019, zur Veröffentlichung der Radeon VII, erhalten und wurde erneut mit ihr zusammen in Umlauf gebracht, d. h. etwa um die 80 US$ für 4 GiB HBM2, was nahezu doppelt so teuer wie GDDR6 ist.
Hoffen dürfte man hier also wahrscheinlich wenn dann bestenfalls auf AMD, wenn die "um jeden Preis" wieder oben mitspielen wollen würden und dafür einen Teil ihrer Marge opfern ... wahrscheinlich ist das jedoch nicht, wenn man L.Su's Aussagen aus 3Q19 berücksichtigt, aber vielleicht macht man ja bei einem derartigen Prestige-Objekt eine Ausnahme?

*) Die Verwendung von HBM2 würde bei nVidia wohl nur eine Option werden, wenn man tatsächlich gedenkt 16 GiB anzubieten, denn die ließen sich mit zwei HBM2-Stacks besser implementieren, als wenn man mittels GDDR6 ein 512 Bit-Speicherinterface zu implementieren versuchen würde. Für 16 GiB in Consumer-Grafikkarten besteht jedoch aktuell noch kein ausreichender Marktdruck ... von daher, eher unwahrscheinlich.
 
Zuletzt bearbeitet:
Bisher konnte HBM seine Vorteile noch nicht ausspielen, jedenfalls waren die bisherigen Zockerkarten allesamt Flops (wenn man die Radeon VII ausnimmt, die allerdings auch keine Vorteile ausspielen konnte).
Gerade die war vllt. der größte Flop :ugly:. GPU und Memory-Logik viel zu langsam um von 16GB mit dieser Bandbreite in Spielen zu profitieren. Preis speziell zu Release auch Katastrophe usw..

Der *zensiert* der alles für Innovativ hält wird es allerdings nicht begreifen, auch das sich preislich nichts ändern wird auch wenn Micron einsteigt, Samsung und Micron werden immer den Äquivalent für Graphics preislich und technisch attraktiver halten können, weil er in der Masse deutlich besser funktioniert hat.
Sogar die neuen Quadros laufen nur noch mit GDDR soweit ich weiß, die Konsolen auch, sprich man hat keine effiziente Fertigung hinbekommen wie einst verlautbart.


INU-Edit: Netter Versuch. Nicht!
 
Zuletzt bearbeitet von einem Moderator:
Der Stromverbrauch war aber nicht das Problem des HBM, sondern allgemein von GCN.

Auch beim RAM konnte ein wesentlich geringerer Verbrauch nicht bewiesen werden.

(...) und nur einige wenige Trottel haben wirklich gedacht, die Vega64 könnte mit der Ti mithalten.

Dann bezeichnest du gut 3/4 des Forums als Trottel. Zur Erinnerung: damals sollte TBR, die selbe Technik, die bei Maxwell die Leistung krass gesteigert hat, auch bei den Vegakarten eingeführt werden. Wenn es Nvidia geschafft hat, die Leistung in einer Generation zu verdoppeln, dann sollten bei AMD doch mindestens 50% drin sein, eher mehr. AMD hat das ganze noch befeuert und bis zum Ende vom kommenden Endsieg über Nvidia geredet.

Am Ende hatten die Nvidiafanboys recht, Vega war schlecht.

Ich wurde hier im Forum übrigens ordentlich angefeindet, weil ich der Meinung war, dass es keinen Wundertreiber, der TBR nachreichen sollte, mehr geben wird und die Leistung der Vega Frontier Edition so bestehen bleiben wird. Ich hatte Recht.

Das war damals etwa so realistisch, wie 2020 noch 10nm-Desktop-Intel-CPUs...

2017 kamen die ersten Cannonlake CPUs auf den Markt. Zwar nur für Ultrabooks und in winzigen Dosen, aber es gab sie zu kaufen. Damals konnte eigentlich keiner ahnen, dass sich das ganze wohl bis 2022 ziehen wird. Es war schon eine massive Blamage, dass es für den Desktop wohl keine Cannonlake CPUs geben wird, daran, dass Ice Lakr und Tigerlake auch ins Wasser fallen würden, hat da noch kaum jemand gedacht.

Nimm es mir nicht übel, aber deine Wahrnehmung, der Vergangenheit, ist doch extrem fehlerhaft.
 
Zuletzt bearbeitet:
Bisher konnte HBM seine Vorteile noch nicht ausspielen, jedenfalls waren die bisherigen Zockerkarten allesamt Flops (wenn man die Radeon VII ausnimmt, die allerdings auch keine Vorteile ausspielen konnte).
Schon, denn eine Fury (X) mit GDDR5 wäre entweder langsamer gewesen oder ein größerer Chip mit noch mehr Verbrauch. Der "Vorteil" war also, dass der Abstand zu Nvidia kleiner schien, als er unter gleichen Bedingungen (GDDR5) gewesen wäre.
HBM ist und bleibt teuer. Die Fertigung ist weitaus komplexer als ein simpler, planarer DRAM-Chip.


Das ist zwar richtig, aber RAM ist in der Produktion seit Jahren günstiger geworden, nicht aber der Preis.
Auch HBM lässt sich eigentlich schon recht günstig herstellen, aber man verlangt natürlich einen Premium-Preis dafür.
Zur Erinnerung: damals sollte TBR, die selbe Technik, die bei Maxwell die Leistung krass gesteigert hat


Aha, hast du dafür Zahlen? Soweit ich das von Locuzas Ausführungen in Erinnerung hatte, war das ganze knapp im Einstelligen Prozentbereich. Vegas schwache Performance kam aus ganz anderen Gründen zustande
 
Zuletzt bearbeitet:
*) Die Verwendung von HBM2 würde bei nVidia wohl nur eine Option werden, wenn man tatsächlich gedenkt 16 GiB anzubieten, denn die ließen sich mit zwei HBM2-Stacks besser implementieren, als wenn man mittels GDDR6 ein 512 Bit-Speicherinterface zu implementieren versuchen würde. Für 16 GiB in Consumer-Grafikkarten besteht jedoch aktuell noch kein ausreichender Marktdruck ... von daher, eher unwahrscheinlich.
Die größten Abnehmer von HBm2 sind derzeit Fujitsu, intel und Nvidia.
Nvidia nutzt es im highend Business Bereich bei den Quadros wo die Kosten (und die grobe Adressierung) nicht so ins Gewicht fallen und die Bandbreite benötigt wird. Intel vor allem für FPGAs und Fujitsu für Beschleunigungskarten.
Immer dort wo die höhere maximale Bandbreite benötigt wird. Bei GPUs für Spiele? DDR6 hat genügend bandbreite und es ist eher die Speichermenge die benötigt wird. Da bietet HBM2 derzeit einfach keine wirklichen Vorteile - es bringt wenig wenn man denn gesamten Speicher in 1000 einer Sekunde durchgehen kann, wenn man dafür ein vielfaches zahlt und dann erst zu wenig Speicher hat. (Auch einer der Gründe warum AMD dann bei RDNA doch auf GDDR6 gesetzt hat)


Am Ende hatten die Nvidiafanboys recht, Vega war schlecht.
Damit wars genau das Gegenteil - einfach die ganzen AMD-Fanboys (und davon gibt es hier viele) sind auf die Schnautze gefallen.
Und TBR war nie "Die Supertechnik" sondern nur ein Teil um die benötigte Speicherbandbreite zu senken (und die Shader besser auslasten zu können).
 
Zuletzt bearbeitet:
Hi alle zusammen

Ich hoffe sowohl AMD als auch die HBM Speichertechnologie wird sich in Zukunft noch im Gamerbereich stärker durchsetzen. Gönnen würde ich es AMD.

Die Preise für HBM Speicher werden wahrscheinlich dann auch in der Zukunft hoffentlich noch ein wenig fallen (bisher hatten wir ja eher noch sowas wie Early Adopter Preise) und ich kann mir auch gut vorstellen das diese Technologie sich jetzt noch ein wenig schneller weiterentwickeln wird.

Im Gamingbereich haben wir ja jetzt durch die HBM Technologie nicht so die krasse Mehrleistung gehabt. Deswegen sehen die meisten hier (als Gamer) garnicht den effektiven Vorteil hinter der Technologie. Im Computing und Mining Bereich sieht es da aber schon wieder ganz anders aus.
Die Vega 64 war @stock bei fast selbem Stromverbrauch zb im ETH Mining direkt so stark wie eine 1080Ti @stock. Wenn man die dann noch optimiert und undervoltet hat, war dann auch noch mehr Leistung bei weniger Stromverbrauch als mit einer 1080Ti drin in Kombination mit einem günstigerem Einkaufspreis.

Ich bin selber in der letzten Zeit wegen meinem Studium kaum noch am Zocken und hab mit meinen 4 Vega64 und später mit den 4 Radeon VII kaum noch gespielt und die Karten dahingehend nicht optimiert. Aber ich weis vom mitlesen aus den Vega und Radeon VII Threads hier im Forum das die Karten super zu optimieren sind. Sowohl beim gleichzeitigem Chip und HBM OC und bei gleichzeitigem Undervolting sollen da super Ergebnisse mit mehr Frames in Games rausgekommen sein. Leider sind diese Ergebnisse wegen der anfänglichen Treiberproblematiken in den ganzen Hardware Tests nicht so bei der Allgemeinheit angekommen und die Karten werden aus Gamersicht eher belächelt.
Aber bei mir haben die aber im Mining bei einem günstigerem Einkaufspreis wesentlich mehr Leistung gebracht. Mit der 1080Ti kam ich nach Optimierung früher auf ca 37MH/s während eine Vega64 bei mir auf jeweils 44MH/s ging. Als ich dann auf die 4 Radeon VII gewechselt bin hab ich mit jeder Karte jetzt bei ca 190Watt Stromverbrauch ca 90MH/s beim Mining von ETH.

Es kommt halt auch auf die Anwendungen an, aber ich schätze mal das sich langfristig HBM (besonders bei günstigerer Verfügbarkeit) auch noch im Gamingbereich durchsetzen könnte. Technologisch ist es wohl der nächste Schritt.
 
[...]
*) Die Verwendung von HBM2 würde bei nVidia wohl nur eine Option werden, wenn man tatsächlich gedenkt 16 GiB anzubieten, denn die ließen sich mit zwei HBM2-Stacks besser implementieren, als wenn man mittels GDDR6 ein 512 Bit-Speicherinterface zu implementieren versuchen würde. Für 16 GiB in Consumer-Grafikkarten besteht jedoch aktuell noch kein ausreichender Marktdruck ... von daher, eher unwahrscheinlich.
256-Bit reichen für 32GB GDDR6-Speicher, wenn man eine Clamshell-Konfiguration (16 Chips) verwendet und 16GB (8 Chips), falls nicht, denn aktuell bieten die Speicherhersteller GDDR6-Chips mit bis zu 2GiB an.

[...]
Aha, hast du dafür Zahlen? Soweit ich das von Locuzas Ausführungen in Erinnerung hatte, war das ganze knapp im Einstelligen Prozentbereich. Vegas schwache Performance kam aus ganz anderen Gründen zustande
Im Schnitt, bei den Spielen die AMD präsentiert hat, lag der Gewinn unter 10% (Seite 17):
https://www.hotchips.org/wp-content...b/HC29.21.120-Radeon-Vega10-Mantor-AMD-f1.pdf

Nvidais TBR funktioniert etwas anders, aber ob besser oder schlechter als von AMD sei mal dahin gestellt, es war so oder so "nur" ein Teil der Gründe, wieso Maxwell soviel stärker dastand, als Kepler.
Allerdings haben das einige als den Hauptgrund bzw. als alleinigen Grund hochgeschaukelt.
 
2017 kamen die ersten Cannonlake CPUs auf den Markt. Zwar nur für Ultrabooks und in winzigen Dosen, aber es gab sie zu kaufen. Damals konnte eigentlich keiner ahnen, dass sich das ganze wohl bis 2022 ziehen wird. Es war schon eine massive Blamage, dass es für den Desktop wohl keine Cannonlake CPUs geben wird, daran, dass Ice Lakr und Tigerlake auch ins Wasser fallen würden, hat da noch kaum jemand gedacht.

Nimm es mir nicht übel, aber deine Wahrnehmung, der Vergangenheit, ist doch extrem fehlerhaft.

Was verstehst du an dem Begriff Desktop-CPU nicht? ^^
Ich weiß, dass deine Markenbrille manchmal sehr rosa ist aber das kann man unmöglich falsch verstehen...
 
Die größten Abnehmer von HBm2 sind derzeit Fujitsu, intel und Nvidia. [...]

Warum musste mein aus dem Kontext gerissenes Zitat für dein Statement herhalten? ;-) Dass HBM in nVidia's Consumer-Produkten eher unwahrscheinlich ist, schrieb ich bereits zuvor ... ebenso wie das quasi "unnötig", da sich die Bandbreite auch noch so steigern lässt.
Abgesehen davon wird HBM bei nVidia derzeit ausschließlich auf Tesla's in Verbindung mit Volta genutzt. Früher gab es zwar die GP100 (einen modifizierten Pascal) und die GV100 (beide von Anfang 2017), die Karten werden jedoch von nVidia nicht mehr vertrieben; aktuelle Quadro's mit HBM gibt es nicht. (Zumindest die GV100 findet man noch im nVidia-Shop, dort jedoch ist die schon seit längerem mit einem "out of stock" versehen.)

256-Bit reichen für 32GB GDDR6-Speicher, wenn man eine Clamshell-Konfiguration [..]

Was Clamshell bedeutet, ist aber schon klar, oder? nVidia nutzt das zurzeit bei der Quadro RTX 8000 mit ihren 48 GiB, denn hier werden 16 Chips angebunden, 8 auf der Vorder- und 8 auf der Rückseite des PCBs. Der Bus bleibt jedoch weiterhin bei 384 Bit, d. h. die Bandbreite erhöht sich nicht und die Karte hat mit 672 GiB/s kumulierter Bandbreite den gleichen Durchsatz wie die Quadro RTX 6000 und Titan RTX und nur geringfügig mehr im Vergleich zur RTX 2080 Ti (der ein Speichercontroller fehlt bzw. deaktiviert wurde).
Darüber hinaus ist der mit 256 Bit erreichbare Durchsatz zurzeit eher MidRange bis unteres HighEnd. Schnellere Designs, wie eine RTX 2080 Ti oder gar RTX 3080 Ti werden zweifelsfrei mehr Bandbreite benötigen (insbesondere, wenn man noch angeblich den Raytracing-Durchsatz signifikant steigern will), d. h. mit den 256 Bit bzw. bis zu 512 GiB/s würde man so einen großen Chip ausbremsen. (Microsoft hat sich ja schon gezwungen gesehen ihrem Konsolen-SoC 320 Bit zu spendieren und den Aufwand wird man sicherlich nicht nur aus werbetechnischen Gründen auf sich genommen haben.)
Und 16Gbit-BGAs helfen bei der aktuellen Diskussion leider auch nicht, denn auch wenn sich hier so mancher die 24 GiB der Titan RTX in einer günstigeren Karte wünschen würde, so würde das dennoch ein 384 Bit-Interface und 12 doppelt so teuere BGAs voraussetzen, etwas, was derzeit zweifelsfrei keiner für ein Consumer-Produkt implementieren wird.
 
Was verstehst du an dem Begriff Desktop-CPU nicht? ^^
Ich weiß, dass deine Markenbrille manchmal sehr rosa ist aber das kann man unmöglich falsch verstehen...

Es ging darum, dass 2017 überhaupt 10nm CPUs rauskamen. Wichtig war, dass die 10nm Produktion überhaupt angelaufen ist. Von daher sollte es, so war die damalige Meinung, kein großes Problem sein, ein Jahr später, auch Desktop CPUs herzustellen.

Von den tatsächlichen Problemen war damals, zumindest in der Öffentlichkeit, wenig bis nichts zu ahnen. Vermutlich hat noch nichteinmal Intel selbst gewußt, welches Ausmaß das hat.

Du tust so, als hätte man das alles schon damals gewußt, das war aber definitiv nicht der Fall.

PS: Bei den CPUs bin ich AMD Sympathisant (auch wenn ich ihnen die Flunkerei mit dem Phenom I und Bulldozer noch etwas nachtrage) und habe mich damals, wie viele andere gefreut, dass AMD 1-2 Jahre mehr Zeit hatte um aufzuholen. Dass es 5 Jahre werden, hat 2017 noch keiner wirklich ahnen können.
 
Anmerkungen:

@Bevier
- Mitte 2017 (Vega 64/56-Release) 10 nm auf dem Intel-Desktop bis 2020 zu erwarten, war zu der Zeit keinesfalls unrealistisch. Im Nachhinein ist man (zumindest i. d. R.) immer Schlauer, jedoch ist das eine völlig falsche Herangehensweiser bzgl. solchen zurückblickenden Aussagen (und Bewertungen).
- Und warum ist das mit HBM "schade"? Ich finde es auch schade, dass BMW seinen M4 nichzt zum Preis eines normalen 3ers verkauft ... ;-) HBM ist nun einmal teuer und dementsprechend ist es bisher kein für den Massenmarkt taugliches Produkt. Man wird sehen, wie Micron den Markt beeinflussen wird; mit größeren Überraschungen würde ich aber vorerst nicht rechnen, denn auch die wollen Geld verdienen und werden nicht die heilige Kuh (dieses hochpreisige Produkt) schlachten. Abgesehen davon stehen die nächsten Consumer-Iterationen bereits "quasi" vor der Tür, d. h. man darf/braucht sich voraussichtlich erst in 2 Jahren wieder bei Consumer-Produkten über HBM Gedanken machen. ;-)

@Pu244
- Darüber hinaus stammte Cannon Lake aus 2018, nicht 2017. Der wurde zwar mehrfach vorab geteasert, erste, vereinzelte Produkte in kleiner Stückzahl fand man jedoch erst im 2Q18 im asiatischen Markt.
- Und warum sollte es eine Blamage sein, dass es keinen Cannon Lake für den Desktop gibt? Das Design war eine geringfügige Weiterentwiclung von Kaby Lake zzgl. AVX-512. Intel hat mittlerweile Sunny Cove und auch schon Willow Cove fertig und alle beschweren sich über den Skylake-Aufguss Comet Lake und dann sollte jetzt noch Cannon Lake kommen? :-D (Vermutlich hast du nur vergessen, die Vergangenheitsform zu verwenden?)
- Und so richtig Angelaufen ist da bzgl. der 10 nm-Fertigung nicht wirklich was. Das wahrscheinlichste Szenario ist, dass Intel selbstgemachten Zusicherungen nachkommen musste um (Vertrags)Strafen zu entgehen oder anderweitigen Verpflichtungen nachzukommen und so brachte man (irgendwie; mit abgeschalteter iGPU) Cannon Lake in homöopathischen Dosen in den asiatischen Markt und "verhackstückte" die Restbestände später in den eigenen NUCs.
 
Zurück