GDDR6: Micron will HBM2 angreifen und schlagen

Und den Punkt muss man halt bei aller Theorie noch mit einrechnen und hab so das Gefühl (genaue Werte gibts ja nicht) dass der HBM von GP100 den Chip nicht sparsamer macht als auf dem GP102.
Und der HBM2 bei Vega relativ ineffizient ist, da man Performance/Watt mäßig nichts auf Polaris drauflegt, zudem sich die ASIC vom Gesamtverbrauch der Karte schon deutlich unterscheidet.
Der GP100 hat effektiv doppelt soviele Register und mehr Cache, als ein GP102, neben dem anderen Unterschieden und Entwicklungspunkten, die einen Einfluss haben.
Da ist die Grundlage zum Vergleich schon krude, neben der Tatsache das ein GP100 auch ~170-200GB/s mehr bietet, als ein GP102.
Ähnliches Spiel bei Vega, auf den HBM Einfluss von den Gesamtergebnissen im Vergleich zu deutlich kleineren GPUs zu schließen ist nicht gerade präzise.
Aber der HBM-Speicher ist auch wirklich nicht effizient bei einer Vega64, die Spannung liegt bei 1,35V, die Spec sieht aber 1,2V vor und dabei werden nicht ganz 2Gbps sondern nur 1,89 erreicht.
Die aktuellen HBM Produkte erreichen bei Samsung 2,4 Gbps bei 1,2V, massiv besser, als was davor im Angebot war.


Ja die geben viel an, wenn der Tag lang wird, dennoch sehe ich HBM2 insgesamt nicht wirklich im Vorteil gegenüber GDDR6.
Die fehlende Flexibilität und der höhere Preis verhindern einen breiten Einsatz von HBM2 und vermutlich auch die Bandbreite, weil man hier bei Gaminglösungen nicht mehr mit GDDR6 begrenzt sein wird.
Den Löwenanteil zieht das Speicherinterface und wenn man das mit 256bit schlank hält, rechnet sich wohl für einige Profi u. Gamingkarten auf die nächsten Jahre wohl kein HBM2 Einsatz.
Die Schere was Bandbreite angeht geht dann spätestens mit HBM4 sehr weit zu GDDR6 auseinander, die Frage die ich nur stelle ist: Wie will man das auf geringsten Raum noch zuverlässig kühlen?

Okay und wie sieht es mit den Angaben bei GDDR6 aus?
Wie rechtfertigst du eig. dein Bauchgefühl, was falsche Angaben angeht und was angeblich eher der Realität entspricht?
Durch Gesamtvergleiche von den GPUs siehe oben?

Wie man anhand der Energietabelle entnehmen kann, hilft GDDR6 nur wenig bei der Energieeffizienz, entsprechend ist man von der Perf/Watt beschränkt und kann die Bandbreite nicht so hoch ausfallen lassen, wie GDDR6 theoretisch bieten könnte, auch wenn du bei 256-Bit bleibst, die Quad-Data-Rate und die höheren Taktraten werden dich energetisch genauso wenn nicht mehr kosten, als ein breites Interface.
Und wenn du HBM4 nicht verlässlich @ X-Bandbreite kühlen kannst, dann schaffst du auch kein besseres System mit einem anderem Speicherstandard bzw. die aktuell verfügbar sind.

Die Frage ist wer will 160 Watt Energiebudget für HBM 3 Speicher ansetzen?
Kaum jemand, aber wer will stattdessen lieber 400 Watt für eine GDDR6 Lösung ausgeben?

Also was bringt HBM2 heute großartig gegenüber GDDR6 und wird man HBM3 dann noch kühlen können oder muss man sich nicht wieder eine neue Technologie überlegen, die deutlich sparsamer zu Werke geht?
Die Frage ist, ob sich das auf das ganze Energiebudget gerechnet lohnt?
Es bringt dir in der Praxis immer noch die gleichen Vorteile wie gegenüber GDDR5.
Eine bessere Perf/Watt, wenn du power-limited bist entsprechend mehr Bandbreite oder weniger Verbrauch und mehr Power-Budget für den Chip selber.
Es bietet dir eine größere Speicherkapazität pro mm² an bzw. auch Bandbreite.
Wie willst du eine GPU mit GDDR6 umsetzen, die 32GB mit >900GB/s besitzt und in so einem Formfaktor unterkommt?
https://hothardware.com/ContentImages/NewsItem/41005/content/big_tesla-v100-board.jpg.ashx?maxwidth=1170&maxheight=1170
https://www.advancedhpc.com/wp-cont...-1-With-NVIDIA-Volta-GV100-e1524173944975.png

Die Verbreitung von HBM bei Konsumenten kann man natürlich kritisch betrachten, aber HPC-Systeme alleine sorgen dafür das HBM alternativlos dasteht und gebucht wird.
Ebenso sind die Vorteile bei kleinen Systemen nicht von der Hand zu weisen, du bekommst so in ein Laptop noch einmal mehr Kapazität und Effizienz auf kleinem Raum runter.

Die spannende Frage ist einfach wie die Nachfrage aussehen wird und die Speicherpreise in der Zukunft.
Ein wichtiger Eckpunkt bei HBM ist das komplexe Packaging, wo man gespannt darauf sein kann, ob große Interposer weiterhin benötigt werden und Unternehmen auf flexiblere Lösungen wie Intels EMIB setzen können.
Ebenso ob irgendwann mal eine Low-Cost-Variante spezifiziert wird, wie man sie einmal skizziert hat, weniger TSVs, nur halb so breites Interface, möglicherweise kein Buffer-Die unten, kein Silizium Interposer etc.
Das wäre nicht so effizient wie die aktuelle HBM-Form, aber würde die Kosten und Komplexität massiv drücken, während man dennoch große Vorteile gegenüber GDDR-Lösungen besitzen würde, die Effizienz wäre weiterhin besser und ebenso die Kapazität pro mm².

Und natürlich ist deine letzte Frage ein bisher offenes Mysterium, HBM wird offensichtlich in der Zukunft auch limitieren, eig. tut es das auch schon jetzt, also was wird die nächste, bessere Speichertechnologie sein und wann erscheint sie?

Man will doch bei HBM eher die Bandbreite erhöhen als den Takt anzuheben oder? Dann steigt der Stromverbrauch auch nicht.
Kommt darauf an, wie Sie die Sache bei HBM3 regeln, aber HBM2 hat primär nur den Takt erhöht.
Bei HBM3 wird man vermutlich ebenfalls den Takt erhöhen, möglicherweise aber nicht nur im DDR-Modus arbeiten, weil aktuell werden 4Gbps prognostiziert und ich weiß nicht, ob man das fehlerfrei beim bisherigen Aufbau schaffen kann.
 
Der GP100 hat effektiv doppelt soviele Register und mehr Cache, als ein GP102, neben dem anderen Unterschieden und Entwicklungspunkten, die einen Einfluss haben.
Da ist die Grundlage zum Vergleich schon krude, neben der Tatsache das ein GP100 auch ~170-200GB/s mehr bietet, als ein GP102.
Ähnliches Spiel bei Vega, auf den HBM Einfluss von den Gesamtergebnissen im Vergleich zu deutlich kleineren GPUs zu schließen ist nicht gerade präzise.
Aber der HBM-Speicher ist auch wirklich nicht effizient bei einer Vega64, die Spannung liegt bei 1,35V, die Spec sieht aber 1,2V vor und dabei werden nicht ganz 2Gbps sondern nur 1,89 erreicht.
Die aktuellen HBM Produkte erreichen bei Samsung 2,4 Gbps bei 1,2V, massiv besser, als was davor im Angebot war.

Ja, mir ist das schon klar dass das nicht 1:1 zu vergleichen ist, dennoch sind die bisher erschienenen Produkte mit HBM irgendwie auch was Performance/Watt betrifft nicht so richtig überzeugend.
Warum hat man denn Beispielsweise bei einer Vega 1,35 Volt genommen? Aus Yield-Gründen? Kosten Gründen?


Okay und wie sieht es mit den Angaben bei GDDR6 aus?
Wie rechtfertigst du eig. dein Bauchgefühl, was falsche Angaben angeht und was angeblich eher der Realität entspricht?
Durch Gesamtvergleiche von den GPUs siehe oben?

Bei GDDR6 sieht das auf dem Papier natürlich wesentlich schlechter aus, GDDR6 hilft ja wie du sagtest nur etwa die Leistungsaufnahme um 15% zu senken.
Wenn ich mir AMD´s Folien ansehe, dann benötigen 4GB HBM 14 Watt und 4GB GDDR5 30 Watt, also um den Daumen gepeilt die 3 fache Effizienz bedenkt man die 512GB/s gegenüber den ~300GB/s der 290x.
Worum es mir geht es ist eher: Was hat die Grafikkarte für ein TDP Budget und wieviel ist der prozentuale Anteil und lohnt sich dadurch die Verwendung von HBM2?

auch wenn du bei 256-Bit bleibst, die Quad-Data-Rate und die höheren Taktraten werden dich energetisch genauso wenn nicht mehr kosten, als ein breites Interface.
Und wenn du HBM4 nicht verlässlich @ X-Bandbreite kühlen kannst, dann schaffst du auch kein besseres System mit einem anderem Speicherstandard bzw. die aktuell verfügbar sind.

Ich dachte immer das Interface hätte den Löwenanteil am Strombedarf?
Was ist denn mit Octal-Data-Rate, wieso kann das denn nicht beispielsweise für ein GDDR7 mit ~1,2 Volt und nochmals ~15% gesenkter Leistungsaufnahme und theoretisch verdoppelter Bandbreite herhalten?
Mir ist schon klar dass GDDR theoretisch nicht an die Bandbreite von HBM3 herankommen kann, weil ein 1024bit Interface quasi nicht machbar wäre.
Aber die Sprünge von GDDR6 verglichen zu GDDR5 (dem jahrelangen Standard der sich kaum bewegt hat) finde ich schon bemerkenswert.
Warum gibt es plötzlich den Fokus auf GDDR6? Weil HBM vielleicht auch nicht ganz das wurde, was man sich von Anfang an versprochen hat und die neue Speicherarchitektur auch ein Verfallsdatum hat?
So wie ich das sehe, beginnt die Problematik schon bei HBM3 weil man hier wohl auch primär den Takt auf 1,5 GHz oder mehr erhöhen will.

Ich wäre mir nicht so sicher, ob da ein GDDR6 oder ein weiter verbessertes GDDR7 nicht vielleicht doch abseits des höheren Strombedarfs die bequemere Lösung sein dürfte.

Wie willst du eine GPU mit GDDR6 umsetzen, die 32GB mit >900GB/s besitzt und in so einem Formfaktor unterkommt?

Kann man sicherlich mit GDDR6 umsetzen, aber den Formfaktor wird man kaum einhalten können, und man wird wohl etwa~ 40 Watt mehr für den Speicher benötigen.
Dort wo das Geld keine Rolle spielt und die Margen so hoch sind, sehe ich HBM ja als die bessere Alternative, deswegen schränkte ich das ja auch ein.

Ebenso sind die Vorteile bei kleinen Systemen nicht von der Hand zu weisen, du bekommst so in ein Laptop noch einmal mehr Kapazität und Effizienz auf kleinem Raum runter.

Naja, bei Laptops würde ich das nicht so sehen, außer bei wirklich extrem kompakten Geräten, die dann aber auch an der Wärmekonzentration auf wenigen mm² zu leiden haben dürften.

Ebenso ob irgendwann mal eine Low-Cost-Variante spezifiziert wird, wie man sie einmal skizziert hat, weniger TSVs, nur halb so breites Interface, möglicherweise kein Buffer-Die unten, kein Silizium Interposer etc.

Wenn ich mich recht erinnere hat Samsung eine solche Variante bereits 2016 vorgestellt gehabt.
Wenn GDDR6 jetzt nicht gekommen wäre, wäre das vermutlich eine Lösung das ganze irgendwie billig zu machen.

Gefunden: "Samsung also announced a lower cost version of HBM under development targeting mass markets. Removing the buffer die and decreasing the number of TSVs lowers cost, though at the expense of a decreased overall bandwidth (200 GB/s)."

Wenn man mit EMIB weniger Durchkontaktierungen benötigt als mit dem bisherigen Interposeransatz, dann könnte das ja was werden.
Die Frage ist nur hat Intel EMIB an AMD lizensiert oder wie damals bei 64Bit Technologien getauscht?
Oder könnte Intel EMIB nicht gegen das langsame Mesh ersetzen und mehrere monolithische Prozessoren die jeweils mit Ringbus arbeiten, miteinander verbinden?
Was schafft EMIB eigentlich für Datenraten?

Die ersten EMIB Verbindungen auf den Stratix 10 FPGAs schaften grade mal ~56GBit/s, mit wieviel ist da eigentlich Volaris M angebunden?

Und natürlich ist deine letzte Frage ein bisher offenes Mysterium, HBM wird offensichtlich in der Zukunft auch limitieren, eig. tut es das auch schon jetzt, also was wird die nächste, bessere Speichertechnologie sein und wann erscheint sie?

Hat AMD nach NAVI nicht eine GPU mit neuer Speichertechnologie angepriesen?
BTW, bis HBM3 dauert es ja scheinbar noch bis 2022, da wäre ich jetzt mal gespannt wie sich GDDR6 bis dahin so enwickeln wird, ich behaupte jetzt einfach mal dass bis 2022 alle Geforces noch mit GDDR6 kommen werden.^^
 
Zuletzt bearbeitet:
Ja, mir ist das schon klar dass das nicht 1:1 zu vergleichen ist, dennoch sind die bisher erschienenen Produkte mit HBM irgendwie auch was Performance/Watt betrifft nicht so richtig überzeugend.
Warum hat man denn Beispielsweise bei einer Vega 1,35 Volt genommen? Aus Yield-Gründen? Kosten Gründen?
Ausgehend von den 1,2V bei Vega56 mit 1,6 Gbps wahrscheinlich aus Yield-Gründen, da man ohne eine Spannungserhöhung vermutlich zu selten die 1,89Gbps stabil geschafft hätte.
Ich habe mir aber die OC-Erfolge von HBM2 bei Vega nicht angeschaut und ob das wirklich begründet ist.
Bei pc.watch.impress gibt es 1-2 Artikel über die zweite HBM2 Generation von Samsung und SK Hynix und wie Implementierungsänderungen dazu geführt haben, die Signalqualität zu erhöhen und den Verbrauch zu senken:
【後藤弘茂のWeekly海外ニュース】広帯域と大容量にフォーカスした“第2世代”のHBM2メモリ - PC Watch

Aufgrund der reduzierten Channel-Anzahl ist auch die Fertigung simpler geworden, 2-Hi Stacks sind dann nur noch 512-Bit angeschlossen und erreichen somit auch nur die halbe Bandbreite, könnten aber Kostengründen deutlich besser positioniert sein.

Worum es mir geht es ist eher: Was hat die Grafikkarte für ein TDP Budget und wieviel ist der prozentuale Anteil und lohnt sich dadurch die Verwendung von HBM2?
Ob sich das lohnt hängt von der Konkurrenzsituation, der eigenen Architektur und den Preisen ab.
Pauschal gibt es ja keinen Königsweg, wenn soviele Parameter und Faktoren vorliegen, welche die Unternehmen beachten müssen und können.

Ich dachte immer das Interface hätte den Löwenanteil am Strombedarf?
Was ist denn mit Octal-Data-Rate, wieso kann das denn nicht beispielsweise für ein GDDR7 mit ~1,2 Volt und nochmals ~15% gesenkter Leistungsaufnahme und theoretisch verdoppelter Bandbreite herhalten?
Ja, aber bei der vereinfachten Generalisierung reden wir vom ganzen Konstrukt, wie viele Datenleitungen gibt es, wie viele Daten werden übertragen, mit welcher Frequenz und welche Spannung ist nötig damit das stabil abläuft?
GDDR6 kann nicht doppelt soviele Daten umsonst übertragen und wenn wir von 18-20Gbps reden dann auch von höheren Frequenzen, dass kostet Strom und entweder die Spannung muss erhöht werden oder solche Produkte kommen erst viel später, wenn Prozess- und DRAM-Optimierungen solche Frequenzen unter der spezifizierten Spannung möglich machen.

GDDR7 könnte theoretisch das Konzept fortführen, aber das wäre ja in keinem Sinn revolutionär, dann hast du eben noch einmal 15% bei der Effizienz gewonnen und eine verdoppelte Bandbreite.
Im Vergleich zu GDDR5 ~32% bessere Effizienz bei bis zu vierfacher Bandbreite.
Eben die selbe Situation, wie aktuell, du wirst die maximale Bandbreite niemals ausfahren können, wenn du nicht ebenso das Power-Budget für den DRAM um den nötigen Faktor erhöhst.

HBM steht ja auch nicht still, der Abstand dürfte sich grob die Waage halten und dann kommt es eben wieder auf das Zeug oben an, wie sehen die Preise je nach Speicherlösung aus, wie effektiv geht die eigene Architektur mit der Bandbreite um und wie sieht das Power-Budget für die unterschiedlichen Bestandteile bei einem Produkt aus.
Je nachdem wird die ein oder andere Lösung mehr Sinn ergeben.

Aber die Sprünge von GDDR6 verglichen zu GDDR5 (dem jahrelangen Standard der sich kaum bewegt hat) finde ich schon bemerkenswert.
Warum gibt es plötzlich den Fokus auf GDDR6? Weil HBM vielleicht auch nicht ganz das wurde, was man sich von Anfang an versprochen hat und die neue Speicherarchitektur auch ein Verfallsdatum hat?
Ich würde mal auf das Offensichtliche spekulieren, HBM fällt von den Kostenpunkten her zu krass aus, um einen Standard darzustellen, welcher den vorherigen in allen Bereichen ersetzen kann.
Und es dauert immer einige Jahre bis ein neuer Standard den Alten ersetzt.
Bei GDDR hat es offensichtlich noch Sinn ergeben einen evolutionären Nachfolger zu spezifizieren, da niemand Stillstand haben möchte, aber gleichzeitig noch ökonomisch agieren.

Ich wäre mir nicht so sicher, ob da ein GDDR6 oder ein weiter verbessertes GDDR7 nicht vielleicht doch abseits des höheren Strombedarfs die bequemere Lösung sein dürfte.
Die Diagramme machen leider sehr deutlich, dass die GPU-Leistung deutlich stärker ansteigt, als die Speicherbandbreite.
Das unterschlägt natürlich die Bandbreiteneffizienz der Architekturen, aber bei so einer generellen Tendenz kommt man eher an dem Punkt an, wo man auf die effizientere Lösung setzen muss, weil der Alternative über die Zeit immer mehr die Luft ausgeht.

Naja, bei Laptops würde ich das nicht so sehen, außer bei wirklich extrem kompakten Geräten, die dann aber auch an der Wärmekonzentration auf wenigen mm² zu leiden haben dürften.
Es sind vor allem die Kosten, die es bei Laptops gerade so unattraktiv machen.
Ein 8-Hi Stack, ein kleiner Chip, könnte dir aktuell bis zu 8GB bieten und 256GB/s.
Aktuell sieht das ganze bei einem GP104 für Laptops so aus:
No 'GeForce GTX 1080M', but 'GTX 1080 for notebooks'? | VideoCardz.com

Es ist natürlich traurig, technisch existiert die Lösung für viel elegantere Bauten, aber preislich kann man eben das Zeug voll vergessen.
Über kurz oder lang wird sich die Situation aber bessern.

Wenn ich mich recht erinnere hat Samsung eine solche Variante bereits 2016 vorgestellt gehabt.
Wenn GDDR6 jetzt nicht gekommen wäre, wäre das vermutlich eine Lösung das ganze irgendwie billig zu machen.

Gefunden: "Samsung also announced a lower cost version of HBM under development targeting mass markets. Removing the buffer die and decreasing the number of TSVs lowers cost, though at the expense of a decreased overall bandwidth (200 GB/s)."

Der japanische Artikel geht oben ebenfalls darauf ein, dass aufgrund der Preise und der HPC/Data-Center-Nachfrage, die Entwicklung sich mehr auf High-Performance konzentriert hat und weniger auf günstigere 2-Hi Varianten oder den Low-Cost HBM Standard.
Es gibt aber wie gesagt schon Änderungen, welche die Produktion vereinfachen und Post-GDDR5 Ideen hat man parallel präsentiert, aber bis jetzt GDDR6 seit der Präsentation auf den Markt landet sind zwei Jahre vergangen.
Hot Chips 2016: Memory Vendors Discuss Ideas for Future Memory Tech - DDR5, Cheap HBM, & More - Aystartech

Wenn man mit EMIB weniger Durchkontaktierungen benötigt als mit dem bisherigen Interposeransatz, dann könnte das ja was werden.
Die Frage ist nur hat Intel EMIB an AMD lizensiert oder wie damals bei 64Bit Technologien getauscht?
Oder könnte Intel EMIB nicht gegen das langsame Mesh ersetzen und mehrere monolithische Prozessoren die jeweils mit Ringbus arbeiten, miteinander verbinden?
Was schafft EMIB eigentlich für Datenraten?

Die ersten EMIB Verbindungen auf den Stratix 10 FPGAs schaften grade mal ~56GBit/s, mit wieviel ist da eigentlich Volaris M angebunden?
EMIB ist im Prinzip eine Silizium-Brücke im Package integriert und nicht wie ein Interposer als ein großer Zwischenlayer auf dem PCB aufgebracht:
https://i0.wp.com/techquila.co.in/wp-content/uploads/2017/12/9.png

Man braucht entsprechend genauso viele Kontakte und die Geschwindigkeit ist auch nicht anders oder dergleichen, sondern es ist eine elegantere Baumethode.
Anstatt >1000mm² für einen Interposer zu verschwenden, auf dem ein großer Chip und die Stacks passen müssen, nimmst du lieber 4 kleine Brücken und verbindest lokal, da wo du eben eine Verbindung brauchst.
Die Package-Stabilität sollte auch besser ausfallen.
Dafür ist die Komplexität natürlich an anderer Stelle, nun fällt das Package Substrat selber komplexer aus und muss passend dimensioniert werden.

AMD hat keine eigenen Packaging-Anlagen, dass erledigt eine Fertigungstrasse mit mehreren Zwischenstopps bei unterschiedlichen Unternehmen.
Entsprechend muss AMD darauf hoffen, dass ihre Partner eine vergleichbare Möglichkeit anbieten.

Intel selber wird EMIB gewiss dazu verwenden, um langfristig solche Lösungen zu bauen:
https://pics.computerbase.de/7/7/4/6/1/article-630x354.8a8bfdee.jpg

Aber bezüglich deiner spezifischen Frage, dass Mesh liegt Chipintern an und sorgt für eine relativ konstante Leistung und Latenz bei der Chip-Kommunikation.
Die Kommunikation über Siliziumbrücken zu anderen Chips kann das sicherlich nicht toppen, aber aus Kostengründen wird man das langfristig sicher auch anstreben, um so etwas wie AMD's Lösungsansatz umzusetzen.

Bei Kaby-Lake G läuft die HBM2 Verbindung mit bis zu 204GB/s durch die EMIB-Brücke.


Hat AMD nach NAVI nicht eine GPU mit neuer Speichertechnologie angepriesen?
BTW, bis HBM3 dauert es ja scheinbar noch bis 2022, da wäre ich jetzt mal gespannt wie sich GDDR6 bis dahin so enwickeln wird, ich behaupte jetzt einfach mal dass bis 2022 alle Geforces noch mit GDDR6 kommen werden.^^
Ja, Next-Gen Memory was auch immer das sein soll.
Am Ende ist es GDDR6. :ugly:
Keine Ahnung, lassen wir uns mal (böse) überraschen.

Und bis 2022 ändern sich prinzipiell eine Menge Dinge.
Micron zum Beispiel fertigt dann auch HBM-Speicher, endlich gibt es dann drei Anbieter und nicht nur mehr zwei.
Auf der anderen Seite wollten die Hersteller ~2019 die DRAM-Kapazitäten aufstocken, dass könnte allgemein die Preise attraktiver machen und China hat eigene DRAM-Bemühungen, was die Anderen gerade antreibt bei der Entwicklung.
 
Zuletzt bearbeitet:
Naja, GDDR6 mit 8000MHz @ 512Bit SI würde 1024 GB/s schaffen, selbst mit einem 384Bit SI kommt man theoretisch an ein TB/s heran.
Wer weiß was sich in Zukunft hier noch tun wird und wie man Wege findet die Leistungsaufnahme des Speicherinterfaces zu beschränken, oder ob man auf Octa-Data-Rate geht.

Ähm Schaffe... 1024 GB sind 1 TB...
Fang jetzt bitte nicht an, wie Festplattenhersteller zu rechnen.
 
Micron/Crucial - Oh Gott! Ausgerechnet diejenige Billig-No-Name-Fraktion lehnt sich tief aus dem Fenster.
 
Herrlich, jetzt schon ein Flamewar HBM vs. GDDR... man muss doch immer abwägen, was im Moment Sinn macht. Viele hier scheinen das momentane mit dem zukünftigen Potenzial von Technologien durcheinanderzubringen. Jetzt HBM zu verbauen, weil der irgendwann mal besser geeignet sein wird, ist halt Blödsinn. Und für kleinere Chips, die kein riesiges Interface haben, wird GDDR immer eine gute Alternative bleiben.
 
Ähm Schaffe... 1024 GB sind 1 TB...
Fang jetzt bitte nicht an, wie Festplattenhersteller zu rechnen.

Wo hab ich denn so gerechnet? Gar nicht, das war einfach nur überschlagen.
Der Punkt ist einfach der, dass neue Technologien im Generellen immer etwas overhyped werden und man letztendlich dann sehen muss was von HBM unter dem Strich übrig bleibt, vor allem was die Massenmärkte angeht.
 
Der Punkt ist einfach der, dass neue Technologien im Generellen immer etwas overhyped werden und man letztendlich dann sehen muss was von HBM unter dem Strich übrig bleibt, vor allem was die Massenmärkte angeht.

Das zu kritisieren auf eine gewisse Weise ist ja auch vollkommen in Ordnung. Du lehnst dich aber manchmal mit Behauptungen (GDDR6 ist ungefähr so effizient wie HBM2) aus dem Fenster, da möchte man die Tischkante beißen.
 
@Locuza: Der Vega HBM schafft mit 1,2V nicht immer die 945Mhz der 64er. Es kann durchaus passieren dass er sich dann nur bis 900-920Mhz takten lässt. Warum man aber satte 015V aufschlagen musste, verstehe ich nicht wirklich.

HBM ist übrigens sehr Temperaturäffin.
 
@Locuza: Der Vega HBM schafft mit 1,2V nicht immer die 945Mhz der 64er. Es kann durchaus passieren dass er sich dann nur bis 900-920Mhz takten lässt. Warum man aber satte 015V aufschlagen musste, verstehe ich nicht wirklich.

HBM ist übrigens sehr Temperaturäffin.
AMD und die Spannung, ihre Wege sind unergründlich.
 
Micron/Crucial - Oh Gott! Ausgerechnet diejenige Billig-No-Name-Fraktion lehnt sich tief aus dem Fenster.
Micron oder die Darstellung im Artikel?

Das zu kritisieren auf eine gewisse Weise ist ja auch vollkommen in Ordnung. Du lehnst dich aber manchmal mit Behauptungen (GDDR6 ist ungefähr so effizient wie HBM2) aus dem Fenster, da möchte man die Tischkante beißen.
^

Ähnliche Geschichte bei DX12.
Es ist vollkommen in Ordnung wenn man die Erwartungen und möglichen Hype kritisiert, aktuell könnte man sich besonders im Ruhm sonnen, denn DX12 und HBM wurden viel zu optimistisch eingeschätzt (*hust sicherlich nicht von mir *hust* :redface:), jedenfalls zeitlich und von den ersten Implementierungen, aber technisch stehen die Argumente nach wie vor dar und werden sich durchsetzen, aber hier kommt der Punkt wo einige sich dann zu weit aus dem Fenster lehnen und meinen XYZ ist nutzlos und wird eh sterben, GDDR6 und DX11/13 werden es dann tun und ne, eben nicht.

AMD und die Spannung, ihre Wege sind unergründlich.
Indem Fall kommt der Speicher aber nicht von AMD selber und wenn AMD schon "nur" 1,89Gbps verwendet und höhere Spannungen braucht, dann hat man da auch nicht von sich aus übertrieben.
 
Indem Fall kommt der Speicher aber nicht von AMD selber und wenn AMD schon "nur" 1,89Gbps verwendet und höhere Spannungen braucht, dann hat man da auch nicht von sich aus übertrieben.

Man muss in der Betrachtung den Vegachip mit einbeziehen. Der große Chip wird sehr heiß.
HBM hat den Nachteil dass es immer direkt via Interposer am Chip sitzt. Wie ich bereits erwähnte ist der HBM sehr Temperaturäffin.

Wenn man den HBM mit einem sparsameren Chip der weniger Abwärme erzeugt kombiniert, dann sollte da durchaus mehr drin sein bei wenig Spannung.

Der HBM lässt sich bei Vega in Verbindung mit guter Kühlung und 1,35V Spannung ja auch auf 1,1- 1,2 Ghz übertakten.
Die Untergrenze mit guter Kühlung liegt bei 1,35V bei rund 1,05Ghz würde ich schätzen.
 
Ich denke halt auch, wie Gurdi schon meinte, warum denn gleich 0.15V mehr? 0.05 oder 0.1V hätten es bestimmt auch getan. AMD schwingt immer gern die Spannungskeule, das schränkt halt immer stark die Effizenz ein.
Vielleicht verkauft AMD auch einfach die mieserabelsten Chips an die OEMs aber man ließt immer von großen UV Spielräumen, da muss doch von AMD mehr als nur eine Holzhammer-Methode drin sein, oder nicht?
 
Zumindest bei den CPUs betont AMD gern die hohe Yield-Rate. Eine Möglichkeit diese hochzuhalten sind geringe Anforderungen zu stellen und hohe Spannungen für durchschnittliche Taktraten in Kauf zu nehmen – dann ist auch schlechtes Silizium kein Ausschuss, sondern gut genug. In der Vergangenheit gab es schon mehrfach die Vermutung, dass AMD so die GPU-Kosten drückt und bei HBM gibt es definitiv einen hohen Kostendruck. Was hingegen herstellerübergreifend fehlt ist ein billigeres HBM-Produkt als Vega zur Verwertung der schlechtesten/billigsten Binning-Stufe. Da Vega umgekehrt durch die hohen Stückzahlen ein gewichtigen Anteil am gesamten HBM-Absatz hat, wird man bei gut laufender Fertigung aber auch höherwertige Stacks verbauen und bei diesen Karten besteht dann großzügiges UV- oder OC-Potential. Der Anteil derartiger downlable-Exemplare an eine Gesamtproduktion gehört aber meist zu den best gehüteten Firmengeheimnissen. Ich erinnere nur an einige CPU-Generationen, bei denen die billigsten Exemplare durchgängig die Taktraten des Topmodells ohne Spannungsanhebung erreichten, weil de facto fast nur High-End-Dies vom Band liefen, mit denen dann alle Marktbereiche versorgt wurden.
 
Zuletzt bearbeitet:
Na dann mal viel Erfolg. Mir egal welche Technik verbaut wird, Hauptsache schneller und nach Möglichkeit billiger.
 
Dazu gab es vor einiger Zeit auch eine News im 3dcenter:

Auf der Supercomputer-Konferenz SC15 hat nVidia neben genauen Angaben zur Rechenleistung von Pascal & Volta auch über zukünftig drohende Probleme mit der gerade erst in den Mark gekommenen Speichertechnologie "High Bandwith Memory" aka HBM geredet. Dies betrifft nicht den aktuellen HBM1-Standard oder den kommenden HBM2-Standard, aber dafür die danach folgenden weiteren HBM-Ausbaustufen. Denn bei jenen soll laut nVidia deren Strombedarf sehr schnell durch die Decke gehen, was HBM in kürzerer Zeit sehr ineffektiv werden lassen würde. In nVidias (allerdings womöglich auf die zu treffende Aussage hin optimierter) Präsentationsfolie würde die dritte HBM-Ausbaustufe dann schon mehr Strom verbrauchen als der schnellste GDDR5-Speicher.


Die Grundlage hierfür ist wohl darin zu finden, daß mit HBM sehr effektiv das Problem des zu hohen Stromverbrauchs des Speicherinterfaces angegangen wurde, dafür aber der HBM-Speicher selber nunmehr anfällig für einen wesentlich höheren Stromverbrauch bei Taktraten-Steigerungen ist. GDDR5-Speicher hingegen verbraucht auf differierenden Taktraten nicht wesentlich mehr Strom, nur das Speicherinterface (im Grafikchip selber) verbraucht bei hohen GDDR5-Taktraten entsprechend (viel) mehr Strom. Bei HBM liegt die Sachlage anscheinend genau umgedreht – und wird dadurch verschärft, daß HBM2 und wohl auch alle weiteren HBM-Ausbaustufen primär nur mehr Taktrate mitbringen, demzufolge auch den Strombedarf weit nach oben drehen. nVidia will dieses Problem dadurch umgehen, daß man nach den anstehenden Pascal- und Volta-Generationen möglicherweise wieder auf einen anderen Speicherstandard umsatteln will. Dies wird dann allerdings ein Thema des Jahres 2020 sein, liegt damit also noch einigermaßen entfernt.


Bis dahin kann sich einiges getan haben, gerade beim relativ jungen HBM-Standard. Als erstes Mittel gegenüber dem erhöhten Strombedarf bei mehr Speichertakt würde uns eine kleinere Fertigungstechnologie für die HBM-Speicherchips selber einfallen, damit sollte man deren Strombedarf doch eigentlich deutlich senken können. Desweiteren wären auch größere Speicherinterfaces eine Möglichkeit, dafür bräuchte man den Speichertakt nicht weiter anzuheben. Auch andere technologische Weiterentwicklungen könnten letztlich dazu führen, daß jene Prophezeiung nVidias nicht eintrifft bzw. sich erheblich in die weitere Zukunft verschiebt. Für die aktuellen bzw. die im nächsten Jahr anstehenden Grafikkarten hat dies allerdings sowieso (noch) keine Relevanz
nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher | 3DCenter.org

nVidia-Looming-Memory-Power-Crisis.jpg




HBM ist also nicht der heilige Gral, sondern auch hier muss man den Einsatzzweck klug auswählen.
 
Nachdem nun HBM vorbeigezogen ist wird GDDR noch mal bis ans Limit ausgereizt. Ähnlich wie bei den Festplatten wird der Speicher aber vorerst nicht verschwinden.

AMD pusht HBM und bald sehen wir wohl APUs, also CPU und GPU mit direkter HBM Anbindung. Da möchte AMD hin. Technologisch hat hier AMD noch Vorsprung und Nvidia stellt AMD am einfachsten ein Bein in dem sie HBM für den Massenmark außen vor lassen und mit ihren Marktanteilen dort auf GDDR setzten. Höhere Marge und AMD eins ausgewischt.

So oder so. GDDR ist bereits aus dem Highend verschwunden (P100, V100, Vega 10). Nach und nach werden weitere Produkte also nach unten hin folgen. Nvidia wird aber keine Vorreiterrolle spielen.
 
Zurück