Ja, mir ist das schon klar dass das nicht 1:1 zu vergleichen ist, dennoch sind die bisher erschienenen Produkte mit HBM irgendwie auch was Performance/Watt betrifft nicht so richtig überzeugend.
Warum hat man denn Beispielsweise bei einer Vega 1,35 Volt genommen? Aus Yield-Gründen? Kosten Gründen?
Ausgehend von den 1,2V bei Vega56 mit 1,6 Gbps wahrscheinlich aus Yield-Gründen, da man ohne eine Spannungserhöhung vermutlich zu selten die 1,89Gbps stabil geschafft hätte.
Ich habe mir aber die OC-Erfolge von HBM2 bei Vega nicht angeschaut und ob das wirklich begründet ist.
Bei pc.watch.impress gibt es 1-2 Artikel über die zweite HBM2 Generation von Samsung und SK Hynix und wie Implementierungsänderungen dazu geführt haben, die Signalqualität zu erhöhen und den Verbrauch zu senken:
【後藤弘茂のWeekly海外ニュース】広帯域と大容量にフォーカスした“第2世代”のHBM2メモリ - PC Watch
Aufgrund der reduzierten Channel-Anzahl ist auch die Fertigung simpler geworden, 2-Hi Stacks sind dann nur noch 512-Bit angeschlossen und erreichen somit auch nur die halbe Bandbreite, könnten aber Kostengründen deutlich besser positioniert sein.
Worum es mir geht es ist eher: Was hat die Grafikkarte für ein TDP Budget und wieviel ist der prozentuale Anteil und lohnt sich dadurch die Verwendung von HBM2?
Ob sich das lohnt hängt von der Konkurrenzsituation, der eigenen Architektur und den Preisen ab.
Pauschal gibt es ja keinen Königsweg, wenn soviele Parameter und Faktoren vorliegen, welche die Unternehmen beachten müssen und können.
Ich dachte immer das Interface hätte den Löwenanteil am Strombedarf?
Was ist denn mit Octal-Data-Rate, wieso kann das denn nicht beispielsweise für ein GDDR7 mit ~1,2 Volt und nochmals ~15% gesenkter Leistungsaufnahme und theoretisch verdoppelter Bandbreite herhalten?
Ja, aber bei der vereinfachten Generalisierung reden wir vom ganzen Konstrukt, wie viele Datenleitungen gibt es, wie viele Daten werden übertragen, mit welcher Frequenz und welche Spannung ist nötig damit das stabil abläuft?
GDDR6 kann nicht doppelt soviele Daten umsonst übertragen und wenn wir von 18-20Gbps reden dann auch von höheren Frequenzen, dass kostet Strom und entweder die Spannung muss erhöht werden oder solche Produkte kommen erst viel später, wenn Prozess- und DRAM-Optimierungen solche Frequenzen unter der spezifizierten Spannung möglich machen.
GDDR7 könnte theoretisch das Konzept fortführen, aber das wäre ja in keinem Sinn revolutionär, dann hast du eben noch einmal 15% bei der Effizienz gewonnen und eine verdoppelte Bandbreite.
Im Vergleich zu GDDR5 ~32% bessere Effizienz bei bis zu vierfacher Bandbreite.
Eben die selbe Situation, wie aktuell, du wirst die maximale Bandbreite niemals ausfahren können, wenn du nicht ebenso das Power-Budget für den DRAM um den nötigen Faktor erhöhst.
HBM steht ja auch nicht still, der Abstand dürfte sich grob die Waage halten und dann kommt es eben wieder auf das Zeug oben an, wie sehen die Preise je nach Speicherlösung aus, wie effektiv geht die eigene Architektur mit der Bandbreite um und wie sieht das Power-Budget für die unterschiedlichen Bestandteile bei einem Produkt aus.
Je nachdem wird die ein oder andere Lösung mehr Sinn ergeben.
Aber die Sprünge von GDDR6 verglichen zu GDDR5 (dem jahrelangen Standard der sich kaum bewegt hat) finde ich schon bemerkenswert.
Warum gibt es plötzlich den Fokus auf GDDR6? Weil HBM vielleicht auch nicht ganz das wurde, was man sich von Anfang an versprochen hat und die neue Speicherarchitektur auch ein Verfallsdatum hat?
Ich würde mal auf das Offensichtliche spekulieren, HBM fällt von den Kostenpunkten her zu krass aus, um einen Standard darzustellen, welcher den vorherigen in allen Bereichen ersetzen kann.
Und es dauert immer einige Jahre bis ein neuer Standard den Alten ersetzt.
Bei GDDR hat es offensichtlich noch Sinn ergeben einen evolutionären Nachfolger zu spezifizieren, da niemand Stillstand haben möchte, aber gleichzeitig noch ökonomisch agieren.
Ich wäre mir nicht so sicher, ob da ein GDDR6 oder ein weiter verbessertes GDDR7 nicht vielleicht doch abseits des höheren Strombedarfs die bequemere Lösung sein dürfte.
Die Diagramme machen leider sehr deutlich, dass die GPU-Leistung deutlich stärker ansteigt, als die Speicherbandbreite.
Das unterschlägt natürlich die Bandbreiteneffizienz der Architekturen, aber bei so einer generellen Tendenz kommt man eher an dem Punkt an, wo man auf die effizientere Lösung setzen muss, weil der Alternative über die Zeit immer mehr die Luft ausgeht.
Naja, bei Laptops würde ich das nicht so sehen, außer bei wirklich extrem kompakten Geräten, die dann aber auch an der Wärmekonzentration auf wenigen mm² zu leiden haben dürften.
Es sind vor allem die Kosten, die es bei Laptops gerade so unattraktiv machen.
Ein 8-Hi Stack, ein kleiner Chip, könnte dir aktuell bis zu 8GB bieten und 256GB/s.
Aktuell sieht das ganze bei einem GP104 für Laptops so aus:
No 'GeForce GTX 1080M', but 'GTX 1080 for notebooks'? | VideoCardz.com
Es ist natürlich traurig, technisch existiert die Lösung für viel elegantere Bauten, aber preislich kann man eben das Zeug voll vergessen.
Über kurz oder lang wird sich die Situation aber bessern.
Wenn ich mich recht erinnere hat Samsung eine solche Variante bereits 2016 vorgestellt gehabt.
Wenn GDDR6 jetzt nicht gekommen wäre, wäre das vermutlich eine Lösung das ganze irgendwie billig zu machen.
Gefunden: "Samsung also announced a lower cost version of HBM under development targeting mass markets. Removing the buffer die and decreasing the number of TSVs lowers cost, though at the expense of a decreased overall bandwidth (200 GB/s)."
Der japanische Artikel geht oben ebenfalls darauf ein, dass aufgrund der Preise und der HPC/Data-Center-Nachfrage, die Entwicklung sich mehr auf High-Performance konzentriert hat und weniger auf günstigere 2-Hi Varianten oder den Low-Cost HBM Standard.
Es gibt aber wie gesagt schon Änderungen, welche die Produktion vereinfachen und Post-GDDR5 Ideen hat man parallel präsentiert, aber bis jetzt GDDR6 seit der Präsentation auf den Markt landet sind zwei Jahre vergangen.
Hot Chips 2016: Memory Vendors Discuss Ideas for Future Memory Tech - DDR5, Cheap HBM, & More - Aystartech
Wenn man mit EMIB weniger Durchkontaktierungen benötigt als mit dem bisherigen Interposeransatz, dann könnte das ja was werden.
Die Frage ist nur hat Intel EMIB an AMD lizensiert oder wie damals bei 64Bit Technologien getauscht?
Oder könnte Intel EMIB nicht gegen das langsame Mesh ersetzen und mehrere monolithische Prozessoren die jeweils mit Ringbus arbeiten, miteinander verbinden?
Was schafft EMIB eigentlich für Datenraten?
Die ersten EMIB Verbindungen auf den Stratix 10 FPGAs schaften grade mal ~56GBit/s, mit wieviel ist da eigentlich Volaris M angebunden?
EMIB ist im Prinzip eine Silizium-Brücke im Package integriert und nicht wie ein Interposer als ein großer Zwischenlayer auf dem PCB aufgebracht:
https://i0.wp.com/techquila.co.in/wp-content/uploads/2017/12/9.png
Man braucht entsprechend genauso viele Kontakte und die Geschwindigkeit ist auch nicht anders oder dergleichen, sondern es ist eine elegantere Baumethode.
Anstatt >1000mm² für einen Interposer zu verschwenden, auf dem ein großer Chip und die Stacks passen müssen, nimmst du lieber 4 kleine Brücken und verbindest lokal, da wo du eben eine Verbindung brauchst.
Die Package-Stabilität sollte auch besser ausfallen.
Dafür ist die Komplexität natürlich an anderer Stelle, nun fällt das Package Substrat selber komplexer aus und muss passend dimensioniert werden.
AMD hat keine eigenen Packaging-Anlagen, dass erledigt eine Fertigungstrasse mit mehreren Zwischenstopps bei unterschiedlichen Unternehmen.
Entsprechend muss AMD darauf hoffen, dass ihre Partner eine vergleichbare Möglichkeit anbieten.
Intel selber wird EMIB gewiss dazu verwenden, um langfristig solche Lösungen zu bauen:
https://pics.computerbase.de/7/7/4/6/1/article-630x354.8a8bfdee.jpg
Aber bezüglich deiner spezifischen Frage, dass Mesh liegt Chipintern an und sorgt für eine relativ konstante Leistung und Latenz bei der Chip-Kommunikation.
Die Kommunikation über Siliziumbrücken zu anderen Chips kann das sicherlich nicht toppen, aber aus Kostengründen wird man das langfristig sicher auch anstreben, um so etwas wie AMD's Lösungsansatz umzusetzen.
Bei Kaby-Lake G läuft die HBM2 Verbindung mit bis zu 204GB/s durch die EMIB-Brücke.
Hat AMD nach NAVI nicht eine GPU mit neuer Speichertechnologie angepriesen?
BTW, bis HBM3 dauert es ja scheinbar noch bis 2022, da wäre ich jetzt mal gespannt wie sich GDDR6 bis dahin so enwickeln wird, ich behaupte jetzt einfach mal dass bis 2022 alle Geforces noch mit GDDR6 kommen werden.^^
Ja, Next-Gen Memory was auch immer das sein soll.
Am Ende ist es GDDR6.
Keine Ahnung, lassen wir uns mal (böse) überraschen.
Und bis 2022 ändern sich prinzipiell eine Menge Dinge.
Micron zum Beispiel fertigt dann auch HBM-Speicher, endlich gibt es dann drei Anbieter und nicht nur mehr zwei.
Auf der anderen Seite wollten die Hersteller ~2019 die DRAM-Kapazitäten aufstocken, dass könnte allgemein die Preise attraktiver machen und China hat eigene DRAM-Bemühungen, was die Anderen gerade antreibt bei der Entwicklung.