News GDDR7 mit 32 Gbps: Samsung entwickelt Grafikspeicher für Next-Gen-GPUs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu GDDR7 mit 32 Gbps: Samsung entwickelt Grafikspeicher für Next-Gen-GPUs

Samsung Electronics hat mit der Massenproduktion von GDDR7 begonnen. Der neue Grafikspeicher soll besonders effizient und mit Speichergeschwindigkeiten von bis zu 32 Gbps insbesondere auch für Next-Gen-Grafikkarten ausgelegt sein. Davon profitieren die Bereiche Gaming, High-Performance Computing ("HPC"), GPGPU und AI-Beschleunigung.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: GDDR7 mit 32 Gbps: Samsung entwickelt Grafikspeicher für Next-Gen-GPUs
 
Was ist eigentlich aus HBM geworden bzw für was wurde das eigentlich entwickelt ?
Finde es lustig da es ja von AMD zusammen mit SK Hynix entwickelt wurde aber selbst AMD verbaut auf seinen
Flaggschiff GPUs ja wieder GDDR6.
 
Was ist eigentlich aus HBM geworden bzw für was wurde das eigentlich entwickelt ?
HBM ist eine sehr teure Option für spezielle Workloads und wird verwendet bei Profikarten, zum Beispiel dem GH100.
1689879905965.png


Für Spielegrafikkarten zu Hause bringt das wenig und würde (natürlich nicht nur deswegen aber HBM ist halt nicht günstig) auch ganz neue Preisklassen aufmachen...


:-D
 
HBM ist eine sehr teure Option für spezielle Workloads und wird verwendet bei Profikarten, zum Beispiel dem GH100.
Für Spielegrafikkarten zu Hause bringt das wenig und würde (natürlich nicht nur deswegen aber HBM ist halt nicht günstig) auch ganz neue Preisklassen aufmachen...
Ok komisch, weil es gab doch schon früher Desktop Grafikkarten mit HBM Speicher und diese waren sehr günstig.
 
Ok komisch, weil es gab doch schon früher Desktop Grafikkarten mit HBM Speicher und diese waren sehr günstig.
Naja, für damalige Verhältnisse nicht wirklich und die Stärken der hohen Speicherbandbreite konnten sie auch nicht wirklich ausspielen, weil den Karten in den Szenarien, in denen das der Fall gewesen wäre, der Speicher ausging. Das ginge heute vermutlich besser, Hopper soll mit 16-GB-Stacks die je 600GB/s liefern kommen. Es ist vermutlich nicht exorbitant teuer, aber vermutlich hat GDDR einfach besser mitgehalten, als man gedacht hat und ist allgemein und spätestens in Summe auch günstiger. Immerhin braucht man für GDDR keinen Interposer, bzw. keinen Platz auf einem schon verwendeten und man benötigt deutlich weniger Leitungen in den Chip rein.
 
Was ist eigentlich aus HBM geworden bzw für was wurde das eigentlich entwickelt ?
Läuft auf Hochtouren.

Ok komisch, weil es gab doch schon früher Desktop Grafikkarten mit HBM Speicher und diese waren sehr günstig.
Ich wäre auch dafür, dass die nächste High End 32 GB HBM hätte ...
Dann kostet die halt ! (AMD 2000€ / NV 4000€)
 

Anhänge

  • 32 GB HBM unter 1000 €.jpg
    32 GB HBM unter 1000 €.jpg
    404,2 KB · Aufrufe: 35
Zuletzt bearbeitet von einem Moderator:
Ich wäre auch dafür, dass die nächste High End 32 GB HBM hätte ...
Dann kostet die halt ! (AMD 2000€ / NV 4000€)
Aber wofür? GDDR7 mit 32GT/s schafft an 384 Bit 1,5TB/s, zwei 16-GB-HBM-Stacks 2TB/s. Ich weiß nicht, ob das diese Kosten rechtfertigt. Skaliert auch schlecht. Da kann man dann halt nicht mal 4GB wegnehmen. Das würde dementsprechend dann genau ein Modell sein, für das man dann ein HBM-kompatibles Speicherinterface entwerfen muss.
 
Läuft auf Hochtouren.


Ich wäre auch dafür, dass die nächste High End 32 GB HBM hätte ...
Dann kostet die halt ! (AMD 2000€ / NV 4000€)
Ich wäre eher für eine Bestückung mit 4 oder vllt. nur 2GB HBM. Und den restlichen Speicher (8 bis 12GB) als herkömmlichen Speicher. ->Den HBM für alle häufiger zu ändernden Daten und GDDR für die seltener zu ändernden Daten.
 
Ich wäre eher für eine Bestückung mit 4 oder vllt. nur 2GB HBM. Und den restlichen Speicher (8 bis 12GB) als herkömmlichen Speicher. ->Den HBM für alle häufiger zu ändernden Daten und GDDR für die seltener zu ändernden Daten.
Halte ich auch nicht für praktikabel. Dann bräuchte man sogar zwei Speicherinterfaces. Und so viel schneller ist HBM nicht, um ihn als Cache (wie ich deine Idee interpretiere) zu nutzen.
 
also mit der Kombination von "schnellem und langsamen" Speicher hat Team Grün ja zumindest schonmal Erfahrungen gemacht :ugly:
Den Käse, den Nvidia bei der GTX970 abgezogen hat, ist doch nicht mit der Idee von sinnvoll angebundenem schnellen + langsamen Speicher vergleichbar. Bei der GTX970 wurde doch nicht bei der Befüllung des Speichers unterschieden und wurde dann bei über 3,5GiB Befüllung zum Flaschenhals.
Halte ich auch nicht für praktikabel. Dann bräuchte man sogar zwei Speicherinterfaces. Und so viel schneller ist HBM nicht, um ihn als Cache (wie ich deine Idee interpretiere) zu nutzen.
So in etwa dachte ich mir das. Wenn der HBM als größerer Cache álà X3D-CPUs angewandt wird... Das müsste sich doch auszahlen. Zumal bei GPUs Speicher mittlerweile das A und O ist.
 
Zuletzt bearbeitet:
Läuft auf Hochtouren.


Ich wäre auch dafür, dass die nächste High End 32 GB HBM hätte ...
Dann kostet die halt ! (AMD 2000€ / NV 4000€)
Leider würde Nvidia das machen ja.
Der größten 2 Vorteile von HBM:
-hier also der Effizienzvorteil (der schwer zu beziffern ist). Aber man kann dieselbe Speicherbandbreite bei wesentlich weniger Verbrauch umsetzen UND
-der Effizienzvorteil kommt von dem wesentlich kleineren Speichercontroller der eben deutlich weniger Strom säuft.

Ein AD 102 wäre dann statt 600mm² vielleicht nur 480mm² groß (reine schätzung) und auch deutlich sparsamer, vielleicht käme man bei 275 Watt auf dieselbe Leistung wie aktuell. Oder man setzt die freigewordene Chipfläche für mehr Hardwareeinheiten, Cache usw ein. Geht ja auch.
Auch interessant wär das im Zusammenhang mit Mobilchips. Ein 200mm² großer Chip mit HBM könnte sehr sparsam sein und deshalb Laptops befeuern.

Der Preis von HBM ist zwar deutlich höher wie der von GDDR6(X), aber dann auch wieder nicht so hoch, dass es tatsächlich enorme Preise rechtfertigt (außer man will halt die Kunden schröpfen). Auch der Preis einer 4060 Ti 16GB dürfte niemals richtung 500 gehen. Im Einkauf kosten die zusätzlichen 8GB Ram einen Furz.

Also ja, stimme vollumfänglich zu: gerne eine "TItan" zur nächsten Serie, mit 32 GB HBM und etwas normalerem Verberauch


Aber wofür? GDDR7 mit 32GT/s schafft an 384 Bit 1,5TB/s, zwei 16-GB-HBM-Stacks 2TB/s. Ich weiß nicht, ob das diese Kosten rechtfertigt. Skaliert auch schlecht. Da kann man dann halt nicht mal 4GB wegnehmen. Das würde dementsprechend dann genau ein Modell sein, für das man dann ein HBM-kompatibles Speicherinterface entwerfen muss.

Siehe oben
a) Chipflächenersparnis
b) geringerer Verbrauch bei gleicher Leistung oder die Möglichkeit (s. a) mehr Einheiten zu verbauen für mehr Leistung (oder höher Takten), höhere Effizienz für den inzwischen schon sehr großen Mobilmarkt.
c) Raytracing mag nunmal RAM und Bandbreite.

Vielleicht sind die Preise für HBM deutlich nach oben gegangen, seit sie nur noch für HPCs verwendet werden, aber eigentlich dürfte der Preis nicht all zu weit über normalem GDDR liegen. die VII gabs auch mit 16 GB HBM.

Eine 5090/Ti/Titan mit HBM bei 30-50% mehr Rasterleistung (mehr braucht es auch gar nicht mehr, die 4090 ist ja eh schon anderwertig limitiert) aber 200% mehr RT Leistung (sofern diese mit RT Einheiten skaliert) und @250W wär ein Traum für mich.
Realistisch ist das aber nur bedingt: Nvidia will verdienen, sie nehmen also den günstigeren RAM und auch wenn sie es vielleicht könnten, werden sie nicht zu viel in RT zulegen, man hebt sich gerne was für die nächsten Gens auf.

Außer aus irgendwelchen Gründen kommt ein HPC Chip mit einer für Spiele brauchbaren Konfiguration kommt in den Desktop, dann ist es möglich, ich trau es aber eher AMD und Intel zu als Nvidia derzeit
 
Zuletzt bearbeitet:
Da bin ja gespannt, was die Grünen und die Roten und eventuell Intel (?)daraus zaubern werden !
Und AMD machst hoffentlich bei dem next Gen GPU besser ,was dem verbrauch mit Mulitmonitoring Setup angeht.
Und schöne grüße an Mr.Lederjacke von Nvidia ,nein ich wäre nicht bereit für eine High End GPU über 2 K oder mehr zu zahlen.:motz:Ehr liegt das bei max.1 K. Ich nehme grundsätzlich das,was Preis/Leistung zu Verbrauch stimmt,sprich effiziens.Damit meine Stromrechnung nicht explodiert und die Umwelt nicht unnötig belaste. Und meine jetzigen Netzteil(e) mit 650 und 750 Watt will ich natürlich weiter nutzen.Mindestens 4-5 Jahre noch.Und muß nicht gleich eine neuinvestion a la 850 Watt PSU sein oder mit noch mehr Leistung.Schaun war mal in ungefähr 1 Jahr was eure GPU,s
in der oberen und High End Klasse verbraten werden.Wobei ich denke das AMD wieder die effizientere GPU herrausbringen wird.Auch wenn es nicht wieder zu dem Grünen von der Leistung her reichen wird,nehme ich an.
Dafür aber in einem bezahlbaren bereich, die auch normal verdiener sich das leisten können...hoffentlich:daumen:
 
Zuletzt bearbeitet von einem Moderator:
[…]

Ein AD 102 wäre dann statt 600mm² vielleicht nur 480mm² groß (reine schätzung) und auch deutlich sparsamer, vielleicht käme man bei 275 Watt auf dieselbe Leistung wie aktuell. Oder man setzt die freigewordene Chipfläche für mehr Hardwareeinheiten, Cache usw ein. Geht ja auch.
Auch interessant wär das im Zusammenhang mit Mobilchips. Ein 200mm² großer Chip mit HBM könnte sehr sparsam sein und deshalb Laptops befeuern.

Der Preis von HBM ist zwar deutlich höher wie der von GDDR6(X), aber dann auch wieder nicht so hoch, dass es tatsächlich enorme Preise rechtfertigt (außer man will halt die Kunden schröpfen). […]
Was bei deiner Annahme aber fehlt. Je mehr Chip Fläche, desto weniger Chips pro Wafer, desto weniger ausbeuten mit voll funktionierenden Chips resultierend weniger Marge pro Wafer.

HBM ist für Gamingkarten aktuell einfach nicht nötig. Es würde nur den Preis unnötig in die Höhe treiben (noch unnötiger wie er ohnehin schon ist).

Ich denke auch, dass die Yiele Rate von Chips mit HBM deutlich geringer ist als wenn man nur ein GDDR Schnittstelle auf den Chip bringt. Daher verwendet man HBM wohl die nächste Zeit nur auf hochpreisigen Profikarten.
 
Den Käse, den Nvidia bei der GTX970 abgezogen hat, ist doch nicht mit der Idee von sinnvoll angebundenem schnellen + langsamen Speicher vergleichbar. Bei der GTX970 wurde doch nicht bei der Befüllung des Speichers unterschieden und wurde dann bei über 3,5GiB Befüllung zum Flaschenhals.
war auch nur ein Spaß. Ist schon klar, dass das kein Vergleich ist :)
 
Was ist eigentlich aus HBM geworden bzw für was wurde das eigentlich entwickelt ?
Finde es lustig da es ja von AMD zusammen mit SK Hynix entwickelt wurde aber selbst AMD verbaut auf seinen
Flaggschiff GPUs ja wieder GDDR6.
Und was ist mit stacked GDDR6-Speicher? Dazu gab es vor einiger Zeit ja auch mal einen interessanten Artikel.
 
So in etwa dachte ich mir das. Wenn der HBM als größerer Cache álà X3D-CPUs angewandt wird... Das müsste sich doch auszahlen. Zumal bei GPUs Speicher mittlerweile das A und O ist.
Wie gesagt, ein Cache sollte schon deutlich schneller sein. Also so Faktor 10 aufwärts. Das sehe ich bei HBM einfach nicht. Ansonsten wird das ja schon gemacht. Die Caches in den GPUs, bzw. den Memory-Dies sind jetzt drastisch gewachsen.
a) Chipflächenersparnis
Schon, gestapelte Chips haben aber auch so ihre Tücken.
b) geringerer Verbrauch bei gleicher Leistung oder die Möglichkeit (s. a) mehr Einheiten zu verbauen für mehr Leistung (oder höher Takten), höhere Effizienz für den inzwischen schon sehr großen Mobilmarkt.
Meine Vermutung ist wie gesagt, dass die Effizienzschere zwischen GDDR und HBM einfach nicht so weit aufgegangen ist, wie man gedacht hat.
c) Raytracing mag nunmal RAM und Bandbreite.
Wäre halt wie gesagt für ein einzelnes Modell, außer man bietet ein runterskaliertes HPC-Modell an oder könnte Know-How recyclen, viel Aufwand für ein Drittel mehr Bandbreite.
Vielleicht sind die Preise für HBM deutlich nach oben gegangen, seit sie nur noch für HPCs verwendet werden, aber eigentlich dürfte der Preis nicht all zu weit über normalem GDDR liegen. die VII gabs auch mit 16 GB HBM.
Ich glaube nicht, dass der Preisunterschied krass ist und ich kann mir auch schon gut vorstellen, dass das auch eine Produktions- bzw. Angebotssache ist. GDDR als Consumermassenware, HBM als Profiequipment.
Eine 5090/Ti/Titan mit HBM bei 30-50% mehr Rasterleistung (mehr braucht es auch gar nicht mehr, die 4090 ist ja eh schon anderwertig limitiert) aber 200% mehr RT Leistung (sofern diese mit RT Einheiten skaliert) und @250W wär ein Traum für mich.
Ist halt die Frage, ob die RT-Einheiten wirklich an der aktuellen Bandbreite verhungern. Die 250W bekommt man sicher hin, aber ab Werk sehe ich das nicht kommen und der Leistungssprung zu einer ausgefahrenen 4090 wird dann vermutlich auch deutlich schrumpfen.
 
Zurück