Samsung: Details zum Next-Gen-Grafikkartenspeicher GDDR7

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Samsung: Details zum Next-Gen-Grafikkartenspeicher GDDR7

Die Speicherexperten von Samsung haben erste Informationen zum kommenden GDDR7-Grafikspeicher bekannt gegeben. Bei diesem soll die Geschwindigkeit im Vergleich zu GDDR6-Speicher verdoppelt werden, wodurch höhere Speicherbandbreiten oder schmalere Anbindungen realisiert werden können. Lesen Sie daher im Folgenden mehr dazu und zu Samsungs Vorgehen in einem angespannten PC-Markt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Samsung: Details zum Next-Gen-Grafikkartenspeicher GDDR7
 
Mehr Speed wird meist durch mehr Leistungsaufnahme erkauft. Wäre interessant wie es da bei GDDR7 ausschaut. Aber auch was es bringt wenn der Cache in den GPUs größer wird. Bzw. Würde schnellerer VRAM dem vllt. Entgegen wirken?
 
Mehr Speed wird meist durch mehr Leistungsaufnahme erkauft. Wäre interessant wie es da bei GDDR7 ausschaut. Aber auch was es bringt wenn der Cache in den GPUs größer wird. Bzw. Würde schnellerer VRAM dem vllt. Entgegen wirken?
Mehr Cache wird dem VRAM die Mehrleistung klauen, da hier eben zwischengepuffert wird und somit mehr Bandbreite nicht mehr den riesigen Vorteil ausspielen kann.
 
Mehr Cache wird dem VRAM die Mehrleistung klauen, da hier eben zwischengepuffert wird und somit mehr Bandbreite nicht mehr den riesigen Vorteil ausspielen kann.
Genau das meine ich ja. Aber wenn der VRAM mehr schneller wird müsste der (teure) Cache nicht mehr so groß sein. Die Hersteller werden schon die "günstigste" Lösung finden, ob diese auch die effizienteste ist wird man sehen.
 
Die ganze Sache mit den großen Caches ist nur deswegen überhaupt entstanden weil GDDR-RAM nicht mehr mithalten kann mit den Performancesprüngen neuer GPUs bzw. das Energiebudget für vRAM explodiert. Daran wird auch GDDR7 nichts ändern wenn er "nur" 50% schneller ist.
Vergleiche mal was an der Stelle die letzten Jahre passiert ist... eine TitanX auf Pascalbasis aus dem Jahre 2016 hatte rund 500 GB/s Speicherbandbreite. Eine RTX4090 erreicht grade mal das doppelte - der Chip ist aber etwa Faktor 10 schneller...

Natürlich ist GPU-Chipfläche/Cache sehr teuer und viel teurer als vRAM neben der GPU - nur letzteres ist schlicht und ergreifend zu langsam. Deswegen werden die Caches weiter wachsen und (wie in Kürze bei AMD zu sehen) mit Chiplets realisiert werden um die GPU-Chipgrößen nicht explodieren zu lassen.
 
Genau das meine ich ja. Aber wenn der VRAM mehr schneller wird müsste der (teure) Cache nicht mehr so groß sein. Die Hersteller werden schon die "günstigste" Lösung finden, ob diese auch die effizienteste ist wird man sehen.
In der Theorie ja, allerdings muss man eben auch anerkennen, dass die Grafikkarten immer schneller und schneller werden, der Speicherverbrauch wächst quasi stündlich. Daher wird der VRAM immer schneller werden müssen und die Aussage "dann kann man die Bandbreite von 384Bit reduzieren" ist so in meinen Augen nur begrenzt sinnvoll. Wir haben bereits Spiele die mittlerweile mehr als 10GB VRAM benötigen (bzw. knapp dran) und mit Ada und RDNA 3 wird der Verbrauch nochmals wachsen, da die GPUs ihre Arbeit noch einmal schneller erledigen, die Texturen werden größer usw.

Der Cache hat halt den Vorteil, dass er "zwischenpuffert" und so dem Speichernachteil bei AMD (insbesondere) entgegenwirkt, man kann also Cache drausetzen und dafür BUS Breite und Speicher in der Geschwindigkeit reduzieren.

Was nun am Ende günstiger ist? Ich weiß es nicht!
 
Technologien wie Direct Storage werden hier sicher auch helfen, auch wenn dazu natürlich die ganze Plattform mitspielen muss.
 
ine TitanX auf Pascalbasis aus dem Jahre 2016 hatte rund 500 GB/s Speicherbandbreite. Eine RTX4090 erreicht grade mal das doppelte - der Chip ist aber etwa Faktor 10 schneller...
Bandbreite lässt sich aber recht simpel erhöhen, statt 384 Bit nimmste 512 Bit und schon wäre Ada bei 1.344 Gbps und damit eben schonmal um den Faktor 3 zur Titan X! Mit 36Gb Chips wäre man dann bei gar 2600 gbps!

Es kostet nur sehr viel Geld und die meisten Spiele reagieren gar nicht so sensibel auf die Speicherbandbreite! Takt um 10% erhöhen bringt in der Regel auch gute 10% mehr Leistung, erhöhst du den Speichertakt um 10% und vergrößerst damit die Bandbreite um 10% wird nur sehr selten 10% mehr Leistung rauskommen.

Sprich, Speicherbandbreite skaliert nicht 1:1 zur Rasterizingleistung. Daher ist es wahrscheinlich gar nicht schlimm, dass der Speicher nur um den Faktor 2 schneller geworden ist! Das erkennt man auch seinerzeit als bspw. die Radeon VII mit HMB ausgestattet wurde und grob 1TB/s Speicherbandbreite hatte, dennoch in etwa auf Augenhöhe zur Vega lag, die nur grob halb so hoch lag. Dennoch war die Leistung der beiden Karten (sofern man im Takt und Anzahl der Shader in etwa auf die gleiche theoretische Leistung anpasste) nahezu identisch. Da war schön zu erkennen, dass Bandbreite nicht alles ist.




Kleiner Fakt am Rande, die VII nutzte HBM2 (wenn ich mich nicht täusche), mittlerweile gibt es HBM2e, wo nochmal 50% Bandbreite hinzukam und dann noch HBM3, wo ausgehend von HBM2e nochmals fast 100% on top kam. Eine VII mit HBM3 wäre also vermutlich mit deutlich über 2Tb/s unterwegs! Ist halt teuer und wahrscheinlich sinnlos!
Technologien wie Direct Storage werden hier sicher auch helfen, auch wenn dazu natürlich die ganze Plattform mitspielen muss.
Weiß ich nicht, bisher nicht so richtig bei mir angekommen die Technik. Ja, sinnvoll dass der Weg der Daten abgekürzt wird, ob sich daraus aber ein wirklicher Vorteil im Spiel ergibt? Eher nicht, kann mir vorstellen, dass Ladezeiten verkürzt werden, wenn komplette Szenen neu in den Speicher geladen werden. Allerdings ist heutiger DDR RAM im PC numal immer noch deutlich schneller wie jede NVME SSD!
 
Bandbreite lässt sich aber recht simpel erhöhen, statt 384 Bit nimmste 512 Bit
Um auf das gleiche Bandbreiten zu Rohleistung Verhältnis wie damals zu kommen müssteste statt 384 Bit 2560 Bit verbauen - und das ist sowohl technisch als auch wirtschaftlich nicht machbar.
Selbst die 512 bit sind technisch derart aufwendig dass es keinen Sinn macht. So dicke Interfaces brauchen zig Layer auf den PCBs und massenhaft zusätzliche BGA-Pins an den Chips wo einfach ohne Weiteres kein Platz mehr ist. Schau dir mal die Sockel von EPYC, Saphhire Rapids usw. an die sehr viele Speicherchannels bieten was da an Größe und Pinanzahl nötig wird. Das geht bei GPUs schlichtweg so nicht.

Sprich, Speicherbandbreite skaliert nicht 1:1 zur Rasterizingleistung. Daher ist es wahrscheinlich gar nicht schlimm, dass der Speicher nur um den Faktor 2 schneller geworden ist!
Dass es nicht 1:1 skaliert stimmt, dass es aber "nicht so schlimm" ist nicht. Sowohl AMD als auch NV haben schon vor Jahren darauf hingewiesen, dass Speicherbandbreite des vRAMs eines der allergrößten Probleme überhaupt ist das ihnen im Weg steht. Deswegen gibts ja kurzfristige Kunstgriffe wie GDDR6-"X", mittelfristige Dinge wie große Caches und langfristige Ziele wie Cache-Chiplets (im Serverbereich schon lange HBM) usw.

NVidia hat da in ihrer Konferenz 2015 schon den Totenkopf ausgepackt beim Versuch, die Bandbreite auf mehrere Tausend GB/s zu steigern:
1665229836942.png


...und wie wir heute 7 Jahre später sehen ist man den Weg obwohl nötig nicht gegangen - wir sind immer noch bei 1000 GB/s weil die 4000 GB/s aus der Folie zwar möglich sind aber noch immer im Endkundenbereich technisch nicht sinnvoll (= ohne Totenkopf) umsetzbar.
 
Naja, man hat halt mit aller Gewalt versucht RAM-Bandbreite einzusparen wos geht (Kompressionsverfahren ohne Ende, exzessives Culling und vieles mehr), was im Wesentlichen ein Tradeoff ist zwischen Rechenleistung und Bandbreite. Man nutzt die hohe vorhandene Rechenleistung beispielsweise zur on-the-fly-Kompression um damit den vRAM zu entlasten. Müsste man das nicht tun und könnte diese Rechenleistung für andere Dinge nutzen wäre die Grafikkarte ganz simpel schneller.

Es wurden halt zig "Tricks" über die Jahre eingeführt um die GPUs möglichst nicht zu vRAM-anhängig zu machen bis man an einer Grenze angekommen ist wo man "harte" Lösungen braucht und jetzt zig MB Caches in die GPU packen muss. Das verschiebt das problem erneut nach hinten, löst es aber nach wie vor nicht.
 
Es wundert mich dann halt, dass selbst Recht deutliche RAM Übertaktungsversuche oft keinem oder nur sehr geringe Leistungsunterschiede bringen.
Es kommt auch immernoch drauf an wie etwas genutzt wird.

Früher wurde sehr oft gesagt das Ramtakt kaum unterschiede bringen... Arma Spieler hingegen verneinen dies deutlich :ugly:

Da war neben Single core Leistung auch der Ramtakt King. Selbst kleine übertaktungen des Rams brachten mir bereits einige fps mehr. (10 fps +)
Ganz zu schweigen vom unterschied von DDR3 zu 4.
Aber ja, das ist zwar sehr Nische, dennoch eins meiner Lieblingsspiele nach all den Jahren und all den Bugs....

Ich bin mal gespannt ob AMD in zukunft im Highend bereich es vielleicht wieder mit HBM versuchen wird, jetzt wo hier auch mehr Chiplets eingesetzt werden.
 
Es wundert mich dann halt, dass selbst Recht deutliche RAM Übertaktungsversuche oft keinem oder nur sehr geringe Leistungsunterschiede bringen.
Also ich kann nur von meinem 5900x sprechen:
Mit XMP 3200CL14-14-14-35 gegenüber meinem optimierten 3800CL15-16-13-22 (und natürlich sämtliche Sub-/Tertiärtimings) kamen ungefähr - je nach spiel - 12-15% mehr CPU Leistung heraus. Bei ca 18% mehr Takt. Nicht ganz 1:1, aber nah dran
 
Ihr habt mitbekommen, dass es um VRAM in der GPU ging?
Habe ich nicht mitbekommen. Da du von Übertaktungsversuchen vom RAM gesprochen hast, nicht vom VRAM ;)
Aber auch hier: 2150 Mhz statt 2000 Mhz eingestellt, zusammen mit "schnellen Timings" bei der 6700xt haben je nach Spiel 5%-7% mehr Leistung erbracht. Natürlich unter ausschluss limitierender faktoren wie Powerlimit.
Getestet unter FHD, kann natürlich bei anderen Auflösungen anders aussehen
 
Zurück