News GDDR7-Grafikspeicher: JEDEC definiert neuen Standard für Geforce RTX 5000 und Radeon RX 8000

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu GDDR7-Grafikspeicher: JEDEC definiert neuen Standard für Geforce RTX 5000 und Radeon RX 8000

Die JEDEC Solid State Technology Association ("JEDEC") hat GDDR7 jetzt offiziell als den neuen Standard für Grafikspeicher deklariert und dafür den JESD239-Standard definiert. Die Geforce RTX 5000 ("Blackwell") dürften den Anfang machen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: GDDR7-Grafikspeicher: JEDEC definiert neuen Standard für Geforce RTX 5000 und Radeon RX 8000
 
RX 8700+8800 sind ja nur die kleinen RDNA4 für 2024 H2, ... deswegen vermutlich noch mit preiswertem GDDR6

btw.
Ob man 2025 die größeren RDNA5 auch RX 8900 nennt, ... wäre ne Überraschung.
 
Zuletzt bearbeitet:
Warum gibt es eigentlich DDR 6 Grafikspeicher aber keinen RAM?
Vergiss die Versionsnummern der Nomenklaturen, die Techniken haben heutzutage nur noch sehr wenig miteinander zu tun und die Versionsnummern noch weniger ("GDDR4" ist beispielsweise technisch basierend auf "DDR3").

Der DDR den man auf sein Board steckt hat nur noch grundlegend was mit GDDR auf Grafikkarten zu tun, beide Speichertechniken sind aber stark auf die jeweilige Anwendung spezialisiert und haben ihre eigenen Versionsnummern.
 
RX 8700+8800 sind ja nur die kleinen RDNA4 für 2024 H2, ... deswegen vermutlich noch mit preiswertem GDDR6

btw.
Ob man 2025 die größeren RDNA5 auch RX 8900 nennt, ... wäre ne Überraschung.
Soll es denn 2025 von AMD große dGPUs geben? Dachte man setzt die ganze Gen nur auf kleinere Modelle.
 
"Durch eine von 1,35v auf 1,2v abgesenkte Spannung soll die Effizienz im Vergleich zu GDDR6 um 20 Prozent besser ausfallen"

Dann sollten ja noch mehr 75 Watt GPU`s möglich sein im Einsteiger Segment ... :schief:

sollte man meinen. Eine untertervoltete 4060 kommt da ja nahe ran.
Möglich wärs, die Hersteller müssten es halt wollen.
Dass es irgendwie ja gehen muss zeigt der Blick Richtung Notebook

Achtung, Effizienz ist nicht gleich maximale Leistungsaufnahme. Man geht von 20% besserer Energieeffizienz aus, wenn man gleichzeitig aber den Takt um 20% steigert, dann kommt man am Ende auf denselben Verbrauch raus.
 
Soll es denn 2025 von AMD große dGPUs geben? Dachte man setzt die ganze Gen nur auf kleinere Modelle.
2025 kommen dann die 3nm- Chips für RDNA5 (GCD maximal ca. 300mm² ?)
2024 nur die kleinen+mittleren 4nm- Chips für RDNA4 (GCD evtl. maximal 220mm²)
Für Beide die MBA´s mit nur 2x 8pin. (was die möglichen W begrenzt)

RDNA 4 SPECS UPDATE
Navi 48 32 WGP / 64 MB IC / 256-bit GDDR6.
Die size of N48 "between N23 [237mm²] & N33 [204mm²]", so eg 220mm²
Man könnte jetzt anhand der möglichen Packdichte vermuten, das die große RDNA5@3nm ungefähr doppelt
so viele WGP´s haben kann, ... may be nur 256bit durch GDDR7 ausreichend. (= mein Spekulatius)
Leider gibts noch keine Leaks zu RDNA5, so das viele Varianten möglich sind.

Ob RDNA5-Grakas >1k€ gebaut werden. ist ne ganz andere Frage. (Sondermodell mit 3D-Cache?)
Ich denke, AMD fühlt sich <1k€ ganz wohl, wie die Verkaufszahlen zeigen.(KW7+8 siehe Anhang)
1k€ ist für die Meisten auch groß genug.

Was vllt. wieder passieren wird, ... Anfang 2025 sinken die RX7900er stark im Preis ala 6900er.
Dadurch wäre dann vorübergehend als "Abverkauf" ne Koexistenz RDNA3+4+5 möglich.
(und TSMC freut sich, das auch die alten Processe weiter genutzt werden, ... zu moderatem Wafer-Preis)
RDNA4 <500€
RDNA3 <650€
RDNA5 >800€
 

Anhänge

  • MF KW7+8.jpg
    MF KW7+8.jpg
    71,7 KB · Aufrufe: 29
Zuletzt bearbeitet:
Dann ist man mit dem GDDR ja bald dort wo HBM vor Jahren schon gewesen ist :ugly:
Viel interessanter finde ich die Meldung, dass JEDEC gleichzeitig den HBM3E Standard verabschiedet hat.
1,27 TB/s Datendurchsatz!
Da die Preise eh schon aus dem Ruder gelaufen sind, könnten die Hersteller auch gerne eine schnellere und dabei stromsparendere Variante mit HBM Speicher anbieten.
 
Da die Preise eh schon aus dem Ruder gelaufen sind, könnten die Hersteller auch gerne eine schnellere und dabei stromsparendere Variante mit HBM Speicher anbieten.
Im Gaming-Bereich ganz sicher nicht, weil die Packigingkapazitäten für "GPU´s mit HBM" nicht reichen.

Nochmal:
Ich sehe eher weniger Vram durch GDDR7 bei kleinerem Anschluss.
durch die größere Datenrate wird viel in Richtung 128-192-256bit gehen
Der GDDR7 wird außerdem weniger V+W brauchen.
(für Notebooks kommen dann sicher gute Produkte)
 
Zuletzt bearbeitet:
Eigentlich könnte doch AMD "jetzt" hingehen und ihre MCDs auf GDDR7-Support upgraden und auf der Basis einen Refresh der Navi-31-Produkte einbringen. Also, einfach skizziert: Wie bei der GRE werden nur vier MCDs und das kleine Package genutzt; aber natürlich das volle GCD. Das würde mal wirklich den Aufbau GCD+MCD nutzen...
...und ordentliche Gewinne in Punkto Effizienz unter Last und vor allen Dingen unter Teillast einbringen.

Glaube ich daran? Nein. Die Speicherhersteller werden nicht schnell genug sein.
 
Jetzt ist Ihre Meinung gefragt zu GDDR7-Grafikspeicher: JEDEC definiert neuen Standard für Geforce RTX 5000 und Radeon RX 8000
Ich lese viel zur Effizienz. Das ist insbesondere wenn die Speichermenge bedingt durch KI-getreibene Anwendungen merklich steigen wird, sehr erfreulich. Aber ich lese nichts zu höherer Geschwindigkeit. Vier Speicherkanäle und dreifach gepulste Datenübertragung klingt für mich vor allem nach merklicher Mehrbelastung für den Speichercontroller der GPU.

Ist denn zu erwarten, dass GDDR7 signifikant schneller wird als GDDR6? Die einzige Aussage im Artikel ist das Zitat von Samsung mit "GDDR7 32Gbps wird eine 1,6-fach höhere Leistung". Wie auch immer sie "Leistung" definieren? Vermutlich mit Datenübertragung pro Watt.
 
Zuletzt bearbeitet:
Aber ich lese nichts zu höherer Geschwindigkeit.
GDDR7 bietet dabei die doppelte Bandbreite im Vergleich zu GDDR6 und erreicht so bis zu 192 GB/s pro Baustein.

btw.
Was heute so durchsickert, ... es soll jetzt wohl auch 3GB-Module geben können, d.h. mit 256bit könnte man schon ziemlich große Grakas ala RTX 5080 und RX 8900/9900 sehr einfach/preiswert mit 24GB ausrüsten.
(dito darunter dann 192bit - 18GB)
 
Zuletzt bearbeitet:
GDDR7 bietet dabei die doppelte Bandbreite im Vergleich zu GDDR6 und erreicht so bis zu 192 GB/s pro Baustein.

btw.
Was heute so durchsickert, ... es soll jetzt wohl auch 3GB-Module geben können, d.h. mit 256bit könnte man schon ziemlich große Grakas ala RTX 5080 und RX 8900/9900 sehr einfach/preiswert mit 24GB ausrüsten.
(dito darunter dann 192bit - 18GB)
Zur Richtigstellung ... wenn die 32 Gbps für die 1st Gen erreicht werden und das ist nicht einmal gesichert, da es sein könnte, dass die ersten im Massenmarkt verfügbaren Bausteine ggf. gar noch ein wenig langsamer sein werden, ist GDDR7 gegen die derzeit in der Praxis verbauten realen Micron-Bausteine bestenfalls +46 % schneller und nicht etwa doppelt so schnell.
Für einen späteren Zeitpunkt stellen die Hersteller 36 Gbps-Bausteine in Aussicht, aber da ist nicht einmal klar ob die schon potentiell für einen späteren Blackwell-Refresh zur Verfügung stehen würden oder ob nVidia erwägen wird, diese in dieser GPU-Gen überhaupt zu nutzen.
Deine zitierten 192 GB/s entstammen lediglich der sehr weitgefassten JEDEC-Spezifikation, jedoch ist noch unklar, wann man diese Bandbreite von bis zu 48 Gbps erreichen wird, d. h. das ist derzeit nur ein theoretischer Wert.

Micron's 6er-Chips *) unterstützen gar bis zu 24 Gbps. Die 4080 Super als neueste Auflage nutzt den Micron-Speicher in der Praxis mit bis zu 23 Gbps, d. h. sollte die GDDR7-1st-Gen tatsächlich mit vollen 32 Gbps auf den Markt und in konkrete Produkte kommen, entspräche das +39 % mehr Bandbreite, was noch sehr weit weg von einer Verdopplung ist. ;-)

*) Hier von GDDR6X zu sprechen vermeide ich bewusst, da das eigentlich einen JEDEC-Standard impliziert, Microns PAM4-Design, dass von nVidia exklusiv adaptiert wurde, ist jedoch kein JEDEC-Standard ... auch wenn die Medien (und auch Micron) hier gerne vereinfachend von "GDDR6X" sprechen.

Zu den 24 Gb-Bausteinen (3 GB pro BGA) ... die wären für den Consumer-Markt nur relevant, wenn der jeweilige Hersteller noch größere, unterstützende Caches implementieren würde, denn andernfalls könnte man das SI nicht nennenswert verkleinern, weil die Bandbreite sich ansonsten nicht relevant erhöhen lassen würde und die neuen GPUs werden insgesamt gesehen zweifellos einen erneut höheren Speicherbandbreitenbedarf haben.
Die Frage wird also sein, was für den Hersteller ressourcen- und auch kostentechnisch die sinnvollere Wahl ist. Das SI beibehalten und weiterhin im Consumer-Segment mit ggf. maximal 16 Gb-Bausteinen zu arbeiten oder die Die-Fläche pauschal weiter zu vergrößern um noch mehr Cache auf dem Wafer unterzubringen (SRAM skaliert sehr schlecht im Vergleich zu Logik-Schaltungen, d. h. das wird beim neuen 3nm-Node dann besonders teuer).

Man darf gespannt sein. Sollte nVidia sich jedoch unerwarteterweise dazu hinreißen lassen, etwas wie eine RTX 5080 tatsächlich mit 24 GB rauszubringen, wäre das tatsächlich vergleichsweise effizient mit 24 Gb und einem 256 Bit SI möglich ... ob das wahrscheinlich ist, ist jedoch eine Kosten- und Margen-Frage und auch eine Frage der Portfolioentwicklung!
Eine RTX 5090 mit 36 GB erscheint nicht übermäßig wahrscheinlich und mit 24 GB hätte man ein Problem bzgl. der Produktdifferenzierung. Wollte man hier also auch 24 Gb-BGAs nutzen, müsste man das SI verkleinern, aber dann würde sich wieder die Frage stellen, welche Verkleinerung bei der zugrundeliegenden Architektur überhaupt zulässig wäre, da man anderfalls die GPU durch mangelnde Speicherbandbreite ausbremsen würde. (Mal abgesehen davon, dass sich 36 GB im Consumer-Segment auch nicht mehr sinnvoll vermarkten ließen.)
Der Grenzwert wäre wohl eine Verkleinerung auf 320 Bit beim SI, jedoch würde das nur grob zu einem Bandbreitenzugewinn um etwa +21 % führen. Hier ist die Frage ob das nVidia ausreichen würde und man müsste immer noch eine 30 GB-Karte vermarkten.
Dagegen bei der RTX 5080 kann man vermutlich eine Verkleinerung des SI ausschließen, d. h. es wird min. bei 256 Bit bleiben, denn andernfalls hätte man keinen relevanten Zugewinn bei der Speicherbandbreite und müsste die zusätzlich benötigte Bandbreite für die neue Architektur durch noch mehr On-Chip-Cache realisieren.
Man darf gespannt sein, was man hier präsentieren wird oder ob man sich gar traut ohne eine Speichergrößendifferenzierung aufzuwarten und die beiden Topmodelle vielleicht gleichermaßen mit 24 GB VRAM anbieten wird? Letzten Endes könnte es aber auch bei weiterhin 16 GB bei der RTX 5080 bleiben, zumal AMD in nächster Zeit kein Konkurrenzprodukt bieten wird, ein unschöner nebeneffekt von AMDs Faux Pas.


[...] Aber ich lese nichts zu höherer Geschwindigkeit. [...]
Standard-GDDR6 schafft in den höherwertigen Produkten etwa bis zu 18 Gigabit pro Sekunde auf einem PIN, ein BGA-Baustein arbeitet mit 32 Datenleitungen (nicht zu verwechseln mit den aktuellen, insgesamten 180 Kontakten/Microbumps der Chips).
Microns schnelle GDDR6-PAM4-Variante alias "GDDR6X" ist bis zu 24 Gbps spezifiziert (Praxis siehe oben) und der kommende GDDR7-Standard soll erstmals mit 32 Gbps schnellen Bausteinen eingeführt werden. Vielleicht stehen Ende 2025 auch bereits schon die 36 Gbps-Bausteine zur Verfügung, jedoch sagt das erst mal nichts über eine mögliche Verwendung in konkreten Produkten aus. Die JEDEC hat den Standard erst mal vorausschauend bis 48 Gbps spezifiziert, bis solche Bausteine verfügbar sein werden, wird aber noch einige Zeit vergehen. - Der Rest ist Dreisatz. ;-)

Eigentlich könnte doch AMD "jetzt" hingehen und ihre MCDs auf GDDR7-Support upgraden und auf der Basis einen Refresh der Navi-31-Produkte einbringen. Also, einfach skizziert: Wie bei der GRE werden nur vier MCDs und das kleine Package genutzt; aber natürlich das volle GCD. Das würde mal wirklich den Aufbau GCD+MCD nutzen...
...und ordentliche Gewinne in Punkto Effizienz unter Last und vor allen Dingen unter Teillast einbringen.

Glaube ich daran? Nein. Die Speicherhersteller werden nicht schnell genug sein.
Nein, können sie nicht. Die haben das HighEnd-RDNA4-Design nicht grundlos aufgekündigt. Das wäre viel zu teuer für sie. (A) müsste der bestehende MCD bereits auf eine PAM3-Signalisierung ausgelegt sein ... übermäßig wahrscheinlich ist das nicht bei AMD, da die weitaus ressourcenbeschränkter sind, d. h. (B) im worst case müsste man einen neuen MCD designen und das ist relativ teuer. (C) sieht man sich die vergleichsweise geringen Absätze im HighEnd an, und nur dort kommt diese Bauweise zum Einsatz, dann können die Kosten erneut nicht gerechtfertigt werden, denn AMD macht seinen Absatz primär im LowEnd und noch passablen Absatz im MidRange.
(D) kann es sein, dass dieser Refresh nahezu eine Nullnummer wäre, denn hier wäre abzuklären, wie viel der Speicherzugriffe der schon recht große L3$ bei RDNA3 abfängt, d. h. es könnte sein, dass man zusätzliche Entwicklungskosten und auch Fertigungskosten pro Produkt aufwenden muss, am Ende aber das Endprodukt nur unwesentlich zulegen würde.
(E) Müsste AMD sehr schnell mit einem derartigen Produkt ums Eck kommen, da man der neuen Architektur Blackwell dennoch klar unterlegen sein würde mit RDNA3, dagegen spricht aber die GDDR7-Roadmap und zudem darf man annehmen, dass sich nVidia einen Großteil der ersten Kontingeten gesichert haben wird, d. h. es kann nicht in AMDs Interesse sein die ihnen später zur Verfügung stehenden Kapazitäten mit einem Navi31-Refresh zu verheizen.

Möglicherweise werden vielleicht die beiden großen der kleinen RDNA4-Chips auf GDDR7 setzen, das wäre nicht abweig. Darunter darf man vermutlich schnellen, regulären GDDR6 erwarten, was schlicht dem Kostendruck geschuldet sein wird.

[HBM(3E)] Im Gaming-Bereich ganz sicher nicht, weil die Packigingkapazitäten für "GPU´s mit HBM" nicht reichen.
Kann man anführen und liegt damit sicherlich nicht falsch, jedoch noch davor kommen schlicht die Kosten zum Tragen. Und hierbei geht es nicht nur um die Kosten des reinen HBM-BGAs, denn auch wenn diese gesichert teuerer als GDDR-Speicher sind, wären die alleine nicht so übermäßig viel teuerer, jedoch erzwingt ein derartiges Design viele Kompromisse und zusätzliche Aufwändungen, die dann am Ende doch als beträchtliche Kosten zu Buche schlagen.
HBM wird es in Consumer-Produkten so schnell nicht mehr geben.

Nur zur Erinnerung AMD bietet schon seit sehr langer Zeit kein HBM mehr an. Und die Radeon VII war kein Consumer-Produkt sondern nur ein Abfallprodukt der HPC-Fertigung (und ein werbetechnischer Notfallplan, weil man nur den kleinen Navi zu der Zeit in der Pipeline hatte, also kein HighEnd, das man hätte Turing entgegenstellen können), dass man kurzzeitig zweckentfremdete, weil die HPC-Absätze relativ schnell einbrachen und nachdem man sich beim Consumer-Launch preislich verzockt hatte und den Preis nachfolgend deutlich senken musste, erfolgte schon wenige Monate später die Aufkündigung des Consumer-Produktes.
Derartige Aufwändungen für ein solches Design wird sich AMD so schnell nicht antun, zumal sie dafür noch weitaus weniger den Markt haben als bspw. nVidia.
 
Zuletzt bearbeitet:
so so dann wird es also in der mittelklasse in Zukunft bei Nvidia nur 2x4 gb Speicher Chips auf der GPU geben.ALso die rtx 5060 wird weiterhin nur 8 gb an Vram haben,aber es werden nur 2 Speicher Chips benötigt.Nvidias GPUS werden allerdings durch das nicht günstiger werden.Und ob man als User einen Vorteil davon haben wird,ist ne andere Frage.
Ich denke mal nicht das wir da einen Vorteil davon haben werden oder ob überhaupt groß an Speicherbandbreit mit 128 Bit zustande kommen wird.Klar ist GDDR7 besser aber ob die Produkte besser werden ne andere Frage oder Nvidia speist die kleinen GPUS mit GDDR6 ab,damit mehr Menge von den besseren den Teuren GPUS Vorbehalten sind.Nötig wird Nvidia aufgrund der laschen Konkurenz Kampf es ja eh nicht haben.64 Bit zu Verkleinern halte ich eher nicht so für Klug bei Nvidia das bei den RTX 5060 und so zu machen.Villeicht sehen wir ja mal bei noch kleineren GPUS das da was vom Vorteil kommen wird.
Uns mit einem eher älteren GPUS die 75 Watt Marke hier die User zu beruhigen oder gar hinzu knallen kann ich mir auf Dauer nicht als Vorteil sehen.Wir werden also sehen wie sich das ganze in Zukunft Entwickelt.Ich hoffe noch immer das eines Tages doch noch was richtiges in unterem Bereich kommen wird.Aber die Zeiten mit einer gt 1030 scheint wohl wirklich Vorbei zu sein.
 
Zurück