GDDR7 bietet dabei die doppelte Bandbreite im Vergleich zu GDDR6 und erreicht so bis zu 192 GB/s pro Baustein.
btw.
Was heute so durchsickert, ... es soll jetzt wohl auch 3GB-Module geben können, d.h. mit 256bit könnte man schon ziemlich große Grakas ala RTX 5080 und RX 8900/9900 sehr einfach/preiswert mit 24GB ausrüsten.
(dito darunter dann 192bit - 18GB)
Zur Richtigstellung ... wenn die 32 Gbps für die 1st Gen erreicht werden und das ist nicht einmal gesichert, da es sein könnte, dass die ersten im Massenmarkt verfügbaren Bausteine ggf. gar noch ein wenig langsamer sein werden, ist GDDR7 gegen die derzeit in der Praxis verbauten realen Micron-Bausteine bestenfalls +46 % schneller und nicht etwa doppelt so schnell.
Für einen späteren Zeitpunkt stellen die Hersteller 36 Gbps-Bausteine in Aussicht, aber da ist nicht einmal klar ob die schon potentiell für einen späteren Blackwell-Refresh zur Verfügung stehen würden oder ob nVidia erwägen wird, diese in dieser GPU-Gen überhaupt zu nutzen.
Deine zitierten 192 GB/s entstammen lediglich der sehr weitgefassten JEDEC-Spezifikation, jedoch ist noch unklar, wann man diese Bandbreite von bis zu 48 Gbps erreichen wird, d. h. das ist derzeit nur ein theoretischer Wert.
Micron's 6er-Chips *) unterstützen gar bis zu 24 Gbps. Die 4080 Super als neueste Auflage nutzt den Micron-Speicher in der Praxis mit bis zu 23 Gbps, d. h. sollte die GDDR7-1st-Gen tatsächlich mit vollen 32 Gbps auf den Markt und in konkrete Produkte kommen, entspräche das +39 % mehr Bandbreite, was noch sehr weit weg von einer Verdopplung ist.
*) Hier von GDDR6X zu sprechen vermeide ich bewusst, da das eigentlich einen JEDEC-Standard impliziert, Microns PAM4-Design, dass von nVidia exklusiv adaptiert wurde, ist jedoch kein JEDEC-Standard ... auch wenn die Medien (und auch Micron) hier gerne vereinfachend von "GDDR6X" sprechen.
Zu den 24 Gb-Bausteinen (3 GB pro BGA) ... die wären für den Consumer-Markt nur relevant, wenn der jeweilige Hersteller noch größere, unterstützende Caches implementieren würde, denn andernfalls könnte man das SI nicht nennenswert verkleinern, weil die Bandbreite sich ansonsten nicht relevant erhöhen lassen würde und die neuen GPUs werden insgesamt gesehen zweifellos einen erneut höheren Speicherbandbreitenbedarf haben.
Die Frage wird also sein, was für den Hersteller ressourcen- und auch kostentechnisch die sinnvollere Wahl ist. Das SI beibehalten und weiterhin im Consumer-Segment mit ggf. maximal 16 Gb-Bausteinen zu arbeiten oder die Die-Fläche pauschal weiter zu vergrößern um noch mehr Cache auf dem Wafer unterzubringen (
SRAM skaliert sehr schlecht im Vergleich zu Logik-Schaltungen, d. h. das wird beim neuen 3nm-Node dann besonders teuer).
Man darf gespannt sein. Sollte nVidia sich jedoch unerwarteterweise dazu hinreißen lassen, etwas wie eine RTX 5080 tatsächlich mit 24 GB rauszubringen, wäre das tatsächlich vergleichsweise effizient mit 24 Gb und einem 256 Bit SI möglich ... ob das wahrscheinlich ist, ist jedoch eine Kosten- und Margen-Frage und auch eine Frage der Portfolioentwicklung!
Eine RTX 5090 mit 36 GB erscheint nicht übermäßig wahrscheinlich und mit 24 GB hätte man ein Problem bzgl. der Produktdifferenzierung. Wollte man hier also auch 24 Gb-BGAs nutzen, müsste man das SI verkleinern, aber dann würde sich wieder die Frage stellen, welche Verkleinerung bei der zugrundeliegenden Architektur überhaupt zulässig wäre, da man anderfalls die GPU durch mangelnde Speicherbandbreite ausbremsen würde. (
Mal abgesehen davon, dass sich 36 GB im Consumer-Segment auch nicht mehr sinnvoll vermarkten ließen.)
Der Grenzwert wäre wohl eine Verkleinerung auf 320 Bit beim SI, jedoch würde das nur grob zu einem Bandbreitenzugewinn um etwa +21 % führen. Hier ist die Frage ob das nVidia ausreichen würde und man müsste immer noch eine 30 GB-Karte vermarkten.
Dagegen bei der RTX 5080 kann man vermutlich eine Verkleinerung des SI ausschließen, d. h. es wird min. bei 256 Bit bleiben, denn andernfalls hätte man keinen relevanten Zugewinn bei der Speicherbandbreite und müsste die zusätzlich benötigte Bandbreite für die neue Architektur durch noch mehr On-Chip-Cache realisieren.
Man darf gespannt sein, was man hier präsentieren wird oder ob man sich gar traut ohne eine Speichergrößendifferenzierung aufzuwarten und die beiden Topmodelle vielleicht gleichermaßen mit 24 GB VRAM anbieten wird? Letzten Endes könnte es aber auch bei weiterhin 16 GB bei der RTX 5080 bleiben, zumal AMD in nächster Zeit kein Konkurrenzprodukt bieten wird, ein unschöner nebeneffekt von AMDs Faux Pas.
[...] Aber ich lese nichts zu höherer Geschwindigkeit. [...]
Standard-GDDR6 schafft in den höherwertigen Produkten etwa bis zu 18 Gigabit pro Sekunde auf einem PIN, ein BGA-Baustein arbeitet mit 32 Datenleitungen (nicht zu verwechseln mit den aktuellen, insgesamten 180 Kontakten/Microbumps der Chips).
Microns schnelle GDDR6-PAM4-Variante alias "GDDR6X" ist bis zu 24 Gbps spezifiziert (Praxis siehe oben) und der kommende GDDR7-Standard soll erstmals mit 32 Gbps schnellen Bausteinen eingeführt werden. Vielleicht stehen Ende 2025 auch bereits schon die 36 Gbps-Bausteine zur Verfügung, jedoch sagt das erst mal nichts über eine mögliche Verwendung in konkreten Produkten aus. Die JEDEC hat den Standard erst mal vorausschauend bis 48 Gbps spezifiziert, bis solche Bausteine verfügbar sein werden, wird aber noch einige Zeit vergehen. - Der Rest ist Dreisatz.
Eigentlich könnte doch AMD "jetzt" hingehen und ihre MCDs auf GDDR7-Support upgraden und auf der Basis einen Refresh der Navi-31-Produkte einbringen. Also, einfach skizziert: Wie bei der GRE werden nur vier MCDs und das kleine Package genutzt; aber natürlich das volle GCD. Das würde mal wirklich den Aufbau GCD+MCD nutzen...
...und ordentliche Gewinne in Punkto Effizienz unter Last und vor allen Dingen unter Teillast einbringen.
Glaube ich daran? Nein. Die Speicherhersteller werden nicht schnell genug sein.
Nein, können sie nicht. Die haben das HighEnd-RDNA4-Design nicht grundlos aufgekündigt. Das wäre viel zu teuer für sie. (A) müsste der bestehende MCD bereits auf eine PAM3-Signalisierung ausgelegt sein ... übermäßig wahrscheinlich ist das nicht bei AMD, da die weitaus ressourcenbeschränkter sind, d. h. (B) im worst case müsste man einen neuen MCD designen und das ist relativ teuer. (C) sieht man sich die vergleichsweise geringen Absätze im HighEnd an, und nur dort kommt diese Bauweise zum Einsatz, dann können die Kosten erneut nicht gerechtfertigt werden, denn AMD macht seinen Absatz primär im LowEnd und noch passablen Absatz im MidRange.
(D) kann es sein, dass dieser Refresh nahezu eine Nullnummer wäre, denn hier wäre abzuklären, wie viel der Speicherzugriffe der schon recht große L3$ bei RDNA3 abfängt, d. h. es könnte sein, dass man zusätzliche Entwicklungskosten und auch Fertigungskosten pro Produkt aufwenden muss, am Ende aber das Endprodukt nur unwesentlich zulegen würde.
(E) Müsste AMD sehr schnell mit einem derartigen Produkt ums Eck kommen, da man der neuen Architektur Blackwell dennoch klar unterlegen sein würde mit RDNA3, dagegen spricht aber die GDDR7-Roadmap und zudem darf man annehmen, dass sich nVidia einen Großteil der ersten Kontingeten gesichert haben wird, d. h. es kann nicht in AMDs Interesse sein die ihnen später zur Verfügung stehenden Kapazitäten mit einem Navi31-Refresh zu verheizen.
Möglicherweise werden vielleicht die beiden großen der kleinen RDNA4-Chips auf GDDR7 setzen, das wäre nicht abweig. Darunter darf man vermutlich schnellen, regulären GDDR6 erwarten, was schlicht dem Kostendruck geschuldet sein wird.
[HBM(3E)] Im Gaming-Bereich ganz sicher nicht, weil die Packigingkapazitäten für "GPU´s mit HBM" nicht reichen.
Kann man anführen und liegt damit sicherlich nicht falsch, jedoch noch davor kommen schlicht die Kosten zum Tragen. Und hierbei geht es nicht nur um die Kosten des reinen HBM-BGAs, denn auch wenn diese gesichert teuerer als GDDR-Speicher sind, wären die alleine nicht so übermäßig viel teuerer, jedoch erzwingt ein derartiges Design viele Kompromisse und zusätzliche Aufwändungen, die dann am Ende doch als beträchtliche Kosten zu Buche schlagen.
HBM wird es in Consumer-Produkten so schnell nicht mehr geben.
Nur zur Erinnerung AMD bietet schon seit sehr langer Zeit kein HBM mehr an. Und die Radeon VII war kein Consumer-Produkt sondern nur ein Abfallprodukt der HPC-Fertigung (
und ein werbetechnischer Notfallplan, weil man nur den kleinen Navi zu der Zeit in der Pipeline hatte, also kein HighEnd, das man hätte Turing entgegenstellen können), dass man kurzzeitig zweckentfremdete, weil die HPC-Absätze relativ schnell einbrachen und nachdem man sich beim Consumer-Launch preislich verzockt hatte und den Preis nachfolgend deutlich senken musste, erfolgte schon wenige Monate später die Aufkündigung des Consumer-Produktes.
Derartige Aufwändungen für ein solches Design wird sich AMD so schnell nicht antun, zumal sie dafür noch weitaus weniger den Markt haben als bspw. nVidia.