News GDDR7-Grafikspeicher: JEDEC definiert neuen Standard für Geforce RTX 5000 und Radeon RX 8000

Nein, können sie nicht. Die haben das HighEnd-RDNA4-Design nicht grundlos aufgekündigt. Das wäre viel zu teuer für sie. (A) müsste der bestehende MCD bereits auf eine PAM3-Signalisierung ausgelegt sein ... übermäßig wahrscheinlich ist das nicht bei AMD, da die weitaus ressourcenbeschränkter sind, d. h. (B) im worst case müsste man einen neuen MCD designen und das ist relativ teuer. (C) sieht man sich die vergleichsweise geringen Absätze im HighEnd an, und nur dort kommt diese Bauweise zum Einsatz, dann können die Kosten erneut nicht gerechtfertigt werden, denn AMD macht seinen Absatz primär im LowEnd und noch passablen Absatz im MidRange.
(D) kann es sein, dass dieser Refresh nahezu eine Nullnummer wäre, denn hier wäre abzuklären, wie viel der Speicherzugriffe der schon recht große L3$ bei RDNA3 abfängt, d. h. es könnte sein, dass man zusätzliche Entwicklungskosten und auch Fertigungskosten pro Produkt aufwenden muss, am Ende aber das Endprodukt nur unwesentlich zulegen würde.
(E) Müsste AMD sehr schnell mit einem derartigen Produkt ums Eck kommen, da man der neuen Architektur Blackwell dennoch klar unterlegen sein würde mit RDNA3, dagegen spricht aber die GDDR7-Roadmap und zudem darf man annehmen, dass sich nVidia einen Großteil der ersten Kontingeten gesichert haben wird, d. h. es kann nicht in AMDs Interesse sein die ihnen später zur Verfügung stehenden Kapazitäten mit einem Navi31-Refresh zu verheizen.
Ich ging nicht von A aus, sondern von B. Der Vorteil: Sie haben dann bereits einen GDDR7-Controller designed und sie haben ein MCD zur Hand, das sie weiterverwenden können. Und zwar wäre das wahrscheinlich dann genau das MCD von Navi 43. Das Muster ist von CPUs bekannt: Die billigen DIEs mit den Memory-Controllern werden in roher Masse gefertigt und über mehrere Generationen genutzt.
Somit hat sich dann auch C erledigt, weil es eben die Basis für die nächste Mittelklasse wird. Die Hauptfrage bleibt E: Schnell genug verfügbar oder nicht? Kommen die Speicherhersteller in die Hufe oder nicht?
 
Zu Teuer. Schon vor einem Jahr gabs die RX 6700 10GB Neu für 300€. Wer zahlt da 500€ für kaum Mehrleistung ?
Wenn die größte RDNA4 nahe der 7900xt performt passen 499€ schon noch.

6700 vs RDNA4=7900xt.jpg
 
Ich ging nicht von A aus, sondern von B. Der Vorteil: Sie haben dann bereits einen GDDR7-Controller designed und sie haben ein MCD zur Hand, das sie weiterverwenden können. Und zwar wäre das wahrscheinlich dann genau das MCD von Navi 43. Das Muster ist von CPUs bekannt: Die billigen DIEs mit den Memory-Controllern werden in roher Masse gefertigt und über mehrere Generationen genutzt.
Somit hat sich dann auch C erledigt, weil es eben die Basis für die nächste Mittelklasse wird. Die Hauptfrage bleibt E: Schnell genug verfügbar oder nicht? Kommen die Speicherhersteller in die Hufe oder nicht?
Den für RDNA4 entwickelten MCD an RDNA3 flanschen ... ok, keine abwegige Überlegung, trifft dennoch auf diverse Hürden:
a) Völlig unklar ob das P/L-technisch vertretbar wäre. Das Gesamtdesign mit der alten Architektur würde möglicherweise nur unverhältnismäßig zulegen und AMD hat schon so im HighEnd nur einen sehr geringen Absatz. Das wird nicht besser mit einem nochmals teueren Produkt, das am Ende dennoch bspw. der alten RTX 4090 weiterhin deutlich unterlegen sein wird.
b) AMD entwickelt seine eigene IP auch weiter, so den zugrundeliegenden IF. Im worst case wäre das für das RDNA4 vorgesehene Design gar nicht mit dem in RDNA3 realisierten Design kompatibel. Zudem muss so eine Kompatibilität auch grundsätzlich nie in deren Plichtenheft gestanden haben, da es rein technisch möglicherweise niemals erstrebenswert war diese Produkte in der Form zu kombinieren.
c) AMD hatte dermaßen massive Entwicklungsprobleme, dass man das RNA4-HighEnd-Design einstellen musste. Die Frage ist wo genau der Schuh drückte und es können auch durchaus mehrere Stellen gewesen sein. Bei RDNA3 und seinem Hardware-Bug hakte es bspw., sofern ich mich recht erinnere, an der Kommunikation zwischen GCD und MCD. ;-)
d) Zudem ist die Frage ob der neue MCD überhaupt jemals aus dem Prototypenstadium herausgekommen ist oder ob die Probleme den sich schon vorher festfahren ließen. Wäre dem so, den jetzt noch mit zusätzlichem Aufwand fertig zu entwicklen um dann keine passende GPU zu haben, die man daran anflanschen kann, wäre ebenso verbranntes Geld.

Wie gesagt, grundsätzlich kein vollkommen abwegiger Gedanke, aber der setzt alleine schon voraus, dass AMD überhaupt diesbezüglich eine Kompatibilität vorgesehen hatte und das muss hier nicht unbedingt vorgesehen gewesen sein, da im Normallfall dieser neue MCD niemals mit dem alten RDNA3 kombiniert worden wäre.
Und darüber hinaus, wie gesagt, ist das selbst jetzt, wo anscheinend der worst case eingetreten ist, das möglicherweise nicht sinnvoll, weil die erzielte Mehrleistung möglicherweise in kleinem Verhältnis zu dem dafür zu betreibenden Aufwändungen steht (und das setzt immer noch voraus, dass nicht der neue MCD das primäre Problemkind im neuen Design war).

Schlussendlich erscheint es sehr unwahrscheinlich, dass man so etwas zu sehen bekommt, und wenn, dann müsste das bis spätestens Mitte des Jahres im Markt sein, aber dagegen spricht die GDDR7-Roadmap.

Ergänzend: Darüber hinaus ist bspw. auch noch unklar, ob die kleineren, monolithischen RDNA4-Chips überhaupt GDDR7-IP verwenden werden. GDDR7 wird zu Beginn relativ teuer sein i. V. z. lange etablierten GDDR6. Es wäre nicht ausgeschlossen, dass man für diese Designs auch nur GDDR6-IP lizensiert haben wird, weil das für die Größe dieser Chips schlicht ausreichend ist?
 
ja dann wird halt die untere serie GDDR6 und die mittelklasse eingeschränktes GDDR7 haben und AMD spart sich dabei was und zwar das nicht alles Entwickelt werden muss.ALso geringere kosten.
 
Den für RDNA4 entwickelten MCD an RDNA3 flanschen ... ok, keine abwegige Überlegung, trifft dennoch auf diverse Hürden:
Erst einmal vielen Dank.
a) Völlig unklar ob das P/L-technisch vertretbar wäre. Das Gesamtdesign mit der alten Architektur würde möglicherweise nur unverhältnismäßig zulegen und AMD hat schon so im HighEnd nur einen sehr geringen Absatz. Das wird nicht besser mit einem nochmals teueren Produkt, das am Ende dennoch bspw. der alten RTX 4090 weiterhin deutlich unterlegen sein wird.
Naja, das Preis-Leistungsverhältnis sollte ja eigentlich steigen. Immerhin sprechen wir dann nur noch von 256bit statt von 384bit, von vier MCDs statt von sechs MCDs und vom kleineren Package. Anders gesagt, für AMD sollte es schon deutlich günstiger werden.
b) AMD entwickelt seine eigene IP auch weiter, so den zugrundeliegenden IF. Im worst case wäre das für das RDNA4 vorgesehene Design gar nicht mit dem in RDNA3 realisierten Design kompatibel. Zudem muss so eine Kompatibilität auch grundsätzlich nie in deren Plichtenheft gestanden haben, da es rein technisch möglicherweise niemals erstrebenswert war diese Produkte in der Form zu kombinieren.
Zumindest sollte der InfinityFabric von RDNA3 bereits schnell genug sein, um auch ein aktuelles MCD auszulasten. Die Bandbreite ist ziemlich extrem, ansonsten würde der Aufbau ja auch gar nicht funktionieren.
c) AMD hatte dermaßen massive Entwicklungsprobleme, dass man das RNA4-HighEnd-Design einstellen musste. Die Frage ist wo genau der Schuh drückte und es können auch durchaus mehrere Stellen gewesen sein. Bei RDNA3 und seinem Hardware-Bug hakte es bspw., sofern ich mich recht erinnere, an der Kommunikation zwischen GCD und MCD. ;-)
Bei RDNA3 gab es das Gerücht mit den 3Ghz Takt, bei denen dann später auch klar wurde, dass es bzgl. Compute durchaus zutrifft. Ansonsten war wohl geplant, zwei Navi32er-GCDs zu kombinieren. Dann wären alle Produkte niedriger getaktet worden und AMD hätte es geschafft, mit dem Doppelgespann an der Spitze zu stehen, sowohl, was Effizienz als auch Raster-Performance und Raster-Preis-Leistung angeht. Nur Raytracing wäre halt weiterhin auf der Strecke geblieben. Das hat aber halt nicht geklappt und so wurden Navi 31 und Navi 32 hochgeprügelt.
Bei RDNA4 hat sich das Problem anscheinend fortgesetzt und AMD schafft es, allen Bemühungen zum Trotz, immer noch nicht, GCDs zu verschalten. Der Grund dafür, wieso dies allen Bemühungen zum Trotz nicht klappt, ist auch einfach: Es soll trotzdem günstig sein. Denn im Serverbereich bekommen sie es ja hin, nur die Lösung ist halt zu teuer, als dass das Produkt dann noch dominant wäre. (insbesondere zu teuer, weil die Serverhardwarepreise so extrem sind)

Bzgl. MCD-GCD-Kommunikation: Davon habe ich wirklich gar nichts gehört. Es ist nur interessant, dass die auch wohl geplante Nutzung von V-Cache auf den H-Cache-MCDs nicht stattfand.
d) Zudem ist die Frage ob der neue MCD überhaupt jemals aus dem Prototypenstadium herausgekommen ist oder ob die Probleme den sich schon vorher festfahren ließen. Wäre dem so, den jetzt noch mit zusätzlichem Aufwand fertig zu entwicklen um dann keine passende GPU zu haben, die man daran anflanschen kann, wäre ebenso verbranntes Geld.
Er soll doch auf Navi 43 zum Einsatz kommen, nur Navi 44 soll monolithisch werden. Von daher braucht es ihn ohnehin.
Wie gesagt, grundsätzlich kein vollkommen abwegiger Gedanke, aber der setzt alleine schon voraus, dass AMD überhaupt diesbezüglich eine Kompatibilität vorgesehen hatte und das muss hier nicht unbedingt vorgesehen gewesen sein, da im Normallfall dieser neue MCD niemals mit dem alten RDNA3 kombiniert worden wäre.
Das ist halt die große Spekulationsfrage.
Und darüber hinaus, wie gesagt, ist das selbst jetzt, wo anscheinend der worst case eingetreten ist, das möglicherweise nicht sinnvoll, weil die erzielte Mehrleistung möglicherweise in kleinem Verhältnis zu dem dafür zu betreibenden Aufwändungen steht (und das setzt immer noch voraus, dass nicht der neue MCD das primäre Problemkind im neuen Design war).
Worstcase sehe ich nicht. Ja, der enorm ambitionierte Part (GCDs billig und performant zugleich verschalten) klappt bislang nicht. Wenn er dafür eine Generation später klappt, hat AMD dennoch viel gewonnen. Wenn daraus die Verschaltungstechnik für Strix Halo entstanden sein sollte ebenfalls. Wenn Synergien zu Aqua Vanjaram (MI 300-Familie) bestanden ebenfalls.
Ergänzend: Darüber hinaus ist bspw. auch noch unklar, ob die kleineren, monolithischen RDNA4-Chips überhaupt GDDR7-IP verwenden werden. GDDR7 wird zu Beginn relativ teuer sein i. V. z. lange etablierten GDDR6. Es wäre nicht ausgeschlossen, dass man für diese Designs auch nur GDDR6-IP lizensiert haben wird, weil das für die Größe dieser Chips schlicht ausreichend ist?
Ich kann mir, aus den von dir genannten Gründen, gut vorstellen, dass Navi 44 nur GDDR6-Resterampe verwenden wird.
 
Zurück