AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

Navi 21 (nur der Chip) liegt bei etwa 200 bis 230 W
Na genau das schreib ich doch oben? 200W GPU und 100W Rest (der wird nicht nenneswert größer wenn man bei den MosFets ne Qualitätsstufe höher geht bei 500W-Karten^^).

Wie gesagt die Schauergeschichten von 600W-Karten werden sich nicht bewahrheiten. Das ist weder technisch nötig noch im Massenmarkt so einfach möglich.
 
Zwei GPUs im Chiplet-Verbund,wäre das nicht eine art Crossfire Verbund?Was ja auch nachteile hatte früher?
Nur in der Grundidee, dahinter steckt aber ein IF auf einem einzigenChip, womit theoretisch eine Einzel-GPU daraus wird. Sicher wird der Verbrauch steigen aber da nVidia schon alles für Verbräuche über 400 Watt vorbereitet hat (12 Pin-Stecker ^^), sollte das kein Problem darstellen, das mit einem einzigen Anschluss zu decken. Und wie Incredible Alk ziemlich gut beschrieben hat, werden auch 300 Watt noch gehen.
Die Kommunikation wird in einem modernen MCM-Design sicher besser funktionieren, als ein klassisches CF, auch sind in der Zwischenzeit ein funktioneller Infinity Cache eingeführt worden, den es zu CF-Zeiten noch nicht gab...
 
Denn für eine 2000€ GPU gibt es nicht viele Abnehmer.
Ich hab irgendwie das gegenteilige Gefühl erhalten die letzten Monate :ugly:

Die Kommunikation wird in einem modernen MCM-Design sicher besser funktionieren, als ein klassisches CF, auch sind in der Zwischenzeit ein funktioneller Infinity Cache eingeführt worden, den es zu CF-Zeiten noch nicht gab...
Der IF und der InfinityCache der GPUs (bzw. riesige LLC der Threadrippers im I/O-Die) sind langfristig gesehen auch nicht zufällig nützlich bis nötig für ein MCM-Design... ;-)
 
Gibts den überhaupt einen Tape-Out von AMD Navi 31 GPU oder sind das nur spekulative annahmen was kommen könnte?Und warscheinlich wird auch die Fertigunggröße nach unten angepasst,eventuell 5nm Strukturgröße,damit Energieeffizienter aber auch effektiver im Einsatz?
 
Die Namen werden noch nicht feststehen, doch ich gehe eher davon aus, dass es sich bei dieser GPU um die RX 7950X2 handelt, welche wahrscheinlich knapp 500 Watt konsumiert und rund 2000€ kosten wird. Wahrscheinlich sehen wir auch noch den Vollausbau als Singlechip Grafikkarte für rund 1000€, das ist dann die RX 7950XT, die sich dann mit unter 300 Watt begnügt. Der Infnity Cache ist in meinen Augen ein Teil der Vorbereitung für MCM Designs, bei dem dann beide Chips auf einen einzigen, großen Infinity Cache zugreifen. Wahrscheinlich 512MB.
 
Wobei 512 MiB dann auch für gigantische 32 GiB VRAM sprechen würden.

Ich halte irgendwie auch die leicht beschnittene Variante mit 384 MiB Cache und 24 GiB VRAM für realistischer, die @gerX7a angesprochen hat.
 
Als die Ryzen 1xxx-Gen erschien, wagte ich die Mutmaßung, das Selbiges auch bei den GPUs einziehen könnte. Für mich ein völlig logischer Schritt. Wahrscheinlich günstiger, als ständig iwe Schrumpfungen (7nm>5>3>2 usw) entwickeln zu müssen.
Gruß T.
 
Schrumpfen muss man die Chips trotzdem. Denn wenn du mehr Chips auf die Platine packst, steigt sonst die Gesamtfläche und der Stromverbrauch enorm.
 
Na genau das schreib ich doch oben? 200W GPU und 100W Rest [...

Wie gesagt die Schauergeschichten von 600W-Karten werden sich nicht bewahrheiten. Das ist weder technisch nötig noch im Massenmarkt so einfach möglich.
BB schrieb oben 450+ W, wenn du dich aber auf noch extremere Schreckenszenarien beziehst hast du natürlich Recht; die wird keiner in den Consumer-Markt bringen wollen, bestenfalls im Bundle mit einem 1,2kW-Netzteil. ;-)
RDNA3 wird wohl noch nicht auf 5nm setzen. [...]
Grundsätzlich würde ich dir zustimmen und eher CDNA2 für 5nm sehen, während es für den Consumer-Markt noch zu teuer sein könnte. Für RDNA2 dürfte es dann aber gesichert der N6 sein, denn die Power Savings würde man für eine derartiges Design zwingend brauchen (wenn es denn so kommen sollte).
[...] Wird die Skalierung eigentlich besser sein, als bei den alten DualGPUs, die intern auf SLI/CrossfireX gesetzt haben?
Zweifellos, denn diese neuen GPUs sind explizit darauf ausgelegt nach Außen hin wie eine GPU aufzutreten, während Crossfire/SLI-Designs primär für eine Alternate-Frame-Rendering genutzt wurden und sich daher bspw. auch der VRAM effektiv halbierte.
Gibts den überhaupt einen Tape-Out von AMD Navi 31 GPU oder sind das nur spekulative annahmen was kommen könnte?Und warscheinlich wird auch die Fertigunggröße nach unten angepasst,eventuell 5nm Strukturgröße,damit Energieeffizienter aber auch effektiver im Einsatz?
Wie auch andere Hersteller, lässt sich AMD hier nur selten in die Karten schauen. Sowohl TSMCs N5 als auch mittlerweile der N6 sind bereits in der Volumenfertigung.
Sollte AMD bspw. Mitte/Ende 3Q22 als Release anvisieren, dürfte man wohl bereits in diesem Halbjahr mit einem TapeOut rechnen, falls der nicht schon stattgefunden hat, denn diese neuen Designs werden voraussichtlich mehr Vorlaufzeit im Labor benötigen.
Beispielsweise könnte es gemäß SemiAccurate zu nVidia's Hopper oder Lovelace bereits einen TapeOut Ende 2019 gegeben haben. Die verstecken ihre Infos leider hinter einer Paywall, relevante Tags lauteten hier: Chiplet, Samsung, EUV, 4nm.
Als die Ryzen 1xxx-Gen erschien, wagte ich die Mutmaßung, das Selbiges auch bei den GPUs einziehen könnte. [...]Für mich ein völlig logischer Schritt. Wahrscheinlich günstiger, als ständig iwe Schrumpfungen (7nm>5>3>2 usw) entwickeln zu müssen.
Weniger eine Mutmaßung sondern das Postulieren des Offensichtlichen. Die Frage war nur das "Wann". ;-) Die Industrie arbeitet bereits seit langem daran und wie gesagt sind Chiplet und MCM auch keinen neuen Konzepte. Beipspielsweise erklärte Koduri im letzten Jahr: "As you know, solving the multi-GPU problem is tough – it has been part of my pursuits for almost 15 years. I’m excited, especially now, because multiple things are happening. As you know, the software aspect of multi-GPU was the biggest problem, and getting compatibility across applications was tough. So things like chiplets, and the amount of bandwidth now going on between GPUs, and other things makes it a more exciting task for the industry to take a second attempt. I think due to these continual advances, as well as new paradigms, we are getting closer to solving this problem. Chiplets and advancement of interconnect will be a great boost on the hardware side."

Darüber hinaus der Hinweis, dass an regelmäßigen Wechseln auf einen neueren, kleineren Node weiterhin kein Weg vorbei führen wird, denn deren Vorteile sind notwendig, damit man überhaupt mehrere Chips sinnvoll in einem Design zusammenfassen kann, wenn man sich innerhalb gewisser elektrischer/thermischer Limits bewegen will. Zudem wird sich ab 3 nm die Rectile-Size der Scanner halbieren, d. h. Chips in der Größe eines GA102 oder Navi21 wird man in 3 nm gar nicht mehr ohne Weiteres fertigen können, sodass hier MCM/Chiplet-Designs zunehemend wichtiger werden für eine weitere Leistungsskalierung.
 
Zuletzt bearbeitet:
Was habt ihr denn alle für irre Vorstellungen? Natürlich nicht. Aus zwei Hauptgründen:

1.) Ein beträchtlicher Teil des Strombudgets dieser Karten geht NICHT in die GPU sondern wird benötigt für vRAM, PCB/Spannungswandlung usw. - das sind bei ner 6900XT schon Größenordnung 80-100W. Bedeutet eine imaginäge dual-GPU-6900XT würde keine 600W verbrauchen sondern "nur" 500 - aber da kommt man auch bei weitrem nicht hin, denn:

2.) Die aktuellen Karten sind ziemlich weit oben angesetzt vom Betriebspunkt, das heißt man erkauft sich die letzten 10% Performance mit viel Leistungsaufnahme. Eine 6900XT oder auch eine RTX3090 die man manuell auf 200 MHz weniger als ab Werk taktet mit entsprechend angepasster Spannung verbraucht sofort 100W weniger bei kaum geringerer Performance.
Wenn man einen solchen Betriebspunkt bei einer doppel-6900XT ansetzt und damit die GPU-Leistungsaufnahme im Bereich von 150W hat würde die Karte bei 2x150 GPU + 100W Rest bei 400W TBP landen. Um da jetzt in den (jetzt leider üblichen) Bereich von 300W zu kommen muss dann noch die Fertigung entsprechend besser werden und/oder architekturseitig etwas performance geholt werden.

Insgesamt ist es durchaus möglich, dass eine solche 160CU-GPU genau bei den 300W ist wo eine 80CU-GPU heute auch ist. Nur eben nicht mit 2,5 GHz (wenn nicht die Fertigung einen unerwartet großen Sprung macht), das sollte eigentlich klar sein.

AMD/NV können auch nicht so einfach ne 500W-Karte bringen ohne selbst auch dafür zu sorgen dass sie nutzbar ist (sprich dicke AiOs draufbauen ab Werk). Der Schritt zu 350W war schon ziemlich mühsam für den breiteren Markt (fancy CFD-Kühler, aussteigende Netzteile, PCIe-Spec am obersten Rand oder gleich neue Stecker usw.), noch mehr sehe ich da eigentlich nicht kommen - zumindest nicht abseits manueller Eingriffe oder superlightningstrixdhshastenichtgesehen-Karten.
In meinen Augen leider ein sehr herablassender Kommentar, noch dazu ohne wirklich sinnvolle Begründung.

1.) Navi 21 als Chip benötigt wohl rund 235W, insgesamt 300W, nach deiner Rechnung also 470+65W = 535W
2.) TSMCs 5nm ergibt eine Ersparnis von 20%, ergo 535W x 20% = 107W; somit 428W Verbrauch
3.) Der Chip wird irgendwie verbunden werden müssen, da wird ein Interconnect gebraucht, der wiederrum Strom verbraucht.
4.) Des Weiteren kann man annehmen, dass 16GB schon recht wenig ist und daher evtl aufgestockt werden muss, was widerum den Verbrauch erhöhen wird
5.) dazu kommt evtl. die Verbreiterung des Interfaces, 256Bit ist jetzt schon recht dürftig, würde auch eine Erhöhung des Verbrauchs bewirken.

EIne solche Karte mit dem gleichen Takt würde damit sicherlich auf rund 450W kommen, eher mehr.

Daher meine Annahme, dass man den Takt stark senken muss, bzw. die Boostphasen deutlich kürzer werden. Aber eine theoretische Verdoppelung der Leistung wird man so nicht erreichen können, ich würde eher im Optimalfall von 80% pro Chip ausgehen, damit theoretisch noch 160% überbleiben. Wäre immer noch ein Hammer, aber auch da wird man sich recht täuschen, denn es wird definitiv ein nicht unerheblicher Teil verloren gehen, ein Interconnect wird immer Performance kosten. Würde also eher Werte von 130-150% erwarten, bei dann aber vieleicht sogar gleichem Verbrauch wie heute, aber doppelt so teurem Chip. Ob das was gutes ist? We will see!
 
Beispielsweise könnte es gemäß SemiAccurate zu nVidia's Hopper oder Lovelace bereits einen TapeOut Ende 2019 gegeben haben. Die verstecken ihre Infos leider hinter einer Paywall, relevante Tags lauteten hier: Chiplet, Samsung, EUV, 4nm.

Wie kommst du da auf 4 nm? Bisher war doch immer von 5 nm und 3 nm die Rede bei der Fertigung.
 
funktioniert Raytracing denn mittlerweile ordentlich, mit den Navis - oder wird das doch erst frühestens nächste Gen. was?
 
@BigBoymann
Herablassend sollte das nicht sein, sorry^^

1.) Ja ok, dann halt 235. Dennoch nutzt man diese Chips natürlich nicht 1:1 in der gleichen Konfiguration sondern eben eher bei 300 MHz weniger und weit unter 200W pro GPU.
2.) Diese Prozentwerte beziehen sich immer auf die gleiche Performance auf Transistorebene - was hier nicht der Fall sein wird. -20% l´Leistungsaufnahme bei 100% Performance können genausogut -40% Leistungsaufnahme bei 90% Performance sein.
3.) Der Interconnecht ist bereits vorhanden bei Navi21 zum Infinitycache, da muss nix neues rein.
4.) Den Verbrauch erhöht mehr vRAM nur wenn du mehr Steine verwendest. Nutzt du 2 GB-Steine statt 1 GB-Steine und eben jeweils 16 davon bleibt der Verbrauch (annähernd) gleich bei 32 statt 16GB.
5.) Eine Interfaceverbreiterung ist nicht zwingend nötig wenn der IF-Cache groß genug ist und der Speicher ausreichend schnell - bei nem echten MCM würde man auch eher HBM zwischen den Dice verwenden statt GDDR6 was nochmal deutlich sparsamer wäre wie bei den Karten im Profibereich). Ist halt die Frage was sowas 2023 kostet.

Dass man mit all dem keine doppelte leistung bekommt verglichen zur 6900XT sehe ich auch so, das ist nur möglich wenn RDNA3 die IPC nochmal deutlich erhöphen könnte zu RDNA2. Aber dass man zwingend hier auf 400W und mehr kommen muss ist genauso Quatsch. Grade AMD hat sich zuletzt eigentlich sehr zurückhaltend gezeigt. Man hätte wenn man gewollt hätte auch 350 oder gart 400W in die 6900XT schieben können und mit selektierten Chips die 2,5+ GHz laufen die RTX3090 über weite Strecken schlagen können. Trotzdem hat man diesen ich nenns mal "Prestigesieg" einfach liegenlassen und ist (im Gegensatz zu NV) im 300W-Korsett geblieben.
 
Zuletzt bearbeitet:
funktioniert Raytracing denn mittlerweile ordentlich
"Ordentlich" funktioniert das schon seit 2 Jahren bei NV und seit ein paar Monaten bei AMD.
Ausreichend performant um es wirklich ernsthaft zu benutzen (also mehr als ein paar Spiegelpfützen/Schatten und ohne Tricks wie DLSS) wird das geschätzt erst 2025 sein. RTX5000 / RX8000 rum. Vorher ists halt ein nettes Showcase.
 
Wie kommst du da auf 4 nm? Bisher war doch immer von 5 nm und 3 nm die Rede bei der Fertigung.
a) SemiAccurate verwendete explizit das Tag "4nm".
b) In Samsung's Roadmap wird es bei 5 nm diesmal keinen Low Power Plus geben. Die haben ihren 5LPE in die Volumenfertigung gebracht und gehen daraufhin direkt weiter über zu einem 4LPE, d. h. der Tag ist durchaus plausibel, da Samsung's 4 nm eine Weiterentwicklung von deren 5 nm ist, die voraussichtlich im 2HJ21 in die Volumenfertigung gebracht werden soll.
c) 3 nm werden dagegen bei Samsunng von FinFETs auf GAAs wechseln, in der ersten Iteration als 3GAE bezeichnet, wahrscheinlich für gate-all-around early. 4LPE wird Samsung's letzter FinFET-Node sein.

@RawMangoJuli: "völliger Blödsinn"? ;-)
 
a) SemiAccurate verwendete explizit das Tag "4nm".
b) In Samsung's Roadmap wird es bei 5 nm diesmal keinen Low Power Plus geben. Die haben ihren 5LPE in die Volumenfertigung gebracht und gehen daraufhin direkt weiter über zu einem 4LPE, d. h. der Tag ist durchaus plausibel, da Samsung's 4 nm eine Weiterentwicklung von deren 5 nm ist, die voraussichtlich im 2HJ21 in die Volumenfertigung gebracht werden soll.
c) 3 nm werden dagegen bei Samsunng von FinFETs auf GAAs wechseln, in der ersten Iteration als 3GAE bezeichnet, wahrscheinlich für gate-all-around early. 4LPE wird Samsung's letzter FinFET-Node sein.

@RawMangoJuli: "völliger Blödsinn"? ;-)
Charlie schreibt immer irgen nen Mist in die Tags rein und außerdem bezog sich der Artikel auf Navi21 ...
 
Charlie schreibt immer irgen nen Mist in die Tags rein und außerdem bezog sich der Artikel auf Navi21 ...
Ich wäre verwundert, wenn AMD plötzlich zu Samsung wechseln würde. Die sind dafür zu klein und haben mit ihrem wachsenden Fertigungsvolumen jetzt gerade einen Punkt erreicht, an dem die bei TSMC etwas mehr Gewicht erlangen und das solllen sie nun wieder aufgeben, indem sie GPUs auslagern? Halte ich eher für unwahrscheinlich.
Und die Tags Chiplet, EUV, Samsung und 4nm haben zweifellos nichts mit den RDNA2-Produkten zu tun. Dass dagegen nVidia bei Samsung bleibt bzgl. seiner Consumer-Produkte ist durchaus im Bereich des Möglichen.
 
Zurück