AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

Für AMDs kommende Flaggschiff-GPU Navi 31 werden bereits seit längerem 80 Compute Units erwartet, wie man sie schon bei Navi 21 gesehen hat. Einem Gerücht zufolge soll die RX 7900 XT dafür aber auf zwei GPUs im Chiplet-Verbund setzen und somit insgesamt 160 CUs bieten. Dadurch könnte AMD mit der nächsten Generation die Anzahl der Shader verdoppeln, ohne eine zu große Chipfläche zu riskieren.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets
 
Glaube das hat Amd so kommuniziert circa doppelte Performance wie auch schon die 5700xt verdoppelt wurde.

Aber das Teil wird doch 500-600 Watt nuckeln.
 
Vielleicht werden wir die Chiplets nur in hochpreisigen Produkten finden, denn vielleicht wäre es sinnvoll, diese dann wie so einen Apple M1 Chip direkt mit HBM Speicher zu verbinden, damit man auch mögliche Flaschenhälse zwischen den ganzen Einzelkomponenten minimiert.
Haben wir ja schon gesehen, was das bei den Prozessoren bringt.
Die Sprünge bei Ryzen sind beachtlich, udn das komtm sehr viel durch den schnelleren und verbesserten Speicherfluss, alleine vom Sprung von Ryzen 3000 zu 5000 sollen ja in Extremfällen bis zu 50% Leistungszuwachs erzielt worden sein.
Denn mal ehrlich, der M1 Chip an sich ist ein stinknormaler Prozessor und den X86ern gar nicht so überlegen, wie man uns Glauben machen will.
Das unterliegt auch den physikalischen Gesetzen.
Nein, die überlegene Effizienz im Low Power Bereich liegt einzig und alleine daran, dass man da alles zusammen ohne Ballast und Umwege und Störenfriede hochoptimiert in einem Stück hingesetzt hat.
Würde man den M1 Chip in herkömmolicher MAchart in Einzelkomponenten mit aufwendiger und extrem langsamer Verdrahtung produzieren, wäre das Ding höchstens mal eine Erwähnung Wert, das man so etwas nun auch kaufen kann.
Übrigens eiht man ja an dem preis ganz gut, wie sich Apple das bezahlen lässt.
Schaut mal in den Kasten rein, ihr denkt ihr habt ein Rasperry Pi für 50 Euro gekauft. LOL.
Man sollte also damit rechnen, dass man in Zukunft diesen Weg der hochkomprimierten integrierten technik gehen muss, udn wir nicht mehr Karten wie eine Voodoo 6000 erwarten sollten, wenn wir von Mehrchiptechnik sprechen.
Ich bin jedenfalsl gespannt, wie man die Probleme möglichst effizient in den Griff bekommt.
 
Es geht hier um eine gpu die in 5nm gefertigt wird und diese kommt erst 2022
Die angaben klingen sehr interessant spannend wird wie amd das latenzproblem zwischen den chiplets lösen will.
Wichtig ist das man einen aktiven interposer verwendet und die cu anders aufbaut.
DXR wird aber das wichtigste upgrade für amd rdna3
natürlich klingen dann 160cu (10240 shader) beeindruckend
Es soll Änderungen an der Geometrie Einheiten geben (tmu) und den Fokus auf einen dedizierten 4-8int operation für upscaling.
Dabei soll dies vorrangig speicherbandbreite schonen und eine native Darstellung von Texturen bei allen Auflösung ermöglichen. Auf wiedersehen alaising
Was mich am meisten interessiert wie will man die drawcalls senken den die sind das größte Problem bei so vielen shadern.
 
Ich wundere warum jetzt schon ein angeblicher "Leak" bekannt sein soll, wenn doch RDNA-2 aktiv jede Information bis zur letzten Sekunde unter Verschluss gehalten wurde. Ich gebe bis zur RDNA-3 Präsentation gar nichts darauf, lieber Zeit mit Hardware nutzen verbringen.;-)
 
Zu Kaufen gibt es sie, auch viele Modelle sind verfügbar, zumindest bei Alternate nur die Preise sind noch recht fragwürdig.
Kaufen würde ich eine 6900xt eigentlich nicht. Der Sprung von der 6800xt ist eigentlich zu klein.
Finden kann man aber beide Modelle für angemessenen Preis :daumen:
Sapphire 6800xt Nitro+ 780€ bei Amazon fr
oder 6900xt Nitro+ 1150€ bei Mediamarkt um 2:30 morgens
finde die Preise ok

Wusste nicht über den Preis der 6800xt bescheid. Deswegen hatte ich dann bei Mediamarkt zugeschlagen
 
Ja, BITTE !
Wollte schon immer mal 2 Dual GPU´s im CF betreiben ... :-D

MfG Föhn.

alles schon hinter mir

2x 7950 GX2 für damals pro Karte 650€ ? heute bekommt man dafür Mittelklasse von den Herstellern?

Der Aufpreis zur Mehrleistung hat sich bis heute nicht relativiert ?

könnte mir vorstellen aus Nostalgie zur Nummer könnte ich mir so eine Karte von AMD zulegen ?
 
Vielleicht werden wir die Chiplets nur in hochpreisigen Produkten finden, denn vielleicht wäre es sinnvoll [...]
Wahrscheinlicher ist, dass es sich um ein MCM-Design als um ein Chiplet-Design *) handeln wird, d. h. hier werden eher zwei vollwertige GPUs auf einem Träger kombiniert (wenn das Gerücht zutrifft). Ein anderes Design düfte für AMD im Consumer-Segment wirtschafltich eher noch nicht erstrebenswert sein. Ebenso steigt auch nicht unbedingt die Wahrscheinlichkeit der Verwendung von HBM bei AMD mit einem solchen Design im Consumer-Segment, eher im Gegenteil. Mit der Kombination aus InfinityCache und schmalbandigem SI ist man einigermaßen gut gefahren und das gleiche Setup könnte man (optional mit 16 Gbps) GDDR6 fortführen und hätte im Dual-Chip-Modell die Möglichkeit jeweils zwei Controller zu deaktivieren und hier mit insgesamt 12 Controllern zu arbeiten (also bspw. 12 oder 24 GiB bei bis zu 768 GiB/s).

*) AMD verwendet zwar auch den Begriff "Chiplet" in seinem Patent 2020/0409859A1, jedoch stellen die Grafiken dar, dass dort komplette GPU-Chips verbunden werden.

Zudem, sollte das Gerücht zutreffen, kann man sich sicher sein, dass auch nVidia zeitnah ein MCM-Consumer-Design veröffentlichen wird (von Hopper weiß man das ja bereits; möglicherweise hier auch als Chiplet, nur der zielt auf das Datacenter ab, denn hier dürfte Intel's Xe-HPC der Hauptkonkurrent sein). Und bei Intel weiß man schon länger von der grundlegenden MCM-Fähigkeit ihres Xe-HP, d. h. hier wird man absehbar auch MCM-Designs auf Basis von Xe-HPG zu sehen bekommen (hier jedoch möglicherweise erst im nächsten Jahr, da Intel ggf. einen schrittweisen RampUp seiner GPUs plant oder gar erst mit der nächsten Xe-Gen, weil man zuerst im Entry-Level bis MidRange starten wird?).

Zur Performance: Übertrieben hohe Ansprüche sollte man hier nicht stellen, also "2,5x eine 6900XT" ist voraussichtlich überzogen, denn AMDs IF kostet Leistung (i. V. z. einem monolithischen Design) und die in Summe deutlich größere GPU wird auch etwas weniger gut auszulasten sein. Darüber hinaus ist auch die Frage wie AMD den einzelnen Chip auslegt, wenn es absehbar Zwei-Chip-Karten geben wird, denn in dem Falle könnte ein einzelner Navi 31 auch nur genau so schnell wie ein Navi 21 sein, dafür aber bspw. eine bessere RT-Implementation aufweisen und auch etwas mehr Transistoren für AI verwenden um bspw. etwas wie ein AI-basiertes Supersampling effektiver anbieten zu können. Hier wird man einfach abwarten müssen.
Zudem, wie @BigBoymann andeutete, ist auch der Verbrauch eine offene Frage, wenn man nicht plötzlich 450+ W-Karten in den Markt bringen will. TSMC gab für den N5 ggü. dem N7 eine Verbrauchsreduktion bei Iso-Leistung um die 20 % an, d. h. vermutlich werden die Chips in den MCM-Karten auch niedriger takten als in den SingleChip-Karten und auch der IF könnte hier gegen einen zu hohen Takt bei einem einzelnen Chip sprechen, denn der Kommunikationsaufwand ist hier bedeutent größer als auf einer CPU, d. h. der IF kann hier schnell zum Flaschenhals werden. Hier wird man schlicht abwarten müssen. Ich würde eher einen Leistungszugewinn im Bereich 1,5x bis 1,9x erwarten für das Topmodell i. V. z. zu einer RX 6900 XT. (RT und AI könnten bspw. höher ausfallen, wenn die Hardware entsprechend erweitert wird.)

@Brexzidian7794: Nein, wäre es nicht, denn ansonsten würde man diese neuen Aufwendungen vermeiden und schlicht Crossfire implementieren. Die (beiden) GPUs auf einem gemeinsamen Träger implentiert und mit einem schnellen Interconnect verbudnen, ist eine andere Geschichte und im Idealfall sollte dieses MCM-Design nach außen hin vollkommen transaprent wie eine einzige GPU ggü. dem Grafik-API auftreten. (Beispielsweise Imagination Technologies hat das gemäß ihrer eigenen Aussagen bei ihrer B-Series bereits geschafft.)
 
Zuletzt bearbeitet:
Zwei GPUs im Chiplet-Verbund,wäre das nicht eine art Crossfire Verbund?Was ja auch nachteile hatte früher?
 
Nun haben wir ein Problem, früher hast so gedacht: "He, das kommt in nem halben Jahr oder so." Heute denkst: "Gibt heute schon nix zu kaufen und wenn dann ist das P/L Verhältnis so im Arsch, daß es verwundern würde wenn das besser werde." :D

Das trübt etwas die Spannung. :D
 
Aber das Teil wird doch 500-600 Watt nuckeln.

wird selbst mit 5nm Fertigung bei astronomischen Verbräuchen landen, 450-500W.
Was habt ihr denn alle für irre Vorstellungen? Natürlich nicht. Aus zwei Hauptgründen:

1.) Ein beträchtlicher Teil des Strombudgets dieser Karten geht NICHT in die GPU sondern wird benötigt für vRAM, PCB/Spannungswandlung usw. - das sind bei ner 6900XT schon Größenordnung 80-100W. Bedeutet eine imaginäge dual-GPU-6900XT würde keine 600W verbrauchen sondern "nur" 500 - aber da kommt man auch bei weitrem nicht hin, denn:

2.) Die aktuellen Karten sind ziemlich weit oben angesetzt vom Betriebspunkt, das heißt man erkauft sich die letzten 10% Performance mit viel Leistungsaufnahme. Eine 6900XT oder auch eine RTX3090 die man manuell auf 200 MHz weniger als ab Werk taktet mit entsprechend angepasster Spannung verbraucht sofort 100W weniger bei kaum geringerer Performance.
Wenn man einen solchen Betriebspunkt bei einer doppel-6900XT ansetzt und damit die GPU-Leistungsaufnahme im Bereich von 150W hat würde die Karte bei 2x150 GPU + 100W Rest bei 400W TBP landen. Um da jetzt in den (jetzt leider üblichen) Bereich von 300W zu kommen muss dann noch die Fertigung entsprechend besser werden und/oder architekturseitig etwas performance geholt werden.

Insgesamt ist es durchaus möglich, dass eine solche 160CU-GPU genau bei den 300W ist wo eine 80CU-GPU heute auch ist. Nur eben nicht mit 2,5 GHz (wenn nicht die Fertigung einen unerwartet großen Sprung macht), das sollte eigentlich klar sein.

AMD/NV können auch nicht so einfach ne 500W-Karte bringen ohne selbst auch dafür zu sorgen dass sie nutzbar ist (sprich dicke AiOs draufbauen ab Werk). Der Schritt zu 350W war schon ziemlich mühsam für den breiteren Markt (fancy CFD-Kühler, aussteigende Netzteile, PCIe-Spec am obersten Rand oder gleich neue Stecker usw.), noch mehr sehe ich da eigentlich nicht kommen - zumindest nicht abseits manueller Eingriffe oder superlightningstrixdhshastenichtgesehen-Karten.

Was ist das für eine Diskussionskultur hier:nene:
Die ist eigentlich ziemlich gut - bis halt die üblichen Verdächtigen wieder mit schwachsinnigen/provokanten Pauschalaussagen kommen und manche dann wieder nichts besseres zu tun haben als darauf auch noch einzugehen. :-_-:

Ich blende den Schrott mal aus.
 
Zuletzt bearbeitet:
[...] 1.) Ein beträchtlicher Teil des Strombudgets dieser Karten geht NICHT in die GPU sondern [...]
Jain, Navi 21 (nur der Chip) liegt bei etwa 200 bis 230 W. In einer naiven Verdopplung würde sich hier also der Verbrauch verdoppeln unnd da sind noch nicht einmal Wanderlerverluste eingerechnet. So gnaz verkehrt sind diesbezügliche Überlegungen daher nicht.
 
Ist die Frage ob die dann auch doppelt so teuer wird wie die 6900 XT. Denn für eine 2000€ GPU gibt es nicht viele Abnehmer.

Wird die Skalierung eigentlich besser sein, als bei den alten DualGPUs, die intern auf SLI/CrossfireX gesetzt haben?
 
Zurück