News AMD RDNA 3: Vor- und Nachteile des Multi-Chiplet-Designs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD RDNA 3: Vor- und Nachteile des Multi-Chiplet-Designs

Mit dem bevorstehenden Release der RDNA3-Grafikkarten aus dem Hause AMD setzt der Hersteller erstmals auf ein Multi-Chiplet-Design, das die GPU in mehrere Bereiche unterteilt. Doch was genau bedeutet das am Ende für den Konsumenten und welche Probleme könnten in Zukunft bei der Weiterentwicklung der Chips entstehen?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD RDNA 3: Vor- und Nachteile des Multi-Chiplet-Designs
 
Also ich hab in dem Schnittpunkt von Abverkauf und startendem Weihnachtsgeschäft eine vergleichsweise günstige 6900xt geschossen. (letzen Sonntag kostete das gleiche modell plötzlich wieder 1600 eueus)
Ich bin jetzt erstmal versorgt und hoch zufrieden.
Da ich vorher ausschließlich nvidia verbaut habe und mir deren Preispolitik auf den senkel ging war das neben Neugier auch ein protestkauf.
Und ich muss sagen die Treibersoftware wirkt auch mich weiter entwickelt und durchdachter. Positiv ist das man zur nutzung nicht gezwungen wird ein konto zu eröffnen, das ist optimal.

Ich hoffe natürlich auf eine starke Konkurrenz durch amd damit die Preise generell eher fallen.
 
Also ich hab in dem Schnittpunkt von Abverkauf und startendem Weihnachtsgeschäft eine vergleichsweise günstige 6900xt geschossen. (letzen Sonntag kostete das gleiche modell plötzlich wieder 1600 eueus)
Ich bin jetzt erstmal versorgt und hoch zufrieden.
Da ich vorher ausschließlich nvidia verbaut habe und mir deren Preispolitik auf den senkel ging war das neben Neugier auch ein protestkauf.
Und ich muss sagen die Treibersoftware wirkt auch mich weiter entwickelt und durchdachter. Positiv ist das man zur nutzung nicht gezwungen wird ein konto zu eröffnen, das ist optimal.

Ich hoffe natürlich auf eine starke Konkurrenz durch amd damit die Preise generell eher fallen.
Die preise fallen nicht durch starke Konkurrenz. Sondern wenn die Leute mal Amd kaufen würden :) .
 
Ich hoffe natürlich auf eine starke Konkurrenz durch amd damit die Preise generell eher fallen.

Nicht nur AMD, ich hoffe das sich auch Intel am GPU Markt behauptet.
Mehr Konkurrenz, mehr Wettbewerb, dadurch bessere Preise und schnellere Entwicklung.

Sehe ich positiv für uns Konsumenten.
 
Vorteil nr 1 und 2

Preis

Kein NVIDIA
Der Endkundenpreis hat nichts mit Chiplet zu tun

Chiplet hat einige technische Vor- und Nachteile, aber der Artikel geht nicht besonders darauf ein.
Es gibt Vor/Nachteile bei Forschung, Entwicklung Produktion.
Nachteile bei Latenzen, Vorteile bei Flexibilität und Skalierbarkeit.
Die preise fallen nicht durch starke Konkurrenz. Sondern wenn die Leute mal Amd kaufen würden :) .
Nein.
Die Preise fallen, wenn Leute aufhören die überhöhten Preise zu bezahlen.
Da AMD genauso viel zu hohe Preise abruft hilft das also wenig
 
Es war absehbar. Unterm Strich bietet die erste Chiplet Variante noch keinerlei Vorteile gegenüber der Konkurrenz.
Nvidias A104 ist unter 300mm² groß und AMD´s Gegenspieler ~ 500mm²,
 
Der Endkundenpreis hat nichts mit Chiplet zu tun

Chiplet hat einige technische Vor- und Nachteile, aber der Artikel geht nicht besonders darauf ein.
Es gibt Vor/Nachteile bei Forschung, Entwicklung Produktion.
Nachteile bei Latenzen, Vorteile bei Flexibilität und Skalierbarkeit.

Nein.
Die Preise fallen, wenn Leute aufhören die überhöhten Preise zu bezahlen.
Da AMD genauso viel zu hohe Preise abruft hilft das also wenig
Hast recht, habe mich dumm ausgedrückt.
Es war absehbar. Unterm Strich bietet die erste Chiplet Variante noch keinerlei Vorteile gegenüber der Konkurrenz.
Nvidias A104 ist unter 300mm² groß und AMD´s Gegenspieler ~ 500mm²,
Vergleich lieber nocht smpere mit rdna 2 dann wenn es dir um die größe geht;)
 
Ich glaube nicht, dass die Preise massiv überhöht sind, speziell die von AMD nicht. AMD kalkuliert sehr viel knapper und die Hardware einfach teurer und aufwendiger als früher.
Es stimmt zwar, dass Hrrstellungskosten gestiegen sind, aber die waren schon immer nur ein Bruchteil der Kosten von Karten über 200 Euro.
Eine 4090 kostet in der Fesamtproduktion keine 200 Euro. Der Chip kommt auf knappe 100 (die Wafer für 5nm sind inzwischen bei ca 10.000 angekommen), die restliche Elektronik wird in China bei Foxconn von Kindern oder Maschinen hergestellt. Übertrieben gesagt natürlich.
Bei AMD ist das ähnlich.
Kleinere Karten brauchen billigere Komponenten, weniger Chipfläche.
Eine 7900XT kännte AMD genauso gut um 500 bringen. Aber den Preis diktiert seit Maxwell Nvidia. AND nimmt diesen so lange an , solange ihre bestellten Chips weggehen, erst wenn nicht senkt man die Preise. Bei Zen ist das dasselbe, deshalb gabs etwa knapp 2 Jahre keinen Zen 3 unter 250 Euro: die bestellte Mengecwar nicht groß genug um den unteren Markt zu bedienen, aber schnell genug um Intel zu schlagen. Völlig klar, dass man das dann zu hohen Preisen anbietet. Weil die Menge begrenzt ist, versucht man natürlich jedes Stück zum maximal möglichen Preis zu verkaufen.
AMD ist hier nicht snders als Intel. Leider, aber auch völlig normal.
Schaut msn sich diverse Retro Speciqls an, bekam man vor 15 Jahren von AMD um 130 Euro eine Performance Karte die msn und heute um 600 Euro verkauft. Mit Inflation ist das nicht erklärbar, AMD passt sich dsnkend an Nvidias Preise an
AMD hätte vermutlich auch RDNA3 gerne höher im Preis angesetzt, wenn das funktionieren würde.
Wenn die Leistung da wäre, etwa in RT, und die Kaufkraft. Ja

Und nochwas: Konkurrenz auf Augenhöhe drückt den Preis IMMER, wenn es keine Preisabsprachen (Kartell) gibt.
der Meinung war ich auch lange. in einem gesunden Markt stimmt das auch. Aber aktuell läuft da was schief, und zwar schon vor Corona. Ich beobachte, dass Nvidia die Preise unbemerkt nach oben zieht:
AMDs 7970 war langsamer qls Nvidia gedacht hat. Deshalb hat Nvidia nicht ihre Highend-GPU dagegen gestellt, sondern die nächstkleinere (680), denselbrn Preis abgerufen und dann oben noch was drauf gesetzt. Titan und Ti waren geboren. Das hat man dann immer weiter fortgesetzt.

denn es lohnt sich deutlich mehr Exemplare von einem Produkt zu verkaufen, selbst wenn die Marge etwas geringer sein sollte. Einfache Mathematik.
das ist quasi eine l8neare Funktion die man über eine andere legt: ab welchem Punkt rechnet sich ein Preisksmpf.
Wohlwissend, wenn AMD die Preise senkt, tut Nvidia das auch und man verkauft gar nicht mehr, aber dsnn verkaufen beide evtl gleich viel, zu einem geringeren Preis
 
Absoluter Quark der hier geschrieben wird.

Klar bringen Chiplets Kostenvorteile (zumindest bei den größeren Chips)

AMD schafft es mit einem 300mm2 GCD (chiplet) das bei TSMC in 5nm gefertigt wird und entsprechend fast nur logic Bestandteile enthält die man gut verkleinern kann (Steigerung der Density TSMC 5FF vs 7FF, um den Faktor 1.8!)
bis auf 10-15% an einen doppelt so große RTX4090 (4nm TSMC 608mm2) heranzukommen
(falls das Gerücht stimmen sollte, dass Navi 31 einen Hardware bug enthält, der es ihm verunmöglicht Taktraten um 3GHz zu erreichen, der zu einem späteren Zeitpunkt gefixt wird ( 7950XTX?) sogar noch viel näher.)

Die jeweils 37.5mm2 großen MCD (Chiplets) die nur SRAM und analog enthalten und bei TSMC im günstigen 6nm Verfahren gefertigt werden wiederum, kosten nur peanuts (Steigerung der Density TSMC 5FF vs 7FF, lediglich um den Faktor 1.3 - 1.35!)
(hab das mal über den Daumen gepeilt berechnet und komme dabei auf 6-7$ pro Stk. in der Herstellung.)
Entsprechend macht es keinen Sinn jede Menge Platz für SRAM und analog Bestandteile im teuren TSMC 5nm zu verschwenden, wenn man sie nur so marginal bei der Umstellung von 7 auf 5nm verkleinern kann.

Und was fast noch wichtiger, ist die Flexibilität die einem dadurch ermöglicht wird.
Theoretisch wäre es möglich die 6nm Chiplets z.B. bei RDNA4 wieder zu verwenden und nur den GCD neu aufzulegen.
Auch kann man durch einfaches weglassen eines MCD wie z.B. bei der 7900XT einfach nach Bedarf eines, oder gar mehr weglassen. Mehr Flexibilität geht fast gar nicht mehr.
RTX 7900XTX 384 Bit (6 chiplets)
RTX 7900XT 320 Bit (5 chiplets)
RTX 7900 256 Bit? (4 chiplets?)

RTX6800XTX 256 Bit (4 chiplets)
RX6800XT 192 Bit (3 chiplets)
RX6800 128 Bit? (2 chiplets?)

1670080683192.png


Auch sollte man ganz klar die 300mm2 des GCD von den 37.5mm2 je Stk. des MCD differenzieren und nicht zusammen rechnen.
Macht man bei Zen ja auch nicht und es sind nun einmal 6 vs 7nm ein Äpfel und Birnen Vergleich.


@Rollora da scheinst du etwas zu verwechseln die Wafer Kosten bei TSMC (5nm) betragen ca. 16'000$
und nicht 10'000$ du hast das sicher mit TSMC 7nm verwechselt.
1670084043750.png
 
Zuletzt bearbeitet:
Liebe Leute ihr vergesst bei euren Preis Philosophien immer die Entwicklungskosten eines solchen Chips. Und die gehen inzwischen in die Milliarden. Die Herstellung kostet also ca 300 für eine 4090. Das ist nur der Chip alleine da kommt dann noch der ganze Rest dazu. Es würde mich nicht wundern wenn bei kalkulierten 1m verkauften Karten die Entwicklungskosten nicht Mal gedeckt sind bei 1000€ Aufschlag dafür.
 
@Rollora da scheinst du etwas zu verwechseln die Wafer Kosten bei TSMC (5nm) betragen ca. 16'000$
und nicht 10'000$ du hast das sicher mit TSMC 7nm verwechselt.
Anhang anzeigen 1409777
stimmt, dass diese Preise genannt wurden für 5nm Wafer.
Dazu gibt es aber 2 Dinge zu bedenken: erstens werden die Preise im Laufe eines Prozesses gesenkt und zweitens sind sie Verhandlungssache:
ja, Apple hat sicher 2020 als sie ziemlich die ersten waren vermutlich 16k pro Wafer bezahlt. Aber wenn ein neuer Prozess in der Risk Production ansteht, der alte schon von vielen weiteren genutzt wird weil das Volumen hoch genug ist, Konkurrenz aufholt usw, dann fällt der Preis. Üblicherweise auf fast die Hälfte.
Nun gibts 2 Gründe, warum ich von ca 10k ausgehe, nicht etwa 8k und darunter: erstens, 3nm verzögert sich, zweitens hat TSMC ja die Preise letztes Jahr wieder etwas angezogen und ist in 5nm derzeit eigentlich Konkurrenzlos.
16.000 hält man natürlich dennoch nicht. 3nm kommt nächstes Jahr, Intel holt auf, man wird es sich mit Bestandskunden nicht verscherzen wollen, sonst ist NV wieder bei Samsung
 
Zurück