News AMD Radeon RX 8000 ("RDNA 4"): Navi 44 + Navi 44 = Navi 48?

PCGH_Sven

PCGH-Autor
Während Nvidia mit den Geforce RTX 5000 ("Gaming-Blackwell") in völlig neue Sphären vordringen will, wird AMD mit seinen Radeon RX 8000 ("RDNA 4") vorerst kleinere Brötchen backen müssen. Dennoch könnte so die erste "Chiplet-GPU" entstehen.

Was sagt die PCGH-X-Community zu AMD Radeon RX 8000 ("RDNA 4"): Navi 44 + Navi 44 = Navi 48?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Der Sinn eines MCM Designs ist vorrangig Kosten zu sparen. Mit einem 270mm2 Chip wäre das nicht gegeben. Der Prozess ist soweit fortgeschritten, dass es sich selbst lohnt 600mm2 Chips als 2x 300mm2 Chips zu fertigen. Das MCM Design wird sich bei Gaming GPUs sehr wahrscheinlich nie durchsetzen.

Lediglich bei KI GPUs für den Serverbereich mit niedriger Taktung und kaum Overheadproblemen durch die Chiplets. Hat sich im CPU Bereich auch nicht durchgesetzt, wieso dann im GPU Bereich?
 
So wie ich das verstehe ist Navi48 aber weiterhin monolithsch. Braucht dann aber im Package ne Brücke um beide Teile zu verbinden.

Kann man das dann wirklich MCM nennen? xD

"AMD stellt nur das Navi48 her, das ein relativ hochwertiges Modell durch den INFO-Prozess verpackt, während das 44 ein in zwei Hälften geschnittenes 48-geschnittenes Chiplet ist, das in einem herkömmlichen Gehäuse verpackt ist.

Der Sinn dabei ist, MCM-Grafik-GPUs vor Blackwell zu machen."
 
Zuletzt bearbeitet:
Lediglich bei KI GPUs für den Serverbereich mit niedriger Taktung und kaum Overheadproblemen durch die Chiplets. Hat sich im CPU Bereich auch nicht durchgesetzt, wieso dann im GPU Bereich?
Ähm... vor wie viel Jahren hast du dich das letzte Mal mit CPUs beschäftigt?
Zu Zen1 Zeiten?
AMD ist seit Zen2 komplett auf Chiplets - für Heimanwender und Server CPUs.
Intel hat jetzt mit Meteor Lake auch Chiplets in den CPUs für Heimanwender:

Wie kommst du also drauf, dass sich Chiplets nicht durchgesetzt haben?

Wenn du auch Mobile CPUs meinst... ARM CPUs gibt es auch mit Chiplets.
 
Ähm... vor wie viel Jahren hast du dich das letzte Mal mit CPUs beschäftigt?
Eigentlich relativ aktuell. Die beste Gaming CPU aka 7800X3D besteht aus einem CCX, einem monolithischen 8-Core Cluster und dem separierten Cache bzw. I/O Die.
AMD ist seit Zen2 komplett auf Chiplets - für Heimanwender und Server CPUs.
Ja, das ist schon korrekt so. Für Gaming lohnt sich das aber nicht. Zu viele Nachteile bei mehreren CCX, bzw. Chiplets oder Tiles, wenn du sie so nennen möchtest. Intels CPU Tile mit E und P Cores bleibt bei Meteor Lake auch zusammen, wohl mit guten Gründen.
Wie kommst du also drauf, dass sich Chiplets nicht durchgesetzt haben?
Du musst schon genauer lesen. Ich spreche explizit von Gaming.
Für den einfachen Anwender bringen Chiplets auch nichts..


Zu den Latenzen gibt es genügend Literatur.
 
Zuletzt bearbeitet von einem Moderator:
Nur sieht das bei GPUs noch anders aus mit den chiplets.. da ist Latenz und Sheduling ect alles noch ein thema
Ja, das ist schon korrekt so. Für Gaming lohnt sich das aber nicht. Zu viele Nachteile bei mehreren CCX, bzw. Chiplets oder Tiles, wenn du sie so nennen möchtest. Intels CPU Tile mit E und P Cores bleibt auch zusammen
Das liegt eher an den Spielen.. und wieviele CPU Kerne sie ansprechen können..
Und am sheduling
Das chiplet Design war kein Problem in Spielen zb beim 5950x den ich hatte.. müsstest nur CPPC deaktivieren weil der Sheduler sonst Ständig versucht hat alles auf so wenig Kerne wie möglich zu ballern und dementsprechend die frametimes gelitten haben

Im direkten Vergleich zwischen das Spiel läuft auf CCD1 und verteilt auf beiden (beides ohne CPPC) hab ich keine FPS Unterschiede gesehen in den 1% werten
 
da ist Latenz und Sheduling ect alles noch ein thema
Bei den CPUs doch genauso. Am deutlichsten merkte man das als AMD von Zen zu Zen 2 einem CCX 8 Kerne spendierte und man nicht mehr den Umweg über den Fabric in Kauf nehmen musste , was die Latenz deutlich senkte und die Leistung enorm abhob.
Das chiplet Design war kein Problem in Spielen zb beim 5950x den ich hatte..
Ein 16 Kern 5950X in einem 16Kern monolithischen CCX wäre deutlich schneller, insofern schon ein Problem, wenn denn irgendein Spiel mehr als 16 Threads brauchen würde.
müsstest nur CPPC deaktivieren weil der Sheduler sonst Ständig versucht hat alles auf so wenig Kerne wie möglich zu ballern und dementsprechend die frametimes gelitten haben
Klar, um zu vermeiden übers Fabric zu springen. Die 16 Kerner sind ja nicht aus Zufall häufig in Spielen langsamer als die 8 Kern Monolithen.

Der 7800X3D knabbert dem 7950X3D trotz weniger Takt uns Cores den Vorsprung weg und ist im Mittel schneller. Die Chiplet-Strategie ist ein Kompromiss und keine Lösung für Spieler. Sie senkt hauptsächlich dort Kosten, wo die Latenzen nicht stören, im Server und Workstationbereich.

Die Core 2 Quad CPUs waren ja im übertragenen Sinne auch schon "Chiplets" und hatten gegenüber nativen Quadcores deutliche Nachteile.
 
Zuletzt bearbeitet von einem Moderator:
Der Sinn eines MCM Designs ist vorrangig Kosten zu sparen. Mit einem 270mm2 Chip wäre das nicht gegeben. Der Prozess ist soweit fortgeschritten, dass es sich selbst lohnt 600mm2 Chips als 2x 300mm2 Chips zu fertigen. Das MCM Design wird sich bei Gaming GPUs sehr wahrscheinlich nie durchsetzen.

Lediglich bei KI GPUs für den Serverbereich mit niedriger Taktung und kaum Overheadproblemen durch die Chiplets. Hat sich im CPU Bereich auch nicht durchgesetzt, wieso dann im GPU Bereich?
Nicht durchgesetzt

bedeutet bei mir so etwas änliches wie

abgeschlagen.
 
lar, um zu vermeiden übers Fabric zu springen. Die 16 Kerner sind ja nicht aus Zufall häufig in Spielen langsamer als die 8 Kern Monolithen.
Nur sind die FPS und frametimes mit CPPC (was das fabric springen unterbindetl) sogar bedeutend schlechter gewesen.

Ich hab sogar mit einem 5800x3d bessere frametimes mit CPPC Off.

In der Theorie magst du Recht haben das dass Fabrik springen über mehrere CCDs schlecht ist.. in der Realität macht das keinen Unterschied
Vorallem nicht wenn das Sheduling nicht reinhaut
Nicht durchgesetzt

bedeutet bei mir so etwas änliches wie

abgeschlagen.
Du meinst Intel?

Oder hast du CPU und GPU vertauscht?

AMD hat zwar keine guten GPUs (Grafikkarten) die man empfehlen kann..

Aber CPUs (Hauptprozessoren) können sie.. da ist Intel im Moment wirklich hinten dran und sieht kein Land gegen das chiplet Design .
Gerade im Server Bereich rasiert AMD Intel den Arsch was Leistung und effizents angeht

Man hofft bei AMD halt mit dem MCM Design auf einen Ryzen moment bei den Grafikkarten um irgendwann wieder Konkurrenzfähig gegenüber Nvidia zu sein
 
Zuletzt bearbeitet:
  • Like
Reaktionen: rum
Du musst schon genauer lesen. Ich spreche explizit von Gaming.
Für den einfachen Anwender bringen Chiplets auch nichts
Also soweit ich weiß sind auch die non x3d und die 7900x/7950 überragend gute Chips und auch sehr gut im Gaming. Also warum sollen diese nicht auch für Heimanwender nutzen? Sie sind deutlich günstiger und Effizienter als die riesigen Monolithen von Intel. Man hat keinen expliziten Vorteil durch Chiplets (außer Preis), aber auch keinen Nachteil. Was das Energiebudget angeht wohl schon ;) Und die Kühlung eines 13700k/13900k oder 14700k/14900k ist ein Albtraum...
Darüber hinaus sind die großen Monolithen auch aufwendig von Intel und kosten dementsprechend und des halb geht Intel nun auch auf das Chiplet design.
AMD hat zwar keine guten GPUs (Grafikkarten) die man empfehlen kann..
:lol:
 
Also ungefähr 7900XT Leistung durch 2 verbundene Chips..
Wenn der Treiber das packt und mal wieder keinen Schnupfen hat.
Wenn die Spiele engine sich mit dem MCM Design verträgt..

Wird schwer gegen die RTX5070
Könnte wirklich so laufen,
knapp 7900XT Rasterleistung und dann RT Leistung knapp über der XTX.

Könnte also etwa AMD´s 4070ti Super Vaiante werden. Nur weiterhin im RT intensiven Bereich wohl deutlich unterlegen. Dafür im Schnitt auf Augenhöhe.

Denke eine 5070 wird ebenfalls auf Augenhöhe landen.
 
Mal ehrlich, ich glaube da nicht ein Wort. Warum sollte AMD ne neue Generation bringen die in allen Bereichen langsamer als der Vorgänger ist? Selbst die 8600 nicht mal auf 7600XT Niveau?

Ich sehe da null Sinn
 
Also soweit ich weiß sind auch die non x3d und die 7900x/7950 überragend gute Chips und auch sehr gut im Gaming.
Na, überagend sicher nicht. Aber gut schon.
Ich finde auch die Formulierung war nicht richtig.

Natürlich funktioniert auch das Chiplet design für gaming.
Aber ohne kommunikation zwischen den chiplets gehts halt deutlich besser.



Also warum sollen diese nicht auch für Heimanwender nutzen? Sie sind deutlich günstiger und Effizienter als die riesigen Monolithen von Intel.
Nur die X3d sind wirklich besser, was Leistung zu Verbrauch angeht.
Dazu kommt das es in Spielen kaum einen Unterschied zwischen 14600k und 14900k gibt.

Ein 14900k ist für mich auch keine gute Wahl, wenn es nur rein weg zum Gaming sein soll. genau so wie ein 7950X(x3D).

Hier würde ich immer einen 7800X3d, oder einen 14600k jeweils mit schnellem Ram vorziehen.

Mehr ist nur Geld verbrennen.

Selbst mit den deutlich kleineren CPUs liegt man schon gut...
Man hat keinen expliziten Vorteil durch Chiplets (außer Preis), aber auch keinen Nachteil.
Natürlich ist der Interconnect bezogen auf Games ein kleiner Nachteil.
Was das Energiebudget angeht wohl schon ;) Und die Kühlung eines 13700k/13900k oder 14700k/14900k ist ein Albtraum...
Wie gut das ein 14600k schon reicht ;).

Beim Zocken bekommt man aber auch deine genannten CPUs noch gut gekühlt.
Bleibt aber natürlich die Abwärme und die Anforderungen an das NT. Außer man baut sich selbst den idealen 14700/14900k (Settings).
Darüber hinaus sind die großen Monolithen auch aufwendig von Intel und kosten dementsprechend und des halb geht Intel nun auch auf das Chiplet design.
Beim Chiplet geht es wie du eingangs erwähnt hast, nur um kosten.

Je nach Blickwinkel ist das schon so.
Wer halt sich gerne dem neusten Schrei bei Grafik verschreibt zum Beispiel, der bekommt bei Nvidia durch die Bank die besseren Produkte. Aktueller Stand
 
Je nach Blickwinkel ist das schon so.
Wer halt sich gerne dem neusten Schrei bei Grafik verschreibt zum Beispiel, der bekommt bei Nvidia durch die Bank die besseren Produkte. Aktueller Stand
Nicht nur bei den großen Karten.. auch bei den kleinen Karten die bei neuen Games massiv auf upscaling angewiesen sind ist eine AMD Karte deutlich im Nachteil weil man mit DLSS bedeutend tiefer von der Renderauflösung gehen kann bevor es anfängt kacke auszusehen.. was in entsprechend mehr FPS umsetzbar ist

Solange wir DLSS-Q mit FSR Nativ
Und DLSS-P/B mit FSR-Q bei den Spielen im Upscaling fall Vergleichen müssen sind auch die kleinen Karten keine Option

Wenn wir jetzt noch Sachen wie HDR unterstützung (AMD hat Probleme mit Peak brightness und tonemapping bei den meisten Displays durch freesync Premium pro) und KI- HDR in Video und Gaming dazu in die Waage schmeißen wird es nur trauriger
 
Zuletzt bearbeitet:
Nur sind die FPS und frametimes mit CPPC (was das fabric springen unterbindetl) sogar bedeutend schlechter gewesen.

Ich hab sogar mit einem 5800x3d bessere frametimes mit CPPC Off.
Bei der Topologie eines 5800X3D sollte CPPC gar nichts bringen. Der Weg zum Fabric Cache ist ja immer gleich lang ohne zweites CCX.
In der Theorie magst du Recht haben das dass Fabrik springen über mehrere CCDs schlecht ist..
Warum Theorie? Das kann man doch messen. Statt 10 bis 16ns sind es bei der Core 2 Core Kommunikation 80ns.
in der Realität macht das keinen Unterschied
Vorallem nicht wenn das Sheduling nicht reinhaut
Klar macht das einen Unterschied, lese dir mal den Test des 3300X durch.


Getrennte CCX, bzw. die Chipletbauweise ist kein Selbstläufer.
 
Zurück