News Radeon RX 8000: Aufbau von eingestelltem Navi 4C geleakt - mit 13 bis 20 Chiplets [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 8000: Aufbau von eingestelltem Navi 4C geleakt - mit 13 bis 20 Chiplets [Gerücht]

Angeblich sollte die GPU Navi 4C als Teil der Radeon-RX-8000-Serie über 13 bis 20 Chiplets verfügen - die Entwicklung wurde aber bereits eingestellt. Trotzdem dürfte AMDs Fokus darauf liegen, auch GPUs in Zukunft immer weiter zu zerteilen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 8000: Aufbau von eingestelltem Navi 4C geleakt - mit 13 bis 20 Chiplets [Gerücht]
 
Ich bin echt gespannt wie es mit RX 8000 weitergeht, wenn sich das bewahrheitet.

Wie war das denn bei Polaris und RDNA1, als es auch keine Highend-Variante gab - konnten die dennoch ihre Vorgänger übertrumpfen?

Falls nein, dann werd ich meine 6950 XT bis RDNA5 rocken, sofern die 7900 XTX nicht zwischendurch mal unter 700 fällt (wovon ich erstmal nicht ausgehe).
 
Das der Yield der Hauptgrund für Chiplets ist, ... macht bei TSMC derzeit kaum Sinn.(der Yield ist gut)
AMD sollte wirklich bis zur oberen Mittelklasse auf 1-Chipdesign setzen.(spart 10% Latenz und W)
 
Das der Yield der Hauptgrund für Chiplets ist, ... macht bei TSMC derzeit kaum Sinn.(der Yield ist gut)
AMD sollte wirklich bis zur oberen Mittelklasse auf 1-Chipdesign setzen.(spart 10% Latenz und W)

Der Punkt ist, dass man das mehrere Jahre im Voraus planen muß. Der Grundstein für eine neue Generation wird schon teilweise 5-6 Jahre zuvor gelegt. Das bedeutet, man muß viel raten. Wie die Yieldrates sind kann da keiner vorhersehen.

Bei Nvidia hätte man sich den Wechsel auf Samsung wohl gespart, wenn man gewußt hätte, dass es eine Generation später wieder zurück geht. Bei AMD hätte man Vega wohl nicht mit HBM ausgestattet, wenn man gewußt hätte, was für ein Debakel das wird usw..
 
HBM war geil!

Vega lies sich extrem gut pimpen, da kann nur ein Noob nix von wissen wollen.
(sparsame GPU-States mit OverdrivNtool und HBM per MemoryTweak)

mal im Thread etwas weiter hinten schauen, wo die Leute mit Otool dann exakter justieren

oder
gaaaanz aktuell im Ranglistenthread ne gepimpte RX56@RX64-Bios
 

Anhänge

  • 875-225-1000.jpg
    875-225-1000.jpg
    826 KB · Aufrufe: 49
  • sek1592-1020-tRFC260.PNG
    sek1592-1020-tRFC260.PNG
    64,7 KB · Aufrufe: 49
  • RX56@64.png
    RX56@64.png
    804 KB · Aufrufe: 46
Zuletzt bearbeitet:
Dasselbe kannste auch über die 6000er sagen, ... aber mit MPT net schlecht.

Ob nun Green einfacher zu händeln ist, may be. (x)
Für mich im Xtreme-Forum zweitrangig.

Wer nix einstellen will, kann auch PC Gamestar lesen.

(x) trotzdem wird gerne geflasht und AB-Kurve editiert, auch bei green, wo bleibt denn sonst der Spass
 
Mehrere Interposer auf einem Hauptinterposer? Das war ambitioniert.

Die unterste Schicht im Bild ist das Substrat. Also eine Ebene SI-Interposer, die mittels Brücken untereinander und mit I/O-Chips verbunden werden, Compute-Chips tragen und scheinbar ("active") auch selbst Funktionen bereitstellen. Aber das ist ebenfalls ambitioniert. Bislang hatte AMD gar keine Bridge-Techniken, keine aktiven Interposer, meinem Wissen nach keine verknüpften Interposer und auch nicht mehrere Compute-Chips mit ihren elektrischen, thermischen und mehr-Wege-Kommunikations-Anforderungen auf einem Interposer. Vieles davon würde man zwar einfach bei TSMC kaufen, aber auch die haben einen Großteil der Techniken erst vor 2-3 Jahren angekündigt. Die Navi-4?-Entwicklung wäre also Gen 1 gewesen und hätte all diese neuen Ansätze parallel trouble-shooten müssen. Für ein Großerserienprodukt eine kaum zu rechtfertigendes Risiko; es würde mich sehr wundern wenn AMD mehr als ein paar Ingenieurswochen in die Grundüberlegung investiert hat.
 
Wie war das denn bei Polaris und RDNA1, als es auch keine Highend-Variante gab - konnten die dennoch ihre Vorgänger übertrumpfen?
Schwierig, damals hat man ja irgendwie ein Chaos in den Produkten gehabt, da mischte sich Polaris (GCN4.0) und Vega (GCN 5.0) ja irgendwie völlig durcheinander, dazu HBM Modelle (VII) usw. Daher ist die Frage in meinen Augen nicht sinnvoll zu beantworten, denn die 5700XT und die Radeon VII waren meines Wissens nach auf Augenhöhe unterwegs was die Leistung angeht. Allerdings war die 5700XT die um längen bessere Karte, mit viel mehr Effizienz und einem unschlagbaren Preisvorteil. (419 EUR die 5700XT und 729 EUR die VII). Die VII kam aber eben gar nicht aus dem "Consumer" Sektor und wurde am Ende aus eine Professionellen Karte umgelabelt und daher fraglich, ob dies der geeignete Testkandidat wäre? Auf der anderen Seite war es ja quasi AMDs Titan und Nvidia misst sich ja auch heuer an ihrer 90er Serie die quasi die Titans abgelöst hat.

Aber entscheide selber! Die 5700XT war deutlich schneller und effizienter als die Vega64 (der eigentliche Vorgänger), im Vergleich zur sonderbaren VII war sie aber nicht schneller.

Falls nein, dann werd ich meine 6950 XT bis RDNA5 rocken
Sieht aktuell so aus, dass du dies problemlos tun kannst, sofern du nicht die Auflösungen wechselst und Raytracing nutzen möchtest, wird die 6900Xt noch eine Weile halten. Ich warte auch noch, NVs 4080/4090 sind mir aktuell zu teuer und die 7900XT ist einfach nicht schnell genug um einen Unterschied zu machen. Dazu sind nahezu alle aktuellen Games was das angeht auch recht genügsam, CB kann ich bedenkenlos spielen (nativ/ohne RT) und wenn ich nicht RT irgendwann doch noch gut finde (oder VR, was ich viel eher glaube) dann wird die 6900XT wahrscheinlich bis zur PS5 Pro gut hinkommen (erwarte erst da wieder echte Upgrades bei den Systemanforderungen).

Das der Yield der Hauptgrund für Chiplets ist, ... macht bei TSMC derzeit kaum Sinn.(der Yield ist gut)
Vorsichtig, mit der Aussage liegst du offensichtlich nicht gut, diese würde nur Sinn ergeben, wenn der Yield sehr sehr nahe 100% liegt, was er nicht tut! Das der Yield besser als erwartet ist ist sicher ein gutes Zeichen, aber eben überhaupt keines, dass ein kleinerer Chip nicht dennoch viel besser ist.

AMD sollte wirklich bis zur oberen Mittelklasse auf 1-Chipdesign setzen
Kommt halt drauf an, was obere Mittelklasse bedeutet? Früher war das mal die Kategorie 4060/4070 und da setzt AMD auf monolithische Designs.

Bei Nvidia hätte man sich den Wechsel auf Samsung wohl gespart, wenn man gewußt hätte, dass es eine Generation später wieder zurück geht.
Retroperspektivisch hat Nvidia doch alles richtig gemacht und würde das wahrscheinlich immer wieder so machen, man hat (mit exorbitanten Leistungsverbräuchen, die seltsamerweise damals niemanden interessiert haben) AMD die Stirn gehalten und wahnsinnige Gewinnmargen realisieren können mit Samsungs deutlich deutlich günstigerem Node. Nvidia würde wahrscheinlich nur aus heutiger Sicht keinen etwas teureren spezialisierten 5nm Node bei TSMC nutzen, sondern den ganz normalen, da AMD eben nicht mehr mithalten kann.

Bei AMD hätte man Vega wohl nicht mit HBM ausgestattet
Wobei HBM gut war und nicht das Problem, man brauchte Bandbreite und die hatte man damit eben erreicht, leider ist HBM immer noch zu teuer, sonst könnte ich mir sowas schon nochmal vorstellen, gerade HBM2e (1.844 GB/s bei 4 Stacks) ist ja schon nett und wenn HBM3 (3.276 GB/s bei 4 Stacks) verfügbar ist, da wirken die gerade einmal 1008 GB/s der 4090 schon mickrig gegen! Dabei wird HBM3 sogar weniger Energie aufnehmen als der aktuelle GDDR6X der 4090! Ich denke sogar, dass HBM ein wichtiger Schritt werden kann, HBM4 ist für 2026 angekündigt, mit dann über 6TB/s) und GDDR7 wird mit 384bit Interface auf "lediglich 1,5TB/s kommen, HBM3 ist also schon mehr als doppelt so schnell wie das noch erscheinende GDDR7!

Ich denke das Problem ist, dass HBM ein anderes Speicherinterface benötigt und dies nur für einen Chip nicht extra gebaut werden soll. Daher wird HBM aus dem Consumersegment herausgehalten, natürlich weil es am Ende in der Kombinantion, Speichercontroller, Interface und HBM zu teuer ist.

Das ist aber nicht der Auslieferungszustand der Karten, der war einfach schrecklich.
Sagt jemand über die 4090, dass es eine schreckliche Karte ist? Nö, obwohl der Auslieferungszustand mit 600W TDP wirklich grausam ist, so bekommen es die Leute ja recht simpel hin, die Karte in einen fast perfekten Zustand zu versetzen.
 
Ich bin echt gespannt wie es mit RX 8000 weitergeht, wenn sich das bewahrheitet.

Wie war das denn bei Polaris und RDNA1, als es auch keine Highend-Variante gab - konnten die dennoch ihre Vorgänger übertrumpfen?

Falls nein, dann werd ich meine 6950 XT bis RDNA5 rocken, sofern die 7900 XTX nicht zwischendurch mal unter 700 fällt (wovon ich erstmal nicht ausgehe).
Hab mal in ein paar alte pcgh Benchmarks geschaut. Bis auf der erste stammen die Werte aus dem jeweiligen Leistungsindex zu der Zeit. So schaut es da grob aus:

7970 GE - 290X +21,6%
290X - 390X +12%
390X - 590 +8%
590 - vega64 +47%
vega64 - 5700XT +13%
5700XT - 6950XT +112%
6950XT - 7900XTX +34%
 
Die unterste Schicht im Bild ist das Substrat. Also eine Ebene SI-Interposer, die mittels Brücken untereinander und mit I/O-Chips verbunden werden, Compute-Chips tragen und scheinbar ("active") auch selbst Funktionen bereitstellen. Aber das ist ebenfalls ambitioniert. Bislang hatte AMD gar keine Bridge-Techniken, keine aktiven Interposer, meinem Wissen nach keine verknüpften Interposer und auch nicht mehrere Compute-Chips mit ihren elektrischen, thermischen und mehr-Wege-Kommunikations-Anforderungen auf einem Interposer. Vieles davon würde man zwar einfach bei TSMC kaufen, aber auch die haben einen Großteil der Techniken erst vor 2-3 Jahren angekündigt. Die Navi-4?-Entwicklung wäre also Gen 1 gewesen und hätte all diese neuen Ansätze parallel trouble-shooten müssen. Für ein Großerserienprodukt eine kaum zu rechtfertigendes Risiko; es würde mich sehr wundern wenn AMD mehr als ein paar Ingenieurswochen in die Grundüberlegung investiert hat.
Und das in der Komplexität. Vor allem scheint das dann nur als ein Art Ringbus funktionieren zu können., wenn die Kommunikation nur über die Bridge-Chips läuft.
 

HBM war Mist.

AMD konnte die Leistung nie ausspielen. Die Fury X war nur so schnell, wie die GTX 980TI und hatte ein Drittel weniger VRAM. Die Vega 64 konnte gegen die angedachte GTX 1080Ti nichtmal anstinken und mußte den Gegner ein Stockwerk tiefer suchen. Beide Karten haben, im Vergleich zu den Nvidiakarten auch ordentlich Strom benötigt, ohne dafür eine Mehrleistung auf die Beine zu bringen. Den Kosten stand kein nutzen gegenüber.

AMD hat HBM nicht so schnell wie fallen gelassen, weil Nvidia sonst keine Chance gehabt hätte, sondern weil es keine Vorteile und nur Kosten gebracht hat.

Vega lies sich extrem gut pimpen, da kann nur ein Noob nix von wissen wollen.
(sparsame GPU-States mit OverdrivNtool und HBM per MemoryTweak)

Das interessiert halt eben gut 98% der Kundschaft nicht, da die meisten ihre Karten normal betreiben. Es zählt, was aus der Schachtel kommt. Egal ob bei AMD, Intel oder Nvidia.
 
Wie kommst du darauf dass die Karte stock eine TDP von 600W hat? Die TDP liegt bei 450W und der Durchschnittsverbrauch noch mal deutlich darunter.
Sorry, stimmt natürlich. Ging mir auch nicht drum NV schlecht zu reden, nur die absurde TDP Angabe die Nvidia auch nicht clever gemacht hat, so wie AMD mit den HBMs nicht die besten Umsetzung leistete. 300W TDP hätten der 4090 wirklich gut gestanden und immer noch ausgereicht um in allen Benches welten vor den anderen zu liegen.
 
300W TDP hätten der 4090 wirklich gut gestanden und immer noch ausgereicht um in allen Benches welten vor den anderen zu liegen.
Da bin ich bei dir. Das wirkt aber ähnlich wie bei Release der 1080 Ti. Da schien Nvidia durchaus Respekt vor Vega gehabt zu haben und ich denke das ist wieder passiert.

Man hat die Konkurrenz überschätzt und dadurch die Karten etwas falsch dimensioniert.
 
Das der Yield der Hauptgrund für Chiplets ist, ... macht bei TSMC derzeit kaum Sinn.(der Yield ist gut)
AMD sollte wirklich bis zur oberen Mittelklasse auf 1-Chipdesign setzen.(spart 10% Latenz und W)

Selbstverständlich ist das der Hauptgrund, denn auch wenn der Yield gut ist, benötigst du durch Chiplets weniger der teuren Chipfläche ;-)
Der Hauptgrund für Chiplets ist schlicht und ergreifend der, dass man Leistung günstig hochskalieren kann --> siehe Epyc.
Und bei den GPUs ist es nicht anders, indem man Funktionen die nicht zwingend im besten Prozess gefertigt werden müssen auf günstigere Prozesse auslagert.
 
Man hat die Konkurrenz überschätzt und dadurch die Karten etwas falsch dimensioniert.
Ja, so ist es wohl gewesen. Mit der 3090 hat man seinerzeit den Gegner unterschätzt und musste dann (vermutlich) auch ordentlich nachhelfen, die Ti folgte ja recht zügig.
Der Hauptgrund für Chiplets ist schlicht und ergreifend der, dass man Leistung günstig hochskalieren kann --> siehe Epyc.
Hmm, ich weiß nicht? Chiplets haben multiple Vorteile und das Thema Skalierung gerade im Serverbereich ist natürlich gegeben. Ob dies aber der Hauptgrund ist? Wage es zu bezweifeln. Ich denke Chiplets sind in allen Bereichen so ein wenig der heilige Gral und nicht unbedingt wegen dem Thema Skalierung, sondern wegen der technischen Möglichkeiten im Bereich der Belichtung. Intel hat es ja als ehemaliger führender in diesem Bereich vorgemascht, wie schnell so ein Vorspung aufgebraucht ist. Man hat 10nm völlig unterschätzt und hat seine Technologieführerschaft eingebüßt und auch die aktuellen und kommenden Prozesse laufen aller Voraussicht nach nicht da, wo man sie gerne hätte. Hier greift dann eben das MCM Design ein und kann Mängel in der Fertigung sehr gut kaschieren.

Aber man sollte auch sehen, dass AMD mit Zen 3 bereits eine Rolle rückwärts gemacht hat, in dem man 8 Kerne in ein CCD packte hat man ja quasi einen Rückschritt in die monolithische Fertigung vollzogen, da man gesehen hat, dass mit 4 Kernen die Nachteile nicht so ohne weiteres zu kompensieren sind.
 
Zuletzt bearbeitet:
Zurück