Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out

Ein recht bekannter Leaker behauptet, dass der Tape-Out von Navi 31 stattgefunden hat und mit einem Release im dritten Quartal 2022 zu rechnen sei. Dem widerspricht nun eine andere, ebenfalls oft gehörte Quelle. Wann kommt die Radeon-RX-7000-Serie denn nun?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out
 
Wenn es bis zum Launch länger dauert, dann vielleicht weil sie beim Testen der erste Prototypen erkennen, dass sie mehr doch Temperaturprobleme haben als für den Konsumenten zumutbar wären. Weil man bislang noch keine Ahnung hat wie aus einem PC mit einer (fast) 500 Watt-Grafikkarte am Ende nicht immer einfach nur Backofen wird.
 
Keine Chance.
Die Chips sind so groß dass auch 1000W nicht zu einer zu hohen Chiptemperatur führen würden (die Leistungsdichte einea 11900K oder 5800X ist höher...) und ob der Nutzer die Wärme aus dem Gehäuse bekommt ist nicht das Problem des GPU Herstellers - der muss lediglich dafür sorgen dass falls es zu heiß wird die Karte nicht kaputt geht - was seit Ewigkeiten über thermal throttling umgesetzt ist.

Es wird im Ernstfall nichts mehr zu heiß heutzutage, es wird nur langsamer.
 
Puh... da vergisst wer die kommenden CDNA Karten, die auch mit Chiplets erscheinen und das schon Ende 2021.
Daraus hat AMD sicher einiges an Erfahrung in der Validierung von Chiplet GPUs.
 
1627907684145.png


Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.
 
Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.

Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
 
Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
Was auch interessant wird, wie Nvidia die Shader auf die Straße bekommt, da die 3090 ja nur bei 4k die 10k Shader richtig auszulastem schafft und wie das dann bei AMD aussieht.. 15000 vs 18000 Shader.

Auch wenn so welche Chip's nicht wirklich für Full HD/WQHD sind, aber wäre ja lustig wenn se bei 4k nun auch Auslastungsprobleme bekommen bei sovielen Shadern (beide Seiten) :D
 
Auch wenn so welche Chip's nicht wirklich für Full HD/WQHD sind, aber wäre ja lustig wenn se bei 4k nun auch Auslastungsprobleme bekommen bei sovielen Shadern (beide Seiten) :D
Warum nicht? Ich könnte schon ein paar mehr FPS in WQHD mit allen Reglern nach rechts (das inkludiert den RT Regler) gebrauchen. Mein 144hz Monitor will befeuert werden. :D
 
Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.
Absehbar wird AMD einen ähnlichen Weg wie nVidia gehen, der zu einer "Verdopppelung" der Shader führt (wenn man mehr zählen will) oder schlicht einer "Verbreiterung" der Ausführungseinheiten.
Ich würde hier vermuten, dass es sich um zwei Chips (drei, wenn man den I/O-Die mitzählt, den es angeblich geben soll) mit einem Äquivalent verdoppelter/verbreiteter 60 CUs handeln wird, d. h. man darf annehmen, dass sich das schlussendliche Design tatsächlich in der Größenordnung von etwa der doppelten Performance einer RX 6900 XT bewegen könnte (selbsredend natürlich auch bei entsprechendem Verbrauch, denn mit nur 100 W pro einzelnem Chip wird man absehbar nicht hinkommen).

Wenn die von @raPid-81 zum Besten gegeben Zahl von 18432 "Shadern" bein nVidia hinkommen sollte, wird es interessant sein, wie sie das umsetzen werden, da man ja stellenweise immer noch etwas von einem monolithischen Design hört. Mit dem N5(P) oder gar N4 wäre das wohl machbar, ob das aber tatsächlich so kommen wird, ist noch ungewiss. Dagegen nicht machbar als monolithischer Chip wäre so etwas voraussichtlich mit dem 5LPE von Samsung, der nicht ganz so dicht packen kann. Man darf gespannt sein über die Fertigungsstrategie und ob nVidia (zumindest mit den Topchips) wieder zu TSMC wechselt. Die kleineren und Mittelklassemodelle könnte nVidia ja weiterhin kostengünstiger bei Samsung im 5LPE fertigen lassen.

Zuerst aber tritt erst mal in einigen Monaten Intel in dem Markt ein und man wird sehen, ob die P/L-technisch den Markt hier ein wenig durcheinanderwirbeln werden.
 
Ich bin gespannt wie es dann mit der Verfügbarkeit bei AMD und Nvidia aussieht.

Ich denke wenn Nvidia einen so großen Chip baut, dass warscheinlich im Customer Markt es wohl keine vollkommen aktivierte Karte geben wird, sondern nur Karten wo Teildefekte Bereiche deaktiviert sind und je nachdem wie viele eine 4090, 4080 Ti und 4080 wird.

Ich denke das es AMD mit dem Chiplet Design da eine bessere Ausbeute hat, weil die Einzelchips nicht so groß sind und man da wahrscheinlich leichter die Chips für eine 7900XT, 7800XT und 7800 zusammenbringt. Allerdings ist da dann halt das Problem, dass für jede Karte dann zwei Chips benötigt werden und noch ein dritter Chip für die Verbindung beider. Vielleicht werden aber auch Karten mit nur einen Chip kommen, um damit die kleinen Karten abzubilden oder die sehr defekten zu verwerten.

Wird auf jeden Fall interessant, auch aus preislicher Sicht, ob ein riesiger Singlechip oder kleine Chips günstiger herzustellen sind. Viel mehr bin ich gespannt auf die Preise, wo die diesmal landen oder sie sich bis dahin wieder langsam normalisieren.
 
9. Klasse Berufswunsch: LEAKER

Daddeln als Profi ist doch zu anstrengend, lieber LEAKER werden:D

(Ich muss immer grinsen, wenn ich den Begriff lese...)
 
Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
Es tut mir ja wirklich leid, ich will dich ja deiner Hoffnungen und Träume nicht berauben, aber falls diese Angaben wirklich stimmen sollten, sieht es zappenduster für dieses monolithische Ungetüm aus.

Ich probier das mal anhand des folgenden Beispiels etwas näher zu erläutern:

Der Vollausbau des GA102 wie er bei der RTX3090 zu Einsatz kommt, hat brachiale 10752 Shader
und was bringt ihm dieser Umstand im Vergleich mit Navi 21 am Ende.
Vielleicht 2%. (normiert 5376x2 (10752) vs. 5120) bzw. 7% (normiert 2%) siehe 4K Leistungsindex Computerbase.

in Vergleich mit dem Vollausbau von NAVI 21 mit seinen mickrigen 5120 Shader, wie er bei der RX6900 XT zu Einsatz kommt sind diese 2% fast schon zu vernachlässigen.

(15360 / 18432 x 1.02) x2 = Factor 1.63

Und wieso NVIDIA trotz neuem TSMC 5nm Prozess nicht mit der Taktkeule kommen kann, habe ich bereits zuvor mal probiert auszuführen.
Ohne HBM oder einem riesigen L3 Cache wie er bei AMD bereits im Einsatz ist, bleibt NVIDIA am Ende nur die Wahl zwischen einem energiehungrigen, komplexen GDDR6X, 512Bit SI oder einem 384Bit Speicherbandbreitenkrüppel Interface.
 
Zuletzt bearbeitet:
Es tut mir ja wirklich leid, ich will dich ja deiner Hoffnungen und Träume nicht berauben, aber falls diese Angaben wirklich stimmen sollten, sieht es zappenduster für dieses monolithische Ungetüm aus.

Ich probier das mal anhand des folgenden Beispiels etwas näher zu erläutern:

Der Vollausbau des GA102 wie er bei der RTX3090 zu Einsatz kommt, hat brachiale 10752 Shader
und was bringt ihm dieser Umstand im Vergleich mit Navi 21 am Ende.
Vielleicht 2%. (normiert 5376x2 (10752) vs. 5120) bzw. 7% (normiert 2%) siehe 4K Leistungsindex Computerbase.

in Vergleich mit dem Vollausbau von NAVI 21 mit seinen mickrigen 5120 Shader, wie er bei der RX6900 XT zu Einsatz kommt sind diese 2% fast schon zu vernachlässigen.

(15360 / 18432 x 1.02) x2 = Factor 1.63

Und wieso NVIDIA trotz neuem TSMC 5nm Prozess nicht mit der Taktkeule kommen kann, habe ich bereits zuvor mal probiert auszuführen.
Ohne HBM oder einem riesigen L3 Cache wie er bei AMD bereits im Einsatz ist, bleibt NVIDIA am Ende nur die Wahl zwischen einem energiehungrigen, komplexen GDDR6X, 512Bit SI oder einem 384Bit Speicherbandbreitenkrüppel Interface.

Klar, es tut Dir als designiertem Team-Red Anhänger toootal leid dass Du hier, anhand von Gerüchten, meine "Träume" rauben musst. :lol:

Ich höre seit Jahren 2 Dinge immer und immer wieder:
1. Die neue Konsolen Generation wird den PC obsolet machen.
2. AMD's neue Gen wird Nvidia vom Thron stoßen.

Das ist wie mit den Weltuntergangs-Prophezeiungen, gibt immer wieder ein neues Datum, nur passieren tut da nichts...

Ich würde mich freuen wenn meine nächste Grafikkarte mal von AMD kommt, einfach um meine Geldausgaben auf mehrere Firmen zu verteilen. Dazu muss AMD allerdings im RT Bereich stark aufholen und bei FSR nachbessern mit einem ML-Ansatz.
 
NV hat sich in eine Sackgasse manövriert. Lovelace wird nur ein Lückenfüller bis sie den Multi-Die-Ansatz von Amd versuchen zu kopieren. Man muss sich nur die brachiale Power von der dreifachen Menge an Shadern bei AMD vorstellen.
 
NV hat sich in eine Sackgasse manövriert. Lovelace wird nur ein Lückenfüller bis sie den Multi-Die-Ansatz von Amd versuchen zu kopieren. Man muss sich nur die brachiale Power von der dreifachen Menge an Shadern bei AMD vorstellen.
Auch das höre ich nicht zum ersten Mal. Der MCM Ansatz muss erst mal zeigen wie gut er funktioniert, bis dahin ist das alles reine Spekulation. Was reine Shader-Zahl angeht wäre NV weiterhin vor AMD, trotz MCM, wenn die Leaks denn so stimmen.
 
Man sieht ja wie viel effizienter AMD Shader sind. 50% reichen um NV zu schlagen und jetzt stelle man sich das mal 3 vor.
 
Zurück