Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

Ein Twitter-Nutzer hat Block-Diagramme für die kommenden Radeon-GPUs Navi 31, Navi 32 und Navi 33 veröffentlicht. Als Grundlage dienten ihm die schon länger durchs Netz schwirrenden (mutmaßlichen) Spezifikationen der Radeon-RX-7000-Serie, die sich teilweise aus Multi-Die-GPUs zusammensetzen soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht
 
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
 
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
Wenn man eine RTX 3080 komplett stock faehrt, verbraucht die tatsaechlich ne menge Strom, so 320W... Da muss man selber etwas Hand anlegen um das im Zaum zu halten. Habe meine Karte undervoltet, jetzt komme ich unter Volllast nicht mehr ueber 260W und die Performance ist gleich geblieben. Ich denke nicht das AMD und Nvidia auf einmal die Leistungsaufnahme so drastisch nach oben schrauben.

Ich rechne mit einer RTX 4080 bei 320W und 30% mehr performance als die 3080, alles andere macht bei Luftkuehlung nicht wirklich Sinn.
 
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
Der Fertigungsprozess kann noch so gut sein, wenn dann das letzte bisschen Rechenleistung raus gequetscht wird, treibt das TDP und Leistungsaufnahme nach oben.

Sieht man ja auch bei den RTX3000, die im Vergleich mit den RTX2000 deutlich zugelegt haben. Als AMD im High-End keine Konkurrenz lieferte, konnte NVIDIA darauf verzichten das letzte Bisschen aus den GPUs zu kitzeln. Wobei das dann die Partner bei ihren Custom-Modelle trotzdem machten.
Jetzt wo AMD wieder eine Konkurrenz im High-End ist, wird auch wieder auf Sparsamkeit gepfiffen, man will ja schließlich die Leistungskrone inne haben.

Wenn man bereit ist auf ca. 5% Rechenleistung zu verzichten, kann man die Karten bereits deutlich sparsamer betreiben. Was dann auch die TDP reduziert.
 
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.

Es gibt doch schon ein OC Bios direkt vom Hersteller mit 500 Watt.
Ich bin eigentlich der Meinung, dass man mit der 1000er RTX Serie mit 150, 180 und 250 Watt (FE Edtions?) für die guten GAmer Karten wirklich ordentlich gefahren ist.
Mehr muss und sollte nicht wirklich in einem normalen Spielerechner verbaut und verbraten werden müssen bzw. dürfen.
Wenn dann jemand meint, er müsse unbedingt eine superduoer OC Editon mit Extrabios bis 300 Watt haben, seis drum, aber Standardwerte sollte man als Hersteller auch wegen den Klimazielen im Auge behalten.
Kam heute wieder im Radio ein Bericht, dass die Länder viel zu wenig tun.
Dazu gehört als einfachstes Mittel zuerst einmal der Strombedarf reduzieren = weniger Aufhitzung der Erdkugel.
Kryptomining verbieten gehört übrigens auch dazu.
Danach hätte man mal irgendwann über Ohrpopler aus Papier statt Plastikstil reden können, oder Einmalbesteck aus Holz statt Plastik.
Das ist mikriger Kleinkram und dient nur der Beruhigung, weil es schadet den Wirtschaftsbonzen nicht.
 
Dieses Block Diagramm zeigt wie weit RDNA3 mit MCM fort geschritten ist!
Das wird eine mächtige Waffe werden, die ihr tape out bereits hinter sich hat.

So ist auch klar, dass RDNA3 diesmal vor Nvidia Lovelance auf den Markt kommen wird.
Die Bilder zeigen bestenfalls, das jemand einen grungledendem Umgang mit irgendeinem Vektorzeichenprogramm oder gar möglicherweise Excel/Calc beherrscht, mehr nicht. Das ist schlicht eine visuelle Darstellung der im Umlauf befindlichen Gerüchte, also nur eine andere Darreichungsform und insofern kann das hier dementsprechend auch in keinerster Weise einen Mehrwert schaffen, etwas "zeigen" oder wohlmöglich gar "belegen".
Und der vermeintliche TapeOut wird immer noch von vielen Quellen angezweifelt, die klar aussagen, dass sie noch nichts derartiges gehört habe, eben weil so mancher das schon behauptet angeblich zu wissen. Letzten Endes ist der TapeOut hier allerdings auch vollkommen egal, da Kunden ES-Chips nicht interessieren und das ungefähre Releasezeitfenster schon bekannt ist mit dem 2HJ22. Der TapeOut wäre nur ein hilfreiches Indiz, wenn man nichts zum Releasezeitraum wüsste.

Und ebensowenig ist irgendwas "klar", weil Gerüchte und Spekulationen keine Fakten schaffen. Klarer wird es erst, wenn Infos von einer tatsächlich belastbaren Quelle kommen oder diverse Quellen einvernehmlich das Gleiche berichten oder bestenfalls AMD Infos released, vorher nicht.
Und in Bezug auf deinen Punkt tatsächlich und undiskutabel "klar" wird es zudem auch dann erst, wenn man die gleiche Informationslage auch zu nVidia's NextGen hat, den ohne diese kann man schlicht keine Vergliche anstellen.
Die Gerüchte kann man durchaus so nehmen wie man will, aber was du hier dagegen versuchst, ist diese umzumünzen in Fakten und das ist gelinde gesagt fragwürdig.
Aktuell kann man genau so gut spekulieren, dass der Marktführer hier einmal mehr erfolgreich seine Stellung verteidigen wird und AMD lediglich auf ein in etwa vergleichbares Niveau herankommt oder gar deutlich langsamer enden wird oder gar deutlich schneller, oder ... Das ist nicht mehr als ein Münzwurf, also vollkommen irrelevant.
 
Aktuell kann man genau so gut spekulieren, dass der Marktführer hier einmal mehr erfolgreich seine Stellung verteidigen wird und AMD lediglich auf ein in etwa vergleichbares Niveau herankommt oder gar deutlich langsamer enden wird oder gar deutlich schneller,

Nur gibt es derzeit keinerlei leaks die auch nur annähernd in diese Richtung gehen.
Leonidas vom 3dCenter spricht hingegen belastbar von 400% Mehrleistung bei RNDA3 ggeü. RDNA2.
Aber lassen wir uns überraschen aber ich glaube, dass AMD diesmal mit mcm die deutlich stärkeren GPUs am Start haben wird.
 
Ich möchte echt gerne wissen was die kommenden GPU Flaggschiffe für eine TDP haben. Da bringt wohl auch 5nm nicht viel Effizienz. Das wird sich vermutlich deutlich oberhalb der 500W abspielen. 400W bis 450W haben wir ja schon jetzt. Einige spezielle OC Modelle ja schon fast 500W.
480 Watt klingt doch relativ logisch! Denn das Flagschiff hat 15360 Shader! Aber der 5 nm Node bringt wohl auch ganz gut was, denn Faktor 1,5 reicht nicht um das bei der Anzahl Shader hinzubekommen! Verbrauch 1,6-fach, aber Leistung Richtung 3-fach bis vielleicht tatsächlich 3-fach! Selbst der Sprung von der RX 5700XT zur RX 6900 XTX bzw. XTH reicht nicht mit 65 % bessere Energieeffizienz! Daraus folgt der Wechsel des Nodes trägt auch zur Effizienz bei, was bei 5700 XT und 6900 XT nicht der Fall war, da gleicher Node! Falls die Effizienz ohne Node so steigt wie bei der 6900 XT und die Zahlen belastbar sind, dann muss der Node so um die 13 % beisteuern!
 
@Chatstar: Es gibt auch keine Leaks die eine absolute Weltherrschaft deines Lieblingsbrands unterstreichen. Wie so oft ist das alles nur Spekulatius ... dass jemand wie du da natürlich gänzlich anders drauf reagiert, ist mittlerweile leicht verständlich. Dennoch schaffen derartige Aussagen von dir keine Fakten. Du könntest im 2HJ22 mit deinen heutigen Prognosen dennoch mäßig bis gar zu vollkommen falsch liegen. Und was noch viel bedeutender wäre: Selbst wenn AMD im 2HJ22 nVidia unangespitzt in den Boden rammen würde, würde das (nachträglich) dennoch nichts an der Qualität deiner heutigen Aussage ändern. Diese bleiben dennoch weiterhin reine Spekulation und Wunschdenken, denn dir fehlt schlicht die Basis für eine fundierte Bewertung, d. h. diese Aussagen werden Ende 2022 genau so fragwürdig und schlecht sein wie sie es heute schon sind (vollkommen unabhängig davon, wie der Markt Ende 2022 aussehen wird).
 
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
 
Problem kann aber noch woanders liegen. So schön das MCM Design theoretisch ist, so viele Probleme kann das in der Praxis bringen. Ich prophezeien schon seit längerem, dass wir uns alle noch bei Alder Lake wundern werden, wenn da nur ein Haar in der Suppe ist, dann läuft das Game plötzlich nicht auf den BigCores, sondern auf den Atom Kernen. Genauso wird es hier kommen, das MCM Design verdoppelt zwar theoretisch die Leistung, aber wie schon bei Zen1 gesehen, bringt dies in der Praxis oft nicht das doppelte, sondern teilweise sogar Einbußen, wobei das schon sehr krasse Ergebnisse waren und meistens leicht behoben werden konnten.

500W TDP waren dazu für mich dann endgültig zu viel, bin zwar mittlerweile bei einer Waku angekommen, aber dann über 600W aus dem Gehäuse zu bekommen wird schon echt eine krasse Herausforderung ohne Chillen.
Alder Lake hat nichts mit MCM zun tun. Das ist ein monolithisches Design, zudem mit zwei unterschiedlichen Kernen, die grundlegend jedoch die gleiche ISA unterstützen. Etwaige Probleme dürften da relativ schnell ausgemerzt sein (denn Microsoft und Intel sind da ja schon lange an dem Thema dran; bei Zen war es ja damals auch kein Problem dem eine gewisse "Anlauf/Reifezeit" zuzugestehen).
Bei GPUs wird man abwarten müssen, was das im 2HJ22 werden wird. Intel ist mit Xe ja grundlegend auch auf MCM aus, dass das vermutlich noch nicht zeitnah kommt scheint darauf hinzudeuten, dass man das fertigungstechnisch noch nicht (verbrauchs)effizient mit 7 nm anbieten kann oder man (software)technisch noch nicht so weit ist oder man einfach nur nicht mit extrem teuerer Hardware in den GPU-Markt einsteigen will, ohne sich schon zuvor zumindest ein wenig etabliert zu haben. Mögliche Gründe mag es da viele geben.
Interessant dürfte sein, ob nVidia tatsächlich noch mal meint mit einem rein monolithischen Design auskommen zu kommen. Letzten Endes muss aber auch nVidia nicht zwangsweise jeden Schritt mitgehen, denn am Ende gibt es kein Krönchen für eine absoluten Leistungsgewinner sondern für Umsatzerfolge. Deren Architektur könnte am Ende dennoch leistungsstärker sein und die ersparen sich vielleicht lediglich ein extrem teueres MCM-Produkt in dieser Gen? Man weiß es nicht. Einfach mal abwarten. Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise. Die sind der Marktführer und bei GPUs handelt es sich um ihr Kerngeschäft; da werden die zweifellos nicht däumchendrehend dasitzen und abwarten ...

@Chatstar: Looool, 400 % entweder hat der keine Ahnung von Prozentrechnung (völlig egal ob relativ oder absolut gemeint) oder der ist ins Traumland entschwebt und versucht sich Follower wie dich zu angeln, die dankbar für jeden zusätzlichen ganzzahlingen Multiplikator sind. ;-)
Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.
 
Zuletzt bearbeitet:
Dass nVidia tatenlos zusieht und AMD einfach mal machen lässt, wie so mancher gerne unterstellen mag, ist dagegen eher eine abwegige Betrachtungsweise.

Dir ist aber nicht entgangen, dass Nvidia die Tage bereits verkünden musste für die Next Gen. bei einem monolithischen Design bleiben zu müssen!?

Und was das bedeutet ist quasi selbsterklärend.

Realistische und glaubwürde Bewertungen bewegen sich hier im Bereich um die +100 % herum ggü. dem aktuellen Topmodell RX 6900 XT. Bereits +200 % sind technisch schon nicht mehr wirklich plausibel.

Unter normalen Umständen, wäre dem ja auch zu zu stimmen, aber eben nicht bei mcm.
 
Zuletzt bearbeitet:
Mir scheint du versucht aufgrund deines Bias eher wieder verzweifelt Fakten zu schaffen, die jedoch keine sind. Zum einen ist das was da bei CB verfrühstückt wurde weiterhin schlicht ein Gerücht. Als Tipp: Leicht zu erkennen am "von Twitter-Nutzern" ;-)
Zum anderen warum sollte nVidia was "müssen". Die schätzen ab was AMD kann und was nicht, prüfen wie sie den Markt an besten bedienen können und das wichtigste ... wie sie umsatz/gewinntechnisch ab besten abschneiden können und sind vielleicht bewusst zu der Entscheidung gekommen, dass sich ein MCM-Design in dieser Generation noch nicht lohnt.
Ich nehme dir ja nicht gerne die Illusionen, aber du glaubst doch nicht etwa, dass eine derartige Bauweise ein Privileg von AMD ist. Beispielsweise Intel hat schon viel früher als AMD CPUs "zusammengeklebt". *) Dass sie bisher darauf verzichteten, lag einfach daran, dass das für sie in der monolithischen Bausweise und mit 14nm und 10nm bisher noch effizienter und ertragreicher war, mehr nicht.

*) Mal ganz abgesehen davon, dass Intel hier MCM-technisch wohl schon sehr viel weiter als AMD zu sein scheint mit seinem Packaging-Portfolio, wenn man sich ansieht, was sie offensichtlich können, wenn sie es für nötig und wirtschafltich erachten (so bspw. Xe-HPC).

Und nein, das ist in keinster Weise "selbsterklärend". Selbsterklärend ist lediglich wie du das für dich in deiner rosaroten Welt auszulegen willst. Was das dagegen für den GPU-Markt (also die reale Welt ;-)) bedeutet, ist jedoch noch keinesfalls klar, da man von konkreten technischen Details noch viel zu weit weg ist.

+100 %: Doch eben genau bei einem 2-Chip-MCM-Design in einem halbwegs noch akzeptablen Verbrauchsbereich. Für ein monolithisches Design bei denen müsste man eher mit was deutlich niedrigerem rechnen. Eine grob vollständige Verdopplung der resultierenden Leistung schließt hier das MCM-Design bei RDNA3 explizit ein.
 
Zuletzt bearbeitet:
Selbsterklärend ist lediglich wie du das für dich in deiner rosaroten Welt auszulegen willst. Was das dagegen für den GPU-Markt (also die reale Welt ;-)) bedeutet, ist jedoch noch keinesfalls klar, da man von konkreten technischen Details noch viel zu weit weg ist.

Wir werden schon sehen wer hier am Ende recht hat, Tatsache ist aber eben auch, dass viele das so einschätzten, wie ich und Leonidas.
 
Sorry, aber mit den 400% hat der Vogel sich schon als vollkommen unbedarf dargestellt oder aber du bist nicht in der Lage korrekt zu zitieren.? (+)400% zu was? Zu einer RX 5500 XT? ;-)

Und ja, werden wir sehen, aber ich kann dir jetzt schon sagen wie das voraussichtlich ausgehen wird, weil du es mir hier nun mal leider sehr einfach machst ... und das liegt keinesfalls daran, dass ich ein so begnadeter, unglaublich guter und präziser Vorhersager bin, sondern das liegt einzig daran, dass du ein dermaßen schlechter Vorhersager bist, der zwischen objektiven Fakten und seinem Wunschdenken nicht zu unterscheiden vermag.
Lege dir den Thread mal als Lesezeichen ab, da können wird gerne noch mal in 12 - 15 Monaten drauf zurückkommen. :-D
 
Zurück