AMD Radeon: Erste MCM-GPU noch dieses Jahr als Instinct MI200

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon: Erste MCM-GPU noch dieses Jahr als Instinct MI200

AMD will angeblich noch dieses Jahr die Radeon Instinct MI200 auf den Markt bringen, die erstmals auf die Aldebaran-GPU mit CDNA2-Architektur und MCM-Ansatz setzt. Dadurch soll die Grafikkarte eine beeindruckende Shader-Anzahl bieten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Radeon: Erste MCM-GPU noch dieses Jahr als Instinct MI200
 
Für mich, neben Ryzen, einer der spannendsten HW-Neuentwicklungen in diesem Jahrzehnt. Sollte AMD das gelingen, könnten sie den Markt ordentlich aufmischen, so wie mit Ryzen und mit verhältnismäßig wenig Aufwand, eine große Anzahl an Produkten und somit Leistung skalieren, ohne von den Nachteilen von zu großen Chips und der damit einhergehenden Yieldproblematik und Kostenineffizienz betroffen zu sein.

Sehr gut!

MfG
 
@PCGH

Wenn es dann soweit ist, könntet ihr dann bitte eine News/Notiz inkl. Link zu einer Partner Seite erstellen, jene diese durch einen Parkour "jagt" ?
Da mit meiner mir zur Verfügung stehenden Logik mit an Sicherheit grenzender Wahrscheinlichkeit spezielle Software von Nöten ist diese zu testen.

Danke, Föhn. =)
 
Zuletzt bearbeitet von einem Moderator:
Der Artikel-Titel ist grundsätzlich falsch: "AMD Radeon: Erste MCM-GPU noch dieses Jahr als Instinct MI200"

Einerseits hat AMD das "Radeon" bei seiner Beschleunigerserie schon in einer der letzten Generationen komplett aus dem Namen gestrichen, absehbar mit Bedacht, da man sich vermutlich einen professionelleren Anstrich verpassen wollte und das "Radeon" dahingehend wohl für hinderlich hielt.
Andererseits hat CDNA mti RDNA nichts gemein. Ersteres basiert immer noch auf GCN, ist jedoch deutlich umgebaut/erweitert und verfügt quasi über gar keine 3D-Funktionalität mehr, d. h. hier wird es schon schwer überhaupt noch den Begriff GPU drauf anzuwenden, weil das Design zu überhaupt keinem Rendering/Rasterization mehr fähig ist.
Insofern mutet es arg fragwürdig an, dass man hier mit einer News, die übrigens keine wirkliche News ist, da schon seit langem bekannt ist, dass CDNA2 als MI200 noch in diesm Jahr kommen soll, bzw. gar muss, da der Vertrag bzgl. des Frontier zu erfüllen ist, dass man hier eine künstlich herbeigeführte Verknüpfung zu einem Consumer-Produkt herstellt ...

Ergänzend an obige Test-Überlegungen: Grafiktechnisch gibt es bei CDNA2 nichts zu testen. ;-) CDNA(2) ist ein reines HPC-Design, dass auf FP64 und AI *) ausgelegt ist und entsprechend wurden unnütze Funktionalitäten über Board geworfen um Wafer-Fläche freizugeben. (Das hier hat nichts mehr mit der Instinct MI50/60 und dem "einfachen" Vega-Shrink zu Vega 20 zu tun.)

*) Primär auf FP64, AI-technisch wird man absehbar nur mit Mühe mit der aktuellen Bestandshardware der Konkurrenz mithalten können.
 
Zuletzt bearbeitet:
Solange die meiste für mich interessante Software auf CUDA statt OpenCL setzt (bzw. mit CUDA/nVidia viel schneller läuft als über OpenCL/AMD) sind AMD-Compute-GPUs wirklich nur für sehr allgemeines Number Crunching interessant.
Wenn man sich die Entwicklung bei GPU-Chips für Supercomputer bzw. wissenschaftliche Anwendungen anschaut sind MCM-Modelle aber auf jeden Fall überfällig!
 
Andererseits hat CDNA mti RDNA nichts gemein. Ersteres basiert immer noch auf GCN, ist jedoch deutlich umgebaut/erweitert

Wollte man das mit CDNA 2 nicht grundlegend ändern und die letzten Zöpfe zu GCN abschneiden? Wobei ich bei den CDNA Karten nicht ganz so tief drin bin, da ich keine erwerben werde :D Bzw. in welchem Verfahren wird die denn gefertigt, dazu findet sich irgendwie nichts? Immernoch 7nm oder 6nm oder gar schon 5nm? Als Kleinserie in 5nm würde es ja durchaus Sinn machen, die Stückzahlen dürften ja nicht so hoch sein, dass dies nicht machbar wäre. Aber wirklich was belastendes gefunden habe ich nicht. Da könnte pcgh doch etwas mehr nachbohren finde ich.
 
Bei CDNA wurde doch so ziemlich alles was mit Grafikberechnungen zu tun hat aus GCN5 rausgeworfen.

Als GPU würde ich das nicht mehr bezeichnen, auch wenn es eine Weiterentwicklung von GCN5 ist;)
 
Wollte man das mit CDNA 2 nicht grundlegend ändern und die letzten Zöpfe zu GCN abschneiden? Wobei ich bei den CDNA Karten nicht ganz so tief drin bin, da ich keine erwerben werde :D Bzw. in welchem Verfahren wird die denn gefertigt, dazu findet sich irgendwie nichts? Immernoch 7nm oder 6nm oder gar schon 5nm? Als Kleinserie in 5nm würde es ja durchaus Sinn machen, die Stückzahlen dürften ja nicht so hoch sein, dass dies nicht machbar wäre. Aber wirklich was belastendes gefunden habe ich nicht. Da könnte pcgh doch etwas mehr nachbohren finde ich.
Die frühen Meldungen (1HJ20) zur CDNA-Entwicklung erklärten, dass hier weiterhin GCN als eine Art Blueprint/Vorlage dient, da sich dessen grundlegender Aufbau anscheinend besser für Compute Workloads eignet. Da man nun jedoch gleichzeitig viel unnötigen Ballast weggestrichen hat (* schon in Arcturus, CDNA), kann man natürlich darüber streiten, wie nahe man das effektiv noch an GCN sehen will, das ursprünglich mal eine reine Grafikarchitektur war. RDNA dagen ist eine parallele Entwiclung, die mit CDNA nichts zu tun hat (und speziell für die neuen Konsolen seit 2016/17 entwickelt wurde **).

Als minimalen Prozess darf man wohl den N6 annehmen, aber selbst der N5 wäre für ein derartiges Design nicht ausgeschlossen, da sich die Kosten hier leicht einpreisen lassen bei einem Produkt, das pro SKU für einen fünfstelligen Dollar-Betrag über den Tisch gehen wird. Tendenziell würde ich gar eher den N5 erwarten, den ansonsten könnte man zwar jetzt noch einigermaßen konkurrieren, wenn man auch deutlich mehr verbrauchen würde, aber spätestens in einem halben Jahr hätte man einen schweren Stand gegen Hopper, der zweifellos den N5 (oder gar N4?) verwenden wird und auch gegen Intel hätte man sich bei Verwendung des N6 gegen Ponte Vecchio vermutlich ungünstig positioniert, d. h. ich würde annehmen, dass sie Aldebaran eher im N5(P) fertigen lassen werden.
Btw, als Kleinserie legt AMD das Design nun nicht gerade aus. Wie erfolgreich man im Vergleilch zu nVidia und Intel sein wird, bleibt natürlich erst mal eine offene Frage, jedoch haben die durchaus ambitionierte Pläne und wollen ein ordentliches Stückchen vom Kuchen abhaben. Neben dem Frontier als Pilotprojekt vertreibt AMD dieses HPC-Design unter dem Plattformnamen "Trento", wenn ich mich recht erinnere, d. h. die Kombination von Epyc's, den Beschleunigern und dem Interconnect will man auch durchaus an andere Interessenten verkaufen und nicht nur auf HPE/Cray beschränken.

*) U. a. hat man Rasterisierungseinheiten, Tesselator-HW, diverse Grafikzwischenspeicher, Blending-Einheiten und Rasterendstufen wegrationalisiert. (Geblieben ist bspw. die MediaEngine, da diverse AI-Workloads auch Videodaten verarbeiten.)

**) Konktret RDNA2. Das was AMD in 2019 als RDNA bzw. Navi10 vertrieb, war vermutlich nichts anders als ein runtergestrippter SpinOff der eigentlichen RDNA2-Entwicklung und wurde nur zwecks dem Eindruck einer vermeindlichen Kontinuität entsprechend namenstechnisch eingereiht.
 
Zuletzt bearbeitet:
Die frühen Meldungen (1HJ20) zur CDNA-Entwicklung erklärten, dass hier weiterhin GCN als eine Art Blueprint/Vorlage dient, da sich dessen grundlegender Aufbau anscheinend besser für Compute Workloads eignet. Da man nun jedoch gleichzeitig viel unnötigen Ballast weggestrichen hat (* schon in Arcturus, CDNA), kann man natürlich darüber streiten, wie nahe man das effektiv noch an GCN sehen will, das ursprünglich mal eine reine Grafikarchitektur war. RDNA dagen ist eine parallele Entwiclung, die mit CDNA nichts zu tun hat (und speziell für die neuen Konsolen seit 2016/17 entwickelt wurde **).

Das CDNA mit RDNA nichts zu tun hab ist mir klar und hab ich ja auch nirgends geschrieben ;-)
Mich würde es einfach interessieren wie viel GCN da letztendlich noch drin steckt oder ob man mit CDNA 2 dann doch vieles ersetzt hat und einen neuen Weg einschlägt? Aber diesbezüglich hab ich leider nichts gefunden.

Als minimalen Prozess darf man wohl den N6 annehmen, aber selbst der N5 wäre für ein derartiges Design nicht ausgeschlossen, da sich die Kosten hier leicht einpreisen lassen bei einem Produkt, das pro SKU für einen fünfstelligen Dollar-Betrag über den Tisch gehen wird.

Die Kosten sind hierbei zu vernachlässigen, ich denke die Frage ist hier einfach in welchem Prozess haben sie ausreichend Kontigente gebucht? Darauf bezog sich auch meine Kleinserie, siehe unten.

Btw, als Kleinserie legt AMD das Design nun nicht gerade aus.

Mit Kleinserie meinte ich die Stückzahl, die im Vergleich zu einem Epic und Ryzen Start wohl deutlich geringer sein wird. Eventuell etwas unklar formuliert. Aber aufgrund der geringen Stückzahl kann es im Prinzip alles sein an Fertigung, da man nicht durch die Anzahl an Wafer blockiert sein wird. Aber N5 um Erfahrung in dem Prozess zu sammeln wäre wohl am sinnvollsten.

Wie erfolgreich man im Vergleilch zu nVidia und Intel sein wird, bleibt natürlich erst mal eine offene Frage, jedoch haben die durchaus ambitionierte Pläne und wollen ein ordentliches Stückchen vom Kuchen abhaben. Neben dem Frontier als Pilotprojekt vertreibt AMD dieses HPC-Design unter dem Plattformnamen "Trento", wenn ich mich recht erinnere, d. h. die Kombination von Epyc's, den Beschleunigern und dem Interconnect will man auch durchaus an andere Interessenten verkaufen und nicht nur auf HPE/Cray beschränken.

Durchaus wollen sie in dem Bereich wachsen, so wie es intel auch vor hat. Von daher wird es spannend wie sich die Marktanteile entwickeln werden, da nvidia als Marktführer gegen zwei aufstrebende Konkurrenten nur Anteile verlieren kann.
Wobei ich sie da eher im Desktop bzw. hauptsächlich im Notebookbereich im Nachteil sehe, da AMD und intel CPU und GPU im Bundle an die Notebookhersteller verkaufen können und da nvidia massiv Anteile verlieren wird. Vor allem intel wird denke ich ihre eigenen Lösungen dadurch massiv pushen, da ihre GPUs im Mobilen Segment vermutlich von der reinen Leistung her konkurrenzfähiger sein werden wie im Desktop (aktuellen leaks nach) und sie dadurch am schnellsten zu einer hohen Verbreitung kommen werden. Auch wenn es nur die "Gaming Notebooks" sind.
Aufjedenfall ein spannender Markt.
 
CDNA und RDNA sind beides Weiterentwicklungen von GCN!
Bei RDNA hat man sich architekturmässig aber schon weit vom ursprünglichem GCN entwerft als man es mit CDNA getan hat.
 
@Bärenmarke:
>> "Das CDNA mit RDNA nichts zu tun hab ist mir klar und hab ich ja auch nirgends geschrieben"
Und ich habe dir auch nirgends derartiges unterstellt. Da wir hier in einem öffentlichen Forum sind, erlaube ich mir lediglich stellenweise einen größeren Kontext oder vorweg- oder zusammenfassende Informationen einzustreuen um es Querlesern zu vereinfachen den Post zu verstehen. Nicht alles, was in einem meiner Post steht, muss 100%ig, ausnahmlos und unmittlebar auf den auslösenden Post bezogen oder zurückzuführen sein. ;-)

Darüber hinaus, Kosten sind zweifellos nicht zu vernachlässigen, denn hierbei handelt es sich um ein hochkomplexes Chipdesign, hier jedoch in deutlich kleinerer Stückzahl als bei Consumer-Produkten für den Massenmarkt, d. h. die Entwicklungskosten sind weitaus schwergewichtiger bei einem solchen Produkt und insbesondere bei einer solchen Konkurrenzsituation. Würden hier Kosten kaum oder keine Rolle spielen, hätte man etwas wie CDNA schon Jahre zuvor aufgesetzt und nicht versucht reguläre Consumer-Hardware im Datacenter zweit- oder drittzuverwerten.

"Kleinserie", wie gesagt, schwer einzuschätzen. AMD hat auf jeden Fall einiges vor mit "Trento", was letzten Endes auch nicht verwundert, denn ansonsten könnten sie es auch gleich sein lassen gegen die bestehende Konkurrenz.
Und das Design selbst ist alles andere als klein. bereits Arcturus (CDNA) soll rd. 750 mm2 haben (was ebenso einen mäßigen Yield impliziert bei der immensen Größe), d. h. ein solcher Chip benötigt mal eben +27 % mehr Wafer-Fläche im N7 als ein großer Epyc und das ist durchas keine Kleinigkeit. Man wird sehen, wie sie damit durch die Tür kommen werden. Auf jeden Fall haben sie nun erstmals zumindest einen Fuß in selbiger, denn bisher waren sie mit ihrer Instinct-Serie vergleichsweise erfolglos.

Zur markttechnischen Perspektive:
Consumer-GPUs: AMD ist hier grundsätzlich in allen Bereichen im Nachteil. Auf dem Desktop lag der AIB-Anteil zuletzt bei 1/5 und aktuell sieht man auf Steam, dass sie ihr RDNA2 kaum in den Markt zu bekommen scheinen, woran z. T. der verrückte Markt Schuld haben könnte, was dann jedoch ein AMD-spezifisches Thema wäre, denn nVidia verkauft hier vergleichsweise gut. Bei dGPUs (Desktop + Mobil) ist es ähnlich und AMDs Anteil liegt hier sogar noch unterhalb 1/5, d. h . auch bei mobilen dGPUs greifen Hersteller weitaus öfters zu nVidia-Produkten.
Einzig bei APUs hat man den Vorteil der integrierten iGPU, unterliegt hier jedoch deutlich Intel, die um ein vielfaches mehr Mobilgeräte umsetzen.
Mit dem Eintritt von Intel wird es für beide etablierten Player schwer, denn beide werden Anteile an Intel verlieren, sowohl auf dem Desktop als auch auf Mobilgeräten. Aufgrund von nVidias deutlich größeren Anteilen werden sie absolut gesehen mehr als AMD verlieren, die kleineren Verluste bei AMD könnten letztere aber dennoch härter treffen, denn wenn die Marktanteile weiter schwinden wird die Amortisierung der Consumer-Produktentwicklung zunehmend schwieriger.
HPC: Insgesamt noch sehr schwer einzuschätzen. Bisher spielte AMD hier überhaupt keine Rolle und grundsätzlich werden es AMD und auch Intel schwer haben gegen nVidia, wobei hier aber auch noch ein deutlich größeres Informationsdefizit die Bewertung erschwert.
Schlussendlich, vergleicht man hier CDNA2/Aldebaran gegen Xe-HPC/Ponte Vecchio und einige Monate später nVidia's Hopper. Sieht man sich die Möglichkeiten und Sachverhalte einigermaßen nüchtern an, bleibt zu vermuten dass AMDs Design das einfachste/konservativste Design sein wird. Intels Design ist technologisch weitaus fortgeschrittener und und dürfte selbst Monate später von nVidia nicht erreicht werden, die das jedoch mit einer besseren Architektur ausgleichen könnten. Und bei nVidia als Marktführer kann man grundsätzlich annehmen, dass die hier durchaus was aus dem sprichtwörtlichen Hut zaubern können werden (wobei das natürlich nur im übertragenen Sinne zu verstehen ist).
Am Ende geht es hier um die Skalierungsfrage und dabei spielt die Perf/Watt eine wesentliche Rolle. Von Intels Design kennt man teilweise von Intel direkt geteaserte Werte zu AI, die AMDs Design weit hinter sich lassen würden und man kennt zumindest kolportierte Leaks, die das Design vermutlich auch bzgl. FP64 deutlich vor AMDs CDNA2 positionieren. Allerdings "weiß" man mittlerweile auch, dass so ein Ponte Vecchio-Package auf 600 W ausgelegt sein soll. Die Frage wird also sein, was bspw. eine Aldebaran-basierte Karte hier bieten wird, denn dass sie wie Arcturus mit 300 W auskommen wird, dürfte schon nahezu ausgeschlossen sein bei der anvisierten Leistung und zwei Chips. Und bei nVidia weißt man quasi fast noch gar nichts, außer dass man mit hoher Sicherheit annehmen kann, dass sich der Marktführer hier nicht die Butter vom Brot nehmen lassen will.
Und als letzter Punkt im Rahmen der allgemeinen Ungewissheit kommt noch das OneAPI hinzu, mit dem Intel ggü. AMD vermutlich einen zusätzlichen Punkt auf der Haben-Seite hat. Ob das jedoch kurz oder zumindest mittelfristig gegen nVidia's Ökosystem bestehen oder gar punkten wird, wird man auch hier abwarten müssen. Mit den Ressourcen, die sie da rein investieren und die bspw. AMD schlicht fehlen, ist das jedoch zweifellos ein potentieller Plus-Punkt.
Schätzungsweise Ende Mai 2022 wird man klarer sehen, denn dann dürften alle drei Plattformen vollständig released sein. Erstere beide werden schon in Bestandssystemen laufen und vermutlich wird nVidia min. seinen Selene auf Hopper erweitert haben für die Juni-Top500-Liste, falls bis dahin nicht schon ein Drittsystem mit der neuen Architektur fertiggestellt wurde.


Ergänzend:

AMD: "The 120 enhanced compute units (CUs) are built on the foundations of the GCN architecture and organized into four compute engines, and are responsible for all the compute in the AMD Instinct MI100 GPU. While inspired by the prior-generation GCN architecture, ...
The AMD CDNA architecture builds on GCN’s foundation of scalars and vectors and adds matrices as a first class citizen while simultaneously adding support for new numerical formats for machine learning and preserving backwards compatibility for any software written for the GCN architecture. ...
"

Hier hat man also durchaus umfangreich auf GCN aufgesetzt, was bei den beschränkten Ressourcen von AMD auch nicht verwundern sollte. Eine komplett eigenständige Linie aufzusetzen ist da schon eine beträchtliche Herausforderung, diese jedoch auch noch komplett from scratch zu entwickeln, könnte das Projekt zusätzlich und unnötig verkomplizieren, entsprechend nachvollziehbar.
Bezüglich CDNA2 könnte man vermuten, dass man sich möglicherweise noch weiter vom originalen GCN und auch CDNA wegbewegen wird, um den spezifischen Marktbedürfnissen noch mehr Rechnung tragen zu können.

 
Wollte man das mit CDNA 2 nicht grundlegend ändern und die letzten Zöpfe zu GCN abschneiden? Wobei ich bei den CDNA Karten nicht ganz so tief drin bin, da ich keine erwerben werde :D Bzw. in welchem Verfahren wird die denn gefertigt, dazu findet sich irgendwie nichts? Immernoch 7nm oder 6nm oder gar schon 5nm? Als Kleinserie in 5nm würde es ja durchaus Sinn machen, die Stückzahlen dürften ja nicht so hoch sein, dass dies nicht machbar wäre. Aber wirklich was belastendes gefunden habe ich nicht. Da könnte pcgh doch etwas mehr nachbohren finde ich.
Ich kenne in diesem Bezug nicht einmal inoffizielle Stimmen, die das behaupten haben.
Allerdings gab es die Behauptung bei RDNA1 bzw. RDNA2.
CDNA1 wird in 7nm produziert und CDNA2 soll angeblich nach wie vor 7nm verwenden:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Als minimalen Prozess darf man wohl den N6 annehmen, aber selbst der N5 wäre für ein derartiges Design nicht ausgeschlossen, da sich die Kosten hier leicht einpreisen lassen bei einem Produkt, das pro SKU für einen fünfstelligen Dollar-Betrag über den Tisch gehen wird. Tendenziell würde ich gar eher den N5 erwarten, den ansonsten könnte man zwar jetzt noch einigermaßen konkurrieren, wenn man auch deutlich mehr verbrauchen würde, aber spätestens in einem halben Jahr hätte man einen schweren Stand gegen Hopper, der zweifellos den N5 (oder gar N4?) verwenden wird und auch gegen Intel hätte man sich bei Verwendung des N6 gegen Ponte Vecchio vermutlich ungünstig positioniert, d. h. ich würde annehmen, dass sie Aldebaran eher im N5(P) fertigen lassen werden.
Btw, als Kleinserie legt AMD das Design nun nicht gerade aus. Wie erfolgreich man im Vergleilch zu nVidia und Intel sein wird, bleibt natürlich erst mal eine offene Frage, jedoch haben die durchaus ambitionierte Pläne und wollen ein ordentliches Stückchen vom Kuchen abhaben. Neben dem Frontier als Pilotprojekt vertreibt AMD dieses HPC-Design unter dem Plattformnamen "Trento", wenn ich mich recht erinnere, d. h. die Kombination von Epyc's, den Beschleunigern und dem Interconnect will man auch durchaus an andere Interessenten verkaufen und nicht nur auf HPE/Cray beschränken.

*) U. a. hat man Rasterisierungseinheiten, Tesselator-HW, diverse Grafikzwischenspeicher, Blending-Einheiten und Rasterendstufen wegrationalisiert. (Geblieben ist bspw. die MediaEngine, da diverse AI-Workloads auch Videodaten verarbeiten.)

**) Konktret RDNA2. Das was AMD in 2019 als RDNA bzw. Navi10 vertrieb, war vermutlich nichts anders als ein runtergestrippter SpinOff der eigentlichen RDNA2-Entwicklung und wurde nur zwecks dem Eindruck einer vermeindlichen Kontinuität entsprechend namenstechnisch eingereiht.
Aus Sicht der Konkurrenzfähigkeit hätte ich auch minimal Richtung 6nm und eher 5nm tendiert, aber angeblich bleibt es sogar bei 7nm, wobei 6nm dann vielleicht doch noch eine Option sein könnten.
Intel hat sich bekanntlich bei den Intel 4-Plänen (ehemals 7nm) verhebt und Ponte Vecchio kommt nun einige Zeit später.
Time-to-market war für AMD vielleicht eine sehr wichtige Priorität und je nachdem wie sie den Markt einschätzen, könnte MI200 nur einen weiteren Grundstein legen, bis man überall Spitzentechnologie verwenden möchte und entsprechend dafür investieren.

"Trento" ist der Codename für die custom EPYC CPU, welche scheinbar ähnliche oder die gleichen Zen3-Chiplets wie "Milan" verwendet, allerdings einen erweiterten I/O-Die inkludiert, um Cache-Coherence über XGMI mit den GPUs anzubieten:
https://www.nextplatform.com/2021/06/01/amd-wants-to-put-together-the-complete-package/

**) Die Ansicht lehnt sich etwas zu weit aus dem Fenster. :)
RDNA1 und RDNA2 sind von der Mikroarchitektur nahezu identisch, die RDNA1-Produktserie wurde nicht "zwecks dem Eindruck einer vermeintlichen Kontinuität" eingereiht, sondern stellt das tatsächlich auch dar.
Übrigens verwenden die Konsolen mehrere Designelemente aus AMD's RDNA1- und RDNA2-GPUs.
Z.B. die PS5 verwendet ein ähnliches High-Level Render-Frontend und Render-Backend (ROPs) wie die RDNA1-GPUs von AMD.
Die Xbox Series verwendet ein ähnliches Render-Frontend-Design, aber sehr ähnliche oder die gleichen ROPs wie RDNA2.
Die Konsolen-Chips sind weder deckungsgleich mit dem, was bei AMD als RDNA1 auf dem Markt präsent war, noch mit dem RDNA2-Design von Navi2X auf dem PC-Markt.

Das CDNA mit RDNA nichts zu tun hab ist mir klar und hab ich ja auch nirgends geschrieben ;-)
Mich würde es einfach interessieren wie viel GCN da letztendlich noch drin steckt oder ob man mit CDNA 2 dann doch vieles ersetzt hat und einen neuen Weg einschlägt? Aber diesbezüglich hab ich leider nichts gefunden.
Wenn man nur die Mikroarchitektur betrachtet und Power/Clock-Design isoliert, dann steckt noch sehr viel von GCN in CDNA1 und auch CDNA2.
Die Vektor-Einheiten sind bei CDNA1 nahezu die gleichen, bei CDNA2 sind diese etwas erweitert worden, aber das Arbeitsmodell sieht intern vermutlich gleich aus und die Einheiten selber wurden im Prinzip "nur" um zwei wichtige Eigenschaften ausgebaut, Full-Rate FP64 und Double-Packed FP32-Ausführung.
Man hat die grafikspezifische Hardware seit CDNA1 wegrationalisiert, aber man könnte argumentieren, dass sich außerhalb davon nicht so viel verändert hat.
Primär hat man bei Arcturus die 3D-Hardware entfernt, dafür deutlich mehr Compute Units verbaut und bei jeder CU eine neue Matrix-Engine eingebaut, ähnlich den Tensor-Cores bei Nvidia.
CDNA2 setzt auf die Grundlage von CDNA1 und geht keine völlig neuen Wege, hat aber mehrere Verbesserungen inkludiert.

Und das Design selbst ist alles andere als klein. bereits Arcturus (CDNA) soll rd. 750 mm2 haben (was ebenso einen mäßigen Yield impliziert bei der immensen Größe), d. h. ein solcher Chip benötigt mal eben +27 % mehr Wafer-Fläche im N7 als ein großer Epyc und das ist durchas keine Kleinigkeit. Man wird sehen, wie sie damit durch die Tür kommen werden. Auf jeden Fall haben sie nun erstmals zumindest einen Fuß in selbiger, denn bisher waren sie mit ihrer Instinct-Serie vergleichsweise erfolglos.
Auf Basis von den HBM2-Package-Spezifikationen habe ich für Arcturus ~730-742mm² herausbekommen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Allerdings fällt im Vergleich zu Vega20 auf, dass die HBM2-PHYs deutlich größer ausfallen, was sie bei dem relativ geringen Geschwindigkeitsunterschied aber eher nicht tun sollten, ebenso fallen die Compute Units im Vergleich massiv größer aus.
Normalisiert man dagegen die Arcturus-Schaubild-Größe auf die HBM2-PHY-Größe von Vega20, kommt man eher auf 630mm² oder gar weniger:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Leider hat AMD die Chißgröße nicht genannt, dem Marketingmaterial darf man nicht trauen und es gibt zu unserem Leidtragen keine echten Chipfotos von Arcturus.
Wie groß das Ding tatsächlich ist, ist eine gute Frage.
 
Aus Sicht der Konkurrenzfähigkeit hätte ich auch minimal Richtung 6nm und eher 5nm tendiert, aber angeblich bleibt es sogar bei 7nm, wobei 6nm dann vielleicht doch noch eine Option sein könnten.
Intel hat sich bekanntlich bei den Intel 4-Plänen (ehemals 7nm) verhebt und Ponte Vecchio kommt nun einige Zeit später.
Time-to-market war für AMD vielleicht eine sehr wichtige Priorität und je nachdem wie sie den Markt einschätzen, könnte MI200 nur einen weiteren Grundstein legen, bis man überall Spitzentechnologie verwenden möchte und entsprechend dafür investieren.
Ich wäre überrascht, wenn es weiterhin beim N7 bleiben würde, denn damit wären der Konkurrenzfähigkeit enge Grenzen gesetzt, denn da sich die Effizienzsteigerungen absehbar nur noch in beschränkten Rahmen bei einem unveränderten Node fortführen lassen, würde ein Dual-Chip-Design letzten Endes auch zu nahezu doppeltem Verbrauch führen. Würde das zutreffen, würde ich vermuten, dass sowohl Intel als auch nVidia mit Hopper CDNA2 deutlich übertreffen werden.
So etwas könnte sich AMD nur leisten, wenn CDNA3 nicht fern wäre, d. h. irgendwann im kommenden Jahr man vielleicht direkt zeitnah zum Einstand von Zen4/Genoa auch CDNA3 anbieten könnte? Wäre durchaus auch eine mögliche Strategie, bzw. dann fast schon eine von extern vorgegebene Roadmap (denn CDNA2 in 7nm könnte nicht längere Zeit gegen zwei konkurrierenden (grob) 5nm-Designs bestehen in einer Perf/Watt-Betrachtung). ;-)
"Trento" ist der Codename für die custom EPYC CPU, welche scheinbar ähnliche oder die gleichen Zen3-Chiplets wie "Milan" verwendet, allerdings einen erweiterten I/O-Die inkludiert, um Cache-Coherence über XGMI mit den GPUs anzubieten:
https://www.nextplatform.com/2021/06/01/amd-wants-to-put-together-the-complete-package/
Wäre denkbar. Einige Artikel, die ich dazu gelesen habe, stellten es jedoch eher so dar, als wenn der Name auch parallel für diese spezifische HPC-Plattform synonym genutzt wird (oder aber der Artikel verwendete den Namen nur synonym dafür?). Letzten Endes sind Namen aber Schall & Rauch. AMD plant jedenfalls angeblich dieses Plattformdesign auch anderen OEMs/ODMs zur Verfügun zu stellen und nicht nur HPE/Cray.

**) Die Ansicht lehnt sich etwas zu weit aus dem Fenster. :)
RDNA1 und RDNA2 sind von der Mikroarchitektur nahezu identisch, die RDNA1-Produktserie wurde nicht "zwecks dem Eindruck einer vermeintlichen Kontinuität" eingereiht, sondern stellt das tatsächlich auch dar.
Übrigens verwenden die Konsolen mehrere Designelemente aus AMD's RDNA1- und RDNA2-GPUs.
Z.B. die PS5 verwendet ein ähnliches High-Level Render-Frontend und Render-Backend (ROPs) wie die RDNA1-GPUs von AMD.
Die Xbox Series verwendet ein ähnliches Render-Frontend-Design, aber sehr ähnliche oder die gleichen ROPs wie RDNA2.
Die Konsolen-Chips sind weder deckungsgleich mit dem, was bei AMD als RDNA1 auf dem Markt präsent war, noch mit dem RDNA2-Design von Navi2X auf dem PC-Markt.
Da bin ich mir noch so sicher, wobei hier natürlich zwangsweise die Ungenauigkeit aufgrund der Betrachtung von Außen berücksichtigt werden muss.
a) Das Problem bei der RDNA2/dGPU-Bewertung ist die Customization für Sony/Microsoft und wann die jeweiligen Projekte ausgekoppelt wurden, sprich wann die GPU-Entwicklung eingefrohren wurde.
b) Dem was man um die Entwicklung herum lesen konnte und sich aus vielen Einzelbausteinen zusammensuchen konnte, zog AMD noch im laufenden Vega-Projekt Kapazitäten und Manpower aus der RTG ab um die NextGen-Konsolenarchitektur zu entwicklen. Übrigens ein Punkt, über den sich R.K. durchaus missmutig äußerte, da man ihm zugesicherte Projektstunden für die Entwicklung von Vega zusammenstrich. Aus Sicht von AMD nachvollziehbar, da man Sony/Microsoft brauchte, weniger nachvollziehbar, wenn man das übliche geh*** bzgl. dem naiven Feindbild in so manchen Foren beobachtet, das so mancher wohl für sein Wohlbefinden zu benötigen scheint.
Im Zuge der Entwicklung werden sicherlich auch zwei, drei Kleinigkeiten an/abgefallen sein, die am Ende für das fertige Konsolen-Design eher nicht brauchbar oder sinnvoll waren (zumal auch die Frage ist, s. o., wann die einzenden Designs ihre Entwicklung einfrohren) bzw. man konnte es in der späterten Iteration vielleicht gar noch besser implementieren (vielleicht aber zu spät für eines der Teilprojekte). Das grundlegende RDNA2-Design wird aber schon in 2018 fertiggestellt worden sein und Silizium dürfte es schon zum Jahreswechsel gegeben haben, den fertige Prototypkonsolen befanden sich bereits ab Mitte 2019 bei Spielentwicklern vor Ort in der Produktion.
Man hat hier also, wenn man es arg überspitzt formuliert, ein "verkrüppeltes" Design als GPU in den Markt gebracht, obwohl man schon was besseres fertig hatte (und das funktionierte im Wesentlichen nur, weil es dennoch leistungsfähiger als das überaltete Vega war).
Am Ende wird es schlicht daran gelegen haben, dass die grundssätzliche Entwicklung exklusiv für Sony/Microsoft war und letzten Endes weisen ja auch viele Brotkrumen auf diese Exklusivität hin und dementsprechend konnte AMD RDNA2 nicht vorzeitig nutzen um Revenue zu generieren. (Bis Ende 2020 warten und nVidia kampflos das Feld überlassen konnte und wollte man aber nachvollziehbarerweise ebensowenig.)
Ob man das jetzt als SpinOff, Resteverwertung oder was absichtlich Runtergestripptes bezeichnet, wird man am Ende nur von einem Projektbeteiligten erfahren können.
Schlussendlich könnte es sogar eine Parallelentwicklung mit der Zielsetzung gewesen sein etwas kurzfristiges wertschöpfendes zu entwicklen, dass nicht an die Verträge mit Sony/Microsoft aneckt und daher auch weniger leistungsfähig sein musste und insbesondere die Raytracing-Funktionalität den Konsolen vorbehalten bleiben musste. Gleichzeitg sind AMDs Ressourcen aber deutlich beschränkt und es war klar, dass man hier auf was Bestehendem aufbauen musste ... unterm Strich eine Frage der Wirtschaftlichkeit. (Unschön waren bestenfalls die Marketingsprüche in der Zeit zum Thema Raytracing, denn AMD wusste schon in 2017, dass es bis Ende 2020 keine Raytracing-fähige Hardware von AMD geben würde/durfte.)

Auf Basis von den HBM2-Package-Spezifikationen habe ich für Arcturus ~730-742mm² herausbekommen:
Die 750 mm2 habe ich erst mal nur im Zuge einer schnellen Recherche von Techpowerup mitgenommen. Ein paar qmm mehr oder weniger spielen da keine große Rolle. In seinem Whitepaper sah AMD leider keine Veranlassung ein paar technische Details dieser Art zu erwähnen.
AMD hat es zum Publikationszeitpunkt offensichtlich bewusst vermieden Details herauszugeben (warum auch immer sie das offensichtlich für nachteilig hielten) und die meisten Publikationen stammen leider (natürlicherweise) von dieser Zeit und dementsprechend fehlen die Informationen.

Allerdings fällt im Vergleich zu Vega20 auf, dass die HBM2-PHYs deutlich größer ausfallen, was sie bei dem relativ geringen Geschwindigkeitsunterschied aber eher nicht tun sollten, ebenso fallen die Compute Units im Vergleich massiv größer aus.
Normalisiert man dagegen die Arcturus-Schaubild-Größe auf die HBM2-PHY-Größe von Vega20, kommt man eher auf 630mm² oder gar weniger:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Leider hat AMD die Chißgröße nicht genannt, dem Marketingmaterial darf man nicht trauen und es gibt zu unserem Leidtragen keine echten Chipfotos von Arcturus.
Wie groß das Ding tatsächlich ist, ist eine gute Frage.
Bzgl. dem PHY kann ich auch nur raten (wenn denn die Größenverhältnisse hinkommen). Vielleicht hat man mit unterschiedlichen Libs implementiert um mehr Spielraum bzgl. der Signalqualität zu haben? Bei Samrtshone-SoCs ist die Verwendung unterschiedlicher Libs innerhalb des monolithischen Chips durchaus normal aber wie gesagt, reiner Spekulatius meinerseits.
Bei den ALUs wundert mich das dagegen nicht. Die angestrebte FP64-Leistung wäre ein möglicher Hinweis, vermutlich jedoch weitaus ausschlaggebender dürfte das sein, was AMD als Matrix Core Engine bezeichnet und was im Wesentlichen für die AI-Leistung verantwortlich sein dürfte. So wie sich das für mich liest, handelt es sich dabei zwar nicht um dedizierte HW-Einheiten a la Tensor Cores, jedoch zusätzliche Funktionalität, die ergänzende Verdrahtung in den ALUs für die weiteren Operationsmodi erforderlich macht, sodass diese dadruch auch zwangsweise größer werden (und bspw. möglicherweise gar zusätzliche Puffer und (Schatten)Register erforderlich machen, etc.).
 
Zuletzt bearbeitet:
@Bärenmarke:
>> "Das CDNA mit RDNA nichts zu tun hab ist mir klar und hab ich ja auch nirgends geschrieben"
Und ich habe dir auch nirgends derartiges unterstellt. Da wir hier in einem öffentlichen Forum sind, erlaube ich mir lediglich stellenweise einen größeren Kontext oder vorweg- oder zusammenfassende Informationen einzustreuen um es Querlesern zu vereinfachen den Post zu verstehen. Nicht alles, was in einem meiner Post steht, muss 100%ig, ausnahmlos und unmittlebar auf den auslösenden Post bezogen oder zurückzuführen sein. ;-)

Ich denke ich bin da nicht der einzige, der dies als Unterstellung empfindet. Wenn du einen Monolog führen möchtest, um wem auch immer etwas zu erklären, wäre ein Absatz doch die angebrachtere Variante. Bzw. wäre mir das persönlich auch etwas zu zeitaufwendig, aber jedem das seine. Ich empfinde es eher mühselig zu lesen, wenn man zu viel abschweift, glaub RDNA interessiert hier auch die wenigstens in dem Kontext.

Darüber hinaus, Kosten sind zweifellos nicht zu vernachlässigen, denn hierbei handelt es sich um ein hochkomplexes Chipdesign, hier jedoch in deutlich kleinerer Stückzahl als bei Consumer-Produkten für den Massenmarkt, d. h. die Entwicklungskosten sind weitaus schwergewichtiger bei einem solchen Produkt und insbesondere bei einer solchen Konkurrenzsituation. Würden hier Kosten kaum oder keine Rolle spielen, hätte man etwas wie CDNA schon Jahre zuvor aufgesetzt und nicht versucht reguläre Consumer-Hardware im Datacenter zweit- oder drittzuverwerten.

Doch die Produktionskosten (von den Entwicklungskosten, hat niemand gesprochen), sind in dem Fall zu vernachlässigen, da kein Preiskampf um den letzten Euro in dem Bereich stattfindet und ausreichend Margen vorhanden sind, um sich auch der teureren Fertigung zu bedienen, wenn diese das bessere Produkt ermöglicht. Weil damit punktet man letztendlich im HPC Umfeld. Deswegen muss nicht zwingend auf die billigste Fertigung gesetzt werden, aber wenn man Masse bedienen möchte, wäre durchaus auch 6nm denkbar.

"Kleinserie", wie gesagt, schwer einzuschätzen. AMD hat auf jeden Fall einiges vor mit "Trento", was letzten Endes auch nicht verwundert, denn ansonsten könnten sie es auch gleich sein lassen gegen die bestehende Konkurrenz.
Und das Design selbst ist alles andere als klein. bereits Arcturus (CDNA) soll rd. 750 mm2 haben (was ebenso einen mäßigen Yield impliziert bei der immensen Größe), d. h. ein solcher Chip benötigt mal eben +27 % mehr Wafer-Fläche im N7 als ein großer Epyc und das ist durchas keine Kleinigkeit. Man wird sehen, wie sie damit durch die Tür kommen werden. Auf jeden Fall haben sie nun erstmals zumindest einen Fuß in selbiger, denn bisher waren sie mit ihrer Instinct-Serie vergleichsweise erfolglos.

Klar, man wird schon auch einige Wafer dafür brauchen, aber wenn man sich den Umsatz anschaut der mit Ryzens und Epycs gemacht wird und dazu den von den Datacenter GPUs, ist man da meilenweit von den Stückzahlen entfernt. Aber klar hinsichtlich des Wettbewerbs wäre es für AMD aufjedenfall von Vorteil. Sofern sie es nicht wieder vermasselt haben mit den Wafern..

Zur markttechnischen Perspektive:
Consumer-GPUs: AMD ist hier grundsätzlich in allen Bereichen im Nachteil. Auf dem Desktop lag der AIB-Anteil zuletzt bei 1/5 und aktuell sieht man auf Steam, dass sie ihr RDNA2 kaum in den Markt zu bekommen scheinen, woran z. T. der verrückte Markt Schuld haben könnte, was dann jedoch ein AMD-spezifisches Thema wäre, denn nVidia verkauft hier vergleichsweise gut. Bei dGPUs (Desktop + Mobil) ist es ähnlich und AMDs Anteil liegt hier sogar noch unterhalb 1/5, d. h . auch bei mobilen dGPUs greifen Hersteller weitaus öfters zu nVidia-Produkten.
Einzig bei APUs hat man den Vorteil der integrierten iGPU, unterliegt hier jedoch deutlich Intel, die um ein vielfaches mehr Mobilgeräte umsetzen.

Einfach nur nein. Aber war ja auch klar, dass du an die Thematik ohne den üblichen AMD Bash nicht herangehen kannst. AMD ist eben nicht grundsätzlich im Nachteil, mit RDNA 2 haben sie endlich mal leistungsmäßig gleichgezogen, jedoch haben sie sich mit den Wafern verkalkuliert und produzieren nicht ausreichend. Und auch bei mobilen GPUs sind sie mit nichten im Nachteil, ich frag mich wirklich was das immer soll? Nötig hättest du es eigentlich nicht.
Aktuell baut AMD seinen Anteil immer weiter aus und sie sind schon bei rund 20% Marktanteil, was ihnen eine bessere Marktmacht auch bei den GPUs bietet, da sie eben die Möglichkeit haben in Zukunft den OEMs Bundles anzubieten, selbiges gilt für intel und nur nvidia kann dies nicht. Sprich sie werden dann ihre GPUs massiv rabattieren müssen (bei Herstellern wie Dell kannst du darauf wetten, dass intel da gesetzt ist) oder sie geben Marktanteile ab.
Und das AMD jetzt noch nicht stark mit GPUs vertreten ist, ist ja logisch! Die Lösungen sind ja noch nicht lange am Markt... Von daher ist es mir ein Rätsel wo AMD da im Nachteil sein soll, geht halt nicht immer alles direkt von 0 auf 100 und braucht seine Zeit.
Im mobilen Bereich sind sie zusammen mit intel definitiv im Vorteil die nächsten Jahre. Aber man muss es halt einfach mal nüchtern betrachtet sehen und für die OEMs ist es ein rießen Vorteil, wenn sie bei einem Hersteller alles bekommen, zumal die Leistung und der Verbrauch jetzt endlich mal passen und es nur an der Verfügbarkeit hapert und da kann man AMD durchaus rügen, dass sie zu konservativ waren. Da bin ich dann auch voll und ganz bei dir, sieht man an Nvidia ja, dass dies durchaus auch besser gehen kann!

Wenn zwei Konkurrenten starke Lösungen bieten oder wie intel über eine hohe Marktmacht verfügen, ist immer der Marktführer im Nachteil (das ist in dem Fall nvidia), da dieser am meisten zu verlieren hat. Und die anderen beiden nur gewinnen können, vorausgesetzt intel haut nicht wieder den nächsten flop hin. Zumindest AMD ist mit RDNA auf einem guten Weg. Vor allem, wenn man sich den Schritt von Vega zu RDNA zu RDNA2 anschaut und sie vom Effizienzlooser zum Effizienzchamp geworden sind. Das ist schon auch beachtlich!

Mit dem Eintritt von Intel wird es für beide etablierten Player schwer, denn beide werden Anteile an Intel verlieren, sowohl auf dem Desktop als auch auf Mobilgeräten. Aufgrund von nVidias deutlich größeren Anteilen werden sie absolut gesehen mehr als AMD verlieren, die kleineren Verluste bei AMD könnten letztere aber dennoch härter treffen, denn wenn die Marktanteile weiter schwinden wird die Amortisierung der Consumer-Produktentwicklung zunehmend schwieriger.

Das bezweifle ich stark, dass viele User von AMD zu intel abwandern werden, gibt dafür aktuell keinerlei Anzeichen im Desktopsegment. Und wie oben dargelegt, wird im Notebookbereich Nvidia bluten, weil AMD und intel, da einfach eine dicke Bonuskarte haben.

Schlussendlich, vergleicht man hier CDNA2/Aldebaran gegen Xe-HPC/Ponte Vecchio und einige Monate später nVidia's Hopper. Sieht man sich die Möglichkeiten und Sachverhalte einigermaßen nüchtern an, bleibt zu vermuten dass AMDs Design das einfachste/konservativste Design sein wird. Intels Design ist technologisch weitaus fortgeschrittener und und dürfte selbst Monate später von nVidia nicht erreicht werden, die das jedoch mit einer besseren Architektur ausgleichen könnten. Und bei nVidia als Marktführer kann man grundsätzlich annehmen, dass die hier durchaus was aus dem sprichtwörtlichen Hut zaubern können werden (wobei das natürlich nur im übertragenen Sinne zu verstehen ist).

Wäre schön, wenn du mal irgendwas nüchtern betrachten würdest. Ich kann bei der aktuellen Faktenlage nicht erkennen, dass zum einen intel das technologisch beste Design oder Nvidia die bessere Architektur hat. Es sind ja nichtmal zu CDNA2 alle Fakten bekannt, um dies abschließend einzuschätzen. Von daher halte ich es doch für sehr vermessen hier irgendeinen Hersteller weit hinten oder vorne zu sehen. AMD hat auch viel Energie die letzten Jahre da rein gesteckt, sieht man ja auch an ROCM4 mittlerweile und ich traue es daher jedem der drei Hersteller zu das beste Produkt zu liefern. Auch wenn intel im Gamersegment für Grafikkarten nicht mithalten können wird mit den Topmodellen, wäre es hier für mich durchaus vorstellbar, dass man auch ganz vorne mitspielt. Deswegen, wieso diese Einordnung bei der Informationslage? Zumindest ein Hersteller sollte seine Karten released haben, um da wirklich was handfestes sagen zu können.
Und im Herbst wird man dann sehen, wo die Messlatte hängt.

Hier hat man also durchaus umfangreich auf GCN aufgesetzt, was bei den beschränkten Ressourcen von AMD auch nicht verwundern sollte. Eine komplett eigenständige Linie aufzusetzen ist da schon eine beträchtliche Herausforderung, diese jedoch auch noch komplett from scratch zu entwickeln, könnte das Projekt zusätzlich und unnötig verkomplizieren, entsprechend nachvollziehbar.
Bezüglich CDNA2 könnte man vermuten, dass man sich möglicherweise noch weiter vom originalen GCN und auch CDNA wegbewegen wird, um den spezifischen Marktbedürfnissen noch mehr Rechnung tragen zu können.


Der link ist sehr interessant, vielen Dank!!!
Dann ist nur die Frage, was mit CDNA 2 außer dem Chiplet Design dazu kommt und nächstes Jahr sehen wir dann hoffentlich einen spannenden Dreikampf im HPC Bereich, um die beste Lösung :)
 
Ich wäre überrascht, wenn es weiterhin beim N7 bleiben würde, denn damit wären der Konkurrenzfähigkeit enge Grenzen gesetzt, denn da sich die Effizienzsteigerungen absehbar nur noch in beschränkten Rahmen bei einem unveränderten Node fortführen lassen, würde ein Dual-Chip-Design letzten Endes auch zu nahezu doppeltem Verbrauch führen. Würde das zutreffen, würde ich vermuten, dass sowohl Intel als auch nVidia mit Hopper CDNA2 deutlich übertreffen werden.
AMD hat mich durchaus überrascht mit den Effizienzverbesserungen bei RDNA2.
Auch wenn der große Infinity-Cache einen Teil dazu beiträgt, hat AMD die physische Implementierung so stark verbessert, dass eine ~30% bessere Perf/Watt (ohne Infinity Cache) herauskam, unter dem selben Technologieknoten.
Es gibt auch einen gewissen Spielraum unter der älteren Fertigung.
Mit zwei Chiplets muss man nicht auf 100% mehr Performance zielen, sondern kann geringere Taktraten auswählen und einen besseren Punkt auf der Effizienzkurve wählen.
Man kompensiert praktisch mit mehr Fläche den Perf/Watt-Nachteil und das kann vielleicht sogar halbwegs passabel funktionieren, wenn Intel für Intel 4 und Nvidia für 5nm, ziemlich tief in die Taschen greifen müssen.
Bzw. Ponte Vecchio verwendet anscheinend nur um die 300-380mm² für die Compute-Tiles mitsamt dem Rambo-Cache:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

AMD plant jedenfalls angeblich dieses Plattformdesign auch anderen OEMs/ODMs zur Verfügun zu stellen und nicht nur HPE/Cray.
Ich weiß nicht, ob wir Trento + MI200 auch bei anderen sehen werden, allerdings wird Genoa (Zen4) auf die Infinity-Architecture Gen3 aufsetzen und damit das gleiche bzw. das bessere Featureset mit MI200 anbieten können, als Trento.
Vielleicht wird das eher das "Mainstream-Design", wobei die Entwicklung auch relativ flüssig verlaufen kann.
Wenn Genoa erscheint zum Jahresende von 2022, dann wird CDNA3 vielleicht auch nicht mehr so weit entfernt sein.

Das grundlegende RDNA2-Design wird aber schon in 2018 fertiggestellt worden sein und Silizium dürfte es schon zum Jahreswechsel gegeben haben, den fertige Prototypkonsolen befanden sich bereits ab Mitte 2019 bei Spielentwicklern vor Ort in der Produktion.
Man hat hier also, wenn man es arg überspitzt formuliert, ein "verkrüppeltes" Design als GPU in den Markt gebracht, obwohl man schon was besseres fertig hatte (und das funktionierte im Wesentlichen nur, weil es dennoch leistungsfähiger als das überaltete Vega war).
Am Ende wird es schlicht daran gelegen haben, dass die grundssätzliche Entwicklung exklusiv für Sony/Microsoft war und letzten Endes weisen ja auch viele Brotkrumen auf diese Exklusivität hin und dementsprechend konnte AMD RDNA2 nicht vorzeitig nutzen um Revenue zu generieren. (Bis Ende 2020 warten und nVidia kampflos das Feld überlassen konnte und wollte man aber nachvollziehbarerweise ebensowenig.)
Ob man das jetzt als SpinOff, Resteverwertung oder was absichtlich Runtergestripptes bezeichnet, wird man am Ende nur von einem Projektbeteiligten erfahren können.
Schlussendlich könnte es sogar eine Parallelentwicklung mit der Zielsetzung gewesen sein etwas kurzfristiges wertschöpfendes zu entwicklen, dass nicht an die Verträge mit Sony/Microsoft aneckt und daher auch weniger leistungsfähig sein musste und insbesondere die Raytracing-Funktionalität den Konsolen vorbehalten bleiben musste. Gleichzeitg sind AMDs Ressourcen aber deutlich beschränkt und es war klar, dass man hier auf was Bestehendem aufbauen musste ... unterm Strich eine Frage der Wirtschaftlichkeit. (Unschön waren bestenfalls die Marketingsprüche in der Zeit zum Thema Raytracing, denn AMD wusste schon in 2017, dass es bis Ende 2020 keine Raytracing-fähige Hardware von AMD geben würde/durfte.)
Da RDNA2 aus tausenden Einzelteilen besteht, stellt sich die Frage was man dort genau als grundlegendes Design ansieht.
Man könnte argumentieren, dass RDNA1 eben genau dieses Grunddesign war, welches AMD Mitte 2019 auf den Markt gebracht hat.

Wir hatten schon ein paar mal die Diskussion über die Verträge rund um RDNA2 und ich gehe da auf jeden Fall nicht mit, dass AMD sich irgendwo gegeißelt hat mit (zeitlich begrenzten) Exklusivdeals und ich sehe auch keine Brotkrumen die in die Richtung hinweisen.
Forbes hat dazu mal einen Artikel geschrieben, mit der Behauptung das Navi für die PS5 entwickelt wird, wo der Autor selber am Ende spekuliert hat, dass die Xbox Series vielleicht gar nicht Navi verwendet:
https://www.forbes.com/sites/jasone...-playstation-5-vega-suffered/?sh=71d72f3f24fd

Und Überraschung (es war natürlich keine Überraschung), die Xbox Series verwendet genauso Navi-Technologie und AMD hat nicht konsolenexklusive Mikroarchitekturen entwickelt, sondern alle möglichen technologischen Faktoren miteinbezogen für die Zukunft.
Für den Desktop/Rendering-Markt, für Konsolen-Kompatibilität, etc.

Ich halte bei den sehr oberflächigen Behauptungen auch einen großen Abstand dazu, wie viel Wert ich den Behauptungen zumesse, da ohne Details man das nicht vernünftig beurteilen kann.

Bzgl. dem PHY kann ich auch nur raten (wenn denn die Größenverhältnisse hinkommen). Vielleicht hat man mit unterschiedlichen Libs implementiert um mehr Spielraum bzgl. der Signalqualität zu haben? Bei Samrtshone-SoCs ist die Verwendung unterschiedlicher Libs innerhalb des monolithischen Chips durchaus normal aber wie gesagt, reiner Spekulatius meinerseits.
Bei den ALUs wundert mich das dagegen nicht. Die angestrebte FP64-Leistung wäre ein möglicher Hinweis, vermutlich jedoch weitaus ausschlaggebender dürfte das sein, was AMD als Matrix Core Engine bezeichnet und was im Wesentlichen für die AI-Leistung verantwortlich sein dürfte. So wie sich das für mich liest, handelt es sich dabei zwar nicht um dedizierte HW-Einheiten a la Tensor Cores, jedoch zusätzliche Funktionalität, die ergänzende Verdrahtung in den ALUs für die weiteren Operationsmodi erforderlich macht, sodass diese dadruch auch zwangsweise größer werden (und bspw. möglicherweise gar zusätzliche Puffer und (Schatten)Register erforderlich machen, etc.).
Das PHY-Design zwischen Vega10 und Vega20 ist nahezu das Gleiche, obwohl Vega10 bei GloFo unter 14nm hergestellt wurde und Vega20 beim N7-Node von TSMC.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Es ist auch interessant das es zwischen den GDDR5-PHYs und GDDR6-PHYs nur einen geringen Unterschied beim Flächenverbrauch gibt, obwohl Letztere massiv schneller sind.
Auf der anderen Seite war das PHY-Design bei Tahiti (GCN1) viel größer als bei den kleineren Chips wie Pitcairn und Cape Verde, da hat AMD es übertrieben mit den Signaltreibern.
MI100 rennt mit 20% mehr Speicherbandbreite, aber selbst wenn man dafür etwas extra investiert hat, denke ich nicht das es an die Größenordnung herankommt, die man bei AMDs Schaubild sieht.
Die Shader-Arrays kann man nämlich relativ gut vergleichen, denn 64KB LDS oder der Shared Instruction- und Scalar-Cache sind gleich geblieben und die Größe sollte auch gleich ausfallen.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Man sieht das die SIMD-Engines länger geworden sind und doppelt soviele SRAM-Zellen für das Register-File haben.
Ebenso sieht man aber auch wie massiv kürzer eine Compute-Unit ausfällt, dank der entfernten TMU-Logik.
Nimmt man aber AMDs Schaubild als Norm, fallen die Compute-Units allerdings massiv größer aus und das kann in der Größenordnung nicht sein.
Ein Quervergleich mit Vega20 könnte darauf hinweisen, dass AMDs Diagram ein falsches Seitenverhältnis zeigt, aber ehh, im Dunkeln zu stochern macht keinen Spaß.

MI100 hat wie Vega20 1/2-Rate FP64, da gibt es keinen Unterschied.
Die Matrix-Units sind neu bei der MI100 und stellen dedizierte Logik wie bei Nvidia dar.
Seite 46 von der ISA-Dokumentation hat das genauer dargestellt und beschrieben:
MISIMD.jpg

https://developer.amd.com/wp-content/resources/CDNA1_Shader_ISA_14December2020.pdf

Der link ist sehr interessant, vielen Dank!!!
Dann ist nur die Frage, was mit CDNA 2 außer dem Chiplet Design dazu kommt und nächstes Jahr sehen wir dann hoffentlich einen spannenden Dreikampf im HPC Bereich, um die beste Lösung :)
Ein paar Auszüge aus AMDs offenen Linux-Treibern bestätigen schon einige Kernaspekte:

- Chiplet-Architektur, mit zwei Chips
- Die Verwendung von HBM2e mit 16GB pro Stack bzw. 128GB für das ganze GPU-Package (32GB bei der MI100)
- FP64-Berechnungen laufen jetzt doppelt so schnell ab und sind Full-Rate gegenüber 1/2 bzw. Half-Rate bei Vega20 oder der MI100
- Ähnlich wie seit GCN5 mit Packed-Math für FP16, kann Aldebaran 2x32-Bit pro ALU berechnen.
- Die Teilung vom VGPR für Vektorberechnungen und dem Accumulation Register File für Matrix-Operationen fällt zu großen Teilen weg, AMD beschreibt ein unified Register-File-Design, was man flexibel für Vektor oder Matrix-Operationen verwenden kann, dass war bei der MI100 nicht möglich, dort konnten die Vektoreinheiten die neuen 64KB AGPRs für Berechnungen nicht verwenden.
- Die Matrix-Units wurden verbessert und unterstützen jetzt auch FP64-Berechnungen.
Zusätzlich wurde der BF16-Durchsatz verdoppelt, der war bei der MI100 nur halb so groß im Vergleich zum FP16-Durchsatz.
- Es gibt einige neue technische Erweiterungen, um Cache-Coherence mit CPUs über xGMI zu ermöglichen.
- Einige mehr Sachen, die ich spontan nicht im Kopf habe und natürlich vieles, was noch nicht öffentlich ist.
 
Zurück