AMD Instinct MI250X: CDNA2-GPU angeblich mit 128 GB HBM2e, 48 TFLOPs und 500W

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Instinct MI250X: CDNA2-GPU angeblich mit 128 GB HBM2e, 48 TFLOPs und 500W

Laut dem Leaker Executable Fix soll AMD an einem neuen GPU-Beschleuniger namens Instinct MI250X arbeiten. Dieser soll 110 CUs bei 1,7 GHz bieten und damit 48 TFLOPS im FP64Format erreichen. Dazu gibt es 128 GB HBM2e-Speicher und eine TDP von 500 W.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Instinct MI250X: CDNA2-GPU angeblich mit 128 GB HBM2e, 48 TFLOPs und 500W
 
200mhz und Spannung runter, dann hat man wieder 300 Watt ^^
Also wenn selbst Apple jetzt schon Vergleichswerte zu den professionellen Karten offenlegt, sollte man wirklich mal zusehen, dass man auch in die anscheinend sehr gut laufende 5nm Fertigung einsteigt.
Bei Gamingkarten mag es preislich unattraktiv sein, aber bei solchen hochpreisigen Karten dürfte der Vorteil durch weniger Verbrauch und kleineren Chips doch sehr eindeutig auf der Hand liegen.
Oder hat Apple jetzt zeitliche Exklusivrechte erworben, dass AMD, NVidia und auch Intel da ein Jahr oder so nichts von abbekommen?
 
300 W, zweifellos nicht, da das Design zwangsweise schon weitaus näher am Sweet Spot betrieben wird, wird es hier keine nennenswerte Luft geben.
AMD nutzt 5nm nächstes Jahr für CPUs, möglicherweise Ende 2022 auch für RDNA3, was jedoch noch nicht gesichert ist (könnte auch beim N6 bleiben), nVidia für ihre GPUs, und Intel wird TSMCs 3nm anscheinend noch deutlich vor AMD nutzen. Ist einfach eine Frage der Buchung, der allgemeinen Ressourcen, finanziell wie auch entwicklungstechnisch und des Bedarfs. Jemand wie nVidia als Marktführer könnte gar auf Teufel komm raus buchen, denn das wird sich bei denen schon amortisieren, bei AMD ist das mit ihren kleinen Marktanteilen dagegen ein völlig anderes Thema und dementsprechend müssen die auch härter kalkulieren und zurückhaltender planen/buchen.
Die MI2xx-Karten sind im Wesentlichen ein recht effizient und pragmatisch weiterentwickeltes Design bei dem es sich primär um die Skalierung drehte, also in dem konkreten Falle das Zusammenführen von zwei Dies bei architektonisch überschaubarer Weiterentwicklung. Beispielsweise bei AI-Workloads wird das Design nach bisherigem Kenntnisstand weiterhin nicht einmal mit dem A100 mithalten können. Auch Intel's HPC/Ponte Vecchio wird das Design in AI-Workloads deutlich unterlegen sein.
Und Hopper wird in 2Q22 (vermutlich auf der GDC) beide Konkurrenzdesigns übertreffen. Man darf gespannt sein ob sich AMD Mitte 2022 zumindest in Teilen mit Intel um den 2. Platz streiten können wird oder ob man sich nun gänzlich mit dem 3. Platz zufrieden geben muss. Und ebenso interessant wird sein, ob ein CDNA3 in 5nm schon für Ende 2022 vorgesehen ist? Denn übermäßig viel Zeit wird AMD hier nicht haben, da Intel vermutlich (wie auch im Consumer/Prof-Segment) bereits die nächste Iteration von Xe-HPC in Arbeit haben wird und es nun zukünftig mit drei Playern im Markt noch schwieriger werden wird Marktanteile zu gewinnen.
 
Zuletzt bearbeitet:
200mhz und Spannung runter, dann hat man wieder 300 Watt ^^
Träum weiter;)
Also wenn selbst Apple jetzt schon Vergleichswerte zu den professionellen Karten offenlegt, sollte man wirklich mal zusehen, dass man auch in die anscheinend sehr gut laufende 5nm Fertigung einsteigt.
Bei Gamingkarten mag es preislich unattraktiv sein, aber bei solchen hochpreisigen Karten dürfte der Vorteil durch weniger Verbrauch und kleineren Chips doch sehr eindeutig auf der Hand liegen.
Oder hat Apple jetzt zeitliche Exklusivrechte erworben, dass AMD, NVidia und auch Intel da ein Jahr oder so nichts von abbekommen?
Für 5nm sind diese Chips noch viel zu groß.
 
Bei dem Verbrauch dürften Gaming-Services, bei denen das Spiel per Internet auf den heimischen Rechner gestreamt werden, wieder deutlich attraktiver werden.
 
Bei dem Verbrauch dürften Gaming-Services, bei denen das Spiel per Internet auf den heimischen Rechner gestreamt werden, wieder deutlich attraktiver werden.
CDNA hat mit Gaming/Streaming nichts am Hut. Die Architektur wurde nahezu von allen Funktionseinheiten in der 3D-Renderpipeline befreit, d. h. die kann man fürs Rendern überhaupt nicht nutzen. Das ist ein reiner Rechenbeschleuniger für HPC & AI. AMD hat mit CDNA nicht umsonst eine vollkommen eigenständige und parallel zu RDNA entwickelte Architektur ins Leben gerufen. Mit General Purpose-GPUs gewinnt man in dem Markt, der hier adressiert wird mittlerweile keinen Blumentopf mehr.
AMD hat dies in der zweiten Hälfte des letzten Jahrzehnts lediglich auf diese Art im professionellen Segment versucht, weil sie nichts besseres im Portfolio und zu der Zeit noch keine Ressourcen für ein eigenes Design hatten und dementsprechend sind sie hier auch gescheitert. Erst mit/seit CDNA machen sie wieder langsam Boden gut.
 
Zuletzt bearbeitet:
Laut dem Leaker Executable Fix soll AMD an einem neuen GPU-Beschleuniger namens Instinct MI250X arbeiten.
Die Dinger sind schon fertig, da sie unter anderem im Supercomputer Frontier zum Einsatz kommen.
Angeblich werden sie auch im November zur SC21 offiziell präsentiert.

Die 110 CU sind wohl nicht fix, da nicht der Vollausbau zwecks Redundanz und damit bessere Yields.

Das mit interessanteste ist ja, dass es ein MCM-Design ist.
 
Die Dinger sind schon fertig, da sie unter anderem im Supercomputer Frontier zum Einsatz kommen.
Angeblich werden sie auch im November zur SC21 offiziell präsentiert.

Die 110 CU sind wohl nicht fix, da nicht der Vollausbau zwecks Redundanz und damit bessere Yields.

Das mit interessanteste ist ja, dass es ein MCM-Design ist.
Nicht nur angeblich sondern höchstwahrscheinlich, denn selbstredend will man die Aktualisierung der Top500-Liste im November mitnehmen, denn die nächste ist erst im Juni 2022 und da muss man sich bereits wieder gegen nVidia und Intel vergleichen lassen.
Zwar könnte man aufgrund der Größe des Frontier vielleicht die absolute Krone übergangsweise beibehalten, jedoch wird bspw. zweifellos nVidia für die Jahresmitte bereits eines ihrer Cluster mit Hopper aktualisiert haben und der wird absehbar dessen Überlegenheit demonstrieren, denn mit alleine schon den verwendeten 5nm hat das Design einen gehörigen Pluspunkt auf seiner Seite.

Die 110 CUs werden zweifellos nicht der Vollausbau sein, jedoch darf man annehmen, dass es keine größeren Modelle jenseits der MI250X geben wird, denn limitierend ist hier die gesamte TP eines Blades. Hier werden voraussichtlich 4 Karten zusammen (mit einer 250 - 300 W CPU) betrieben und über ein gewisses kW-Limit pro Rack kommt man nicht sinnvoll hinaus, wenn man nicht unverhältnismäßige Aufwände betreiben will und selbst die lassen sich heute schlecht rechtfertigen, denn nicht umsonst gibt es mittlerweile auch eine Green500-Liste, in der die Effizienz das A und O darstellt.

Mir wäre eine 6950 XTX mit 32 GB HBM2e lieber :love:

MfG Föhn.
Davon träumt so mancher, nur die Kosten will keiner tragen und AMD offensichtlich am allerwenigsten. Sollte HBM2E mal in Consumer-Designs kommen, wird das wohl zuerst bei nVidia oder Intel stattfinden. AMD ist dafür noch viel zu beschränkt mit ihren kleinen Marktanteilen. Selbst bei Intel wäre dies vorerst eher unwahrscheinlich i. V. z. nVidia, aber die haben wenigsten die nötigen Ressoucen, wenn sie ein Produkt tatsächlich pushen wollten, wobei nach aktuellem Stand da eher keine Notwendigkeit besteht, da man mit den bald zur Anwendung kommenden noch kleineren Nodes noch deutlich besser einen großen Cache realisieren kann (direkt auf dem Wafer oder "angeflanscht") und sich daher im Last Level weiterhin mit bewährter und günstiger GDDR6-Technik arrangieren kann und dafür eine bessere Marge einfährt. Die NextGen-GPUs der drei großen (2HJ22 - 1HJ23) werden für Consumer vermutlich weiterhin alle ausnahmslos auf GDDR6 aufsetzen.
 
Zuletzt bearbeitet:
Die 110 CUs werden zweifellos nicht der Vollausbau sein, jedoch darf man annehmen, dass es keine größeren Modelle jenseits der MI250X geben wird, denn limitierend ist hier die gesamte TP eines Blades. Hier werden voraussichtlich 4 Karten zusammen (mit einer 250 - 300 W CPU) betrieben und über ein gewisses kW-Limit pro Rack kommt man nicht sinnvoll hinaus, wenn man nicht unverhältnismäßige Aufwände betreiben will und selbst die lassen sich heute schlecht rechtfertigen, denn nicht umsonst gibt es mittlerweile auch eine Green500-Liste, in der die Effizienz das A und O darstellt.
Ich gebe dir recht, dass ein gewisses Leistungslimit pro Rack gilt, wenn man den Aufwand nicht ins Uferlose ausarten lassen will. Nur den Verweis mit der Green500 Liste und die von dir angesprochenen Rechtfertigungsprobleme begreife ich nicht. Da geht es um die Effizienz, nicht um den Absolutverbrauch.
 
Die aktuellen Supercomputer sind zunehmend auf Effizienz getrimmt, also Performance/Watt. Die letzten Topsysteme reizen schon längst nicht mehr das maximal technisch Mögliche auf Teufel komm raus aus, sprich maximal möglicher Takt der einzelnen Komponenten und dafür eine extrem aufwändige Kühlung, etc. Das wird sich auch Zukünftig immer mehr in diese Richtung bewegen, insbesondere bei den extrem großen Systemen, die für Exascale-Performance ausgelegt sind und daher extrem viele Racks mit relativ hohem Verbrauch inkludieren.
Das aktuelle Topsystem ist der Fugaku mit 0,44 ExaFlops bei rd. 30 MW. Man darf gespannt sein wo sich hier der Frontier und Aurora einsortieren werden.
 
Alles richtig, nur hat das nichts mit dem Gesamtverbrauch zu tun! Du musst immer die Rechenleistung mit hinzuziehen in die Betrachtung. Wenn ein System das doppelte verbraucht ist das immer noch und auch in Zukunft zu rechtfertigen, wenn es gleichzeitig mehr als doppelt so schnell ist.
 
Zurück