News Kampf der Titanen: AMD jagt Nvidia mit dem KI-Beschleuniger Instinct MI300X

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Kampf der Titanen: AMD jagt Nvidia mit dem KI-Beschleuniger Instinct MI300X

AMD präsentierte auf einem Event in San Francisco den KI-Beschleuniger Instinct MI300X - eine deutlich aufgebohrte Fassung der auf der letzten CES angekündigten Instinct MI300.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Kampf der Titanen: AMD jagt Nvidia mit dem KI-Beschleuniger Instinct MI300X
 
Wie sieht's eigentlich mit Intel aus? Ist dort etwas bzgl. Eintritt in den KI-Beschleuniger-Markt in Planung? Ich kann mir nicht vorstellen, dass der Markt freiwillig AMD und Nvidia überlassen wird.
 
Beides wirklich sehr interessante Karten und ich bin da auch schon sehr auf die ersten offiziellen Leistungsdaten und Benchmarks gespannt.
Mit der MI300A haben sie aufjedenfall etwas auf dem Markt, dass die anderen Anbieter nicht bieten können. Ich hoffe sie können sich damit auch nen großen Kuchen vom AI Markt sichern.
 
Naja lange hat die "Vormachtstellung" von nvidia da ja nicht angehalten. War aber klar, dass die Konkurrenz ebenfalls sehr schnell mit den KI-Beschleunigern auf den Markt kommen werden.
 
Die Speicherbandbreite ist schon mönströs, vor allem im Vergleich zu den 60er Karten von AMD und nVidia mit ihren 128mbit ist das ja mit zugekniffenem Auge gefühlt rund 20x so viel, oder?
Und mit so viel Speicher (192 statt 8GB WTF!) reicht das dann auch locker für das Streamingverhalten aktueller UE4 Spiele.
Mikroruckler und Stotterer Ade. :-)
Schade, dass so ein Ungetüm nicht im normalen Gamingrechner läuft.
Raff bekäme sicherlich feuchte Augen bei dem Anblick, so ein Teil dann vielleicht sogar mal "aus Spaß" testen zu dürfen.

Die Dinger sind also seit dem 1. Quartal 2023 bereits massenweise in Datacentern aktiv im Einsatz?
Habe ich die News hier übersehen? Muss wohl.
Interessant ist auch die Tatsache, dass 5.0 Slots ausgereizt werden.
Wird also langsam Zeit für 6.0 Standard, um für zukünftige Upgrades vorbereitet zu sein.
AMD und nVidia müssen sich warm anziehen und vor allem sputen, um nicht innerhalb kürzester Zeit die Vormachtstellung komplett an Intel abzugeben.
Bei dem Tempo, was die bei CPU und GPU in den letzten Jahren an Fahrt aufgenommen haben, was Leistung, Effizienz und Fertigungstechnik anbelangt.
Pats Reden sind also doch alle wahr geworden.
Wer hätte das gedacht?
;-)
 
Zuletzt bearbeitet:

Parallel gibt es noch den reinen KI-Beschleuniger Gaudi 2/3 vom Tochterunternehmen Habana. Eher 2025 denn 2024 sollen dann beide Linien von Falcon Shores ersetzt werden – bei dem eben jüngst kritisiert wurde, dass Intel die ursprünglichen Pläne einer XPU mit CPU-Anteilen zugunsten einer reinen GPU ad acta gelegt hat. (Angeblich, damit CPU- und GPU-Anteil im System flexibler dimensionieren kann. Real wohl eher wegen Verzögerungen.) Also genau das, was AMD beim MI300X als großen Vorteil gegenüber MI300A verkauft.
 
Sehr spannend das Thema.
Hoffe irgendwann profitieren auch die Gamer von so einem Produkt.
Eine High End Karte mit 32 GB HBM3 Speicher wäre schon was Feines.
Hab gestern schon eine NEWS darüber gelesen.


 
Naja lange hat die "Vormachtstellung" von nvidia da ja nicht angehalten. War aber klar, dass die Konkurrenz ebenfalls sehr schnell mit den KI-Beschleunigern auf den Markt kommen werden.
Kannst du Ausführen, wo genau Nvidia jetzt keine Vormachtstellung mehr hat?
Eine reine Ankündigung von AMD ist kein Beleg für diese Aussage.
 
Sehr spannend das Thema.
Hoffe irgendwann profitieren auch die Gamer von so einem Produkt.
Eine High End Karte mit 32 GB HBM3 Speicher wäre schon was Feines.
Hab gestern schon eine NEWS darüber gelesen.


Also wenn die Einstiegsklasse schon 12-16GB haben soll, dann sollte die nächste 90iger mindestens 32GB haben. Dann kann die nächste 80iger auch mit 24GB kommen.
 
Spannendes Produkt, aber sehr schwierig zu etablieren. CUDA ist einfach der aktuelle Standard und wie schon in der News steht, wird es nicht leicht gewohntes abzulegen, um sich in was neuen einzuarbeiten. Gerade letzteres stellt die größte Hürde dar. Man kann AMD nur die Daumen drücken. Nvidia wird nämlich nicht schlafen. Ein Update ihres H100er Angebots wird mMn bereits nächstes Jahr erwartet und das dürfte wohl konkurrenzfähig sein und eben keine Umstellung erfordern. Falls AMD dann auch in dem Segment über den Preis gehen muss, ist es fraglich ob sich die Entwicklung effektiv auszahlen kann.
 
Spannendes Produkt, aber sehr schwierig zu etablieren. CUDA ist einfach der aktuelle Standard und wie schon in der News steht, wird es nicht leicht gewohntes abzulegen, um sich in was neuen einzuarbeiten. Gerade letzteres stellt die größte Hürde dar. Man kann AMD nur die Daumen drücken. Nvidia wird nämlich nicht schlafen. Ein Update ihres H100er Angebots wird mMn bereits nächstes Jahr erwartet und das dürfte wohl konkurrenzfähig sein und eben keine Umstellung erfordern. Falls AMD dann auch in dem Segment über den Preis gehen muss, ist es fraglich ob sich die Entwicklung effektiv auszahlen kann.
Ich muss allerdings sagen ohne die Firmen zu nennen, ich kenne Beispiele wo liebend gerne auf eine AMD GPU gewechselt worden wäre, gerade weil der Anschaffungspreis doch angenehmer ist und die mobilen Lösungen auch ganz gut performen. Leider konnte man es nur nicht machen weil die Kompatibilität nicht gegeben ist. Es sieht so aus als wenn mit ROCm jetzt erst so nach und nach die Möglichkeit dafür kommt.

AMD ist da echt für einige Fälle schon viel zu spät und es wird dringend Zeit das mehr Kompatibilitäten kommen!
 
Sehr spannend. Da fragt man sich ia eigentlich nur, bis wann das ganze in handelsüblichen PCs/Notebooks/Konsolen einzug finden könnte? Aktuelle und auf die nächsten paar Jahre gesehen wird man sowas vermutlich noch nicht kostengünstig realisieren können. Aber in 10 Jahren z.B.? Gerade auch im Bereich Gaming hat AI ein riesen Potential. Man stelle sich nur eine OW vor, bei der Ereignisse, die komplette Umgebung etc. in Echtzeit ohne komplexe vorgegeben Standard Routinen einem ständigen Wechsel unterliegen können und wer weiß was sonst noch.
Allein was mittlerweile schon im Bereich Bilderbearbeitung drin ist, ist beeindruckend und das ganze wird von Woche zu Woche gefühlt immer besser.
Auch wenn eine gewisse Vorsicht bei KI sicherlich angebracht sein sollte, neben dem ganzen Guten, lässt sich damit heute schon genügend Schabernack betreiben (Deep Fake, Stimmenimitation etc.)
Dennoch, wie gesagt, ein wirklich spannendes Thema das mich an Fortschritte erinnert, die es schon lange in diesem Ausmaß im IT Bereich nicht mehr gab.
 
Spannendes Produkt, aber sehr schwierig zu etablieren. CUDA ist einfach der aktuelle Standard und wie schon in der News steht, wird es nicht leicht gewohntes abzulegen, um sich in was neuen einzuarbeiten. Gerade letzteres stellt die größte Hürde dar.

So wie ich das verstanden habe spielt Cuda dort gar keine Rolle, da die entsprechenden Frameworks von den Anbietern wie Meta, Microsoft, Google usw. bereitgestellt werden und dann entsprechend dein Softwarestack damit umgehen muss. Z.B. wie bei Pytorch.
 
Ich mag nicht ausschließen, dass ich das falsch verstanden habe, aber das Framework sagt ja nur was beispielsweise mit der Phyton-Bib (phytorch) angestellt werden soll und ROCm macht dann, dass diese Instruktionen auf in diesem Falle hier, der MI300A ausgeführt werden können.
Irre ich mich da? Kann sein, ich hab mit Programmierung nichts am Hut, aber mir das eben genau so erklärt.
 
Ich mag nicht ausschließen, dass ich das falsch verstanden habe, aber das Framework sagt ja nur was beispielsweise mit der Phyton-Bib (phytorch) angestellt werden soll und ROCm macht dann, dass diese Instruktionen auf in diesem Falle hier, der MI300A ausgeführt werden können.
Irre ich mich da? Kann sein, ich hab mit Programmierung nichts am Hut, aber mir das eben genau so erklärt.

So verstehe ich das auch, nur dominiert dann ja nicht CUDA den AI Markt, würde CUDA den AI Markt dominieren, dann müsste AMD mit ROCm das ja in CUDA übersetzen und so müssen ja beide Hersteller bzw. ja auch intel schauen wie das Framework bestmöglich genutzt wird.
 
Zurück