AMD CDNA: Radeon Instinct MI100 soll bei FP32-Leistung triumphieren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD CDNA: Radeon Instinct MI100 soll bei FP32-Leistung triumphieren

Laut geleakten Folien soll AMDs kommende CDNA-Architektur und damit die Radeon Instinct MI100 bei der FP32-Leistung weit vor der Konkurrenz liegen. Bei den übrigen Anwendungsgebieten soll AMD hingegen Nvidia den Vorrang lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD CDNA: Radeon Instinct MI100 soll bei FP32-Leistung triumphieren
 
"Gegenüber Nvidia soll AMD die MI100 somit vor allem im akademischen Bereich sowie für Öl- und Gasunternehmen im Vorteil sehen. Bei Letzterem geht es vor allem um die Anwendung der Reverse Time Migration (RTM), durch die sich der Erduntergrund aus seismischen Daten errechnen lässt. Dadurch können neue Öl- und Gasvorkommen gefunden werden."

Hört sich ja nicht schlecht an !
Allerdings wäre mir persönlich lieber, sie hätten sich auf´s falten von Proteinen konzentriert oder die Unterstützung welche von Nöten ist ein "Heilmittel" gegen Covid 19 zu finden …

MfG Föhn.
 
Die zahlen passen doch kein Stück zusammen ... wie soll das erklährt werden das die Karte NUR bei reinen FP32 Berechnungen mehr als doppelt so schnell wie der A100 ist aber in allen anderen Bereichen inkl Mixed Precision gleich mal nur die Hälfte vom A100 bringt . Vor allem der Unterschied FP 32 zu FP 16 ist völliger Irrsinn .... selbst wenn die "gleichen" bauteile einfach nur statt 1x 32Bit mit 1x16Bit rechnen würden , würde nicht praktisch gesehen nur noch weniger als ein viertel der Leistung bei FP16 raus kommen ... außer man ist so bescheuert und baut für JEDE rechenart eigene "Einheiten" ... was dann trotzdem nicht erklähren würde warum Mixed ebenfalls so schwach ist da der FP32 Til da ja auch laufen würde ....

Insgesamt denke ich das des ein absoluter Fake ist nach dem Moto "AMD kann Leuchtturm-Werte aber auf breiter Front sind sie Schrott" inkl verschleierter Werbung für NV weil die gerade die "Breite Front" mit deutlich stärkerer Leistung abdecken ....
 
"Gegenüber Nvidia soll AMD die MI100 somit vor allem im akademischen Bereich sowie für Öl- und Gasunternehmen im Vorteil sehen. Bei Letzterem geht es vor allem um die Anwendung der Reverse Time Migration (RTM), durch die sich der Erduntergrund aus seismischen Daten errechnen lässt. Dadurch können neue Öl- und Gasvorkommen gefunden werden."

Hört sich ja nicht schlecht an !
Allerdings wäre mir persönlich lieber, sie hätten sich auf´s falten von Proteinen konzentriert oder die Unterstützung welche von Nöten ist ein "Heilmittel" gegen Covid 19 zu finden …

MfG Föhn.

Solche Chips sind Jahre in Planung, da war noch nix mit Covid19. Das Ding geht ja noch auf Koduris Vega zurück
 
Dann sind es keine Folien von AMD :)

Und das behauptet Adored mehrfach (z.B.: "In this first slide, AMD is benchmarking [...]").

Das hier hat er zumindest bei Vidocardz in den Kommis geschrieben:

"I actually have 2 different slides from 2 different sources showing the exact same numbers or I wouldn't have run with it. I think they'll be pulling some kind of shenanigans for their FP32, possibly by accumulating FP16 alongside it. You can actually see in the final slide on our site that this OEM says it'll be up to 2.4x faster in FP32 vs A100, which in fact would be around 46 TF."
 
Ich empfinde HIP von AMD als den besseren Ansatz im Vergleich zu Cuda.

Bzgl. der Mi100, rund die dreifache FP32-Leistung gegenüber der Mi60 ist schon beachtlich. Packste dir mit 8 Karten entspannte 330 TFlop/s FP32 in eine Schublade^^

120CU's ist halt auch Hammer. Wenn davon 96 in Big-Navi übrig blieben wäre das genial.
 
wieso muss es Cuda sein? (liegt es in der "einfacheren" Programmierbarkeit oder ähnlichem?!)
CUDA ist nicht nur einfacher zu lernen, sondern auch besser dokumentiert. Außerdem kann nVidia natürlich CUDA-Software und GPU-Hardware parallel entwickeln, sodass die neue Hardware auch ausgenutzt werden kann. Bei OpenCL braucht es dafür entweder lästige, herstellerabhängige Extensions, oder sehr viel Zeit bis das Konsortium sich auf eine neue Version einigt, die dann von den Herstellern implementiert wird.

Aus diesen Gründen, und auch dank finanziellen "Argumente", ist CUDA der defacto Standard in Unis und wissenschaftlichen Instituten. Und aus diesem Bereich kommt nunmal ein Großteil der Forschung zum Thema ML - und auch die Mitarbeiter für Techgiganten wie Google und Facebook.
 
Fakealarm!!

Comic Sans in ner Folie da gehen gleich bei mir schon alle Warnlampen an. Aber dann der schlecht freigestellte A100 Chip und bei der anderen Folie die mal überhaupt nicht in das Farbschema passt und als ob man bei AMD nicht ihr eigenes Logo richtig freistellen könnten (vom Text mal abgesehen).
Und bei den anderen Folien ist so viel falsch, da tut mich ehrlich gesagt alles weh: InfiniBand als Verbindung der GPUs untereinander?, keine Angaben der Testhardware (AMD nennt zumindest mal die CPU - aus offensichtlichen Gründen), was zur Hölle manchen die Xeons da?, schlecht freigestelltes Infintiy Fabric Symbol, sind dass die Pfeile aus Intels Mesh Präsentation? die gibts nur bei 8 GPUs und sonst nur Striche, really???, usw....

Und dass man ne FP32 Leistung von ~50 TFLOP/s lt. der weißen Folie (und 34 lt. den Folien davor?) hat aber nur ~35 TFLOP/s FP16 und -5 TFLOP/s FP64.... Sry, jetzt mal ehrlich: Kein weiterer Kommentar notwendig...
 
Fakealarm!!

Comic Sans in ner Folie da gehen gleich bei mir schon alle Warnlampen an. Aber dann der schlecht freigestellte A100 Chip und bei der anderen Folie die mal überhaupt nicht in das Farbschema passt und als ob man bei AMD nicht ihr eigenes Logo richtig freistellen könnten (vom Text mal abgesehen).
Und bei den anderen Folien ist so viel falsch, da tut mich ehrlich gesagt alles weh: InfiniBand als Verbindung der GPUs untereinander?, keine Angaben der Testhardware (AMD nennt zumindest mal die CPU - aus offensichtlichen Gründen), was zur Hölle manchen die Xeons da?, schlecht freigestelltes Infintiy Fabric Symbol, sind dass die Pfeile aus Intels Mesh Präsentation? die gibts nur bei 8 GPUs und sonst nur Striche, really???, usw....

Und dass man ne FP32 Leistung von ~50 TFLOP/s lt. der weißen Folie (und 34 lt. den Folien davor?) hat aber nur ~35 TFLOP/s FP16 und -5 TFLOP/s FP64.... Sry, jetzt mal ehrlich: Kein weiterer Kommentar notwendig...

ein angehener journalist, ne spaß beiseite. einer der sich die quellen anguckt.
jetzt wo du es sagst das amd selbst sagt das nvidia der vorsprung da weiterhin haben soll. das schaffste nur wenn du bei intel arbeitestest und was anderes als 14nm einfach nicht klappt und jahre hinterm zeitplan steckt. :ugly:

edit/

gpu's über infinband, macht sinn wenn man keine weiteren gpu's ins gehäuse stecken kann, soweit ich weiß gäbe es noch cxl als offenen standart, kp ob das überhaupt dort einen sinn macht.
 
Zuletzt bearbeitet:
Hast du jemals ein Projekt in CUDA und HIP programmiert? Offensichtlich nicht. In der Qualität der Toolkits liegen Welten zwischen CUDA und HIP. Zugunsten von CUDA.

Aber du hast den Plan :lol::lol::lol: anscheinend absolut nicht und in Sachen nettigkeit nicht mal den ansatz. Du solltest zumindest als so toller Programmierer wissen das HIP eher als compiler dient und ein Teil von ROCm ist :nene:
Hier bischen Wissen für dich:
Porting CUDA to HIP >> ADMIN Magazine

Welten liegen Zwischen Hipp Babybrei und Cuda das eine isst man das andere ist eine Programmier-Technik ;)
 
Aber du hast den Plan :lol::lol::lol: anscheinend absolut nicht und in Sachen nettigkeit nicht mal den ansatz. Du solltest zumindest als so toller Programmierer wissen das HIP eher als compiler dient und ein Teil von ROCm ist :nene:
Hier bischen Wissen für dich:
Porting CUDA to HIP >> ADMIN Magazine

Welten liegen Zwischen Hipp Babybrei und Cuda das eine isst man das andere ist eine Programmier-Technik ;)
Nope, mit dem ersten verdient man sein täglich Brot, das andere ist Frickelei für Leute die zu viel Zeit haben, um Sachen zum Laufen zu bringen, die schon längst Standard sind. AMD überlässt die Entwicklung den anderen, um Kosten zu sparen. Ich sage dazu thanks but no thanks.
Das ist ein Framework, keine API.
Aber ebenso ein Compiler, man müsste dann z.B. den Kerascode nicht neu schreiben, habe ausprobiert. Es funzt.
 
Zuletzt bearbeitet von einem Moderator:
PlaidML wird von Intel weiterentwickelt. Wenn es richtig läuft, wäre es auch Cuda überlegen, da herstellerunabhängig und dennoch effektiv.

PlaidML hört sich ziemlich cool an. Ich hoffe Intel kann damit Fuß fassen. Gegen die jahrelange Dominanz von CUDA anzukämpfen wird aber sehr schwierig.

HIP ist eigentlich auch ein super Ansatz, da es auf die jeweils herstellereigenen APIs zurückgreift und es sehr einfach ist CUDA Code auf HIP zu portieren. Allerdings ist auch nur eine Teilmenge von CUDA unterstützt.

PlaidML gefällt mir da besser, da es eine unanbhängige Plattform ist, die vom Start weg auch die wichtigen Tools (Keras, TensorFlow, PyTorch) unterstützt, während HIP nur auf der untersten Ebene abstrahiert. Wenn jetzt noch die Performace stimmt, wäre das eine große Erleichterung (auch für AMD).
 
Zurück