News Radeon RX 7900 XTX und XT: AMD ROCm läuft jetzt auf der RDNA-3-Oberklasse

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7900 XTX und XT: AMD ROCm läuft jetzt auf der RDNA-3-Oberklasse

AMD arbeitet weiter daran, seinen quelloffenen CUDA-Konkurrenten ROCm 5.7 auch für Endanwender zugänglich zu machen und auf handelsüblichen Radeon-Grafikkarten für Consumer lauffähig zu machen. Damit können jetzt auch die Privatanwender von ML-Frameworks wie TensorFlow und PyTorch für entsprechende KI-Workloads profitieren. Der Startschuss ist jetzt mit der Radeon RX 7900 XTX und XT gefallen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 7900 XTX und XT: AMD ROCm läuft jetzt auf der RDNA-3-Oberklasse
 
Bin gespannt wann alle relevanten ML Pakete auch auf den AMD Karten laufen ohne das man da lange rummachen muss. Im Momemt benutze ich eine RTX 2080ti die ich von der Universität bereit gestellt bekommen habe. Ist bestimmt ein guter Anfang, aber bis es reibungslos läuft vergehen bestimmt noch zwei Generationen.
 
Sehr schön/gut.
Nur AMD typisch wie immer zu spät.
Hoffe sie bringen "Nutzerfreundlich" hin und es wird auch am Markt angenommen ...

p.s. ist die 7900 GRE nicht auch Navi 31 ?
 
Zuletzt bearbeitet von einem Moderator:
Bin gespannt wie sich das weiter entwickelt, bei den absurden Preisen der 4090 kann da die 7900XTX mit seinen ebenfalls 24GB VRAM evtl. neue Anreize schaffen.
 
Okay, könnte interessant sein für meine bessere Hälfte, die hin und wieder zuhause Dinge nachprüfen will, die ihr sonst keine Ruhe lassen bis sie wieder im Labor ist.

Mal schauen wann es da erste Erfahrungsberichte gibt. Bei viel hochspezialisierter Software im Wissenschaftsbereich ist es interessanterweise so, dass sie von der Community für die Community entwickelt wird und da kein rasend schnell auf neueste Trends reagierendes (großes) Unternehmen hinter steckt.
 
Sehr gut! Aber ich hätte ROCm gerne für die 6800er-Serie. Die Karte habe ich mir nämlich für AI aufgehoben, da sie in meinen HTPC wegen ihrer Größe nicht reinpasste.
Im Momemt benutze ich eine RTX 2080ti die ich von der Universität bereit gestellt bekommen habe.
Ich hoffe mal, dass Du damit keine Ergebnisse errechnest, die Du später publizierst. Die hat nämlich meinen Informationen nach kein ECC. Für professionelle Zwecke würde ich dann doch auch eher eine professionelle GPU nehmen und nicht so eine Gamingkarte, auf der man höchstens mal ein paar erste Schritte wagen kann.

Allerdings muss ich sagen, dass ich an einer deutschen Universität auch in einer Elektronikübung sehr schlechte Erfahrungen gemacht habe. Da mussten wir mit billigsten Spielzeug-Multimetern messen, bei denen man erst noch den Messbereich festlegen musste, die gestellten THT-Bateile waren von der billigsten Sorte mit haarfeinen Drähten, die man nicht mal anständig in das Steckbrett stecken konnte, ohne sie zu verbiegen und zu brechen und zu guter Letzt hat der Übungsleiter sich um den Faktor 100 verrechnet und wollte mir weiß machen, dass die LED 90W verbrauchen würde.
Das war mein letztes Semester an der Uni. :)
Also insofern würde es mich nicht komplett wundern, wenn wissenschaftliche Standards auch anderswo nur auf dem Papier existieren.
 
Zuletzt bearbeitet:
Cool.
Quelloffen \o/
Wenn auch "late to the game" wird durch den OpenSource-Ansatz trotzdem eine schnelle Implementierung auf Servern und in der Forschung stattfinden.
Was weh tut, ist dass Nvidia schon früh die Unis infiltriert hat und diese Leute, die jetzt im Job sitzen, mit Cuda aufgewachsen sind. Da muss man sich in ROCm erst mal reinfuchsen.
Allerdinsg hoffe ich, dass durch den OpenSource-Ansatz auch die Verbesserungen und Adaption in Tools und Applikationen schnell stattfindet
 
Da muss man sich in ROCm erst mal reinfuchsen.
Wie meinst Du das? In der Regel wird einfach die Python-Bibliothek PyTorch benutzt, dass auf ROCm rechnet. Genau wie mit jeder anderen GPU, nur eben auch mit einem anderen Treiber.

Edit: Alter CUDA-Code läuft ja mittlerweile auch auf AMD-Karten. Und wer neuen GPGPU-Code schreibt, benutzt vermutlich idealerweise Vulkan, wie z.B. hier: https://kompute.cc/
Warum Vulkan, dürfte logisch sein: Eine größere Zielgruppe erreicht man mit keinem anderen Backend und man sollte auch keine Spezialtreiber mehr brauchen.
 
Zuletzt bearbeitet:
Wie meinst Du das? In der Regel wird einfach die Python-Bibliothek PyTorch benutzt, dass auf ROCm rechnet. Genau wie mit jeder anderen GPU, nur eben auch mit einem anderen Treiber.
Ich mein in den Quellcode und die Anwendung.

Cuda ist gleich in den Köpfen der Leute: AI -> Cuda -> Nvidia Grafikkarte
So kennen es die Leute. So wissen sie, dass es funktioniert. Diese Vorurteile musst Du erst mal aufbrechen.

Egal, wie gut das funktioniert, der Mind-share ist massiv.

Sieht man auch heute immer noch bei Intel: "ja, AMD ist schon beeindruckend ... aber ich nehm Intel, das funktioniert einfach, da weiß ich was ich hab".

Aber durch die Kompatibilität werden jetzt auf jeden Fall erschwinglichere und offene Alternativen verfügbar. Wenn diese auch gut funktionieren und sich beweisen, dann wird es eine schnelle Implementierung geben.

Ich vermute an erster Stelle Forschung, Special-Effects & Artwork (Hollywood) und Bastelprojekte im AI-Bereich.
 
Cool.
Quelloffen \o/
Wenn auch "late to the game" wird durch den OpenSource-Ansatz trotzdem eine schnelle Implementierung auf Servern und in der Forschung stattfinden.

"Late" ist nur die Erweiterung der Unterstützung im Desktop. ROCm selbst gibt es seit Jahren. Laut Wiki waren die ersten Gehversuche mit Vega und Fiji.
Das es trotzdem eher wenig Aufmerksamkeit erfährt, ist das aber kein gutes Zeichen, sondern spricht eher für einen typischen AMD-Initiative-Werdegang: An sich gutes Produkt bereitgestellt, das aber wegen der Beschränkung auf zu wenig verbreitete AMD-Hardware wenig beachtet wurde und seitens AMD auch nicht aktiv gefördert wurde. Die neuen Instincts sind zwar ein gutert Anlass, um das Ruder noch einmal herumzureißen, aber aktuell versuchen sich alle, auf Nvidia zu stürzen und die wenig Übrigbleibenden respektive Auf-Open-Source-Bestehenden versucht Intel (OneAPI, OpenVINO) mit einem riesen Budget respektive Entwickler-/Supportteam zu umgarnen.
 
Inoffiziell laufen viele ROCm Komponenten schon seit einiger Zeit auf der aktuellen GPU-Generation. Zum Entwickeln nutze ich aktuell auch eine RX 7700 XT und meine benötigten ROCm-Komponenten laufen problemlos, da das Meiste seit mehreren ROCm-Versionen schon mit Support für gfx1101 kompiliert wird. Ob auch ML-Libraries funktionieren, keine Ahnung. Das ist nicht mein Use Case.

AMD liefert jetzt halt nur offiziellen Support für die Karten, was ein gutes Zeichen ist. Jetzt muss man hoffen, dass sie nicht, wie sonst immer, nach den größten Karten aufhören.

Die CUDA-Emulation nicht vergessen, die ebenfalls noch erscheinen soll.
Was meinst du genau mit CUDA-Emulation? HIP existiert schon ziemlich lange und ROCm besitzt viele Libraries, die quasi das Pendant von CUDA sind. Man soll über HIPIFY auch CUDA-Code entsprechend umwandeln können, aber damit hatte ich bisher noch kein Glück.
Wie meinst Du das? In der Regel wird einfach die Python-Bibliothek PyTorch benutzt, dass auf ROCm rechnet. Genau wie mit jeder anderen GPU, nur eben auch mit einem anderen Treiber.

Edit: Alter CUDA-Code läuft ja mittlerweile auch auf AMD-Karten. Und wer neuen GPGPU-Code schreibt, benutzt vermutlich idealerweise Vulkan, wie z.B. hier: https://kompute.cc/
Warum Vulkan, dürfte logisch sein: Eine größere Zielgruppe erreicht man mit keinem anderen Backend und man sollte auch keine Spezialtreiber mehr brauchen.
Zumindest im HPC-Bereich wird man noch viel auf OpenACC, Kokkos, SYCL und OpenMP target treffen. Aktuelle SPEC Benchmarks zielen (für GPUs) auch hauptsächlich auf native APIs wie CUDA / HIP und OpenACC / OpenMP target ab.
p.s. ist die 7900 GRE nicht auch Navi 31 ?
Da die ganzen ROCm Libraries einfach für die LLVM Targets (in dem Fall gfx1100) kompiliert werden, wird die wahrscheinlich auch funktionieren.
 
Zuletzt bearbeitet:
Sehr gut! Aber ich hätte ROCm gerne für die 6800er-Serie. Die Karte habe ich mir nämlich für AI aufgehoben, da sie in meinen HTPC wegen ihrer Größe nicht reinpasste.
Müsste doch gehen. ROCm gibt's ab GCN3, also Polaris, wenn ich nicht irre. Eventuell musst du für volle Unterstützung den Adrenalin Pro installieren, statt der Standardversion. Nur die Unterstützung für TensorFlow 2.0 benötigt RDNA3.

Für gewöhnlich ist AMD auch Recht flott mit der Unterstützung neuer GPU Gens, nur scheint es sich mit dem MCM-Ansatz etwas komplexer darzustellen.
 
Zuletzt bearbeitet:
"Late" ist nur die Erweiterung der Unterstützung im Desktop. ROCm selbst gibt es seit Jahren. Laut Wiki waren die ersten Gehversuche mit Vega und Fiji.
Das es trotzdem eher wenig Aufmerksamkeit erfährt, ist das aber kein gutes Zeichen, sondern spricht eher für einen typischen AMD-Initiative-Werdegang: An sich gutes Produkt bereitgestellt, das aber wegen der Beschränkung auf zu wenig verbreitete AMD-Hardware wenig beachtet wurde und seitens AMD auch nicht aktiv gefördert wurde. Die neuen Instincts sind zwar ein gutert Anlass, um das Ruder noch einmal herumzureißen, aber aktuell versuchen sich alle, auf Nvidia zu stürzen und die wenig Übrigbleibenden respektive Auf-Open-Source-Bestehenden versucht Intel (OneAPI, OpenVINO) mit einem riesen Budget respektive Entwickler-/Supportteam zu umgarnen.

Das meine ich ja mit "late to the game": auch auf Desktop und erschwinglicher Consumer-Hardware.

Nicht jeder, der sich an KI versuchen und experimentieren will, kann sich gleich eine Instinct Pro-Karte leisten.
Das niedrige Einstiegs-Level ist essentiell für eine Verbreitung.
Erst dadurch sammeln die Leute schon früh Erfahrung und entwickeln im Kleinen und versuchen sich.
Dieses Knowhow nimmt man dann ins Berufsleben mit bzw. fleißt in die Software zurück.
 
Zurück