• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

ARMv9 vorgestellt: Neue Prozessor-Architektur für Smartphones und Server-CPUs

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu ARMv9 vorgestellt: Neue Prozessor-Architektur für Smartphones und Server-CPUs

Mit ARMv9 hat ARM eine neue Architektur für Prozessoren vorgestellt, die nicht nur einfache Mikrocontroller, Smartphones und Tablets befeuern dürfte, sondern auch Server-Prozessoren. Laut ARM wird sich die Performance signifikant verbessern. Auch in puncto Sicherheit und KI soll sich viel tun.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: ARMv9 vorgestellt: Neue Prozessor-Architektur für Smartphones und Server-CPUs
 

raPid-81

Freizeitschrauber(in)
Außerdem gibt es jetzt dedizierte Beschleuniger-Einheiten für Matrix-Multiplikationen, ähnlich denen des A14 Bionic von Apple.
Und den Tensor Cores bei Nvidia. Interessant dass nun mit Nvidia, Apple und ARM drei große Hersteller darauf setzen.
 

gerX7a

Software-Overclocker(in)
Intel hat entsprechende Funktionalität schon seit 2019 mit Cascade Lake in AVX-512 als VNNI-Subset (eingeführt bereits in 2018 mit dem letzten Xeon Phi), das speziell aufs Inferencing abzielt. Und in 2020 hat man das mit Cooper Lake in Verbindung mit bfloat16-Support gar noch erweitert.
Darüber hinaus haben die schon länger spezialisierte AI-Beschleuniger, die entsprechende HW-Einheiten haben und selbst deren aktuellsten Stratix-FPGAs besitzen entsprechende Funktionalität, auch wenn die weiterhin nicht primär für AI gedacht sind. Und mit Xe-HPC wird das gar massiv ausgebaut werden, da hier nVidia's Produkte den Hauptkonkurrenten darstellen. Angeblich soll das große Design um die 1 PetaFlops AI-Leistung bieten. In dem Falle dann zweifellos nur FP16 (ggf. auch bfloat16) in Verbindung mit diesem halbwegs konkretisierten Leistungswert, aber damit stellt Xe-HPC nVidias aktuelles Topprodukt bzgl. Leistung/Watt und auch absoluter Leistung deutlich in den Schatten (und AMD braucht man hier für einen Vergleich gar nicht heranziehen, da deren MI100 da nicht wirklich konkurrieren kann).
Und btw, selbst das in aktuellen Consumer-Produkten steckende Xe-LP hat mit DP4A eine ISA-Erweiterung, die ML-Workloads beschleunigt (dabei handelt es sich zwar um keine dedizierte HW, jedoch reicht es dennoch für einen deutlichen Performance-Boost; so etwas fehlt AMD bisher auch).

Ergänzend übrigens zu Smartphones und damit ARM-SoCs. Die Topprodukte sind hier schon länger mit sogenannten NPUs ausgestattet, das ist nicht wirklich neu. Mit SVE2 geht ARM konsequent weiter und fokussiert die Entwicklung und bündelt nun SEV und die parallel entwicklete NEON-Erweiterung, insbesondere mit Blick auf Serveranwendungen. Man darf gespannt sein, was bspw. Ampere Computing in 2023 serverseitig präsentieren wird ...
 

Bärenmarke

Software-Overclocker(in)
Und mit Xe-HPC wird das gar massiv ausgebaut werden, da hier nVidia's Produkte den Hauptkonkurrenten darstellen. Angeblich soll das große Design um die 1 PetaFlops AI-Leistung bieten. In dem Falle dann zweifellos nur FP16 (ggf. auch bfloat16) in Verbindung mit diesem halbwegs konkretisierten Leistungswert, aber damit stellt Xe-HPC nVidias aktuelles Topprodukt bzgl. Leistung/Watt und auch absoluter Leistung deutlich in den Schatten (und AMD braucht man hier für einen Vergleich gar nicht heranziehen, da deren MI100 da nicht wirklich konkurrieren kann).

Gut das AMD bis dahin dann auch schon die MI200 gelauncht hat und mit Xilinx das Portfolio hinsichtlich AI massiv ausbaut, aber das hast du mit deiner intel Brille bestimmt nur vergessen zu erwähnen ;-)
 

gerX7a

Software-Overclocker(in)
Gut das AMD bis dahin dann auch schon die MI200 gelauncht hat und mit Xilinx das Portfolio hinsichtlich AI massiv ausbaut, aber das hast du mit deiner intel Brille bestimmt nur vergessen zu erwähnen ;-)
Die wird dem nach aktuellem Kenntnisstand nichts Konkurrenzfähiges entgegensetzen können. Selbst die MI100 kommt nicht einmal so wirklich gegen nVidia's A100 an und ist dementsprechend auch dort bereits keine echte Konkurrenz, von der Plattform mal ganz zu schweigen, denn hier hat AMD bisher zu wenig investiert und nVidia mit CUDA & Co davonziehen lassen.
Für die MI200 wird ein Dual-Chip-Design ausgehend vom MI100 spekuliert. Ob das wie bei früheren GPUs zwei GPU-Packages auf einer Karte sein werden oder möglicherweise ein echtes MCM ist derzeit unklar. Das Intel-Design geht aber gemäß aktuell recht belastbarer Leistungswerte selbst deutlich über die doppelten (konkret sogar über die dreifachen) Leistungswerte einer MI100 hinaus.

Dazu kommt, dass nVidia im nächsten Jahr mit Hopper kommen wird, d. h. es bleibt weiterhin schwer für AMD hier Fuß zu fassen und dementsprechend wichtig sind für die der ein anderen Zuschlag bei Supercomputerausschreibungen.

Ergänzend: Der Xilinx-Deal wird erst zum Jahresende abgeschlossen werden. Darüber hinaus wird es dauern bis man hier Firmen, Personal, Kultur und KnowHow zusamengeführt haben wird und dieses in konkrete, erste Produkte mündet.
 
Zuletzt bearbeitet:
Oben Unten