News Angriff auf Intel und Apple: AMD und Nvidia entwickeln ARM-Chips [Gerücht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Angriff auf Intel und Apple: AMD und Nvidia entwickeln ARM-Chips [Gerücht]

Angeblich entwickeln sowohl AMD als auch Nvidia ARM-Chips für Windows-PCs. Damit soll zum Angriff gegen die Macbooks und ihre M-Chips ausgeholt werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Angriff auf Intel und Apple: AMD und Nvidia entwickeln ARM-Chips [Gerücht]
 
:D ja weil Windows für ARM so gut läuft.
Aber ja, Nvidia hat schon längst ARM im Angebot und AMD hat auch immer wieder daran gearbeitet, zuletzt gemeinsam mit Jimmy Keller Anno 2014
 
Ich würde RISC-V entwickeln, um Lizenzkosten zu sparen und damit mehr für die Zukunft zu erreichen. Wenn ARM die Preise für ihren Aktienkurs erhöhen will, benötigt man eine Alternative.
 
Das kommerzielle Software-Ökosystem für RISC-V ist noch einmal ein ganzes Stück bescheidener. Wenn an dem Gerücht so viel wahres dran ist, wie ich es bei einer Reuters-Meldung erwarte, die Apple-CPUs wegen der verwendeten Architektur für sparsam hält, dann wäre RISC-V vielleicht eine Option für AMD: Die benutzen ARM ohnehin nur, um ihre eigene Security-Engine darauf laufen zu lassen, die können sie auch selbs migrieren.

Aber Nvidia braucht eine CPU zu den eigenen GPUs, auf der möglichst viel Anwendersoftware läuft. Und ein Teil von Nvidias Zielmarkt ist so stock konservativ, dass sie bis heute Mühe haben, mit CUDA gegen x86 anzukommen: Die für ersteres verfügbaren Prozessoren haben ein Vielfaches der Leistung, aber wenn nicht jeder ist bereit, dafür das Vielfaches an Programmieraufwand eines Plattformwechsels in Kauf zu nehmen. Für RISC-V? Erst recht nicht.
 
Hatte AMD nicht eine Firma aufgekauft, die die Lizenz für ARM-Prozessoren besitzt? Das würde ja durchaus passen.

Aber schlagt mich nicht: laut kurzem gegockel scheinen ARM-Prozessoren ja durchaus besser zu sein - sofern die Programme dafür angepasst sind. Wäre es daher nicht allgemein sinnvoller, wenn neben AMD auch Intel mehr und mehr auf ARM statt den x86-64 Prozessoren setzen? Klar gäbe es eine Übergangsphase, aber das ist ja allgemein immer der Fall.
 
ARM ist halt sehr effizient und x86 ist halt gefühlt "uralt". Ansich ne gute Idee.
Ich denke mir aber immer wieder: zu ATI-Zeiten gab's wenigstens bisl Konkurrenz zu NVidia-Grafikkarten. Seit dem Aufkauf durch AMD scheint die ehemlige ATI-Grafiksparte gefühlt ein wenig stiefmütterlich behandelt zu werden, was schade ist, denn dort liegen, meiner Meinung nach, größere mögliche Margen als in CPUs.
Ich persönlich befürworte ARM irgendwo auch; leider ist die Softwarebasis halt bisl mau ...
RISC-V sagt mir nur so viel, dass es ein offener Standard ist; RISC ist für mich allgemein die Idee mit einem reduzierten Instructionset aus effizienzgründen zu arbeiten und das ist ja auch sehr verbreitet. Ich weiß auch gar nicht so recht, wo Complete Instruction Set Computer zum Einsatz kommen. Sicherlich eher sehr spezielle Aufgabengebiete.
 
Hatte AMD nicht eine Firma aufgekauft, die die Lizenz für ARM-Prozessoren besitzt? Das würde ja durchaus passen.
naja an der Lizenz wirds nicht scheitern. Knowhow schon eher. Mit Xilinx hat man davon etwas, aber man hat ja auch schon vor 10 Jahren an ARM CPUs gearbeitet.
Und man hat vor vielen Jahren mal Server mit ARM verkauft nach dem Kauf einer Firma in dem Bereich.
Allerdings wenig gewinnbringend und man hat die Firma wieder abgestoßen AFAIR.


Aber schlagt mich nicht: laut kurzem gegockel scheinen ARM-Prozessoren ja durchaus besser zu sein - sofern die Programme dafür angepasst sind. Wäre es daher nicht allgemein sinnvoller, wenn neben AMD auch Intel mehr und mehr auf ARM statt den x86-64 Prozessoren setzen? Klar gäbe es eine Übergangsphase, aber das ist ja allgemein immer der Fall.
Das ist ja pauschal gesehen nicht richtig.
Weil der x86 Teil der CPUs von Intel/AMD ja vielleicht 1% der Transistorfläche frisst, der Rest ist auch wie ARM eine Mischung aus RISC/CISC.
 
Zuletzt bearbeitet:
ARM ist halt sehr effizient und x86 ist halt gefühlt "uralt".
Ist das so?

Der M2 Ultra bspw. liegt SC und MC hinter Intels Desktop Riege zurück und im MC nur minimal vor AMDs 16 Kerner, hat auch immerhin eine 60W TDP Schranke. Ja, deutlich effizienter würde man aktuell sagen, aber wie so oft weiß man hier ja auch erstmal gar nicht, gibt es sowas wie PL bei Apple? Also zieht die CPU über der TDP hinaus Leistung?

Dazu kommt ja, dass die Desktop CPUs von Intel und AMD nicht besonders effizient sind, sondern weit über dem Sweetspot heraus arbieten. Nehmen wir bspw. den Z1 Extreme von AMD (ROG ALLY), der liefert mit 25W TDP 10k Punkte, der M2 Ultra bietet da plötzlich keine bessere Effizienz mehr, denn er bietet zwar die doppelte Punktzahl, aber eben auch mehr als die doppelte TDP!

Seit dem Aufkauf durch AMD scheint die ehemlige ATI-Grafiksparte gefühlt ein wenig stiefmütterlich behandelt zu werden
War die 6900XT nicht durchaus ein guter Gegner? In meinen Augen sogar klar die bessere Karte, was sich erst ein wenig gewandelt hatte, mit DLSS 2.3, vorher war AMD auf Augenhöhe und sparsamer als die NVs und daher in meinen Augen die bessere Wahl, vor allem da man mehr Speicher bot und günstigere Preise (auch wenn der Markt damals absurd war).
 
Ist das so?

Der M2 Ultra bspw. liegt SC und MC hinter Intels Desktop Riege zurück und im MC nur minimal vor AMDs 16 Kerner, hat auch immerhin eine 60W TDP Schranke. Ja, deutlich effizienter würde man aktuell sagen, aber wie so oft weiß man hier ja auch erstmal gar nicht, gibt es sowas wie PL bei Apple? Also zieht die CPU über der TDP hinaus Leistung?

Dazu kommt ja, dass die Desktop CPUs von Intel und AMD nicht besonders effizient sind, sondern weit über dem Sweetspot heraus arbieten. Nehmen wir bspw. den Z1 Extreme von AMD (ROG ALLY), der liefert mit 25W TDP 10k Punkte, der M2 Ultra bietet da plötzlich keine bessere Effizienz mehr, denn er bietet zwar die doppelte Punktzahl, aber eben auch mehr als die doppelte TDP!
Ist so, zumindest wenn du den Apple M-Prozessoren eine Software vorsetzt, die auf ARM optimiert ist. Siehe Final Cut Pro. Und das ist genau der springende Punkt. Völlig egal ob unter Windows oder macOS. Wenn die Software nicht optmiert ist, dann bringt dir SC und MC-Scores in Benchmarks herzlich wenig. Letzten Endes ist das in meinen Augen auch die größere Herausforderung. Wenn die Software optimiert ist und die Prozessverwaltung des OS ordentlich läuft, dann ist da einiges möglich. Selbst mit TDP-Limit. Das Thema ARM und Gaming ist jetzt erst so richtig am kommen. Apple hat in macOS Sonoma einen Gaming-Mode eingebaut. D.h. das wir evtl. in der übernächsten Version der M-Prozessoren die ersten Schwerpunkte in Richtung Gaming sehen werden.

Das Nvidia und AMD ein Stück vom Kuchen abhaben wollen, wundert mich daher nicht. Aber zum Schluss steht und fällt alles mit der Software... Und da muss seitens Microsoft noch eine Menge passieren!
 
Was haben wir denn aktuell am Notebookmarkt an ARM Modellen ? Bis jetzt nur die günstigen MediaTek und Snapdragon CPUs in Chromebooks und die Snapdragon CPUs ab Gen. 7c bis 8cx als Windows Notebooks.
Noch keiner kann den Apple M Prozessoren auch nur annähernd das Wasser reichen.

Vielleicht schafft es der Elite X, aber wenn ich mir die Preise der 8cx Notebooks anschaue, möchte ich gar nicht wissen, was Notebooks mit dem Elite X kosten werden. Da kann man sich gleich ein MacBook mit M2 kaufen!
 
Ist so, zumindest wenn du den Apple M-Prozessoren eine Software vorsetzt, die auf ARM optimiert ist.
???
Du bist ja witzig! Natürlich ist eine CPU effizienter, wenn Software darauf optimiert ist, als eine CPU die das irgendwie umständlich emulieren muss! Aber ich glaube nicht, dass ARM als Ansatz "effizienter" ist, sondern im Wesentlichen liegt der Gedanke daran, dass ARM immer und nahezu ausschließlich im mobilen Bereich unterwegs ist, also in einem Bereich wo Akkus eine Rolle spielen, wo eben viel Wert auf Effizienz gelegt wird. Ein M2 Ultra ist ja keine schlechte Sache, aber wie man eben an einem Z1 sieht, auch kein Wunderwerk der Technik;

Beide Systeme kochen mit Wasser und mit entsprechend optimierter Software können beide sehr effizient zu Werke gehen, im Kopf bleibt bei vielen leider, dass sowohl AMD als auch Intel im Desktop Energie in die Chips prügeln, bis diese um Gnade betteln, damit am Ende der Benchmarks der längste Balken steht! Diesen Gedanken gibt es bei ARM aktuell nicht, da es sich immer (bei Apple scheint sich da was zu tun) um mobile Geräte handelt, die in Puncto Effizienz punkten müssen und daher nicht auf 6 Ghz geprügelt werden.

P.S.
Schau mal beim Rasperry vorbei, da werden auf ARM OC Versuche gemacht, der 4er kann z.B. recht problemlos mit 2Gz betrieben werden, verbraucht aber eben sofort das doppelte, bei 25% mehr Leistung (wenn man diese linear skaliert).
 
naja an der Lizenz wirds nicht scheitern. Knowhow schon eher. Mit Xilinx hat man davon etwas, aber man hat ja auch schon vor 10 Jahren an ARM CPUs gearbeitet.
Und man hat vor vielen Jahren mal Server mit ARM verkauft nach dem Kauf einer Firma in dem Bereich.
Allerdings wenig gewinnbringend und man hat die Firma wieder abgestoßen AFAIR.

Das ist ja pauschal gesehen nicht richtig.
Weil der x86 Teil der CPUs von Intel/AMD ja vielleicht 1% der Transistorfläche frisst, der Rest ist auch wie ARM eine Mischung aus RISC/CISC.

ARM-Lizenzen kann man einfach kaufen. ;-)
Und wenn man nicht, wie Apple, die Kerne selbst weiterentwickeln will, braucht man auch kein spezifisches Know-How. Implementiert kriegen die selbst chinesische oder russische Start-Ups und wie man beliebige Kerne einbettet und ordentlich vernetzt, das weiß AMD ja.

Aber einfach nur x86 gegen ARM zu tauschen, bringt halt keine riesigen Leistungs- oder gar Effizienzfortschritte in den von AMD bedienten Marktbereichen. Der direkt mit x86 beschäftigte Decoder-Teil einer modernen CPU ist zwar eher 10 bis 15 Prozent groß und wenn man den zusätzlichen Aufwand bei der Sprungvorhersage, Scheduling im Backend mitzählt, der aus der größeren Bearbeitungslatenz von CISC-Befehlen resultiert, dann ist man sogar schnell bei den 30 Einsparpotenzial, das ARM-Kerne meinem Wissen nach auch in der Praxis vor Augen führen. Aber diese für x86 nötige Vorbearbeitung ermöglicht eben auch eine viel effektiver Nutzung der Recheneinheiten und insbesondere von OoO, als es mit einem reinen RISC-Design möglich ist. Intel hat ja bei Itanium versucht all das in Software auszulagern – kam eher schlecht an.

Erst bei sehr kleinen CPUs hat ARM einen prinzipiellen Vorteil, denn der x86-Overhead lässt sich nicht beliebig verkleinern. Verglichen mit einem modernen .Little-Cluster sind auch E-Cores immer noch sehr mächtige und damit stromhungrige Rechenwerke.

Ist so, zumindest wenn du den Apple M-Prozessoren eine Software vorsetzt, die auf ARM optimiert ist. Siehe Final Cut Pro. Und das ist genau der springende Punkt. Völlig egal ob unter Windows oder macOS. Wenn die Software nicht optmiert ist, dann bringt dir SC und MC-Scores in Benchmarks herzlich wenig.

Die Optimierung gerade bei Schnittprogrammen geht aber nicht auf die CPU-Kerne, sondern auf spezifische Co-Beschleuniger für diverse Codecs. Die könnte man auch in x86-CPUs einbauen, ordnet sie im PC-Umfeld aber eher den GPUs zu. Siehe z.B. Intel Quicksync, bei dessen Nutzung Nutzung auch jede (x86-)CPU im Benchmark-Keller verschwindet. Wir müssen uns allerdings noch bis Dezember begnügen, bis es mal eine damit ausgestattete CPU in einem mit Apple vergleichbaren Fertigungsnode gibt.

CPU- und Transistorbudget-seitig kann man heute nur den CPU-Teil des M2 (und zwar den normalen – nicht Pro, Max oder gar Ultra) gegen AMDs Phoenix stellen. Und da wird es schon ziemlich schwierig, eine passende Gerätekombi zu finden, denn ich glaube in Sachen Absolutleistung kann selbst das ROG Ally eher einem MB Pro denn Air paroli bieten, aber Stromversorgung und Gerät um die CPU sind da schwer vergleichbar.
 
Ich würde RISC-V entwickeln
SiFive sieht das nun anders. :(
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück