M1 Ultra: Apple will mit neuem Doppel-SoC den stärksten PC-Chip haben

Ja, der M1 ist einfach durch die vertikale Integration für Apple sehr günstig. Sich den A14X sparen zu können ist für sie wohl verlockender, als iPad-Usern den M1 künstlich vorzuenthalten. Sich einen M1 Air sparen zu können ist für sie verlockender, als ihn Macbook-Air-Usern künstlich vorzuenthalten. Das ist schon ein sehr wichtiger Schritt gewesen.
Er ist "günstig" weil Apple die gleiche Mikroarchitektur vom Smartphone bis zur Workstation skalieren kann, man muss also für Nischenprodukte "nur" den Chip entwerfen, aber immerhin nicht ganz von vorne anfangen.

Die Chips hingegen dürften alles andere als günstig sein. Ein einzelner M1 Max ist ja schon der transistorreichste general purpose Chip, den man im Moment kaufen kann. Das Ding hat mehr Transistoren als nVidias A100, und so eine Karte kostet knapp 10k€.

Zusammen hat ein M1 Ultra sagenhafte 114 Mrd Transistoren. Zum Vergleich: Eine RTX 3090 hat 28 Mrd, ein 5950X bescheidene 20 Mrd. Selbst ein 64 kerniger AMD Epyc rome kommt "nur" auf 86 Mrd Transistoren. Der M1 Ultra hat also nur knapp weniger Schalterchen als ein Zen 3 Epyc und eine RTX 3090 zusammen.

Das sollte man ab und zu im Hinterkopf behalten wenn man das Ding mit gängiger Desktopware vergleicht. Ja, Apple hat hier sicher einen fantastischen Chip gebaut, und ich beneide die Leute, die Software auf macOS haben die diese Power auch ausnutzen kann. Aber Magie oder Dominaz würde ich es noch nicht nennen, denn wie gesagt, der M1 Ultra spielt in puncto Silizium einfach in einer anderen Gewichtsklasse als gängige Spielehardware.
 
Zum Entwicklungsstart war die Defektrate bei N5 geringer als bei N7 und laut damaliger Prognose könnte das nach wie vor der Fall sein.
https://www.anandtech.com/show/16028/better-yield-on-5nm-than-7nm-tsmc-update-on-defect-rates-for-n5

Ein M1 Max Chip ist zwischen 400-500mm² groß, Navi21 liegt bei ~520mm² und Nvidias GA102 bei Samsung in 8nm bei ~642mm².
Also AMD und Nvidia haben sicherlich schlechtere Yield-Raten gesehen, als was Apple beim M1 Ultra (2x M1 Max) im Jahr 2022 sieht.
Geringer als bei N7 zum selben Zeitpunkt... Zu einem vergleichbaren Zeitpunkt hat AMD aber in N7 gerade mit Vega7 mit 331 mm² rumprobiert und für Endkunden eher Navi mit 251 mm² verkauft.
 
keine Ahnung was ihr mit eurem eure Argumentation bzgl. Des zu hohen Preises habt……

eine 3090 und eine sau schnelle CPU kosten zusammen mindestens 3000€

und da wollt ihr mir erzählen, ein komplettsystem von Apple das schneller ist, weniger Strom verbraucht und komplett ist wäre teuer :ugly:

ihr pc Nerds guckt euch noch um……ein paar Jahre noch, dann ist Windows und x86 im Gaming Bereich tot
 
keine Ahnung was ihr mit eurem eure Argumentation bzgl. Des zu hohen Preises habt……

eine 3090 und eine sau schnelle CPU kosten zusammen mindestens 3000€

und da wollt ihr mir erzählen, ein komplettsystem von Apple das schneller ist, weniger Strom verbraucht und komplett ist wäre teuer :ugly:

ihr pc Nerds guckt euch noch um……ein paar Jahre noch, dann ist Windows und x86 im Gaming Bereich tot
Ja das wird leider die traurige Realität sein... Mein MacbookPro stemmt WoW shadowlands bei 4 K selbst bei den fordernsten Situationen mit an die 160FPS und das bei einem "Idle" Verbrauch. Wenn ich das mit meinem Ryzen 9 3900x und der RX6900 vergleiche kann einem schon ein bisschen mulmig werden. Noch läuft nicht viel Nativ auf dem M1 was den klassischen Gamer anspricht, aber da geht ein riesiges Potential auf das den etablierten GPU und vor allem CPU Anbietern wirklich zu denken geben sollte.
 
Da ist garnichts günstig für Apple.
TSMC wird denen den Chip nicht einfach schenken nur weil er so toll "vertikal integriert" ist. Das ist ein riesiger Chip im neuesten, teuersten, verfügbaren Prozess. Die Yield-Raten sind mutmaßlich schlimmer als alles was NV und AMD je gesehen haben.
Anders herum wird ein Schuh daraus: Apple kann sich leisten bei der HW auf die Kacke zu hauen weil sie für das Gesamtpaket eine so starke Marke, ergo hohe Endkundenpreise, haben.
Er ist "günstig" weil Apple die gleiche Mikroarchitektur vom Smartphone bis zur Workstation skalieren kann, man muss also für Nischenprodukte "nur" den Chip entwerfen, aber immerhin nicht ganz von vorne anfangen.
Wichtig, vielleicht habt ihr das übersehen: Es ging da eben um den M1. Nicht um den Pro, nicht um den Max, nicht um das 2xMax-Package namens Ultra.
Die Schätzung sprachen 2020 von <50$. Ja, das ist verdammt teuer für einen einzelnen Chip. Aber es für Apple geschenkt im Vergleich zu dem, was sie für Intelchips haben zahlen müssen. Und es ist eben auch für sie enorm praktisch, dass sie ein Design für so viele Geräte bereits verwerten konnten.
 
Apple hat beim M1 Max schon behauptet die schnellste Desktop VGA zu haben. Am Ende hat sich herausgestellt, dass das nicht mal ansatzweise der Fall ist.

Die CPU ist ok, aber der Grafikteil ist bei weitem nicht so stark, wie sie es gern behaupten. Wobei das ja auch egal ist. Es ist ein IGP und der macht ein Bild und gut.
Das ist doch etwas fern der Realität... DIE GPU des M1 ist keine 3090 aber nativ angesprochen durchaus 4k fähig.
Die IGP will ich sehen :) Und man darf nicht vergessen, es gibt kaum einen overhead zwischen CPU und GPU, also zumindest nicht mit unseren herkömmlichen X86 Systemen vergleichbar. Also in Situationen wo das Zusammenspiel beider Komponenten gefordert ist sind sie damit heute beim M1 Max wohl tatsächlich den meisten X86 Desktop CPU-GPU Kombis überlegen. Am Ende bleibt das ganze aber noch , vor allem was das Gaming angeht , schwer vergleichbar weil es eben kaum entsprechendes Material dafür gibt.
 
Geringer als bei N7 zum selben Zeitpunkt... Zu einem vergleichbaren Zeitpunkt hat AMD aber in N7 gerade mit Vega7 mit 331 mm² rumprobiert und für Endkunden eher Navi mit 251 mm² verkauft.
Ja, zum selben Zeitpunkt in der Entwicklung.
Nachdem Mass Production-Start stagnieren die Verbesserungen bei der Defektrate nach wenigen Quartalen, sowohl AMDs/Nvidias Produkte, als auch die aktuellen von Apple, wurden/werden viele Quartale nachdem MP-Start produziert*.
Zwar gibt TSMC keine Chipgröße an, aber ich würde nicht erwarten das es bei N5 deutlich schlimmer aussehen sollte, bei größeren Chips, als bei N7.


* Laut Wikichip April 2018 für N7 und April 2020 für N5:
https://en.wikichip.org/wiki/7_nm_lithography_process#N7
https://en.wikichip.org/wiki/5_nm_lithography_process#TSMC
 
Hier die Grafik von der Apple Seite.

Anhang anzeigen 1389964

Der Link zur Seite: https://www.apple.com/de/newsroom/2...s-most-powerful-chip-for-a-personal-computer/

Ausserdem muss wohl noch geklärt werden, was diese "relative performance" genau bedeutet.
Ehrlich gesagt überzeugt mich gerade das eher weniger. Das Ding hat die sechsfache Transistorzahl und vier mal so viele Kerne als der "schnellste 16 Kerner Desktop", natürlich ist das Ding schneller. Wie es wohl gegen den neuen 64 kernigen Threadripper 5000 WX aussieht? Der spielt ja eher in der Gewichtsklasse, sowohl vom Preis als auch vom Publikum.

Und ja, der Vergleich hinkt auch, denn ein guter Teil der Chipfläche wird vermutlich für die absurde iGPU draufgegehen. Auf der anderen Seite muss der M1 Ultra aber auch nicht 128 PCIe Lanes bedienen, von daher ist es fast wieder fair...
 
Ehrlich gesagt überzeugt mich gerade das eher weniger. Das Ding hat die sechsfache Transistorzahl und vier mal so viele Kerne als der "schnellste 16 Kerner Desktop", natürlich ist das Ding schneller. Wie es wohl gegen den neuen 64 kernigen Threadripper 5000 WX aussieht? Der spielt ja eher in der Gewichtsklasse, sowohl vom Preis als auch vom Publikum.

Und ja, der Vergleich hinkt auch, denn ein guter Teil der Chipfläche wird vermutlich für die absurde iGPU draufgegehen. Auf der anderen Seite muss der M1 Ultra aber auch nicht 128 PCIe Lanes bedienen, von daher ist es fast wieder fair...
Absurd ist das nicht, Gaming ist nach wie vor ein extrem boomender Markt und Apple wird neuerdings nicht müde bei jeder Präsentation vom Handy übers Tablet bis zu den Macs hinauf "gaming" auch immer mehr zu betonen.
Das ist für sie ein zu erobernder Sektor wo sie noch große Steigerungen erzielen können wenn es gelingt.
Mehr Transistoren einbauen ist die eine Sache.. Aber das ganze muss dann auch bei jeder Gelegenheit performen und dabei noch kaum Energie verbrauchen bzw thermisch unauffällig sein.
Da sind Intel,Amd und Nvidia meilenweit weg davon, der M1 schafft das aber und bringt dabei Spitzenleistung in allen Disziplinen.
 
Und Linux ist das meistverbreitete PC-Betriebssystem.

Dream on.
Das ist auch ein hinkender Vergleich, Apple hat jede Menge Ressourcen, linux ein paar freiwillige und in erster Linie Hoffnung ? abgesehen davon baut Apple da gerade für den Consumer ein vom Handy bis zum Desktop Skalierbare s Ökosystem, also naiv gesagt quasi eine extrem leistungsfähige Konsole die am Ende eine Riesen userbase haben könnte. Da werden sich die Entwickler nicht lange bitten lassen. Der Aufwand hält sich dann ja auch in Grenzen
 
x86 Technik ist meiner Meinung in seinen letzten Lebensjahren angelangt.
Warum glaubst du das?
Mehr Leistung wird nur noch mit enorm viel mehr Stromverbrauch (Watt) erzielt.
Damit liegst du nachweislich falsch;)
Schaut mal die kommenden RTX 4000 Serie Gerüchte an, 600 Watt und noch mehr (laut Gerüchten).
Ich werde mir bestimmt keine GPU die mehr als 600 Watt verbraucht einbauen, ich wohne aber auch in Deutschland und zahle entsprechende Strompreise.
Wenn man mal vergleicht was dieser CHIP von Apple in Sachen Effizienz und Leistung zu bieten hat, dann ist eigentlich logisch, dass x86 keine Zukunft hat und ich bin kein Apple Fanboy.
1. Kommen auch GPUs mit weniger Verbrauch!
2. Was soll die GPU mit x86 am Hut haben?
 
Warum glaubst du das?
Weil es keinen großen Fortschritt mehr gibt in den letzten Jahren außer immer mehr den Stromverbrauch zu erhöhen. ( High End Segment, Low End interessiert mich persönlich nicht und klar braucht es weniger Watt)
ARM macht sehr große Sprünge, welche x86 früher mal gemacht hat aber mittlerweile sind sie quasi eingeschlafen und sind oder werden spätestens in den nächsten Jahren von der ARM Technologie überholt werden was Leistung und Effizienz betrifft. Bei meinem PC mit 3080 TI / 5900X weiß ich manchmal nicht mehr ob es noch ein PC oder Heizlüfter ist, soviel Overhead an Wärme wie das produziert, sowas kann keine Zukunftstechnologie sein meiner Meinung nach.
 
Sind x86 Prozessoren inzwischen am technischen Limit angekommen oder mangelt es an Weiterentwicklungen? Hat Apple hier einen Vorteil ihrer geschlossenen Umgebung?
1. Nicht den Werbefolien von Apple alles glauben
2. die angeblich ach-so-dolle-Überlegenheit von Apple ist auf verschiedene Faktoren zurückzuführen (und stimmt so auch nicht).

a) Apples Chip ist riesig, vergleichbar mit einem Konsolen SoC. Und das in neuerem 5nm Prozess - ein weiterer Vorteil. Neben natürlich dem geschlossenen System etc
b) ein kürzlicher Notebooktest hat gezeigt, dass Intel sich bei der Leistung nicht verstecken muss
fertig
 
Ich denke schon, dass auch der x86 Bereich stark zugelegt hat (siehe z.B. Ryzen und Alder Lake).
Allerdings muss man sagen, das die ARM CPUs in Low-Power Szenarien schon seit Jahren besser sind (praktisch alle Smartphones, Tablets und Chromebook nutzen ja ARM CPUs diverser Hersteller) und selbst Windows 10/11 läuft ja auch auf ARM.

Was die Grafikperformance angeht, kann ich mir schon gut vorstellen, dass die M1 Max / Ultra ziemlich schnell sind (ungeachtet Apples nichts-sagender Folien). Ich habe den alten M1 und der hat in nativen Games eine ordentliche Leistung (ähnlich Geforce 1060/Playstation 4 Pro) - wenn man bedenkt, dass es sich um eine 35 Watt "APU" handelt.

Allerdings gibt es ja nicht so viele "richtige" Spiele für den M1 und es fehlen natürlich auch Techniken wie DLSS, Raytracing und co... Daher kann ich auch nicht empfehlen, als typischer PC Gamer einen M1 .x Mac zu kaufen - egal wie performant die GPU auch immer sein möge. Kann mir beim Ultra schon ne enorme Leistung vorstellen, wenngleich die Rechner da bei 4600 Euro beginnen XD
 
Zuletzt bearbeitet:
Das ist auch ein hinkender Vergleich, Apple hat jede Menge Ressourcen, linux ein paar freiwillige und in erster Linie Hoffnung ? abgesehen davon baut Apple da gerade für den Consumer ein vom Handy bis zum Desktop Skalierbare s Ökosystem, also naiv gesagt quasi eine extrem leistungsfähige Konsole die am Ende eine Riesen userbase haben könnte. Da werden sich die Entwickler nicht lange bitten lassen. Der Aufwand hält sich dann ja auch in Grenzen
Ich hör den Quatsch alle 5 Jahre.
Geändert hat sich seit 25 Jahren - nichts.

Der Marktanteil liegt unter 10% bei Apple und Apple wird den Teufel tun und sich den X86er PC-Bereich ans Knie nageln.

Mit 20 Gerätekonfigurationen kann man das Betriebssystem jederzeit sauber halten - mit 1.000.000 niemals.
Und bei den Apothekerpreisen von Apple wird das so bleiben.

Unix / Linux ist längst auf dem Server- / Enthusiastenbereich beschränkt und da wird es auch bleiben.
 
[...] Profis rechnen anders [...]
Wer ist denn deiner Meinung nach ein Profi? Ein Programmierer, ein Datenverarbeitungsmensch, ein Musiker, ein Videoeditor? Zu sagen das ist für Profis ohne zu sagen welche Zielgruppe gemeint ist, ist finde ich wenig hilfreich, zumal mich als einer der noch keine Apple Produkte je gekauft hat, durchaus interessiert, für welche Zielgruppe diese Hardware sein soll :)
 
Absurd ist das nicht, Gaming ist nach wie vor ein extrem boomender Markt und Apple wird neuerdings nicht müde bei jeder Präsentation vom Handy übers Tablet bis zu den Macs hinauf "gaming" auch immer mehr zu betonen.
Das ist für sie ein zu erobernder Sektor wo sie noch große Steigerungen erzielen können wenn es gelingt.
Mehr Transistoren einbauen ist die eine Sache.. Aber das ganze muss dann auch bei jeder Gelegenheit performen und dabei noch kaum Energie verbrauchen bzw thermisch unauffällig sein.
Da sind Intel,Amd und Nvidia meilenweit weg davon, der M1 schafft das aber und bringt dabei Spitzenleistung in allen Disziplinen.
Mit absurd meinte ich hier eher "absurd groß". Und klar sind Intel und AMD weit weg davon, die haben ja auch nur ein Bruchteil der Chipfläche in die iGPU investiert. Dass zumindest AMD durchaus potente SoCs bauen kann, haben sie mit den letzten zwei Konsolengenerationen und zuletzt mit dem Steam Deck demonstriert.

Ob "gaming" auf dem Mac groß wird zeigt die Zukunft, ich glaube aber nicht daran. Der Markt ist schon absolut gesehen winzig, und die Anzahl der Spieler, die dann noch mehr als den Standard M1 haben dürfte verschwindend gering sein. Das kann sich natürlich ändern, aber selbst dann würde man noch damit kämpfen, dass macOS nur das Apple exklusive Metal als Grafikschnittstelle unterstützt, und dass Apples Kontrollzwang im direkten Interessenskonflikt mit den Publishern steht.

Wir werden es sehen. Ich halte viel von Apple, aber in puncto Spiele haben sie meiner Meinung nach wenig Ahnung oder Interesse (siehe z.B. das bescheidene Apple Arcade). Klar, sie machen Geld mit den Mobile Spielen, und auch mehr als so mancher "großer" Publisher. Aber das sind nicht die Spiele, die ich spielen möchte, oder die einen M1 Max/Ultra an seine Leistungsgrenzen bringt.
 
ihr pc Nerds guckt euch noch um……ein paar Jahre noch, dann ist Windows und x86 im Gaming Bereich tot
Weil es keinen großen Fortschritt mehr gibt in den letzten Jahren außer immer mehr den Stromverbrauch zu erhöhen. ( High End Segment, Low End interessiert mich persönlich nicht und klar braucht es weniger Watt)
x86 hat doch "gerade" erst wieder einen Aufschwung erlebt. Zen 3. AlderLake. Zen4 steht bald vor der Tür, RaptorLake etwas später auch. Bei beiden deutet aktuell wenig in die Richtung, dass Effizienz beim Design keine Rolle spielen würde.

Lass euch nicht täuschen: Apple Silicon zeigt keine Überlegenheit von ARM gegenüber x86, sondern eine von TSMC N5P gegenüber N7/ Intel 7/ Intel 10"nm"/ Samsung 8"nm". Dafür muss ich aber eigentlich nicht antworten, das kannst du auch schon so gefühlt im halben Thread lesen.
Und das ist noch nicht einmal alles: Niemand käme auf die Idee, auf Basis des Snapdragon 8cx Gen3 mit dem Abgesang auf x86 zu beginnen. Der Erfolg von AppleSilicon liegt auch daran, dass Apple einfach eine solide arbeitende SOC-/APU-Abteilung hat. Niemand sonst im Smartphone-ARM-Markt kann mit ihnen aktuell konkurrieren.
 
Zurück