News M4 Max: Schneller als die Geforce RTX 4070 im GPU-Benchmark

Ja die M4 Chips sind krass, sowohl auf CPU als auch auf GPU Seite. Ich habe mir als neuen Laptop einen M4 Pro mit 24 GB RAM gegönnt, und das Ding ist einfach abartig. Im Single Core unangefochten, im Multi Core auf dem Niveau eines großen 7000er Zens. Und eine GPU, die es schafft in einem virtualisierten Windows noch ziemlich komplexe CAD Modelle flüssig zu rendern...
Das ist...erstaunlich wie sich auf so wenig Raum so ein Leistungspotential entfalten kann. Aber wo ist der Haken ?
Der Haken liegt darin, dass kein anderer Hersteller solche Monsterchips bauen will. Schon der kleine M4 hat mit 28 Mrd. Transistoren mehr als Transistoren als ein 9950X. Der M4 Max dürfte bei über 100 Mrd. liegen, und hat damit mehr, als eine RTX 4090 und ein 9950X zusammen.

Mit so viel Chipfläche kann Apple Dinge machen, die mit einem begrenzteren Ansatz einfach nicht drin sind.
 
Aus gerade mal 0,8L Volumen holt Apple halt wirklich extrem viel Leistung raus. Und in einer Basis Konfig kostet das Ding auch nicht so viel. Man braucht dann halt externen Speicher.

Das ist imo das größte Problem bei Apple. Speicher, egal ob nun Ram oder Diskspace, ist einfach dreist teuer. Und verlötet ist der Krempel auch noch.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
verlötet ist der Krempel auch noch.
Ein rundes Dutzend Anwender in meiner Umgebung nutzen Macs.
Inklusive mir. Seit Jahrzehnten.

Grafik, Audio, Retusche, Musiker, Journalisten, Fotografen (einer mit
mehrmals Foto des Jahres) Video-Postproduktion... oder simples Office.

Niemals hat jemals nur eine/r die "schlechte Erweiterbarkeit" bemängelt.
Oder gar den Anschaffungspreis.

Offensichtlich ein Universum, zu dem es hier überwiegend keine
Überschneidung geben kann, will oder muss.

Gamer sind schon ein eigenes skurriles Volk.

Nur ich scheine ein Unikat zu sein.
 
Ein rundes Dutzend Anwender in meiner Umgebung nutzen Macs.
Inklusive mir. Seit Jahrzehnten.

Grafik, Audio, Retusche, Musiker, Journalisten, Fotografen (einer mit
mehrmals Foto des Jahres) Video-Postproduktion... oder simples Office.

Niemals hat jemals nur eine/r die "schlechte Erweiterbarkeit" bemängelt.
Oder gar den Anschaffungspreis.

Offensichtlich ein Universum, zu dem es hier überwiegend keine
Überschneidung geben kann, will oder muss.

Gamer sind schon ein eigenes skurriles Volk.

Nur ich scheine ein Unikat zu sein.
Ich glaube so selten ist das gar nicht. Auch wenn hier Leute was von irgendwelchen Blasen faseln. Ich kenne auch viele Mac-User, davon 2 die mal Gamer am PC waren und nun eher mit Konsole und vereinzelt Mac spielen. Ich habe auch Mac und Gaming-PC. Aber sobald man Apple erwähnt, holt es gleich die Hater hervor und angebliche Blasen werden geschaffen.
 
Aber sobald man Apple erwähnt, holt es gleich die Hater hervor und angebliche Blasen werden geschaffen.
Nicht nur hier.
Denen ist schlicht fad und brauchen eine Projektionsfläche
für ihre Engstirnigkeit bzw. Unwissenheit.

In anderen Foren lese ich oft so richtigen niederträchtigen Hass,
mit teilweise absurden, grotesken Argumenten.
---
Über die Jahre - immer Intel Mac Pros - 4 Spiele probiert:
X- Beyond the Frontier
X2
Liefen beide vom USB-.Stick zwecks Farmen im Hintergrund

Diablo 3 (Bot-Farming)
Kerbal Space Program (hatte leichte Grafikprobleme)
Bei beiden brüllten die Lüfter allerdings hoch.

Kisten sind NICHT für Gaming optimiert.
Warum sollten sie auch.

M-CPUs kenne ich nur von Video-Schnitt und Transcoding.
Letzteres heizt auch ordentlich, aber dafür sind Rechner mal nun da.
 
Niemals hat jemals nur eine/r die "schlechte Erweiterbarkeit" bemängelt.
Oder gar den Anschaffungspreis.
So unterschiedlich können die Erfahrungen sein. In meinem Umfeld sind innerhalb der letzten 24 Monate 2 Leute von Apple zurück zu einem PC gewechselt. Genau aus dem von mir genannten Grund. Möchte man einen für sich akzeptablen Ram und Diskspace "Ausbau" haben werden die Dinger halt dreist teuer.

Basis Konfig für den M4 Mini mit 16gb Ram und einer 256gb SSD liegt bei 699€. Der Wechsel von besagter 256gb SSD auf eine 2TB kostet sage und schreibe 920€. Damit ist der Speicherausbau teurer als das Device in der Basis Konfig. Für zusätzliche 8gb Ram werden 230€ fällig.

m4_mini.png


Wenn dein Umfeld das so hinnimmt ist das eine Sache. Nur tue bitte nicht so als wenn das generell der Fall wäre.
 
So unterschiedlich können die Erfahrungen sein.
Du betrachtest die Sache immer nur aus deiner privaten Perspektive.
Mein letzter Mac Pro kostete über 7.000 Euro.
(Nur die CPU, die 5000 Euro Bildschirme habe ich gelassen.)

Nach 8 Monaten war die Investition durch Gewinn amortisiert.
Zusätzlich konnte mein Arbeitgeber die Investitionskosten über die
jährliche Maschinenabschreibung (AfA) steuerlich begünstigt geltend
machen. Nach 5 Jahren kostete ihn das Ding genau 1 Euro.

So ist das mit Mehrwert(steuer).

Was du beschreibst, ist Liebhaberei, haben wollen.

Privat könnte ich mir sowas auch nicht leisten
Ich bekomms halt geschenkt, nachdem abgeschrieben wurde und
eine neue 10.000 Euro-Kiste angeschafft wurde.
Nur tue bitte nicht so als wenn das generell der Fall wäre.
Das IST generell der Fall.
Unser Fotograf kauft sich jedes Jahr einen neuen Mac.
Weil sein Lightroom "schwächelt".
 
So unterschiedlich können die Erfahrungen sein. In meinem Umfeld sind innerhalb der letzten 24 Monate 2 Leute von Apple zurück zu einem PC gewechselt.

Du betrachtest die Sache immer nur aus deiner privaten Perspektive.
[...]

Das IST generell der Fall.
Unser Fotograf kauft sich jedes Jahr einen neuen Mac.
Weil sein Lightroom "schwächelt".

Shinna hat mit keinem Wort privat erwähnt. Er hat wie Du von seinem Umfeld geschrieben. Weder aus seinem noch Deinem Post ist ersichtlich, ob es sich um das private oder berufliche Umfeld handelt; oder beides. Wenn sich dieser Fotograf jedes Jahr einen neuen Mac kauft, "IST" das selbstverständlich ein unzweifelhafter Beleg....
 
Also eine GPU, die es momentan nur in einem min. 4400€ teuerem Laptop gibt, ist in Blender schneller als ne 600€ Grafikkarte aka RTX 4070, aber langsamer als ne 700€ Grafikkarte aka RTX 4070 Super. KA, 4400€ ist in etwa, was ich für die ganze Hardware in meinem Highend PC Ende 2020/Anfang 2021 ausgegeben hab. Schon klar, hat mehr Leistungsaufnahme als das MacBook Pro, 12 GiB weniger Arbeitsspeicher, dafür 4 TB mehr SSD Speicher.
Aber eigentlich ganz witzig, dass meine RTX 3090 immer noch schneller als das MacBook Pro im Vollausbau ist.

Edit: Btw. für die 230€ die Apple für die 16 GiB RAM mehr auf 64 GiB, bekommt man locker die vollen 64 GiB für den PC. Und bei Mac mini gibts da nur 8 GiB mehr?! :DDie Weg von Apple sind unergründlich...
 
Zuletzt bearbeitet:
Entsprechend wird der M4 Ultra dann oberhalb einer 4090 liegen.
Die große Frage lautet halt, ob es Apple diesmal gelingen wird, UltraFusion auf eine Viererverbindung hochzuskalieren, ob also zusätzlich zu einem M4 Ultra auch noch z.B. ein M4 Mega kommen wird. (der dann auch im Mac Pro praktisch Einsatz finden wird)
Der hätte dann ziemlich sicher mehr synthetische Performance als eine 5090...
 
Ist halt eine Laptop CPU und damit sowieso uninteressant.
Ist das so?
Mit so viel Chipfläche kann Apple Dinge machen, die mit einem begrenzteren Ansatz einfach nicht drin sind.
Das ist das was die Leute nicht verstehen; nur "boah; guck mal was die alles können". Das Apple so einen Chip aber eben gar nicht skalieren kann und im Gegensatz zu AMD / Intel nur kleinste Teilmärkte abgreift, sieht niemand und will lieber den Sensationsjournalismus feiern; Apple hat AMD / Intel überholt.

Niemals hat jemals nur eine/r die "schlechte Erweiterbarkeit" bemängelt.
Also in meiner Umgebung gibt es zwei Arten von Menschen; die einen lieben Apple und verteidigen es bis aufs Blut (diese Gruppe wird aber kleiner), die anderen hassen Apple und können dem ganzen nichts abgewinnen. Die, die Apple lieben sind komplett blind und sehen die Nachteile nicht, die einfach absolut immens sind. Die die Apple hassen, werden ja teilweise gesellschaftlich gezwungen diese Geräte zu nutzen, stellen dann aber immer wieder fest, dass es eben an drei Punkten hapert; Preis / Leistung, Erweiterbarkeit und Kompatibilität. Denn Apple bedeutet immer, dass man in einem sehr kleinen, nicht erweiterbaren Kosmos gefangen ist und von einem Spieler auf dem Markt abhängig ist.

Gamer sind schon ein eigenes skurriles Volk.
Das ist ähnlich wie mit Apple Usern; denen kann man auch bessere und günstiegre Lösungen vorschlagen, die sind ziemlich eingefahren (ich zähle mich nicht zu den Apple Usern, aber eben auch zum skurillen Volk)

So unterschiedlich können die Erfahrungen sein. In meinem Umfeld sind innerhalb der letzten 24 Monate 2 Leute von Apple zurück zu einem PC gewechselt. Genau aus dem von mir genannten Grund. Möchte man einen für sich akzeptablen Ram und Diskspace "Ausbau" haben werden die Dinger halt dreist teuer.
Ich glaube nicht, dass die Erfahrungen unterschiedlich sind, nur die finanziellen Lagen ändern sich gerade und da wird erstmal Luxus zurückgeschraubt und nichts anderes ist Apple nunmal. Habe letzten erst einen etwas größeren "Foto/Videografen" auf Windows zurück gebracht. Sind 14 Einzelplätze gewesen und es liefen noch M1 CPUs (ich weiß jetzt gar nicht welche); den hab ich mit einem EDVler verkuppelt der ihm Azure Cloud VMs gebaut hat, die lassen die Berechnungen jetzt über GPU Cluster laufen und mieten dort Zeit. Im 4K Bereich macht sich das schon bemerkbar, im 8K Bereich ist der Unterschied aber gigantisch, da liefen halt alle Apple Geräte sofort voll und haben nur noch gestottert; der GPU Cluster rechnet das halt in Bruchteilen durch. Im GPU Cluster wird dann eben auch Apples Paradedisziplin Speicherdurchsatz einfach mal so gekillt! HMB sei dank.

Im Fotobereich muss man aber sagen, selbst Hasselblad Anwender brauchen eigentlich nichts anderes als eine lokale Workstation und ein Tool mit GPU Unterstützung. Ob es dann Apple, Windows, Linus oder Cloud basiert ist, für die RealWorld Performance würde ich da keinen Unterschied sehen; maximal noch wenn man "Standard-Filter" auf eine große Anzahl an Fotos anwendet; was aber eher im Bereich der nachträglichen Digitalsierungen von Fotosammlungen der Fall sein dürfte und da kenne ich wenige Menschen die das machen lassen, weil Preis / Leistung da selten in Relation stehen.

Unser Fotograf kauft sich jedes Jahr einen neuen Mac.
Da sag ich dann mal; Einbildung ist auch ne Bildung.

Nach 8 Monaten war die Investition durch Gewinn amortisiert.
???
Hast du mal BWL studiert? Weil das so ein typischer Satz von BWLer sein könnte, die keine Ahnung von der Materie haben. Denn am Ende kann ein neuer 10k Laptop in 8 Monaten niemals 10k amortisieren. Die Berechnung ist nämlich ziemlich komplex und der Laptop müsste eben für 10k Gewinn (GEWINN; NICHT UMSATZ) mehr berechnen als der Vorgänger und das wird schon sehr schwierig.

Schau mal oben, das Zauberwort ist GPU Cluster und einmal damit gearbeitet und du weiß, dass Apple auch nur mit Wasser kocht und da nichtmal über 70° kommt! Vor allem wenn ich bedenke, dass man ja vermutlich nicht nur einen 10k Laptop anschleppt, sondern mehrere. Da würde ich mir lieber selber ein MI300X/H100 Cluster in den Keller stellen und die Berechnungen dort laufen lassen, wäre günstiger und schneller.

Zusätzlich konnte mein Arbeitgeber die Investitionskosten über die
jährliche Maschinenabschreibung (AfA) steuerlich begünstigt geltend
machen.
Tu dir einen gefallen und schreibe nichts irgendwo ab, wovon du keine Ahnung hast, danke!

Nach 5 Jahren kostete ihn das Ding genau 1 Euro.
???
1.) Die Abschreibedauer für PCs (Workstations, Desktop, Laptops) wurde auf 1 Jahre reduziert, nicht 5 Jahre
2.) Der verbleibende Euro ist nicht das was das Dingen gekostet hat, sondern ein "Erinnerungswert" in der Bilanz, da man dort alle noch vorhandenen Vermögensgegenstände bilanzieren muss.

ich bekomms halt geschenkt, nachdem abgeschrieben wurde und
eine neue 10.000 Euro-Kiste angeschafft wurde.
Das könnte man dann auch Steuerhinterziehung nennen, denn wenn du von deinem Arbeitgeber ein immer noch werthaltiges Gerät geschenkt bekommst, liegt Arbeitslohn vor. Werthaltig ist ein Gerät, wenn man am Tag der Schenkung damit noch mehr als 1 EUR als Verkaufspreis erzielen könnte.

Das IST generell der Fall.
NEIN!

Wir haben in den letzten Jahren eine sehr starke Wirtschaft gehabt, da war es der Fall, dass "Luxusgüter" gekauft wurden. Du wirst aber bereits jetzt merken, dass diese Zeit ersteinmal vorbei ist und Kaufentscheidungen auch in Unternehmen zunehmend auf Basis von Zahlen getroffen werden müssen.

Was Du dann ja bestimmt auch ganz brav als geldwerten Vorteil versteuerst, oder?
Gut das die Finanzverwaltung hier nicht mitliest :-) ; oder?

Entsprechend wird der M4 Ultra dann oberhalb einer 4090 liegen.
???
Der M4 Max hat 5200 Punkte, gedoppelt (was selbst Apple nicht schafft, linear zu skalieren) würde der M4 Ultra bei 10.400 liegen, eine 4090 liegt aber bei 10.800. Aber aus dem M2 Ultra abgeleitet, skaliert das eben nicht zu 100% sondern zu 77,45%; sprich ein potenzieller M4 Ultra würde bei 9.200 Punkten liegen.


ein M4 Mega kommen wird.
Bereits der M2Ultra hat nach meinem Kenntnisstand wenig Anklang gefunden, da die theoretische Rechenleistung zwar enorm war, er aber dank der Verbindung untereinander viele Nachteile mit sich brachte und so seine theoretische, synthetische Leistung nur selten auf die Straße brachte. Ein Viererverbund wird davon noch stärker betroffen sein, fraglich ob das Sinn macht.

Am Ende sind wir hier alle in einer Blase unterwegs, Apple, Gamer und so weiter. Wir entfernen uns aber zunehmend vom alltäglichen Umfeld, wo Rechenleistung zusehends unwichtiger wird. Denn OnPremise Lösungen sterben gerade und bei Apple habe ich Sorge, dass die das verschlafen. Aktuell sehe ich die Gamingniesche, wo viel Hardwareleistung on Premise gebraucht wird, vieles andere kann ich meines Erachtens nach viel besser und günstiger, dazu planbarer und beliebig skalierbar in die Cloud schieben.
 
???
Der M4 Max hat 5200 Punkte, gedoppelt (was selbst Apple nicht schafft, linear zu skalieren) würde der M4 Ultra bei 10.400 liegen, eine 4090 liegt aber bei 10.800. Aber aus dem M2 Ultra abgeleitet, skaliert das eben nicht zu 100% sondern zu 77,45%; sprich ein potenzieller M4 Ultra würde bei 9.200 Punkten liegen.
Sorry, habe nicht auf die genauen Zahlen geguckt. Normalerweise liegt eine 4090 ja nicht so weit vor einer 4070.
 
Das ist das was die Leute nicht verstehen; nur "boah; guck mal was die alles können". Das Apple so einen Chip aber eben gar nicht skalieren kann und im Gegensatz zu AMD / Intel nur kleinste Teilmärkte abgreift, sieht niemand und will lieber den Sensationsjournalismus feiern; Apple hat AMD / Intel überholt.
Häh? Ein Chipdesign, das in der kleinsten Stufe in einem Tablet verbaut werden kann und sich in der Größten mit Desktop Chips anlegt skaliert doch unglaublich gut? Apple investiert halt eine Menge Silizium in Effizienz, während AMD und Intel eher an vergleichsweise kleinen, heißen Chips arbeitet.

Und wenn man sich den Marktwert von Apple anguckt dann scheinen die Märkte auch nicht so klein zu sein.
 
Häh? Ein Chipdesign, das in der kleinsten Stufe in einem Tablet verbaut werden kann und sich in der Größten mit Desktop Chips anlegt skaliert doch unglaublich gut? Apple investiert halt eine Menge Silizium in Effizienz, während AMD und Intel eher an vergleichsweise kleinen, heißen Chips arbeitet.
Naja, erzähle das mal AMD die mit ihrem Ansatz eben vom Einplatinencomputer, über den gesamten Notebookmarkt, Desktopmarkt, Servermarkt bis hin in den Exascalebereich skalieren können. Am Ende basiert dort alles auf dem Zen Design, bzw. RDNA/CDNA Design.

Apple kann das eben nicht, die haben es schon nicht hinbekommen einen Vierfachchip zu basteln. Was per se nicht schlimm ist, aber eben zeigt wie begrenzt der Markt für diesen Chip ist.

Und wenn man sich den Marktwert von Apple anguckt dann scheinen die Märkte auch nicht so klein zu sein.
Ach ja, die lieben Marktwerte. Nimmst du diese ernst? Tesla war lange der wertvollste Autohersteller, bei einem Absatz von wievielen Autos? Oder wie erklärt man sich den Verlust von 1/3 Marktwert in einer Woche bei Firmen wie Nvidia? Also sorry, wenn ich das nicht so ganz ernst nehme. Aber Marktwerte werden am Ende von Idioten bestimmt die damit spekulieren. Apple ist ziemlich sicher eine wertvolle Marke; einfach weil sie etwas schaffen, was sonst keiner schafft, ihre Produkte ausserhalb einer logischen Kaufentscheidungen zu platzieren.
 
Naja, erzähle das mal AMD die mit ihrem Ansatz eben vom Einplatinencomputer, über den gesamten Notebookmarkt, Desktopmarkt, Servermarkt bis hin in den Exascalebereich skalieren können. Am Ende basiert dort alles auf dem Zen Design, bzw. RDNA/CDNA Design.

Apple kann das eben nicht, die haben es schon nicht hinbekommen einen Vierfachchip zu basteln. Was per se nicht schlimm ist, aber eben zeigt wie begrenzt der Markt für diesen Chip ist.
Ist das so: https://www.ctol.digital/news/apple-foxconn-partner-ai-servers-m-series-chips/

Aber ja, der M4 wird nicht in Serverfarmen landen, einfach weil er dafür nicht die nötige IO Ausstattung mitbringt. Was aber wohl eher am Willen und weniger am Können liegt, wenn man sich anguckt was der M4 Pro an IO Bandbreite mitbringt.
Ach ja, die lieben Marktwerte. Nimmst du diese ernst? Tesla war lange der wertvollste Autohersteller, bei einem Absatz von wievielen Autos? Oder wie erklärt man sich den Verlust von 1/3 Marktwert in einer Woche bei Firmen wie Nvidia? Also sorry, wenn ich das nicht so ganz ernst nehme. Aber Marktwerte werden am Ende von Idioten bestimmt die damit spekulieren.

Ok. Dann gucken wir uns doch stattdessen den Gewinn an, für Hausfrauenwirtschafter wie dich. Da lag Apple in den letzten Jahren so bei 20 Mrd pro Quartal, mal mehr, mal weniger.

AMDs bestes Jahr (2021) war ein Gewinn von knapp über 3 Mrd.

Noch Fragen?
Apple ist ziemlich sicher eine wertvolle Marke; einfach weil sie etwas schaffen, was sonst keiner schafft, ihre Produkte ausserhalb einer logischen Kaufentscheidungen zu platzieren.
Ist halt genauso "logisch" wie das High-End PC Equipment. Fakt ist halt im Moment, dass der M4 Max in seinem Formfaktor konkurrenzlos ist, so viel Power bekommst du mit AMD/nVidia/Intel im mobilen Bereich im Moment einfach nicht, und in manchen Punkten sieht es auch auf dem Desktop eher düster aus. Im Geekbench schlägt der M4 Max sowohl den 9950X als auch den 285K, sowohl im Single-Core als auch im Multi-Core, und es ist noch nichtmal besonders knapp:

 
Zurück