Apple M1 Ultra: Geforce RTX 3090 zieht Kreise um 64-Kern-GPU

Das war klar das eine High End Grafikkarte schneller ist, da gehts aber auch hauptsächlich um das Gaming. Man schaue sich mal auch die 340W Verbrauch einer 3090 an und auch die dazu passenden Gamer PCs, das User sind eine ganz andere Klientel als die User die sich einen iMac kaufen. In Sachen produktiver Arbeit und Effizienz ist der M1 Ultra sicherlich ein Meilenstein ohne wenn und aber! Irgendwie auch saudumm diese redeschwingenden Schwanzvergleiche....ist hier wie ob man Äpfel mit Birnen vergleichen tut!
 
Ist es nicht so, dass z.b Tomb Raider noch gar nicht nativ auf dem M1 läuft, sondern im Moment noch x86 emuliert wird ?
 
Die armen Entwickler bei Apple. Basteln was Interessantes und dann wird das durch Marketing und Preis torpediert, wobei man auch nicht 2000 € für eine Grafikkarte mit 6700 € für ein Komplettsystem gleichsetzen sollte.

Man stelle sich vor, Apple würde sich um 180° drehen und die Chips auch anderen Unternehmen zu ordentlichen Preisen (Apple's Gewinnspanne ist ja meist riesig) anbieten. Da könnte man sicher einiges mit diesen anstellen, vor allem dort, wo es auf Effizienz ankommt und ohnehin schon ARM vorherrscht, wie z.B. Emulation Handhelds.

Irgendwie kommt es mir so vor, als würde Apple lügen, weil sie einfach keine Alternative für diejenigen Kunden anbieten, denen es um reine Maximalleistung geht und bei denen Effizienz zweitrangig ist.
Entweder lebt man damit und bewirbt halt die Effizienz oder man schafft eine Lösung bei der Grafikkarten wie z.B. eine 3090 mit M1 Chips gepaart werden können. Performance-Lügen wirken nur bei den Fanboys und Girls, aber die Kunden, welche Topdollar für maximale Performance ausgeben, welche sie auch tatsächlich benötigen, lassen sich damit nicht blenden.

Hachja, beim Marketing fallen alle Unternehmen immer wieder auf die Fresse. Egal ob Apple, Nvidia, Amd, Intel und wie sie alle heißen.
 
Die armen Entwickler bei Apple. Basteln was Interessantes und dann wird das durch Marketing und Preis torpediert, wobei man auch nicht 2000 € für eine Grafikkarte mit 6700 € für ein Komplettsystem gleichsetzen sollte.

Man stelle sich vor, Apple würde sich um 180° drehen und die Chips auch anderen Unternehmen zu ordentlichen Preisen (Apple's Gewinnspanne ist ja meist riesig) anbieten. Da könnte man sicher einiges mit diesen anstellen, vor allem dort, wo es auf Effizienz ankommt und ohnehin schon ARM vorherrscht, wie z.B. Emulation Handhelds.

Irgendwie kommt es mir so vor, als würde Apple lügen, weil sie einfach keine Alternative für diejenigen Kunden anbieten, denen es um reine Maximalleistung geht und bei denen Effizienz zweitrangig ist.
Entweder lebt man damit und bewirbt halt die Effizienz oder man schafft eine Lösung bei der Grafikkarten wie z.B. eine 3090 mit M1 Chips gepaart werden können. Performance-Lügen wirken nur bei den Fanboys und Girls, aber die Kunden, welche Topdollar für maximale Performance ausgeben, welche sie auch tatsächlich benötigen, lassen sich damit nicht blenden.

Hachja, beim Marketing fallen alle Unternehmen immer wieder auf die Fresse. Egal ob Apple, Nvidia, Amd, Intel und wie sie alle heißen.
Der Mac Studio ist z.B. für professionelle Videobearbeitung konzipiert. Wenn ich dann im Golem Test lese, "Durch diese ist es möglich, in einem mit Final Cut Pro erstellten Projekt flüssig durch die Timeline zu scrubben, bei dem gleich 18 (!) hochauflösende 8K30-Streams mit ProRes422-Codec eingebunden sind.“ dann würde ich sagen, dass der Mac Studio sowohl effizient als auch verdammt leistungsstark in seiner "Kernkompetenz“ ist.
Und bei Prosumern wird das Ding definitiv seine Abnehmer finden.
 
Man darf auch nicht vergessen das der M1 Ultra aus 114mrd Transistoren in 5nm besteht (allerdings inkl. CPU), die 3090 "nur" 28,3mrd Transitoren in 8nm Fertigung hat (ein Ryzen 5000 mit 16 Kernen hat ca. 10mio). Das relativiert den Effizenzvorteil von Apple deutlich...
Der Mac Studio ist z.B. für professionelle Videobearbeitung konzipiert. Wenn ich dann im Golem Test lese, "Durch diese ist es möglich, in einem mit Final Cut Pro erstellten Projekt flüssig durch die Timeline zu scrubben, bei dem gleich 18 (!) hochauflösende 8K30-Streams mit ProRes422-Codec eingebunden sind.“ dann würde ich sagen, dass der Mac Studio sowohl effizient als auch verdammt leistungsstark in seiner "Kernkompetenz“ ist.
Und bei Prosumern wird das Ding definitiv seine Abnehmer finden.
Aber das hat nichts mit GPU-Leistung zu tun. Intels IGPUs sind dank Quicksync auch in manchen Video-Aufgaben deutlich schneller als viele dicke GPUs, aber niemand würde sagen dass das die Grafikeinheit super schnell macht.
 
Aber das hat nichts mit GPU-Leistung zu tun.
Darum ging es mir ja auch nicht. Die nominelle GPU Gaming Leistung interessiert bei einem System wie dem Mac Studio niemanden. Da zählt einzig die Arbeitsleistung des Gesamtsystems in Anwendungen wie Final Cut. Und die ist verdammt hoch.
Golem.de und PCGH gehören aber zum Mutterkonzern Computec Media. :ugly:
Bild und Welt gehören zu Axel Springer, dennoch berichten beide "leicht“ unterschiedlich :D
 
Zuletzt bearbeitet:
Hinsichtlich der GPU-Performance können wir Apple zumindest mit Blick auf den 3DMark und den GFXBench attestieren, dass in etwa die Leistung einer Geforce RTX 3090 erreicht wird - bei locker 200 Watt weniger. Zumindest die von uns verwendete Geforce RTX 3080 Ti mit 350 Watt ist mal schneller und mal langsamer, der M1 Ultra begnügt sich jedoch mit 90 bis 100 Watt.

Interessant.
 
Waaaaaaaaas? Eine 2000€ Grafikkarte mit 360W Stromverbrauch schafft es, die integrierte Grafikeinheit eines 60W Prozessors zu schlagen?
Der M1 Ultra zieht wesentlich mehr als nur 60W und die 3090 ist mit 350W auch 5x so schnell in Blender:


Screenshot 2022-03-19 135217.png

Quelle: iKnowReview

Kann die Zahlen auch nachvollziehen. Habe das MacBook Pro mit dem M1 Pro hier und die 3090 rasiert den einfach nur in Blender.

Edit: Ich bin mir nicht mal sicher, ob wenigstens das Preisargument zieht. Die 6xxx€ beziehen sich bei Apple ja auf das gesamte Gerät, nicht nur den Grafikprozessor. Wenn man die Nvidia Karte in einen ähnlich leistungsfähigen Computer steckt, wird der auch nicht günstig werden.
Macht es. Eine 3090 gepaart mit einem 5950X liegt unter 4K € und bietet in Summe wesentlich mehr Power als ein M1 Ultra für 6000€.

Bedenkt man, wie viel Strom der gesamte (!) Apple Dual-SoC gegenüber einer 3090 als Single Chip verbraucht, und welche Leistung dabei rumkommt, würde ich dieser Aussage nicht zustimmen.
Dann kommt der Apple Chip in 3D Software wie Blender auch nicht gut weg.
Die 3090 benötigt 350W und ist dort ~5x so schnell. Mit 100W ist der Verbrauch des Apple SoC aber nicht 5x niedriger. Die 3090 ist wesentlich effizienter in diesem Bereich.
 
Zuletzt bearbeitet:
In 15/20 Spielen ist die 3090 auf Platz eins, also was genau stimmt denn nicht?
Wenn ich mir 4K anschaue, dann werden es noch mehr Spiele und das wird die Hauptauflösung für eine solche Karte sein oder eben RT, aber auch dort liegt Nvidia vorn.

Konkret in welchen Real World Anwendungen haben Ryzen und 3090 denn wesentlich mehr Power?
Naja, ich schrieb es doch im selben Post? In 3D Software wie Blender, Maya oder Houdini und lieferte dazu sogar ein Video inklusive Diagramm.
Docker läuft auf Intel + Linux übrigens Welten besser als auf einem M1 + OSX.
 
Naja, ich schrieb es doch im selben Post? In 3D Software wie Blender, Maya oder Houdini und lieferte dazu sogar ein Video inklusive Diagramm.
Videos gucke ich mir nie an. Hast du da mal Tabellen von irgendwelchen bekannten Testseiten?
Und wie ist‘s beim Rendern mit Adobe Premiere? Wer hat die Nase vorn?
 
Videos gucke ich mir nie an.
Das ist dann leider dein Problem.

Hast du da mal Tabellen von irgendwelchen bekannten Testseiten?
iKnowReview ist relativ bekannt, aber ich könnte dir das hier anbieten:

Und wie ist‘s beim Rendern mit Adobe Premiere? Wer hat die Nase vorn?
Das weiß ich nicht.

Wie gesagt habe ich ein MacBook Pro mit M1 Pro und der sieht absolut kein Land in Blender gegen meine 3090.
 
am ende bleibt eigentlich nur zu sagen, dass apple da ein absolutes referenzprodukt in seiner klasse abgeliefert hat.

der vergleich hinkt hier aber natürlich auch einfach gewaltig, da das eine nunmal ein arm-soc mit deutlich weniger verbrauch und das andere eine dedizierte x86-gpu mit (im vergleich) immensem verbrauch ist.
zudem sprechen beide produkte komtplett unterschiedliche endkunden an.

auch ein vergleich bei gleichem verbrauch wäre im grunde nicht sinnvoll (auch wenn ich den einwand durchaus verstehen kann). bestes beispiel: hier bei pcgh werden die gpus auch nicht alle bei gleichem verbrauch getestet, sondern es ist wichtig was sie maximal zu leisten imstande sind.

wie gesagt: absolutes topprodukt von apple, bin da schon beeindruckt (und das gegenteil eines applejüngers). :)
 
Das ist dann leider dein Problem.


iKnowReview ist relativ bekannt, aber ich könnte dir das hier anbieten:


Das weiß ich nicht.

Wie gesagt habe ich ein MacBook Pro mit M1 Pro und der sieht absolut kein Land in Blender gegen meine 3090.
Mal abwarten wie das aussieht wenn Blender Metal unterstützt.
Viel interessanter wäre für mich aber vor allem die Renderpower bei Video Anwendungen wie Premiere.
 
Mal abwarten wie das aussieht wenn Blender Metal unterstützt.
Der M1 Support und Performance Patch ist bereits in Blender enthalten:

Viel interessanter wäre für mich aber vor allem die Renderpower bei Video Anwendungen wie Premiere.
Da das Apples Hauptbereich ist, wird der M1 vermutlich ordentlich performen.
 
Zurück