Apple M1 Ultra: Geforce RTX 3090 zieht Kreise um 64-Kern-GPU

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Apple M1 Ultra: Geforce RTX 3090 zieht Kreise um 64-Kern-GPU

Nvidias Geforce RTX 3090 ist und bleibt zumindest bis zum Release der Geforce RTX 3090 Ti die schnellste Consumer-Grafikkarte der Welt. Der M1-Ultra-Chip von Apple mit hohen Aspirationen war trotz der Beteuerungen Apples in den ersten Tests weder in Gaming- noch Compute-Tests ein ernst zu nehmender Gegner für das Ampere-Flaggschiff.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Apple M1 Ultra: Geforce RTX 3090 zieht Kreise um 64-Kern-GPU
 
So sehr mich doch die Lobhudelei auf die M1 manchmal auch nervt sei hier dem lieben Maximilian doch nahegelegt den für die Leistung aufgenommenen Strom nicht ganz aus der Rechnung zu nehmen. In TR reden wir ja dann immer noch von der Leistung einer 3070 oder 2080Ti bei deutlich weniger Verbrauch.
 
Was wohl eine RTX3090 für eine Leistung mit 100 Watt bringen würde?
Würde mich auch interessieren - wobei ich über die Ergebnisse schon überrascht bin.

"Das ist vor allem vor dem Hintergrund, dass die Geforce RTX 3090 mittlerweile regelmäßig unter 2.000 € kostet und der Mac Studio mit 64 Kernen und 128 GByte Speicher mindestens 6.669 € kostet eine sehr schwache Vorstellung."

Wenn ich überlege - für meine RTX 3090 habe ich 2.150€ und für den Ryzen 5950X 900€ bezahlt - das ging auch ins Geld ... Mein System, wie es bei mir steht hat vor 1 1/2 Jahren ca. 5000€ gekostet und ich habe "nur" 32GB RAM (plus die 24GB von der GraKa). Dann nimmt mein Rechner vermutlich 10 mal so viel Platz ein wie der Mac Studio und ist unter Last schon sehr laut. Apple lässt sich die Entwicklungskosten für den kleinen Würfel ziemlich gut bezahlen ...
 
Totenstille bei den Fanboys, bis es ein Narrativ gibt :D.
Nein im Ernst, sogar ich hab mehr erwartet, nämlich eher ein umgekehrtes Bild.
Bei Compute Aufgaben hätte ich höchstens den 30-40% Abstand erwartet, den es hier bei Spielen gibt. Dafür finde ich die Spieleleistung überraschend gut. Nur ist das halt so gar nicht der Einsatzzweck, was man auch am Preispunkt erkennt.
So sehr mich doch die Lobhudelei auf die M1 manchmal auch nervt sei hier dem lieben Maximilian doch nahegelegt den für die Leistung aufgenommenen Strom nicht ganz aus der Rechnung zu nehmen. In TR reden wir ja dann immer noch von der Leistung einer 3070 oder 2080Ti bei deutlich weniger Verbrauch.
Interessanter Punkt, stimmt schon. Allerdings zum Preis von 6-8 dieser Karten, je nachdem welcher Monat grad ist ;).
 
Waaaaaaaaas? Eine 2000€ Grafikkarte mit 360W Stromverbrauch schafft es, die integrierte Grafikeinheit eines 60W Prozessors zu schlagen?

Unfassbar. Wie macht sie das nur.


Edit: Ich bin mir nicht mal sicher, ob wenigstens das Preisargument zieht. Die 6xxx€ beziehen sich bei Apple ja auf das gesamte Gerät, nicht nur den Grafikprozessor. Wenn man die Nvidia Karte in einen ähnlich leistungsfähigen Computer steckt, wird der auch nicht günstig werden.
 
"Das ist vor allem vor dem Hintergrund, dass die Geforce RTX 3090 mittlerweile regelmäßig unter 2.000 € kostet und der Mac Studio mit 64 Kernen und 128 GByte Speicher mindestens 6.669 € kostet eine sehr schwache Vorstellung."

Es wirkt als wäre der Autor ziemlich anti Apple und der ganze Bericht ist total einseitig geschrieben.
Es ist einfach ziemlich krass welche Leistung im Mac Studio steckt und vor allem bei welcher Größe, Effizient und Lautstärke.
 
"Nvidias Geforce RTX 3090 ist und bleibt zumindest bis zum Release der Geforce RTX 3090 Ti die schnellste Consumer-Grafikkarte der Welt."

Ja, und das halt leider auch nur bei Euch/PCGH.
Und das lediglich in der Nischen Auflösung 4K und oder in den paar ach so tollen RT Games ... :daumen:
"seriös" hätte geklungen : Eine der schnellsten oder mitunter die schnellste o.ä.
So stellt ihr es als Fakt hin und entspricht somit schlichtweg nicht den Tatsachen ... :daumen2:

MfG Föhn.
Naja, komm. Auf was soll man sich denn beziehen, wenn nicht auf die eigenen Testreihen :) ? Zumal in allen Tests transparent darauf hingewiesen wird, dass es in anderen Spielen und anderen System abweichende Ergebnisse geben kann, die die Reihenfolge verändern können.
Der Fehler ist, aus der Reihenfolge der Grafikkarten eine Rangfolge machen zu wollen, das ist Unsinn bei einem Durchschnittswert aus zufälligen Spielen (auch wenn diese möglichst repräsentativ ausgewählt werden).
Wer aber wirklich glaubt es gäbe "die" schnellste Karte und danach kauft liest offensichtlich eh nicht genau, da wäre eine leicht veränderte Formulierung mit anderer Konnotation wie du sie vorschlägst doch Perlen vor die Säue ;).
(...)
Es wirkt als wäre der Autor ziemlich anti Apple und der ganze Bericht ist total einseitig geschrieben.
Es wirkt eher so, als empfänden manche jeden Bericht ohne höchstes Lob als Sakrileg.
Welchen der Kritikpunkte findest du denn unsachlich, mal ganz konkret?
Es ist einfach ziemlich krass welche Leistung im Mac Studio steckt und vor allem bei welcher Größe, Effizient und Lautstärke.
Ich wusste gar nicht, dass der Chip Lautstärke produziert...
Und naja, es ist eben nicht allzu krass, wenn man einfach nur vergleicht, welche Leistung man für denselben Preis sonst kaufen kann. Woran, und jetzt wirds wieder konkret, macht du diese Aussage denn fest? Der Artikel widerspricht ja deutlich und liefert dazu auch Zahlen.

Ich würde zustimmen, dass es eine gewaltige Leistung von Apple ist, in der relativ (!) kurzen Zeit der eigenen Chipentwicklung schon so weit zu kommen. Das kann man "krass" nennen. Das fertige Produkt zu dem Preis hat aber kein beeindruckendes P/L Verhältnis.
 
Zuletzt bearbeitet:
Naja, komm. Auf was soll man sich denn beziehen, wenn nicht auf die eigenen Testreihen :) ? Zumal in allen Tests transparent darauf hingewiesen wird, dass es in anderen Spielen und anderen System Abweichende Ergebnisse geben kann, die die Reihenfolge verändern können.
Der Fehler ist, aus der Reihenfolge der Grafikkarten eine Rangfolge machen zu wollen, das ist Unsinn bei einem Durchschnittswert aus zufälligen Spielen (auch wenn diese möglichst repräsentativ ausgewählt werden).
Wer aber wirklich glaubt es gäbe "die" schnellste Karte und danach kauft liest offensichtlich eh nicht genau, da wäre eine leicht veränderte Formulierung mit anderer Konnotation wie du sie vorschlägt doch Perlen vor die Säue ;).

Es wirkt eher so, als empfänden manche jeden Bericht ohne höchstes Lob als Sakrileg.
Welchen der Kritikpunkte findest du denn unsachlich, mal ganz konkret?

Ich wusste gar nicht, dass der Chip Lautstärke produziert...
Und naja, es ist eben nicht allzu krass, wenn man einfach nur vergleicht, welche Leistung man für denselben Preis sonst kaufen kann. Woran, und jetzt wirds wieder konkret, macht du diese Aussage denn fest? Der Artikel widerspricht ja deutlich und liefert dazu auch Zahlen.

Das mit der Lautstärke das System bzw. die Kühlung des Chips gemeint ist sollte wohl jedem klar sein. Und das weißt auch du.....
Ein fettes Gehäuse mit 3090 und passender CPU, Mainboard und Kühlung ist nun mal deutlich schwerer größer und lauter. Und setzt man das in Relation zum Studio ist "eine sehr schwache Vorstellung" einfach eine dämlich Aussage.
 
Das mit der Lautstärke das System bzw. die Kühlung des Chips gemeint ist sollte wohl jedem klar sein. Und das weißt auch du.....
Ein fettes Gehäuse mit 3090 und passender CPU, Mainboard und Kühlung ist nun mal deutlich schwerer größer und lauter. Und setzt man das in Relation zum Studio ist "eine sehr schwache Vorstellung" einfach eine dämlich Aussage.
Natürlich weiss ich das, deshalb die drei Punkte am Ende, scheinbar war das zu subtil. Tatsache ist aber, dass man nicht die Vorteile des kompletten Gerätes aufzählen kann, aber den Preis dann eben damit relativiert, dass es ja nur fürs Gesamtpaket so teuer ist.
Für den Preis krieg ich auch nen PC flüsterleise.

Prinzipiell sollten dir deine Ausführungen auch schon zeigen, warum der ganze Vergleich hinkt. Die 3090 ist eine Einzelkomponente für ein modulares System (PC), der M1 (der Teil um den es geht) eine fest verbaute Einheit in einem geschlossenem System mit anderem Einsatzzweck.
Das Einzige was man vergleichen kann ist die absolute Leistung. Und da enttäuscht Apple nunmal, meine Güte ist doch kein Weltuntergang.
 
Zuletzt bearbeitet:
Naja, komm. Auf was soll man sich denn beziehen, wenn nicht auf die eigenen Testreihen :) ?
Ist halt blöd, wenn die eigenen Testreihen das gleiche besagen:
https://www.pcgameshardware.de/Rade...er-RTX-3090-Grafikkarten-Vergleich-1362845/3/ .

Es wirkt eher so, als empfänden manche jeden Bericht ohne höchstes Lob als Sakrileg.
Welchen der Kritikpunkte findest du denn unsachlich, mal ganz konkret?
Einen SOC-Chip mit einem Komplett-PC zu vergleichen halte ich schon mal für grenzwertig, auch wenn er im AIO verbaut ist.

Ich bin beileibe kein Apple-Fan, aber man muß bei der Realität bleiben.
Und der Ton des Beitrags ist bestimmt nicht neutral.

Ich wusste gar nicht, dass der Chip Lautstärke produziert...
Nö, Wärme und die muß weg.

Das fertige Produkt zu dem Preis hat aber kein beeindruckendes P/L Verhältnis.
Der einzige Satz, der stimmt und eigentlich als Fazit drunter gehört.

Und dann den Artikel fast wörtlich abzuschreiben, na das ist keine journalistische Glanzleistung.
 
So sehr mich doch die Lobhudelei auf die M1 manchmal auch nervt sei hier dem lieben Maximilian doch nahegelegt den für die Leistung aufgenommenen Strom nicht ganz aus der Rechnung zu nehmen. In TR reden wir ja dann immer noch von der Leistung einer 3070 oder 2080Ti bei deutlich weniger Verbrauch.
Joa, aber in Geekbench ist die 3090 dann schon wieder um den Faktor 2,6 schneller, aber der Verbrauch ist nicht um das 2,6x höher.
Es ist schwer anhand von nur zwei Beispielen irgendwelche Schlüsse zu ziehen.
 
Das ist per se eher ein mediengeneriertes "Problem", denn das ist genau so sinnvoll, als wenn man eine Isetta gegen einen M4 vergleicht. Man brauchte halt was zu berichten, irgendwer fing damit an und nun schreiben alle anderen ab.
Apple entwickelt an einer eigenen Grafik-IP für dedizierte GPUs, d. h. sobald die verfügbar ist, wird das ein sinnvoller Vergleichskandidat sein. Wobei, selbst der Vergleich wird unter bestimmten Gesichtspunkten weiterhin hinken, solange Apple ein geschlossenen Ökosystem ist.
Dass das Apple-Design effizient ist, ist ja auch nicht überraschend (ebesowenig wie dass Apple teuer ist ;-)), weil hier die meisten aus dem ARM-Lager kommenden Designs eine deutlich höhere Effizienz aufweisen (und zudem in Apples Fall auch noch den deutlich moderneren Fertigungsprozess nutzen), ist also nicht einmal so sehr Apple anzurechnen, auch wenn die sicherlich gute Arbeit abgeliefert haben. Beispielweise in einem Perf/Watt-Vergleich, durchaus auch mit aktiviertem Hardware-Raytracing, wird IMs C-Series zweifellos deutlich besser abschneiden als jede PC-Hardware von AMD, Intel oder nVidia.
 
Zuletzt bearbeitet:
Die Aussagen zum Stromverbrauch von Apple sind aber arg geschönigt.

Um mal mit echten Werten zu hantieren: Ein MacBook mit M1Max kann bis zu 110W verbrauchen: https://www.mtech.news/article/MacB...er-Consumption-Low-And-High-Power-Mode-175284
Web Browsing sind ca 10 Watt -> der SoC kann also durchaus in einem Laptop 100W verbrauchen.

Zwei davon in einem Desktop sind also schon 200W. Wenn man dann noch bedenkt, dass ein Desktop meist mehr einen höheren Takt mit mehr Leistung nutzt wird man noch einmal mit höheren Werten rechnen können.
 
Ich muss sagen, ich bin zutiefst beeindruckt von dem was Apple bei der M1 Produktlinie und speziell beim M1 Ultra in Form des Mac Studio abgeliefert hat.
Ein so kompaktes und gleichzeitig leises System mit dieser Leistung ist durchaus ein dickes Ausrufezeichen, wenn man die dazu nötige Effizienz des Prozessors bedenkt.

Nun zu PCGH:
Solche Schundartikel sind der Grund warum ich kein PCGH Abonnent mehr bin. Sachlichkeit, Neutralität und fundierte Technikanalyse scheinen bei PCGH keinen Stellenwert mehr zu haben. Der Herr Hohm hat sich, wenn man rein journalistische Rüstzeug zugrunde legt, eindeutig den falschen Beruf gewählt.

Da lese ich doch lieber die Artikel des Ex PCGH Mitarbeites Marc Sauter:


Technisch deutlich fundierter als Bild Reporter Hohm, und dabei ohne zur Schau gestellte Antipathie.

Wieder mal kann ich nur sagen:
6, setzen PCGH. Euer Niveau ist einfach nur noch zum :kotz:
 
Zuletzt bearbeitet:
Zurück