Apple Mac: Neue Produkte mit Apple-Chipsatz M1 ab sofort bestellbar

Nein, denn ARM ist nicht per se leistungsfähiger als x86

Und übrigens auch nicht immer sparsamer oder auch nur effizienter.


Genau das ist es aber, wo Intel die Zukunft sieht. 8 lahme Stromsparkerne und 8 schnelle High-End Kerne in einer CPU.
AMD vermutet, Intel macht das nur, damit man 16 Kerne auf die Packung schreiben kann. Intel erhofft sich aber einen großen Erfolg !

Nein, Intel sieht die Zukunft* in big.LITTLE-Designs, bei denen beide Kernvarianten die gleichen Befehle beherrschen. Nicht in dem von dir vorgeschlagenen Software-GAU, bei dem für jede Wechsel des Leistungszustand sämtliche Programme inklusive des Betriebssystemskernels neu geladen werden müssten.

*Übrigens nur einen Teil der Zukunft. Bislang gibt es keine Gerüchte zu heterogenen Prozessoren oberhalb 8+8, sehr wohl aber welche zu 0+8-Designs. Intel arbeitet also auch weiterhin an einheitlichen Prozessoren; in der allgemeinen Selbstdarstellung spricht man flexiblen Baukästen, bei denen je nach Anwendung die sinnvollen Funktionen zusammengestellt werden. Von all little bis all big, gemischt mit IGPs und FPGAs. Man darf misstrauisch sein, was da kommt, aber nur weil die einzige post-2022er-Intel-CPU-Reihe zu der bereits irgendwelche Details bekannt sind, mit einem 8+8-Flaggschiff antritt, heißt das nicht, dass es nichts anderes geben wird.


Intel hat es bis heute nicht geschafft im <10W Segment eine CPU zu bauen, die gleiche oder bessere Performance bietet als ein eine ARM Cortex-A77 die in Handys zu finden ist.
Dazu sollte man sich dann auch die Frage stellen, wieso es keine x86 Cores in Handys und nur in sehr wenigen Tablets gibt. In der Anfangszeit von Android, gab es x86 Handys, die aber sehr schnell vom Markt verschwunden sind. Intel hat das Handygeschäft aufgegeben.

Nur in wenigen Tablets?
356 Windows + Intel
31 Android + Intel
Android + A77

Es stimmt zwar, dass Intel das Milliardengrab "Handy-Markt erobern" vor Jahren eingestellt hat, aber im Tablet-Bereich waren sie erfolgreich in ihrem Versuch, die ARM-Konkurrenz zurückzuschlagen. Oberhalb von 400 Euro basieren aktuell zwei Drittel aller lieferbaren Tablets mit Android oder Windows auf Intel-CPUs. Nur die Billighersteller nehmen durchgängig etwas billige(re)s. Aber ab einer gewissen Leistungsklasse ist Intel die Regel – wenn man keinen Zugriff auf Apple-Prozessoren hat. ;-)

Haben sie es denn versucht?

Wenn man sich die Erfolge der ULV-Core-i und -Atoms sowie jüngst von Lakefield anguckt würde ich sagen: Versucht und geschafft. Nur <5 W packt Intel seit Mitte der 10er nicht mehr an. In so niedrige Leistungsgefilde skalieren die ...monts nicht, da war man selbst mit viel Subventionen nie wirklich konkurrenzfähig, zumal Android-Entwickler natürlich primär für ARM optimieren und niemand will ein (ressourcenhungriges) Windows auf dem Handy.
 
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
 
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden.
Ja , rechnen ist schwer.
Hier
sind von 355 Windows Tablets 221 Surface Geräte, macht so um die 62%.

Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86
Sagen wir mal 60 ... 70.

und 1000sende mit ARM/Android.
Wo denn:
https://geizhals.de/?cat=nbtabl&sort=p&xf=2187_Android ?
Ich zähle da knapp 350.
Davon sind alleine 117 von Samsung, 51 von Lenovo und 31 von Huawai.
Das sind ca. 200 von nur 3 Herstellern und 150 von anderen.
 
Und die ganze 1Ksenden die es nicht mehr am Markt gibt?
Die hat der Markt gefressen.
Zu 99% aufgrund mangelnder Produktqualität.

Ich könnte da einige Kandidaten nennen, wo die USB-Buchsen schon beim zweiten Einstecken ausbrachen, Teile abfielen beim auspacken oder ganze Lieferungen in der ersten 7 Tagen zurückkamen als RMA, mach es aber nicht.
 
Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.
Wieso sollte ein ARM-Prozessor sich anders verhalten, als ein X86/64er?

Er hat die gleichen Schaltelemente (Si-MOS-Transistoren), die in der gleichem Technologie mit den gleichen Materialien in den gleichen Fabriken gefertigt werden.

Bei gleicher Betriebsspannung und - frequenz verhält er sich ganau so, wie im Intel-Prozessor.
Leistungsverbrauch und Ähnliches sind ebenfalls gleich.

Bei gleicher Transistoranzahl wird sich der ARM-Prozessor genau so verhalten, wie ein Intel-Prozessor.
 
aber im Tablet-Bereich waren sie erfolgreich in ihrem Versuch, die ARM-Konkurrenz zurückzuschlagen.
Überwiegend aus einem Grund: Windows 10 x64 Software läuft darauf. Es sind halt Notebooks, die sich auch als Tablet nutzen lassen. Wer sein Business nicht komplett auf Cloud/Webanwendungen umgestellt hat, kann mit eine reinen Tablet-OS nur dann etwas anfangen, wenn er wenigstens für die wichtigsten Anwendungen Apps entwickeln lässt.

Zusätzlich ist mittlerweile Android+Tablet nahezu tot. Welche Entwicklung gibt es da denn noch? Wie gut kann man Android-Apps auf 10-12" bedienen, insb. ohne Speziallösungen von Samsung? Google hat das m.M.n. mittlerweile nahezu aufgegeben.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
AMD setzt halt nur auf Desktop, HEDT und Server, da bringt sowas nahezu nichts. Was sie vom Mobilsektor halten sieht man an der nicht-Lieferbarkeit von Laptops mit den meisten ehemals angekündigten Zen2-Mobil CPU-Varianten seit vielen Monaten.

AMD ist doch jetzt schon in der Lage, lastabhängig rein in HW Threads auf die schnellsten Kerne zu verteilen und die Jerne auch nur bei Bedarf hoch zu takten. Dann könnten sie das auch mit Kernen, die noch langsamer sind, wenn sie nur wollten.

Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
Weil Linus mal wieder lustlos ist (wie u.A. bei AVX512) und sich das ganze nicht sinnvoll für Server einsetzen lässt, kann die HW nichts taugen. Kein Wunder, dass Linux auf dem Desktop und Laptop auf immer eine Randerscheindung bleiben wird.

Apple stellt einfach sein OS und die APIs um, fertig ist die Unterstützung. Ohne Softwareänderung vermutlich nur suboptimal, aber das werden die Entwickler der Apps/Programme schon noch schaffen.

sind von 355 Windows Tablets 221 Surface Geräte, macht so um die 62%.
Da sind die ganze China-Geräte (Chuwi, Teclast und co) noch nicht mit eingerechnet, weil die dort auch dann nicht auftauchen, wenn man sie über Amazon DE aus Europa geliefert bekommt.

Wieso sollte ein ARM-Prozessor sich anders verhalten, als ein X86/64er?
Nachdem keine CPU nur zum Selbstzweck oder als Heizung genutzt wird, kommt im realen Betrieb irgendwann halt auch der Befehlssatz und dessen interne Verarbeitung hinzu.
 
Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.

Mit welcher ARM-CPU bzw. genauen Arm Architektur vergleichst du ?


Anscheinend ist meine obige Frage missverstanden worden. Ich beziehe mich nicht auf elektrotechnische Definitionen von Leistung etc !

Ich möchte hier meine Frage nochmals (hoffentlich verständlicher) beschreiben:

Apple hat bei seiner Produktvorstelltung des M1 und der MacBooks damit geworben, dass der M1 Pro Core gemessen die schnellste Notebook-CPU ist.

Laut Single Core Geekbench scheint dies auch der Fall zu sein.

Diesen Single-Core Wert hat mich überrascht, da meiner Erinnerung nach bisher die ARM-Prozessoren viel schlechter abgeschnitten haben als die neuesten Intel/AMD Desktop-CPU.

Außerdem sollen die MacBooks mit dem M1 im Vergleich zu den Intel-CPU eine erheblich längere Akkulaufzeit haben.
Der Vorteil weshalb ARM-CPU in Smartphones eingebaut werden, wird oft mit dem geringen Stromverbrauch begründet.


„Rollora“ schrieb:
Nein, denn ARM ist nicht per se leistungsfähiger als x86
Und übrigens auch nicht immer sparsamer oder auch nur effizienter.

Aus Torstens Aussage kann ich schließen, dass es Anwendungsfälle gibt, wo ein ARM sparsamer und auch nicht sparsamer als eine CPU mit x86-Architektur ist.

Welche genauen Anwendungsfälle / Benchmarks sind das ?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

In welchen Anwendungsfällten / Benchmarks ist eine ARM-CPU schneller?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.
 
Der M1 wird in 5nm gefertigt, man sollte den Fertigungsvorteil nicht unter den Tisch fallen lassen!
Das ist der erste Unterschied.

Zweitens soll der M1 eine ausgezeichnete Singlecoreleistung haben.
Das heißt, er braucht wenig Befehle, um eine Funktion in einem Kern abzuarbeiten.
Im Umkehrschluß kann er ein der gleichen Zeit viele Funktionen abarbeiten und schafft so mehr Leistung in der gleichen Zeit.

Für ein Notebook heißt das längere Akkulaufzeit und weniger Wärmeentwicklng.

Welche genauen Anwendungsfälle / Benchmarks sind das ?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

In welchen Anwendungsfällten / Benchmarks ist eine ARM-CPU schneller?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

Lies halt mal den verlinkten Artikel:
 
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.

Ich gebe zu, ich hätte die Liste durchscrollen sollen. Auf der ersten Seite ist mir die extreme Häufung von Microsoft-Farbvarianten nicht aufgefallen und Doppelungen durch Designunterschiede gibt es ja bei allen Tablets. Aber auch wenn ich von 357 Suchergebnissen alle 222 Microsoft-Produkte abziehe, bleibt ein vielfaches der von dir hoch gelobten 18 Modelle mit Cortex A77 übrig.

Zur Komplexität: Nach einigen Jahren Bulldozer ist selbst der Windows-Scheduler in der Lage, Kerne zu priorisieren, NUMA-fähige Kernel müssen schon sehr lange bestimmte Anwendungen bestimmten Kernen zuweisen können und Android, das wohl die Linux-Distribution mit der zahlenmäßig größten Verbreitung ist, hat meinem Wissen nach eine ziemlich gute big.LITTLE-Optimierung. Eine konsequente Optimierung für die neuen Intel-Chips ist das natürlich noch nicht und selbstverständlich motzen Entwickler immer, wenn sie etwas anderes als das simpelste Konzept umsetzen sollen. Aber die Sache ist ziemlich einfach: Microsoft verbaut Lakefield bereits, Windows on ARM setzt sich nicht durch und AMD hat für die Surface-Klasse nichts in der Pipeline. Die Microsoft-Entwickler müssen also eine vernünftige Unterstützung liefern, ob sie wollen oder nicht, weil die für Microsoft-Produkte zwingend benötigt wird. Damit ist das Henne-Ei-Problem vom Tisch und in den Zielmärkten der bislang besprochenen gemischten Alder-Lake-Konfigurationen hat Linux einen Anteil von maximal 2 Prozent, eher deutlich weniger, also wird sich die Hardware-Entwicklung nicht nach den dortigen Entwickler-Befindlichkeiten richten.

AMD hat asymmetrische Konzepte übrigens laut eigener Aussage fest im Blick und offensichtlich erst kürzlich wieder durchgerechnet. Das sie weiterhin darauf verzichten liegt daran, dass sie keine little-Architektur haben, die effizienter als Zen 3 ist und so etwas auch nicht mal eben aus dem Ärmel geschüttelt ist, wenn man Befehlssatzkompatibilität will. Hier ist der Schritt für Intel leichter, denn die haben auch keine Big-Kerne auf Zen-3-Niveau :-), mit der Atom-Schiene aber bereits eine little-Schiene im Haus. Wenn sie bei mobilen Geräten Erfolg haben wollen, wird AMD aber längerfristig auch nicht darum herum kommen.


Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.

Die genauen Grenzen schwanken sehr stark, je nach Software-Zweck und vor allem -Optimierung und Stand der jeweiligen CPU-Entwicklung. Ein direkter Vergleich ist mangels 1:1-Kontrahenten erst recht nicht möglich. Über alle Märkte hinweg zeichnet sich aber ab, was die Theorie bereits vermuten lässt: ARM-Kerne sind immer dann im Vorteil, wenn wenig Leistung von ihnen verlangt wird. Also vor allem im ultra-mobilen Bereich und in einigen Many-Core-Server-Designs. x86-Kerne lassen sich dagegen wegen dem enormen Overhead im Front-End schlechter nach unten skalieren. Das gilt vor allem für die Leistungsaufnahme. Sie schleppen die komplexen CISC-Decoder mit sich herum und brauchen zur effizienten Nutzung der resultierenden, langen Pipelines eine bessere Sprungvorhersage. Je mehr Power man in einem einzelnen Kern haben möchte, desto eher braucht man letztgenannte aber sowieso und desto komplexer sind in der Regel auch die Rechenaufgaben, die die Programme stellen. Schon das ARM-Kernen jetzt in Einsteiger(!)-Destkop-Szenarien überhaupt eine Chance zu gesprochen wird, liegt nicht unbedingt an der (gegenüber anderen ARMs herausragenden) Apple-Architektur, sondern sicherich zu einem erheblichen Teil an der Fertigung: 5 nm TSMC gegen bislang 14 nm Intel ist zwar aus Kundensicht ein fairer Vergleich da aktuell halt so im Handel, aber da geht eine Architektur mit richtig dickem Handicap an den Start. Auch gegenüber den für neue Produkte verfügbaren 10-nm-Intel- im unteren und 14-nm-plus-7-nm-TSMC-Alternativen im oberen Leistungssegment hat der M1 einen Bonus in der Hand.


Überwiegend aus einem Grund: Windows 10 x64 Software läuft darauf. Es sind halt Notebooks, die sich auch als Tablet nutzen lassen. Wer sein Business nicht komplett auf Cloud/Webanwendungen umgestellt hat, kann mit eine reinen Tablet-OS nur dann etwas anfangen, wenn er wenigstens für die wichtigsten Anwendungen Apps entwickeln lässt.

Zusätzlich ist mittlerweile Android+Tablet nahezu tot. Welche Entwicklung gibt es da denn noch? Wie gut kann man Android-Apps auf 10-12" bedienen, insb. ohne Speziallösungen von Samsung? Google hat das m.M.n. mittlerweile nahezu aufgegeben.

Das eine ist eine Folge des anderen. Google hat den Markt erst fallen gelassen, nachdem Wintel in Führung ging. Seitdem liegt der Schwerpunkt auf ChromeOS – das aber auch sehr oft auf Intel läuft.

AMD ist doch jetzt schon in der Lage, lastabhängig rein in HW Threads auf die schnellsten Kerne zu verteilen und die Jerne auch nur bei Bedarf hoch zu takten. Dann könnten sie das auch mit Kernen, die noch langsamer sind, wenn sie nur wollten.

Die Zuordnung in Hardware beherscht auch Intel (siehe Skylake X), aber für die kommenden Designs sollen die Scheduler übernehmen. Die wissen mehr über die Anforderungen der Anwendung, insbesondere hinsichtlich der Latenz (die CPU kann Hintergrund- nicht von Anwenderthreads unterscheiden) und sie können die Gesamtleistung besser abschätzen. Hardware-Scheduling wird dagegen mit Threads zugeschmissen, wenn alle Kerne offengelegt sind oder kann immer nur einen Teil der Ressourcen nutzen, wenn sich ein 8+8-Design als Achtkerner meldet. Letzteres hat auch den Nachteil, dass asymmetrische Designs wie Lakefields 4+1 kaum noch zu handlen werden, dabei sind gerade die interessant.
 
Zuletzt bearbeitet:
Das eine ist eine Folge des anderen. Google hat den Markt erst fallen gelassen, nachdem Wintel in Führung ging.
Dazu hätte ich gerne mal ansatzweise brachbare Zahlen.

Und wo ist Wintel bei Tablets im Vergleich zu Android in Führung gegangen? Android hat gegen Apple verloren, nicht gegen die mind. doppelt so teuren Business-Modelle von MS. Langsame China Atom-Tablets mit Windows waren nie eine Alternative.

Bei MS gab es nie eine auch nur in Ansätzen vergleichbare Vielfalt an (nutzbaren) Apps. Dagegen ein paar wenige, aber (u.U. für Studenten) produktiv gut nutzbare, welche genau die HW des Surface Pro 3-7 nutzen, die es bei Android höchstens in wenigen Samsung-Tablets in ansatzweise vergleichbarer Qualität gab/gibt. Obwohl ich auch deren Pen nicht mit dem Surface Pen von Surface Pro 7 vergleichen würde.

aber für die kommenden Designs sollen die Scheduler übernehmen. Die wissen mehr über die Anforderungen der Anwendung, insbesondere hinsichtlich der Latenz (die CPU kann Hintergrund- nicht von Anwenderthreads unterscheiden) und sie können die Gesamtleistung besser abschätzen.
Das einzig sinnvolle für mich ist die Lösung von Apple (egal was ich von denen halte): der Programmierer gibt vor, ob ein Programm oder welcher Thread davon auf den schnellen oder auf den langsamen Kernen laufen soll. Erst, wenn die Anforderung die Kernzahl übersteigt, muss des Scheduler regulierend eingreifen.

Ob MS sowas mittlerweile in seinen APIs eingebaut hat, weiss ich nicht. Apple hat das auf der WWDC2020 (und vermutlich auch schon früher, hat mich aber nie interessiert) ganz klar beschrieben.

Hardware-Scheduling wird dagegen mit Threads zugeschmissen, wenn alle Kerne offengelegt sind oder kann immer nur einen Teil der Ressourcen nutzen, wenn sich ein 8+8-Design als Achtkerner meldet.
Was auch Schwachsinn wäre, aber durchaus zu MS und seinem Unwillen passen würde, APIs früh genug an kommende HW anzulassen (bei Linux wird das Linus schon zu verhindeern wissen, ihm passt es ja nicht). Beim kleinen 4+1 Design sehe ich dagegen kein Problem, wenn MS mitzieht und den schwachen Kern ausschließlich für Systemkram verwendet (Live-Virenscanner, Datei-Indizierung und was da sonst noch unnütz Ressourcen frisst).

Was hat das mit der verbrauchten Leistung zu tun?
Der ARM hat zwar Vorteile durch die RISC-Orientierung, aber auch die CISC-Befehle haben Vorteile.
Wenn es um reine Rechenleistung pro Zeit geht. Wo Intel erst mal alles in µOPs zerlegen muss (auch das kostet bekanntlich Strom, Zeit und Transistoren), kann ARM die Instruktionen direkt verarbeiten. Bleibt dann überwiegend die Frage, ob man bei ARM soviel mehr Instruktionen benötigt wie der µOP Präprozessor bei Intel an Strom frisst.

Anscheinend hat es Intel bis heute nur mit InOrder Atoms geschafft, die Leistungsaufnahme recht gering zu halten.
 
Wo Intel erst mal alles in µOPs zerlegen muss (auch das kostet bekanntlich Strom, Zeit und Transistoren), kann ARM die Instruktionen direkt verarbeiten. Bleibt dann überwiegend die Frage, ob man bei ARM soviel mehr Instruktionen benötigt wie der µOP Präprozessor bei Intel an Strom frisst.
Genau das ist der Knackpunkt bei Intel.
 
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
Der Linux Scheduler ist doch überhaupt kein Problem hier. In Android kann er das auch.
Im Desktop hätte ich gerne volle Kerne, ja aber ich kann schon verstehen, dass Intel das macht. Man kann einen 16 Kerner verkaufen obwohl man eigentlich nur 8 große hat.
 
Zurück