• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Apple Mac: Neue Produkte mit Apple-Chipsatz M1 ab sofort bestellbar

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Apple Mac: Neue Produkte mit Apple-Chipsatz M1 ab sofort bestellbar

Der iPhone- und Mac-Hersteller Apple hat auf einem Online-Event neue Geräte mit dem eigensentwickelten Prozessor M1 vorgestellt. Das Macbook Air und Macbook Pro mit 13 Zoll sowie der Mac Mini können ab sofort bestellt werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Apple Mac: Neue Produkte mit Apple-Chipsatz M1 ab sofort bestellbar
 

The-GeForce

Software-Overclocker(in)
So sehr ich mich auch auf die neuen Macs mit Apple Silicon gefreut habe: Kaufen werde ich sie nicht. Es ist das eingetreten, was die Leaks auch schon vorher gesagt haben. Der Fokus der neuen Geräte liegt allein auf dem SoC. Kein neues Design (mir egal), keine neuen Features (mir ebenfalls egal) und (mir ganz und gar nicht egal) keine alten Features aus dem Jahr 2017! Ein MacBook ohne Face-ID kommt für mich nicht in Frage. Es gibt nichts, was ich an meinem Ipad so sehr schätze wie Face-ID. Und an einem Notebook macht es, meiner Meinung nach, sogar noch viel mehr Sinn als an einem Tablet.

Aber angeblich sollen 2021 schon die ersten Geräte mit Mini-LED-Display kommen, welche dann auch Designänderungen, wie zum Beispiel schmälere Ränder beim MacBook Pro, mit sich bringen sollen.
Und bis dahin wird sich auch gezeigt haben, was Apple Silicon für die breite Masse bedeutet.
 

PCGH_Claus

Redaktion
Teammitglied
So sehr ich mich auch auf die neuen Macs mit Apple Silicon gefreut habe: Kaufen werde ich sie nicht. Es ist das eingetreten, was die Leaks auch schon vorher gesagt haben. Der Fokus der neuen Geräte liegt allein auf dem SoC. Kein neues Design (mir egal), keine neuen Features (mir ebenfalls egal) und (mir ganz und gar nicht egal) keine alten Features aus dem Jahr 2017! Ein MacBook ohne Face-ID kommt für mich nicht in Frage. Es gibt nichts, was ich an meinem Ipad so sehr schätze wie Face-ID. Und an einem Notebook macht es, meiner Meinung nach, sogar noch viel mehr Sinn als an einem Tablet.

Aber angeblich sollen 2021 schon die ersten Geräte mit Mini-LED-Display kommen, welche dann auch Designänderungen, wie zum Beispiel schmälere Ränder beim MacBook Pro, mit sich bringen sollen.
Und bis dahin wird sich auch gezeigt haben, was Apple Silicon für die breite Masse bedeutet.
Ich bin gespannt darauf, wie gut die Emulation von x86-Programmen den neuen Macs mit Apple M1-Chip gelingt.
Windows 10 on ARM versucht seit Jahren, "alte" x86-Programme softwareseitig zu emulieren, damit man diese auch z.B. mit einem Qualcomm Snapdragon 8cx nutzen kann. In der Praxis bedeutet dies aber, dass manche grafiklastigen Anwendungen sich gar nicht nutzen lassen, weil die Emulation zu schwach ist...So kann man etwa kein Twitch-Desktop-Programm installieren auf einem Windows-Notebook mit einem ARM-Prozessor, wie z.B. beim Microsoft Surface Pro X. Auch muss man bei "richtigen" PC-Spielen aufpassen, denn manche lassen sich ebenfalls gar nicht erst installieren auf einem PC mit ARM-Chipsatz, weil etwa der GDDR-RAM des Grafikchips fehlt, da bei ARM-Chips ja immer nur eine Art iGPU verbaut ist...
Wenn man softwareseitig emulierte Programme nutzt, dann schmilzt auch die Akkulaufzeit dahin, denn die Angaben der Hersteller gelten ausschließlich unter Einhaltung spezieller Bedingungen, wie etwa die Nutzung von nativ, also neu kompilierten, laufenden Apps, im Falle der neuen Macs also z.B. nur bei Nutzung des Apple Safari-Browsers...
 

PCGH_Torsten

Redaktion
Teammitglied
Apple kaufen <=> PC-Spiel installieren wollen
:confused:
Das ging bislang auch nicht. Ebensowenig ist MacOS ein Traum für Leute, die für diverse Zwecke exotische Programme installiert haben. Apples Stärke waren schon immer die kleine, aber sauber programmierte Auswahl hauseigener Anwendungen und eng eingebundener Flaggschiff-3rd-Party-Entwickler. Es ist keine 15 Jarhe her, das Apple den letzten Architekturwechsel mit Emulationskrücke reibungslos hingelegt hat und diesmal sind erhebliche Teile des MacOS-Nutzungsspektrums, nämlich der gesamte seichte Office-/Multimedia-/Surf-/Casual-Game-Kram sowieso schon nativ als iOS-App verfügbar, bevor auch nur ein ARM-Mac überhaupt ausgeliefert wurde.

Es bliebt abzuwarten, ob das noch einmal weiter reduzierte Spektrum an Hardware-Fähigkeiten die Apple-Gemeinde abhält, der ähnlich beschränkte iMer-MacPro war ja auch kein Verkaufsschlager. Aber um die CPU-Architektur würde ich mir weniger Sorgen machen. Die Situation kannman nicht im geringsten mit Windows on ARM vergleichen, dass den Dauerflop Windows Mobile/RT/... fortsetzte. Windows wird seit über 20 Jahren von vielen Anwendern nur wegen mangelnder Kompatibilität weiterverwendet und Windows-Versionen ohne selbige waren deswegen immer wenig erfolgversprechende Worst-Offs zweier Welten. Das hat man ja im Ultra-Mobile-Krieg wunderschön sehen können, als sowohl Intel wie Microsoft unabhängig voneinander die Android-ARM-Allianz aus dem Tablet-Markt drängen wollte. Am Ende hat sich x86-Android zwar nicht gerade gut, aber doch um Längen besser als Win-on-ARM verkauft.
 

TheComedian18

Komplett-PC-Aufrüster(in)
Ein längst überfälliger Schritt, bereits 2011 hatte ich mich geärgert, das Apps auf dem iPad besser liefen, als Anwendungen auf dem Macbook Air, selbst bis Heute ist der Mac Appstore eher mit Crapware gefüllt, als denn mit vernünftigen Anwendungen.

Wenn die Apps auf dem Macbook halbwegs so gut laufen wie auf den iPad Pro's, dann wird das auf jeden Fall die Erfolgsstory weiter ausbauen.
 

dampflokfreund

PC-Selbstbauer(in)
Kann man ein Stück Zukunft erwerben.

In ein paar Jahren werden ARM CPUs in PC Laptops und Desktops sind nicht mehr weg zudenken sein, und man wird zu x86 blicken wie damals auf PowerPC Macs.
 

Nebulus07

Software-Overclocker(in)
ARM CPUs werden die Zukunft im mobilen Sector sein. Auch wird es eher früher als später in der Windowswelt ARM CPUs geben.

Das Big-Little CPU Design mit Alderlake hat bisher nur den Fehler, das man als Little-Core x86 genommen hat und nicht ARM.
Eine CPU mit 8 ARM Kernen für das StromsparWindows 10 und 8 HighEnd x86 BIG CPU Kerne für maximal Leistung zusammen in einer CPU, würde einschlagen wie eine Bombe. Im Desktop sind nur die ARM Kerne Aktiv und das ganze Gerät läuft flüssig und verbraucht 10W maximal. Sobald eine BIG Anwendung läuft schaltet die CPU auf x86 um und kann 200W verbrauchen.

Leider ein Traum, Intel wird niemals ARM Cores in ihre CPUs verbauen.
AMD hat schon angekündigt, das dass BIG-Little Design quatsch ist und so von AMD nicht kommen wird. Die werden keine Little Cores verbauen...

So viele gute Ideen, leider setzt die keiner um.

AMD wird dank FPGA zukauf, in Zukunft AI Komponenten in die CPUs verbauen. Das ist denen wichtiger als stromsparen.
 

Technologie_Texter

BIOS-Overclocker(in)
In ein paar Jahren werden ARM CPUs in PC Laptops und Desktops sind nicht mehr weg zudenken sein, und man wird zu x86 blicken wie damals auf PowerPC Macs.
Das wird nicht passieren;)

Eine CPU mit 8 ARM Kernen für das StromsparWindows 10 und 8 HighEnd x86 BIG CPU Kerne für maximal Leistung zusammen in einer CPU, würde einschlagen wie eine Bombe.
Das wäre ein gewaltiger Flop den niemand braucht!
 

Mephisto_xD

BIOS-Overclocker(in)
Aber angeblich sollen 2021 schon die ersten Geräte mit Mini-LED-Display kommen, welche dann auch Designänderungen, wie zum Beispiel schmälere Ränder beim MacBook Pro, mit sich bringen sollen.
Und bis dahin wird sich auch gezeigt haben, was Apple Silicon für die breite Masse bedeutet.
Regel Nummer 1 bei Apple: Bei größeren Änderungen oder neuen Produkten ist es sinnvoll die erste Generation auszusitzen. Denn das sind meist Krücken, die innerhalb von 24 Monaten aufs Abstellgleis gestellt werden.

Siehe: Apple Watch, iPad, iPhone.

ARM CPUs werden die Zukunft im mobilen Sector sein. Auch wird es eher früher als später in der Windowswelt ARM CPUs geben.

Das Big-Little CPU Design mit Alderlake hat bisher nur den Fehler, das man als Little-Core x86 genommen hat und nicht ARM.
Eine CPU mit 8 ARM Kernen für das StromsparWindows 10 und 8 HighEnd x86 BIG CPU Kerne für maximal Leistung zusammen in einer CPU, würde einschlagen wie eine Bombe. Im Desktop sind nur die ARM Kerne Aktiv und das ganze Gerät läuft flüssig und verbraucht 10W maximal. Sobald eine BIG Anwendung läuft schaltet die CPU auf x86 um und kann 200W verbrauchen.
Absoluter Quark. ARM an sich ist auch nicht der heilige Gral der Prozessorarchitekturen, und wäre es sowohl aus Hardware- als auch aus Softwaresicht ein Alptraum zwei völlig verschiedene Befehlssätze in eine CPU zu kombinieren, und dann im Millisekundentakt zwischen den beiden hin und her zu schalten.

Abgesehen davon liegt der Grund der Sparksamkeit eines ARM-SoCs nicht an der Architektur. Ich bin mir ziemlich sicher, dass ein vollintegrierter x86 5 nm big.LITTLE Chip mit minimalem IO von Intel ähnlich effizient wie der M1 sein könnte. Nur ist integrierter RAM mit einer Maximalkapazität von 16 GB in der Windowswelt eben nicht akzeptabel.
So viele gute Ideen, leider setzt die keiner um.
Faustregel: Wenn die Idee super gut und super einfach scheint, gibt es meist einen gewaltigen Haken. AMD und Intel beschäftigen durchaus schlaue Leute.
 

Nebulus07

Software-Overclocker(in)
Absoluter Quark. ARM an sich ist auch nicht der heilige Gral der Prozessorarchitekturen, und wäre es sowohl aus Hardware- als auch aus Softwaresicht ein Alptraum zwei völlig verschiedene Befehlssätze in eine CPU zu kombinieren, und dann im Millisekundentakt zwischen den beiden hin und her zu schalten.

Abgesehen davon liegt der Grund der Sparksamkeit eines ARM-SoCs nicht an der Architektur. Ich bin mir ziemlich sicher, dass ein vollintegrierter x86 5 nm big.LITTLE Chip mit minimalem IO von Intel ähnlich effizient wie der M1 sein könnte. Nur ist integrierter RAM mit einer Maximalkapazität von 16 GB in der Windowswelt eben nicht akzeptabel.

Faustregel: Wenn die Idee super gut und super einfach scheint, gibt es meist einen gewaltigen Haken. AMD und Intel beschäftigen durchaus schlaue Leute.

Intel hat es bis heute nicht geschafft im <10W Segment eine CPU zu bauen, die gleiche oder bessere Performance bietet als ein eine ARM Cortex-A77 die in Handys zu finden ist.
Dazu sollte man sich dann auch die Frage stellen, wieso es keine x86 Cores in Handys und nur in sehr wenigen Tablets gibt. In der Anfangszeit von Android, gab es x86 Handys, die aber sehr schnell vom Markt verschwunden sind. Intel hat das Handygeschäft aufgegeben.
Intel weiß, das die Leute nicht schnellere CPUs haben wollen, sondern Notebooks und Tablets mit sehr langer Akku-Laufzeit. Ebenso ist die Always-Power-On Strategie ein Buzzword von Intel. Man will den PC immer an haben, damit er zu jederzeit reagieren kann. z.B. eingehende Emails sofort abrufen. Das geht aber nur mit Cores die im Betrieb 1W verbrauchen. Mit einem BIG-Design nicht zu schaffen.

Auch muß ein Kombichip aus ARM und x86 nicht im Millisekundentakt umschalten. Es laufen ARM und X86 Code ja parallel. Der Desktop und Word usw. als ARM Software und der Photoshopfilter als x86 Code. Wäre einfach umzusetzen. Im Grunde werden die ARM Cores aber in Zukunft so Leistungsstark, das man keine High-End x86 Cores mehr braucht. Intel weiß das und versucht mit allen Mitteln, die ARM Vorteile zu übernehmen.
Auf Platz eins, ist das der geringe Verbrauch. Auf Platz zwei ist, das aarch64 den Mischbetrieb von 32Bit und 64Bit Code in einem Programm ermöglich. Dies ermöglicht kompakteren Code der besser in den Cache paßt. Punkt zwei kann Intel nicht mit der AMD x86_64 Architektur realisieren. Da hat man damals einfach geschlafen und mußte das AMD Design übernehmen.

TLTR; x86 wird an Marktanteilen verlieren und Intel ist zu Stur das einzusehen.
 

Mephisto_xD

BIOS-Overclocker(in)
Intel hat es bis heute nicht geschafft im <10W Segment eine CPU zu bauen, die gleiche oder bessere Performance bietet als ein eine ARM Cortex-A77 die in Handys zu finden ist.
Haben sie es denn versucht? Und wenn ja, liegt es wirklich am Befehlssatz, oder vielleicht doch am größeren IO, am nicht integrierten Speicher, oder am 14 nm+++ Prozess?
Dazu sollte man sich dann auch die Frage stellen, wieso es keine x86 Cores in Handys und nur in sehr wenigen Tablets gibt. In der Anfangszeit von Android, gab es x86 Handys, die aber sehr schnell vom Markt verschwunden sind. Intel hat das Handygeschäft aufgegeben.
Genauso gut könnte man sich die Frage stellen, warum es im Desktop defacto nur x86 gibt, und daraus schließen, dass ARM einfach nicht schnell sein kann. Beides ist Quatsch. x86 konnte sich nicht durchsetzen, weil Intel es nicht rechtzeitig geschafft hat so nette Dinge wie Modems in den Chip zu integrieren. ARM hatte damals schon das Baukastenprinzip, da war das alles deutlich einfacher.
Intel weiß, das die Leute nicht schnellere CPUs haben wollen, sondern Notebooks und Tablets mit sehr langer Akku-Laufzeit. Ebenso ist die Always-Power-On Strategie ein Buzzword von Intel. Man will den PC immer an haben, damit er zu jederzeit reagieren kann. z.B. eingehende Emails sofort abrufen. Das geht aber nur mit Cores die im Betrieb 1W verbrauchen. Mit einem BIG-Design nicht zu schaffen.
Und? Die aktuellen Ultrabooks laufen doch ähnlich lange wie die neuen Macs, oder?
Auch muß ein Kombichip aus ARM und x86 nicht im Millisekundentakt umschalten. Es laufen ARM und X86 Code ja parallel. Der Desktop und Word usw. als ARM Software und der Photoshopfilter als x86 Code. Wäre einfach umzusetzen.
Nein. Es wäre ein Alptraum. Mich beschleicht das Gefühl, dass du nicht wirklich eine Vorstellung hast wie aus Registern und Volladdierern letztlich eine funktionsfähige CPU entsteht. Was du hier "einfach" nennst, führt zu einer ganzen Reihe an Problemen auf Hardwareebene, im Betriebssytem und bei den Compilern.
Im Grunde werden die ARM Cores aber in Zukunft so Leistungsstark, das man keine High-End x86 Cores mehr braucht. Intel weiß das und versucht mit allen Mitteln, die ARM Vorteile zu übernehmen.
Auf Platz eins, ist das der geringe Verbrauch. Auf Platz zwei ist, das aarch64 den Mischbetrieb von 32Bit und 64Bit Code in einem Programm ermöglich. Dies ermöglicht kompakteren Code der besser in den Cache paßt. Punkt zwei kann Intel nicht mit der AMD x86_64 Architektur realisieren. Da hat man damals einfach geschlafen und mußte das AMD Design übernehmen.
Das mit dem Mischbetrieb nutzt Apple noch nicht einmal, alle Anwendungen auf iOS und macOS sind seit geraumer Zeit rein 64 bittig - da selbst die kleinen Caches mittlerweile im Megabyte Bereich liegen, ist das auch kaum noch relevant.
TLTR; x86 wird an Marktanteilen verlieren und Intel ist zu Stur das einzusehen.
Intel ist nicht "stur", sie wehren sich einfach nur. Verständlich, wenn man eine Firma ist, die sich auf Design und Fertigung von x86 CPUs spezialisiert hat.

Ich denke Intel und AMD werden im Mobilesegment tatsächlich irgendwann Probleme bekommen. Andererseits wurde x86 schon einige Male totgesagt, und bis dato ist es auf Desktops, Laptops und Servern so verbreitet wie nie. Ich glaube auch nicht, dass Apple hier was groß reißen wird, denn Apple ist zu sehr auf Marge und zu wenig auf Massenmarkt fokussiert. Wenn, kommt die Konkurrenz von Qualcomm oder nVidia.
 

RtZk

Lötkolbengott/-göttin
Ich bin mal sehr auf Benchmarks gespannt und damit den Vergleich zwischen der schnellsten x86 mobil CPU (müsste das Tiger Lake Flaggschiff sein) und der schnellsten ARM CPU die in den MacBooks verbaut wird.
Würde mich nicht verwundern, wenn die ARM CPU bedeutend schneller ist.
 

fotoman

Volt-Modder(in)
Windows 10 on ARM versucht seit Jahren, "alte" x86-Programme softwareseitig zu emulieren, damit man diese auch z.B. mit einem Qualcomm Snapdragon 8cx nutzen kann.
Wo versuchen sie es ernsthaft (ja, Du schreibst mit Absicht x86)? Nur 32 Bit, das ist für mich nur ein PoC und kein ernsthafter Versuch. Die Windows-Kunden (wenn sie sich das Tablet selber kaufen sollen) sind halt oft oft nicht berei, sich nur wegen einem Tablet neue SW oder HW zu kaufen (falls es die SW überhaupt gibt, viele Fotosoftware gibt es nur noch als 64 Bit Version, auch weit abseits von Adobe).

Den alten Treiber für meinen Epson AiO Drucker/Scanner kann ich auf dem Intel-Tablet problems installieren und den Scanner nuzten, für ein Surface Pro X müsste ich einen neuen Scanner kaufen und erst einmal aufwändig heraus finden, welcher denn von MS gnädigerweise unterstützt wird, da emulierte Treiber ja auch nicht funktionieren.

Wenn man softwareseitig emulierte Programme nutzt, dann schmilzt auch die Akkulaufzeit dahin, denn die Angaben der Hersteller gelten ausschließlich unter Einhaltung spezieller Bedingungen, wie etwa die Nutzung von nativ, also neu kompilierten, laufenden Apps, im Falle der neuen Macs also z.B. nur bei Nutzung des Apple Safari-Browsers...
Bei macOS wird vermutlich ganz schnell Mozilla selber FF neu compilieren. XCode läuft auf (!!!!,, nicht daneben, wie VS bei Microsoft) dem ARM Mac, FF lässt sich mit XCode übersetzen. Falls FF keine Funktionalitäten nutzt, die macOS/ARM nicht unterstützt, sollte das kein großes Problem sein. U.U. nötige Anpassungen wege big/little sollte es schon geben, die muss man "nur" noch für den macOS Port aktivieren.

FF nativ für Windows/ARM gibt es auch schon länger.

Mal ganz davon abgesehen, dass noch nicht einmal MS eine Emulation geschrieben hat, sondern, genauso wie Apple mit Rosetta, einen JiT, der den Intel-Code nach ARM übersetzt und den ARM-Code dann ausführt. Ob das mit 32 Bit nicht so performant möglich ist wie mit 64 Bit oder MS keine Lust auf eine vernünftige Unterstützung hatte (wie die Ignoranz von 64 Bit für mich nahe legt), weiss ich natürlich nicht.

Und? Die aktuellen Ultrabooks laufen doch ähnlich lange wie die neuen Macs, oder?
Tun sie das? Und tun sie das auch, wenn sie "always on" in dem Sinne sind, dass sie sofort (und damit meine ich sofort und nicht erst nach 5 Sekunden) verfügbar sind. Also Deckel auf, GUI ist da, WLan ist schon aktiv und ich kann sofort im Browser auf "refresh" klicken? Also genau so, wie man es seit fast einem Jahrzehnt vom Smartphone oder Tablet gewohnt ist, ohne, dass diese mit "suspend to ram" massenweise Akkuleistung kosten würde.

Aktiviere ich sowas an irgendeinem meiner Windows Tablets oder Notebooks, ist der Akku spätetsnes nach zwei Tagen Nichtnutzung leer. Da hält nicht nur das iPhone (inkl. Telefoniebereitschaft) länger durch, sondern auch jedes iPad oder Android-Tablet.

Apple wirbt mit sowas für die neuen ARM-Macs.

Ich denke Intel und AMD werden im Mobilesegment tatsächlich irgendwann Probleme bekommen.
Noch nicht einmal das glaube ich, so lange viel zu viele Leute auch mobil (und lokal ohne Cloud und Netzwerkzugriff) auf ihre gewohnte Software zurück greifen wollen oder müssen. Die Probleme gibt es erst, wenn Microsoft Windows komplet gegen die Wand fährt.

Ich bin mal sehr auf Benchmarks gespannt und damit den Vergleich zwischen der schnellsten x86 mobil CPU (müsste das Tiger Lake Flaggschiff sein) und der schnellsten ARM CPU die in den MacBooks verbaut wird.
Würde mich nicht verwundern, wenn die ARM CPU bedeutend schneller ist.
Gleich schnell, und das mit nur 4 brauchbaren Kernen und 4, die den unnützen Hintergrundmist des OS übernhmen, sollte mobil zunächst genügen. Mehr wäre natürlich immer schön, aber dann braucht man irgendwann auch mehr Ram.

Die Frage ist für mich eher, ob man solche realen Tests überhaupt sehen wird. U.U. dort, wo OpenSource Software durch einfaches Recompile auf macOS/ARM lauffähig ist.

Wird die SW an Apple silicon angepasst/optimiert, wird man dort auch die diverse Zusatz-HW nutzen. Und schon landet man bei dem Effekt, dem man heute schon bei den Leuten sieht, die ihre Videos auf dem iPad Pro schneiden. Subjektiv ist die SW dort rasend schnell, was aber nicht viel mit der CPU zu tun hat. Dem Anwender ist das natürlich egal, der will performance und stabile Software nutzen.

In der rein benchmarkseitige CPU-Leistung war jedenfalls schon der A14 erstaunlich gut:
 

Technologie_Texter

BIOS-Overclocker(in)
Bei macOS wird vermutlich ganz schnell Mozilla selber FF neu compilieren. XCode läuft auf (!!!!,, nicht daneben, wie VS bei Microsoft) dem ARM Mac, FF lässt sich mit XCode übersetzen. Falls FF keine Funktionalitäten nutzt, die macOS/ARM nicht unterstützt, sollte das kein großes Problem sein. U.U. nötige Anpassungen wege big/little sollte es schon geben, die muss man "nur" noch für den macOS Port aktivieren.
 

PCGH_Torsten

Redaktion
Teammitglied
Nein, denn ARM ist nicht per se leistungsfähiger als x86

Und übrigens auch nicht immer sparsamer oder auch nur effizienter.


Genau das ist es aber, wo Intel die Zukunft sieht. 8 lahme Stromsparkerne und 8 schnelle High-End Kerne in einer CPU.
AMD vermutet, Intel macht das nur, damit man 16 Kerne auf die Packung schreiben kann. Intel erhofft sich aber einen großen Erfolg !

Nein, Intel sieht die Zukunft* in big.LITTLE-Designs, bei denen beide Kernvarianten die gleichen Befehle beherrschen. Nicht in dem von dir vorgeschlagenen Software-GAU, bei dem für jede Wechsel des Leistungszustand sämtliche Programme inklusive des Betriebssystemskernels neu geladen werden müssten.

*Übrigens nur einen Teil der Zukunft. Bislang gibt es keine Gerüchte zu heterogenen Prozessoren oberhalb 8+8, sehr wohl aber welche zu 0+8-Designs. Intel arbeitet also auch weiterhin an einheitlichen Prozessoren; in der allgemeinen Selbstdarstellung spricht man flexiblen Baukästen, bei denen je nach Anwendung die sinnvollen Funktionen zusammengestellt werden. Von all little bis all big, gemischt mit IGPs und FPGAs. Man darf misstrauisch sein, was da kommt, aber nur weil die einzige post-2022er-Intel-CPU-Reihe zu der bereits irgendwelche Details bekannt sind, mit einem 8+8-Flaggschiff antritt, heißt das nicht, dass es nichts anderes geben wird.


Intel hat es bis heute nicht geschafft im <10W Segment eine CPU zu bauen, die gleiche oder bessere Performance bietet als ein eine ARM Cortex-A77 die in Handys zu finden ist.
Dazu sollte man sich dann auch die Frage stellen, wieso es keine x86 Cores in Handys und nur in sehr wenigen Tablets gibt. In der Anfangszeit von Android, gab es x86 Handys, die aber sehr schnell vom Markt verschwunden sind. Intel hat das Handygeschäft aufgegeben.

Nur in wenigen Tablets?
356 Windows + Intel
31 Android + Intel
Android + A77

Es stimmt zwar, dass Intel das Milliardengrab "Handy-Markt erobern" vor Jahren eingestellt hat, aber im Tablet-Bereich waren sie erfolgreich in ihrem Versuch, die ARM-Konkurrenz zurückzuschlagen. Oberhalb von 400 Euro basieren aktuell zwei Drittel aller lieferbaren Tablets mit Android oder Windows auf Intel-CPUs. Nur die Billighersteller nehmen durchgängig etwas billige(re)s. Aber ab einer gewissen Leistungsklasse ist Intel die Regel – wenn man keinen Zugriff auf Apple-Prozessoren hat. ;-)

Haben sie es denn versucht?

Wenn man sich die Erfolge der ULV-Core-i und -Atoms sowie jüngst von Lakefield anguckt würde ich sagen: Versucht und geschafft. Nur <5 W packt Intel seit Mitte der 10er nicht mehr an. In so niedrige Leistungsgefilde skalieren die ...monts nicht, da war man selbst mit viel Subventionen nie wirklich konkurrenzfähig, zumal Android-Entwickler natürlich primär für ARM optimieren und niemand will ein (ressourcenhungriges) Windows auf dem Handy.
 

Nebulus07

Software-Overclocker(in)
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
 

wuselsurfer

Kokü-Junkie (m/w)
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden.
Ja , rechnen ist schwer.
Hier
sind von 355 Windows Tablets 221 Surface Geräte, macht so um die 62%.

Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86
Sagen wir mal 60 ... 70.

und 1000sende mit ARM/Android.
Wo denn:
https://geizhals.de/?cat=nbtabl&sort=p&xf=2187_Android ?
Ich zähle da knapp 350.
Davon sind alleine 117 von Samsung, 51 von Lenovo und 31 von Huawai.
Das sind ca. 200 von nur 3 Herstellern und 150 von anderen.
 

wuselsurfer

Kokü-Junkie (m/w)
Und die ganze 1Ksenden die es nicht mehr am Markt gibt?
Die hat der Markt gefressen.
Zu 99% aufgrund mangelnder Produktqualität.

Ich könnte da einige Kandidaten nennen, wo die USB-Buchsen schon beim zweiten Einstecken ausbrachen, Teile abfielen beim auspacken oder ganze Lieferungen in der ersten 7 Tagen zurückkamen als RMA, mach es aber nicht.
 

wuselsurfer

Kokü-Junkie (m/w)
Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.
Wieso sollte ein ARM-Prozessor sich anders verhalten, als ein X86/64er?

Er hat die gleichen Schaltelemente (Si-MOS-Transistoren), die in der gleichem Technologie mit den gleichen Materialien in den gleichen Fabriken gefertigt werden.

Bei gleicher Betriebsspannung und - frequenz verhält er sich ganau so, wie im Intel-Prozessor.
Leistungsverbrauch und Ähnliches sind ebenfalls gleich.

Bei gleicher Transistoranzahl wird sich der ARM-Prozessor genau so verhalten, wie ein Intel-Prozessor.
 

fotoman

Volt-Modder(in)
aber im Tablet-Bereich waren sie erfolgreich in ihrem Versuch, die ARM-Konkurrenz zurückzuschlagen.
Überwiegend aus einem Grund: Windows 10 x64 Software läuft darauf. Es sind halt Notebooks, die sich auch als Tablet nutzen lassen. Wer sein Business nicht komplett auf Cloud/Webanwendungen umgestellt hat, kann mit eine reinen Tablet-OS nur dann etwas anfangen, wenn er wenigstens für die wichtigsten Anwendungen Apps entwickeln lässt.

Zusätzlich ist mittlerweile Android+Tablet nahezu tot. Welche Entwicklung gibt es da denn noch? Wie gut kann man Android-Apps auf 10-12" bedienen, insb. ohne Speziallösungen von Samsung? Google hat das m.M.n. mittlerweile nahezu aufgegeben.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
AMD setzt halt nur auf Desktop, HEDT und Server, da bringt sowas nahezu nichts. Was sie vom Mobilsektor halten sieht man an der nicht-Lieferbarkeit von Laptops mit den meisten ehemals angekündigten Zen2-Mobil CPU-Varianten seit vielen Monaten.

AMD ist doch jetzt schon in der Lage, lastabhängig rein in HW Threads auf die schnellsten Kerne zu verteilen und die Jerne auch nur bei Bedarf hoch zu takten. Dann könnten sie das auch mit Kernen, die noch langsamer sind, wenn sie nur wollten.

Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
Weil Linus mal wieder lustlos ist (wie u.A. bei AVX512) und sich das ganze nicht sinnvoll für Server einsetzen lässt, kann die HW nichts taugen. Kein Wunder, dass Linux auf dem Desktop und Laptop auf immer eine Randerscheindung bleiben wird.

Apple stellt einfach sein OS und die APIs um, fertig ist die Unterstützung. Ohne Softwareänderung vermutlich nur suboptimal, aber das werden die Entwickler der Apps/Programme schon noch schaffen.

sind von 355 Windows Tablets 221 Surface Geräte, macht so um die 62%.
Da sind die ganze China-Geräte (Chuwi, Teclast und co) noch nicht mit eingerechnet, weil die dort auch dann nicht auftauchen, wenn man sie über Amazon DE aus Europa geliefert bekommt.

Wieso sollte ein ARM-Prozessor sich anders verhalten, als ein X86/64er?
Nachdem keine CPU nur zum Selbstzweck oder als Heizung genutzt wird, kommt im realen Betrieb irgendwann halt auch der Befehlssatz und dessen interne Verarbeitung hinzu.
 

be-le

Kabelverknoter(in)
Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.

Mit welcher ARM-CPU bzw. genauen Arm Architektur vergleichst du ?


Anscheinend ist meine obige Frage missverstanden worden. Ich beziehe mich nicht auf elektrotechnische Definitionen von Leistung etc !

Ich möchte hier meine Frage nochmals (hoffentlich verständlicher) beschreiben:

Apple hat bei seiner Produktvorstelltung des M1 und der MacBooks damit geworben, dass der M1 Pro Core gemessen die schnellste Notebook-CPU ist.

Laut Single Core Geekbench scheint dies auch der Fall zu sein.

Diesen Single-Core Wert hat mich überrascht, da meiner Erinnerung nach bisher die ARM-Prozessoren viel schlechter abgeschnitten haben als die neuesten Intel/AMD Desktop-CPU.

Außerdem sollen die MacBooks mit dem M1 im Vergleich zu den Intel-CPU eine erheblich längere Akkulaufzeit haben.
Der Vorteil weshalb ARM-CPU in Smartphones eingebaut werden, wird oft mit dem geringen Stromverbrauch begründet.


„Rollora“ schrieb:
Nein, denn ARM ist nicht per se leistungsfähiger als x86
Und übrigens auch nicht immer sparsamer oder auch nur effizienter.

Aus Torstens Aussage kann ich schließen, dass es Anwendungsfälle gibt, wo ein ARM sparsamer und auch nicht sparsamer als eine CPU mit x86-Architektur ist.

Welche genauen Anwendungsfälle / Benchmarks sind das ?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

In welchen Anwendungsfällten / Benchmarks ist eine ARM-CPU schneller?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.
 

wuselsurfer

Kokü-Junkie (m/w)
Der M1 wird in 5nm gefertigt, man sollte den Fertigungsvorteil nicht unter den Tisch fallen lassen!
Das ist der erste Unterschied.

Zweitens soll der M1 eine ausgezeichnete Singlecoreleistung haben.
Das heißt, er braucht wenig Befehle, um eine Funktion in einem Kern abzuarbeiten.
Im Umkehrschluß kann er ein der gleichen Zeit viele Funktionen abarbeiten und schafft so mehr Leistung in der gleichen Zeit.

Für ein Notebook heißt das längere Akkulaufzeit und weniger Wärmeentwicklng.

Welche genauen Anwendungsfälle / Benchmarks sind das ?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

In welchen Anwendungsfällten / Benchmarks ist eine ARM-CPU schneller?
Welche genaue ARM-CPU wird hier mit welcher x86-CPU für den Vergleich herangezogen.

Lies halt mal den verlinkten Artikel:
 

PCGH_Torsten

Redaktion
Teammitglied
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.

Ich gebe zu, ich hätte die Liste durchscrollen sollen. Auf der ersten Seite ist mir die extreme Häufung von Microsoft-Farbvarianten nicht aufgefallen und Doppelungen durch Designunterschiede gibt es ja bei allen Tablets. Aber auch wenn ich von 357 Suchergebnissen alle 222 Microsoft-Produkte abziehe, bleibt ein vielfaches der von dir hoch gelobten 18 Modelle mit Cortex A77 übrig.

Zur Komplexität: Nach einigen Jahren Bulldozer ist selbst der Windows-Scheduler in der Lage, Kerne zu priorisieren, NUMA-fähige Kernel müssen schon sehr lange bestimmte Anwendungen bestimmten Kernen zuweisen können und Android, das wohl die Linux-Distribution mit der zahlenmäßig größten Verbreitung ist, hat meinem Wissen nach eine ziemlich gute big.LITTLE-Optimierung. Eine konsequente Optimierung für die neuen Intel-Chips ist das natürlich noch nicht und selbstverständlich motzen Entwickler immer, wenn sie etwas anderes als das simpelste Konzept umsetzen sollen. Aber die Sache ist ziemlich einfach: Microsoft verbaut Lakefield bereits, Windows on ARM setzt sich nicht durch und AMD hat für die Surface-Klasse nichts in der Pipeline. Die Microsoft-Entwickler müssen also eine vernünftige Unterstützung liefern, ob sie wollen oder nicht, weil die für Microsoft-Produkte zwingend benötigt wird. Damit ist das Henne-Ei-Problem vom Tisch und in den Zielmärkten der bislang besprochenen gemischten Alder-Lake-Konfigurationen hat Linux einen Anteil von maximal 2 Prozent, eher deutlich weniger, also wird sich die Hardware-Entwicklung nicht nach den dortigen Entwickler-Befindlichkeiten richten.

AMD hat asymmetrische Konzepte übrigens laut eigener Aussage fest im Blick und offensichtlich erst kürzlich wieder durchgerechnet. Das sie weiterhin darauf verzichten liegt daran, dass sie keine little-Architektur haben, die effizienter als Zen 3 ist und so etwas auch nicht mal eben aus dem Ärmel geschüttelt ist, wenn man Befehlssatzkompatibilität will. Hier ist der Schritt für Intel leichter, denn die haben auch keine Big-Kerne auf Zen-3-Niveau :-), mit der Atom-Schiene aber bereits eine little-Schiene im Haus. Wenn sie bei mobilen Geräten Erfolg haben wollen, wird AMD aber längerfristig auch nicht darum herum kommen.


Mich interessiert wo genau ARM sparsamer / nicht sparsamer und effizienter / nicht effizienter im Vergleich zu einer CPU mit x86 instruction set ist.

Die genauen Grenzen schwanken sehr stark, je nach Software-Zweck und vor allem -Optimierung und Stand der jeweiligen CPU-Entwicklung. Ein direkter Vergleich ist mangels 1:1-Kontrahenten erst recht nicht möglich. Über alle Märkte hinweg zeichnet sich aber ab, was die Theorie bereits vermuten lässt: ARM-Kerne sind immer dann im Vorteil, wenn wenig Leistung von ihnen verlangt wird. Also vor allem im ultra-mobilen Bereich und in einigen Many-Core-Server-Designs. x86-Kerne lassen sich dagegen wegen dem enormen Overhead im Front-End schlechter nach unten skalieren. Das gilt vor allem für die Leistungsaufnahme. Sie schleppen die komplexen CISC-Decoder mit sich herum und brauchen zur effizienten Nutzung der resultierenden, langen Pipelines eine bessere Sprungvorhersage. Je mehr Power man in einem einzelnen Kern haben möchte, desto eher braucht man letztgenannte aber sowieso und desto komplexer sind in der Regel auch die Rechenaufgaben, die die Programme stellen. Schon das ARM-Kernen jetzt in Einsteiger(!)-Destkop-Szenarien überhaupt eine Chance zu gesprochen wird, liegt nicht unbedingt an der (gegenüber anderen ARMs herausragenden) Apple-Architektur, sondern sicherich zu einem erheblichen Teil an der Fertigung: 5 nm TSMC gegen bislang 14 nm Intel ist zwar aus Kundensicht ein fairer Vergleich da aktuell halt so im Handel, aber da geht eine Architektur mit richtig dickem Handicap an den Start. Auch gegenüber den für neue Produkte verfügbaren 10-nm-Intel- im unteren und 14-nm-plus-7-nm-TSMC-Alternativen im oberen Leistungssegment hat der M1 einen Bonus in der Hand.


Überwiegend aus einem Grund: Windows 10 x64 Software läuft darauf. Es sind halt Notebooks, die sich auch als Tablet nutzen lassen. Wer sein Business nicht komplett auf Cloud/Webanwendungen umgestellt hat, kann mit eine reinen Tablet-OS nur dann etwas anfangen, wenn er wenigstens für die wichtigsten Anwendungen Apps entwickeln lässt.

Zusätzlich ist mittlerweile Android+Tablet nahezu tot. Welche Entwicklung gibt es da denn noch? Wie gut kann man Android-Apps auf 10-12" bedienen, insb. ohne Speziallösungen von Samsung? Google hat das m.M.n. mittlerweile nahezu aufgegeben.

Das eine ist eine Folge des anderen. Google hat den Markt erst fallen gelassen, nachdem Wintel in Führung ging. Seitdem liegt der Schwerpunkt auf ChromeOS – das aber auch sehr oft auf Intel läuft.

AMD ist doch jetzt schon in der Lage, lastabhängig rein in HW Threads auf die schnellsten Kerne zu verteilen und die Jerne auch nur bei Bedarf hoch zu takten. Dann könnten sie das auch mit Kernen, die noch langsamer sind, wenn sie nur wollten.

Die Zuordnung in Hardware beherscht auch Intel (siehe Skylake X), aber für die kommenden Designs sollen die Scheduler übernehmen. Die wissen mehr über die Anforderungen der Anwendung, insbesondere hinsichtlich der Latenz (die CPU kann Hintergrund- nicht von Anwenderthreads unterscheiden) und sie können die Gesamtleistung besser abschätzen. Hardware-Scheduling wird dagegen mit Threads zugeschmissen, wenn alle Kerne offengelegt sind oder kann immer nur einen Teil der Ressourcen nutzen, wenn sich ein 8+8-Design als Achtkerner meldet. Letzteres hat auch den Nachteil, dass asymmetrische Designs wie Lakefields 4+1 kaum noch zu handlen werden, dabei sind gerade die interessant.
 
Zuletzt bearbeitet:

fotoman

Volt-Modder(in)
Das eine ist eine Folge des anderen. Google hat den Markt erst fallen gelassen, nachdem Wintel in Führung ging.
Dazu hätte ich gerne mal ansatzweise brachbare Zahlen.

Und wo ist Wintel bei Tablets im Vergleich zu Android in Führung gegangen? Android hat gegen Apple verloren, nicht gegen die mind. doppelt so teuren Business-Modelle von MS. Langsame China Atom-Tablets mit Windows waren nie eine Alternative.

Bei MS gab es nie eine auch nur in Ansätzen vergleichbare Vielfalt an (nutzbaren) Apps. Dagegen ein paar wenige, aber (u.U. für Studenten) produktiv gut nutzbare, welche genau die HW des Surface Pro 3-7 nutzen, die es bei Android höchstens in wenigen Samsung-Tablets in ansatzweise vergleichbarer Qualität gab/gibt. Obwohl ich auch deren Pen nicht mit dem Surface Pen von Surface Pro 7 vergleichen würde.

aber für die kommenden Designs sollen die Scheduler übernehmen. Die wissen mehr über die Anforderungen der Anwendung, insbesondere hinsichtlich der Latenz (die CPU kann Hintergrund- nicht von Anwenderthreads unterscheiden) und sie können die Gesamtleistung besser abschätzen.
Das einzig sinnvolle für mich ist die Lösung von Apple (egal was ich von denen halte): der Programmierer gibt vor, ob ein Programm oder welcher Thread davon auf den schnellen oder auf den langsamen Kernen laufen soll. Erst, wenn die Anforderung die Kernzahl übersteigt, muss des Scheduler regulierend eingreifen.

Ob MS sowas mittlerweile in seinen APIs eingebaut hat, weiss ich nicht. Apple hat das auf der WWDC2020 (und vermutlich auch schon früher, hat mich aber nie interessiert) ganz klar beschrieben.

Hardware-Scheduling wird dagegen mit Threads zugeschmissen, wenn alle Kerne offengelegt sind oder kann immer nur einen Teil der Ressourcen nutzen, wenn sich ein 8+8-Design als Achtkerner meldet.
Was auch Schwachsinn wäre, aber durchaus zu MS und seinem Unwillen passen würde, APIs früh genug an kommende HW anzulassen (bei Linux wird das Linus schon zu verhindeern wissen, ihm passt es ja nicht). Beim kleinen 4+1 Design sehe ich dagegen kein Problem, wenn MS mitzieht und den schwachen Kern ausschließlich für Systemkram verwendet (Live-Virenscanner, Datei-Indizierung und was da sonst noch unnütz Ressourcen frisst).

Was hat das mit der verbrauchten Leistung zu tun?
Der ARM hat zwar Vorteile durch die RISC-Orientierung, aber auch die CISC-Befehle haben Vorteile.
Wenn es um reine Rechenleistung pro Zeit geht. Wo Intel erst mal alles in µOPs zerlegen muss (auch das kostet bekanntlich Strom, Zeit und Transistoren), kann ARM die Instruktionen direkt verarbeiten. Bleibt dann überwiegend die Frage, ob man bei ARM soviel mehr Instruktionen benötigt wie der µOP Präprozessor bei Intel an Strom frisst.

Anscheinend hat es Intel bis heute nur mit InOrder Atoms geschafft, die Leistungsaufnahme recht gering zu halten.
 

wuselsurfer

Kokü-Junkie (m/w)
Wo Intel erst mal alles in µOPs zerlegen muss (auch das kostet bekanntlich Strom, Zeit und Transistoren), kann ARM die Instruktionen direkt verarbeiten. Bleibt dann überwiegend die Frage, ob man bei ARM soviel mehr Instruktionen benötigt wie der µOP Präprozessor bei Intel an Strom frisst.
Genau das ist der Knackpunkt bei Intel.
 

Rollora

Kokü-Junkie (m/w)
LOL... Von den 356 Windows+Intel Tablets sind 90% Windows Surface Geräte die sich nur in der Farbe oder RAM/CPU Ausstattung unterscheiden. Somit gibt es c.a. 50 UNTERSCHIEDLICHE Tablets mit Wintel/x86 und 1000sende mit ARM/Android.

Das 8+8 Big Little Design wird von AMD zerissen! Es gibt ein sehr gutes neues Interview dazu vom AMD CPU Designer. Tenor, nach vielen Beratungen hat sich AMD dagegen entschieden.
Im Linux Lager ist man ebenfalls enttäuscht. Die sheduler die die Aufgaben an die CPUs verteilen, sind gar nicht dafür ausgelegt. Alle Betriebssysteme Win10/Linux bevorzugen ein symmetrisches CPU Design.
Der Linux Scheduler ist doch überhaupt kein Problem hier. In Android kann er das auch.
Im Desktop hätte ich gerne volle Kerne, ja aber ich kann schon verstehen, dass Intel das macht. Man kann einen 16 Kerner verkaufen obwohl man eigentlich nur 8 große hat.
 
Oben Unten