Apple-Wechsel zu ARM: Qualität von Skylake ein ausschlaggebender Grund?

Habt ihr schon mal 1000 Euro für eine Ersatzfestplatte mit 10Megabyte bezahlt? Nicht Terabyte! Nein! Megabyte! Versucht eure gesamte Hardware und Software in der Firma mal auf einen Nenenr zu bringen, ein Haareraufen für die IT!
Auch privat setze ich stellenweise sehr alte Hardware ein, ihr doch auch? ARm hat bei mir deshalb nichts verloren.
In Firmen kann ich es ja noch verstehen, ein Röntgengerät mit einem siebenstelligen Preisschild ersetzt man nicht weil die Festplatte kaputt ist, selbst wenn der Ersatz für heutige Verhältnisse unverschämt teuer ist.

Aber Zuhause? Ich habe ehrlich gesagt keine Hardware, die mit einem ARM Gerät per se nicht funktionieren würde. Bis auf Computerinnereien wie PCIe Karten natürlich. Disketten und CDs sind längst auf die Festplatte gezogen, und die Peripherie setzt mittlerweile ausschließlich auf USB oder LAN. Selbst wenn ich noch Geräte mit seriellem, parallelem oder noch antikerem Anschluss hätte, man kann mittlerweile alles an einen USB-Port hängen. Es kann natürlich sein, dass man da dann auf fehlende Treiber stößt, weil der Hersteller die nur in Binärform bereitstellt (besonders bei Druckern), aber die meisten Treiber leben direkt im Kernel und würden daher einen Mikroarchitekturwechsel überleben.

Die Krux für mich ist eher die Software von Drittanbietern. Hier wird sich zeigen wie gut Apple die Entwickler motivieren kann, und wie gut der Emulator funktioniert.
Tja - einfach nein. ARM ist RISC - das was mit dem Befehlssatz auskommt ist sehr effizient, alles was die Befehlserweiterungen von x86/64 nutzt läuft aber langsam und ineffizienter. Das ist einfach ein fundamentaler unterschied zwischen RISC und CISC. Genauso wie ein FBGA eine general-purpose CPU in gewissen Bereichen abhängt, aber eben bei general Purpose Anwendungen nicht Ansatzweise mithalten kann.
Quark.

Erstens mal ist der Unterschied zwischen RISC und CISC in Bezug auf ARM vs x86 nur noch akademisch. x86 führt kopmpliziertere Befehle schon seit dem Pentium Pro nicht mehr in einem Takt aus, sondern teilt sie in mehrere einfache Mikroops und ist damit defacto RISC. Auf der anderen Seite ist ARM schon lange nicht mehr der minimalistische Befehlssatz, der mal für ultrastromsparende CPUs gedacht war, sondern hat Erweiterungen wie NEON, die in ihrer Komplexität selbst AVX512 in den Schatten stellen.

Zweitens hat das ganze überhaupt nichts mit einem FPGA zu tun. Die Stärke eines FPGAs liegt darin, Hardware durch Software abbilden zu können, auf Kosten von Effizienz und Fläche. Der korrekte Vergleich wäre ein spezialisierter ASIC gewesen - but oh wait, solche Spezialhardware gibt es ja auf modernen CPUs, z.B. um Videos zu dekodieren.
ARM ist viel leistungsfähiger als x86 ... man überlege nur mal man würde ein ARM System entwickeln was die Leistungsaufnahme eines x86 zur Verfügung hätte :D da sag ich nur gg x86 :D
Leistungsaufnahme skaliert nicht linear mit der Taktfrequenz, sondern bestenfalls quadratisch. Und das gilt auch nur, wenn die zugrundeliegende Hardware noch alle Timings einhält, also nach jedem Takt jeder Transistor in einem wohldefinierten Zustand ist. Eine CPU, die auf 2 GHz ausgelegte wurde, wird 4 GHz mit ziemlicher Sicherheit überhaupt nicht mitmachen, nichtmal mit Stickstoff. Umgekehrt ist eine 4 GHz CPU bei 2 GHz um Welten effizienter. Guck dir mal die Kurve bei einem Zen-2 Core an: Ein einzelner Kern kann mal locker 10W ziehen wenn er über die 4 GHz rausgeht, aber zieht weniger als 2 W wenn man ihn auf 2 GHz taktet.
 
Ich finde die Diskussionen imemr so geil.
Imemr wieder gibt es Fanbewegungen, die in anderer Softaware und Hardware irgendwelche Fantasien sehen.
VR hier und da, ARM hier und da, Linux hier und da.
Am Ende regen sich alle wieder auf, dass nichts 100% läuft wie sonst, zack haben die Fanatiker alle wieder Windows und X86 und eine normale brille auf dem Kopf.
Kurz gesagt: Inkompetenz.
 
Macht Sinn.
Apple hat das ja nicht erst kurz vor der Ankündigung entschieden. Da gibt es sicher schon 2-3 Jahre Vorlaufzeit. Könnte also hinkommen, das Skylake die Entscheidung beeinflusst hat.


Übrigens!!!
Was hier viele nicht zu wissen scheinen: Apple hat den "Rattenschwanz" 32bit schon vor fast einem Jahr mittels Update abgeschnitten. Könnte den Übergang also entsprechend einfacher machen.


Ich bin schon gespannt was mit der Spezialsoftware bei Mac OS weitergeht. Im Audio/Video-Bereich gibt es ja durchaus Spezial-Software/Hardware die nur unter Mac OS betrieben werden kann.
Mit der Umstellung wird die entsprechend umgeschrieben werden müssen. Ob man da wirklich auf ARM umstellt oder ob eine Umstellung auf Linux als Unixoid doch einfacher ist?

Ich fände es aber mehr als nur peinlich für Intel und AMD wenn die "Apple-CPUs" dann vergleichbare Leistungen bei nur
einem bruchteil der Stromverbrauchs erbringen würden.

Würde ich so nicht sagen. Man mag von Apple halten was man will, aber was Optimierungen angeht sind sie spitze dank der geringen zu supportenden Hardwarebandbreite. Warum sonst können iPhones trotz viel kleinerem Akkus laufzeittechnisch mit sonst vergleichbaren Androids mithalten? Oder auch auf MacOS: Mein Arbeitsrechner (mit Windows) ist etwas neuer und prozessortechnisch besser ausgestattet als mein MacBook Air. Im Betrieb merkst du null davon, eher im Gegenteil.
Man kann sich also schon einen gewissen Leistungsbonus rein aufgrund des OS erwarten.

Wie sieht es dann eigentlich mit Virtualisierungslösungen wie VMware Workstation etc. aus? Viele Apple user die ich kenne brauchen einfach ein x86 Windows OS noch dazu.
Ich schätze die können maximal Windows 10 for ARM nutzen
 
Wenn ich so durch die Musikbranche schaue, wie viele Studios hier schon mittlerweile von Mac zum Windows gewechselt sind,
wird sich z.B. AVID schwer überlegen müssen, hier 2-gleisig zu entwickeln**, oder doch bei einer Plattform (die recht Sicher Windows sein wird) bzw. Architektur zu bleiben.
Und die bieten ja nicht nur Pro Tools und Media Composer an.

Ich denke, dass es anderen Unternehmen, bzw. Software auch so gehen wird.
Das ganze geht ja noch weiter und zwar bei der Hardware, die Hersteller (Nur mit nem Mac ist's ja nich getan) müssen noch ein Treiber und Software mehr entwickeln und updaten...
Einige haben ja jetzt schon aufgehört Mac zu supporten.

Ich weiß schon, wieso ich seit Pro Tools 7 durchweg nur auf windows Systemen arbeite ;)

**
Ich vermute das wird dann bissel mehr Aufwand, da eben 2 völlig verschiedene Architekturen optimal genutzt werden sollen/müssen.


Dennoch finde ich das ganze Interessant und bin sehr gespannt was da kommt und wie sich's entwickelt,
als auch was die Softwaremenschen dazu so sagen.
 
Zuletzt bearbeitet:
@News: Hat vor dem heutigen Tage irgend jemand etwas von der Fehlersituation mitbekommen? Skylake ist die am längsten unverändert als Spitzenprodukt gebaute Intel-Architektur dieses Jahrtausend, möglicherweise sogar insgesamt, aber in den letzten fünf Jahren hat sich darüber eigentlich niemand beschwert.

Naja, es ist nicht nur die am längsten unverändert genutzte Architektur sondern durchaus auch auf einem Spitzenplatz der Bugliste. Intel selbst listet für Skylake ganze 190 Bugs was für eine Großserienarchitektur durchaus ziemlich viel ist. Klar haben alle modernen CPUs viele Errata aber knapp 200 die der Hersteller schon listet ist schon deutlich mehr als erwartet. Wenn dann wie behauptet wird der Kunde/Apple nochmal die gleiche Menge findet die nicht schon von INtel dokumentiert ist haste 400 Bugs in der Architektur.

...dass sich da kaum jemand beschwert liegt wohl daran, dass die Bugs für die allerallermeisten Leute normalerweise völlig irrelevant sind (dass sich das ändern kann hat man an den Bugs Spectre und Meltdown erlebt...) und die paar wenigen Menschen die wirklich auf der Ebene mit den Chips arbeiten eher nicht die sind, die sich öffentlich beschweren oder überhaupt irgendeine Medienpräsenz hätten. Die Ingenieure die damit arbeiten haben sich wahrscheinlich schon tausende Male in ihrem Büro schwarzgeärgert über verschiedenste Bugs aber das sieht halt keiner - wenn die ganzen Bugs aber jetzt der Grund für den Wechsel sind können sie das endlich nach außen kehren. :D
 
Zuletzt bearbeitet:
Wenn ich so durch die Musikbranche schaue, wie viele Studios hier schon mittlerweile von Mac zum Windows gewechselt sind,
wird sich z.B. AVID schwer überlegen müssen, hier 2-gleisig zu entwickeln**, oder doch bei einer Plattform (die recht Sicher Windows sein wird) bzw. Architektur zu bleiben.
Und die bieten ja nicht nur Pro Tools und Media Composer an.

Ich denke, dass es anderen Unternehmen, bzw. Software auch so gehen wird.
Ich denke mal ein Haufen Software wird den Sprung nicht schaffen, aber ich glaube auch, dass viele hier zu viel in den Architekturwechsel hineininterpretieren. Mal von uraltem, händisch optimierten Spaghetticode abgesehen sehen die Entwickler heute nichts mehr von der zugrunde liegenden Mikroarchitektur, sie sehen nur noch die Frameworks und APIs des Betriebssystems. Und die werden sich nicht ändern.

Deswegen glaube ich, dass noch aktiv gepflegte Pro-Tools den Sprung relativ schnell und problemfrei schaffen werden, während längst angestaubte, aber gut funktionierende Legacy-Software hinten runter fällt.
Nein, ich habe bewusst FPGAs genommen da diese eben nicht die Effizienz von ASICs erreichen dafür aber noch halbwegs flexibel sind. und wie gesagt - es gibt genügend Anwendungsfälle in denen FPGAs eingesetzt werden.
Gutes Beispiel dafür - Oszilloskope. Das findet man sehr oft sowas wie nen Spartan, Startix oder Virtex. die Dinger sind nicht billig aber für den Preis und was gebraucht wird eben noch immer günstiger als eine normale CPU und ohne die hohen Entwicklungskosten eines ASIC.
Oszilloskope nehmen FPGAs weil normale 0815 CPUs die entsprechende Peripherie nicht haben, und (gute) Oszilloskope keine Massenprodukte sind. Würde Apple im Herbst die Fanbase davon überzeugen, dass absolut jeder Haushalt ein iOscilloscope braucht, kannst du dir sicher sein, dass in zukünftigen Massenprodukten ASICs stecken würden.

Ein gutes Beispiel für einen solchen Übergang von Nische zu Massenware ist Bitcoin. In den Anfängen wurde in Software auf der CPU geschürft, dann auf der Grafikkarte. Zwischenzeitlich kamen die FPGAs. Und irgendwann war Bitcoin so beliebt, dass sich sogar die teuren Belichtungsmasken zur Fertigung von ASICs gelohnt haben.
 
Spannend wird die Zukunft sein.
Mixed Chiplets bei Intel.
Und Nvidia.

Wird Apple der Sargnagel für x64 und compatible?
Boston Dynamics verwendet auch keine mehr.

Immerhin waren in der Dragon vor kurzem auch keine mehr vorhanden.
Und in der Atlas 4 Heavy.

Welche Rolle wird SpaceX spielen?
Die Boeing Orion-Kapsel?
Auch keine verbaut/vorgesehen.

Spannend sein die Zukunft wird.

Ich denke, es steht eine (langsame) Zeitenwende bevor.

Wie reagiert die Spiele- und Unterhaltungsindustrie?
 
Sollte das stimmen ist es schon heftig wenn das eigene Produkt so schlecht ist das einen selbst Apple nicht will obwohl die wirklich jeden Mist verbauen.
 
Ich denke mal ein Haufen Software wird den Sprung nicht schaffen, aber ich glaube auch, dass viele hier zu viel in den Architekturwechsel hineininterpretieren. Mal von uraltem, händisch optimierten Spaghetticode abgesehen sehen die Entwickler heute nichts mehr von der zugrunde liegenden Mikroarchitektur, sie sehen nur noch die Frameworks und APIs des Betriebssystems. Und die werden sich nicht ändern.

Deswegen glaube ich, dass noch aktiv gepflegte Pro-Tools den Sprung relativ schnell und problemfrei schaffen werden, während längst angestaubte, aber gut funktionierende Legacy-Software hinten runter fällt.

Steinberg muss auch mit jeder neuen MacOS Version ihre Produkte dafür fit machen und das bei gleichbleibender Architektur. Die Aufwendungen sind bei MacOS einfach höher als bei Windows. Die DAW alleine ist auch nur ein Bruchteil, kommen noch Plugins, virtuelle Instrumente etc. dazu. Apple ARM schießt sich selbst ab, wer will da ernsthaft mit arbeiten.
 
Steinberg muss auch mit jeder neuen MacOS Version ihre Produkte dafür fit machen und das bei gleichbleibender Architektur. Die Aufwendungen sind bei MacOS einfach höher als bei Windows. Die DAW alleine ist auch nur ein Bruchteil, kommen noch Plugins, virtuelle Instrumente etc. dazu. Apple ARM schießt sich selbst ab, wer will da ernsthaft mit arbeiten.

Was du da vergleichst sind im wahrsten Sinne des Wortes Äpfel und Birnen. Ja, bei Apple gab es in den letzten Jahren einige Anpassungen was z.B. die Verwaltung von Treibern für externe Hardware angeht. Dies ist aber bereits im Hinblick auf den Wechsel zu ARM hin geschehen. So Dinge wie Driverkit werden es in Zukunft eben ermöglichen, dass das nicht mehr so ist.

Und für die meisten Standard App- oder Plugin-Entwickler bedeutet der Wechsel sich die neue IDE runterzuladen und einmal auf Build zu drücken. Wenn man nach dir geht hätte es Apple nie geben dürfen, da sie die meiste Zeit nicht auf X86 gewesen sind. Insgesamt also eher unwahrscheinliche Prognosen von deiner Seite.
 
Naja, es ist nicht nur die am längsten unverändert genutzte Architektur sondern durchaus auch auf einem Spitzenplatz der Bugliste. Intel selbst listet für Skylake ganze 190 Bugs was für eine Großserienarchitektur durchaus ziemlich viel ist. Klar haben alle modernen CPUs viele Errata aber knapp 200 die der Hersteller schon listet ist schon deutlich mehr als erwartet. Wenn dann wie behauptet wird der Kunde/Apple nochmal die gleiche Menge findet die nicht schon von INtel dokumentiert ist haste 400 Bugs in der Architektur.

Eigentlich ist das nicht so viel. Natürlich schneiden Refreshs wie Comet Lake oder Broadwell etwas besser ab, aber selbst die kommen auf 137 beziehungsweise 124 Errata und Haswell S hatte als "Tock" mit 177 nur wenig weniger als Skylake. Und die Listen enthalten alle bekannten (oder zumindest öffentlich eingestandenen ^^) Fehler, unabhängig davon wer sie gefunden hat. Es wären, wenn die Aussage zu den Verhältnissen bis heute Gültigkeit hat, also 95 zu 95 Fehler. Allerdings hat Apple gegenüber anderen Skylake-Nutzern keinen zeitlichen Vorsprung bei der Fehlergesuche gehabt. Das heißt jeder Fehler, den die im laufenden Verkauf finden konnte, wäre auch bei Windows-Systemen aktiv gewesen – und Skylake hatte zu keinem Zeipunkt den Ruf, eine besonders fehleranfällige Architektur zu sein. Oder zumindest habe ich davon nichts mitbekommen, deswegen ja meine Frage.

Hacks wie Meltdown und Spectre zählen übrigens nicht als Erratum, da die CPU dort wie geplant arbeitet.
 
Zurück