Ist ARM die Zukunft ?

Atent123

Volt-Modder(in)
ARM CPUs werden im rasanten Tempo immer schneller und schneller und neue CPU Designs werden im Jahrestakt von vielen verschiedenen Entwicklern rausgehauen (Qualcom,ARM selbst,Samsung und Apple) und währenddessen tut sich bei X86 nicht so viel.
Bereits jetzt sind wir an einem Punkt angelangt an dem Apples Hurricane Kerne einen (recht deutlich) höheren IPC haben als Skylake und da kommt in ein paar Monaten schon der Nachfolger raus während bei Intel nur ein Shrink kommt.
Ein IPad Pro schlägt das Macook Pro 13 mit seiner 35 Watt CPU.
Dabei sind die Dinger unglaublich Effizient. So ein komplettes Smartphone mit SD835 SoC verbraucht unter Vollast um die 4 Watt was um die 2 Watt SoC Verbauch bedeuten dürfte. Jetzt wo ARM auch auf Windows kommt ist die frage was das für X86 bedeutet.
Vorausgesetzt die Emulation ist flott könnten ARM CPUs den PC Markt aufmischen und langfristig X86 verdrängen.
Dazu kommt dann auch noch das man mit ARM SoC wesentlich kleinere Motherboards bauen kann und so viel mehr Akku in ein Notebook passt.

Was denkt ihr sind Intels Tage abseits des Serverbereichs gezählt ?
 
Zuletzt bearbeitet:
Hauptproblem, wie schon bei Itanium, ist aber, dass die alte Software nicht läuft. Itanium wurde mittlerweile wieder aufgegeben und komplett durch x86 ersetzt.

Bei Linux gibt es zumindest armhf Pakete, war da auch erstaunt, das auf dem Raspy3 alles läuft. Bei Windows sieht es aber schlecht aus.
Emulation würde das ganze deutlich verlangsamen und ist rechtlich auch nicht möglich: 40 Jahre x86: Intels Erinnerungen mit Meilensteinen und einer Spitze - ComputerBase

Während Intel in seiner Aufzählung die einzelnen Eckpfeiler nur kurz umreißt, wird dem Thema „Schutz der x86-ISA-Innovation“ ein großer Abschnitt gewidmet. Der Hersteller bezieht sich auf aktuelle Meldungen, dass Unternehmen derzeit an einer Emulation der x86-Architektur arbeiten - gemeint sein dürften Microsoft und Qualcomm mit Windows 10 auf ARM. Damit möchte Microsoft nicht nur ein vollständiges Windows 10 auf die mobilen Prozessoren von Qualcomm bringen, sondern dabei auch eine reibungslose Kompatibilität zu Win32-Programmen mit x86-Befehlssätzen gewährleisten. Dies war bisher nicht möglich, Microsofts letzter Versuch mit Windows RT für mobile Prozessoren scheiterte merklich.

Seit 1996 habe Intel über 1.600 Patente zu Befehlssätzen und verwandten Themen angemeldet. Der Chiphersteller betont, seine Architektur durch rechtliche Schritte zu schützen und nennt als Beispiele Vorgänge gegen UMC, Cyrix aber auch AMD. Der letzte solche Fall betreffe einen Rechtsstreit mit Transmeta, dessen x86-Implementierung SIMD emuliert haben soll. Im Nachgang betont Intel den kommerziellen Misserfolg von Transmeta, der zu einem Ausstieg aus dem CPU-Geschäft führte. 2009 wurde Transmeta aufgelöst.

Für die Zukunft der x86-Emulation heiße Intel rechtmäßige Konkurrenz willkommen, kündigt aber an, bei Verletzung des geistigen Eigentums erneut alle notwendigen rechtmäßigen Schritte bei Bedarf geltend zu machen. Intel erwartet, dass andere Unternehmen die Errungenschaften der Firma respektieren. Die offensiven Aussagen sowie der deutliche Hinweis auf den Misserfolg von Transmeta lassen sich durchaus als klares Zeichen in Richtung Microsoft und Qualcomm deuten. Auf der anderen Seite sind Microsoft und Intel ebenfalls seit Jahrzehnten Partner und profitieren wirtschaftlich voneinander. Wie Microsoft die Emulation genau löst und ob Intel seine Patente verletzt sehen wird, bleibt abzuwarten.
 
Hauptproblem, wie schon bei Itanium, ist aber, dass die alte Software nicht läuft. Itanium wurde mittlerweile wieder aufgegeben und komplett durch x86 ersetzt.

Bei Linux gibt es zumindest armhf Pakete, war da auch erstaunt, das auf dem Raspy3 alles läuft. Bei Windows sieht es aber schlecht aus.

Naja sie läuft doch.
Halt über den Microsofts eigenen Emulator.
Laut den Präsentationen die Microsoft bisher dazu gezeigt hat sollen´selbst Dinge wie World of Tanks, Photoshop oder LoL darauf laufen.
BUILD 2017: Microsoft demonstrates Windows 10 on ARM - YouTube
 
Was denkt ihr sind Intels Tage abseits des Serverbereichs gezählt ?

Stell dir mal vor man würde heute alles auf ARM umstellen.
Nichts, absolut gar nichts würde mehr funktionieren weil kein Programm mehr läuft (Emulatoren sind entweder "läuft alles, ist aber extrem lahm" oder "ist ganz fix, geht aber nur die Hälfte")

ARM hat Vorteile in vielen Bereichen (aber auch große Nachteile in anderen - probiere doch mal mit einer ARM-CPU ein paar Hundert oder gar Tausende GB an RAM zu adressieren...), wird aber den x86-Pfad nicht in absehbarer Zeit ablösen, wenn das die Richtung wäre würde das schon lange passieren.

Es wird wohl immer so sein, dass manche Bereiche von CISC profitieren, andere von RISC-Architekturen. Du kannst nicht mit einem das andere erschlagen. Es hat sozusagen genauso wenig sinn eine x86-CPU in eine Smartwatch zu stecken wie einen ARM Chip in einen Hochleistungserver.
 
Stell dir mal vor man würde heute alles auf ARM umstellen.
Nichts, absolut gar nichts würde mehr funktionieren weil kein Programm mehr läuft (Emulatoren sind entweder "läuft alles, ist aber extrem lahm" oder "ist ganz fix, geht aber nur die Hälfte")

ARM hat Vorteile in vielen Bereichen (aber auch große Nachteile in anderen - probiere doch mal mit einer ARM-CPU ein paar Hundert oder gar Tausende GB an RAM zu adressieren...), wird aber den x86-Pfad nicht in absehbarer Zeit ablösen, wenn das die Richtung wäre würde das schon lange passieren.

Es wird wohl immer so sein, dass manche Bereiche von CISC profitieren, andere von RISC-Architekturen. Du kannst nicht mit einem das andere erschlagen. Es hat sozusagen genauso wenig sinn eine x86-CPU in eine Smartwatch zu stecken wie einen ARM Chip in einen Hochleistungserver.

Sind Intels X86 CPUs nicht seit dem Pentium Pro intern ebenfalls RISC CPUs ?
Es geht ja gar nicht um heute sondern um in vielleicht 10 Jahren.
Defakto sehen wir ende des Jahres bereits Windows 10 ARM Notebooks die auch X86 Code ausführen können.
Wen die Vernünftig und performant funktioniert wonach es aktuell aussieht dürfte das echt viel verändern.
 
Marktanteilsmäßig wird ARM garantiert viel Boden gut machen - aber einfach deswegen, weil alle neuen Chips (egal welcher Bauart) heutzutage schnell genug sind um 99% aller Aufgaben die ein Normalsterblicher so hat locker zu erfüllen. Chips die mehr als ne Handvoll Watt verbrauchen sind sowieso nur noch für PowerUser oder speziellen Workload interessant.
 
Marktanteilsmäßig wird ARM garantiert viel Boden gut machen - aber einfach deswegen, weil alle neuen Chips (egal welcher Bauart) heutzutage schnell genug sind um 99% aller Aufgaben die ein Normalsterblicher so hat locker zu erfüllen. Chips die mehr als ne Handvoll Watt verbrauchen sind sowieso nur noch für PowerUser oder speziellen Workload interessant.

So wird es sicherlich Anfangen allerdings werden die Dinger wohl irgendwann einfach durch weit überlegene Rechenleistung für Power User interessant.
In Sachen Laufzeit wird ein SD835 Notebook mit einem Intel Y Klasse (4,5-12 Watt dauerhaftes Power Target das Kurzzeitig bis zu 15 Watt erlaubt) Notebook den Boden aufwischen. Dazu kommen die Dinger noch direkt mit LTE was wohl Buisness Kunden gefallen dürfte.
 
allerdings werden die Dinger wohl irgendwann einfach durch weit überlegene Rechenleistung für Power User interessant.

Das glaube ich erst wenn ichs sehe. ARM hat seine Vorteile in sehr kleinen Wattbereichen, ist aber absolut chancenlos wenns um mehrere Hundert Watt pro Chip geht. Da bauste dir 20 Xeon-Kerne ein oder je nach Aufgabengebiet eben GPUs mit zigtausend Shadern.

Bedenke: Leistung pro Watt ist NICHT skalierbar!
Nur weil CPU A bei 5W doppelt so schnell ist wie CPU B bei 5W bedeutet das keineswegs, dass es bei 50W noch genauso sein muss.

Dass eine Y-CPU alt aussehen kann ist klar, das ist ja auch nicht der sinnvolle Bereich von x86.
Ähnlich würde es aussehen, wenn du eine ARM-CPU gegen die 130W eines 6950X stellst - wenn es so eine ARM-CPU überhaupt gäbe (es hat einen grund warum es die nicht gibt...) sähe die da auch sehr alt aus.
 
Also die x86-Architektur hat jetzt 50 Jahre auf dem Buckel, da muss es einfach so langsam mal modernere Lösungen geben.^^

Eine weitere Alternative neben ARM wäre ja PowerPC - wie ich finde sehr interessant, aber halt offenkundig nicht tauglich für den Massenmarkt. :rollen:
 
Es gibt Alternativen - GPGPU im massiv parallelisierbaren Bereich, ARM im LowPower-Segment, ASICs bei sehr speziellen Aufgaben.
Es ist nur unsinnig zu glauben, eine dieser Techniken, egal welche, könne sinnvoll die Aufgaben aller anderen übernehmen. Das wäre so wie zu glauben man könne ein Fahrzeug bauen, dass sinnvoll sowohl auf der rennstrecke bewegt werden kann als auch einen Pflug durch den Acker ziehen kann. Da brauchts eben verschieden optimierte Fahrzeuge... 500PS können beide Modelle haben aber die Aufgaben sind einfach andere.
 
Es gibt Alternativen - GPGPU im massiv parallelisierbaren Bereich, ARM im LowPower-Segment, ASICs bei sehr speziellen Aufgaben.
Es ist nur unsinnig zu glauben, eine dieser Techniken, egal welche, könne sinnvoll die Aufgaben aller anderen übernehmen. Das wäre so wie zu glauben man könne ein Fahrzeug bauen, dass sinnvoll sowohl auf der rennstrecke bewegt werden kann als auch einen Pflug durch den Acker ziehen kann.
Aber für was war denn PowerPC? War das nicht als direkter Konkurrent für x86 gedacht? War die Architektur wirklich nicht tauglich für die breite Masse an Anwendern (also Heim-PCs) oder lag' das an der geschäftlichen Ausrichtung von IBM/Motorola?

Also wenn ich heute jemand frage, sagt der mir immer, dass x86 technisch veraltet ist. Wie viel lässt sich denn davon noch rausholen? Intel hat ja schon das Tick-Tock-Modell aufgegeben, wenn bei den Strukturbreiten irgendwann mal Schluss ist, werden die CPUs dann einfach größer? Oder schaut man sich doch mal nach ernsthaften Alternativen um und entsorgt die IBM-Kompatibilität?

Ich finde ARM an sich sehr interessant. Dass sowas mal für größere Computer als Smartphones kommt, halte ich für wahrscheinlicher als Quantencomputer.:ugly:
 
Das glaube ich erst wenn ichs sehe. ARM hat seine Vorteile in sehr kleinen Wattbereichen, ist aber absolut chancenlos wenns um mehrere Hundert Watt pro Chip geht. Da bauste dir 20 Xeon-Kerne ein oder je nach Aufgabengebiet eben GPUs mit zigtausend Shadern.

Bedenke: Leistung pro Watt ist NICHT skalierbar!
Nur weil CPU A bei 5W doppelt so schnell ist wie CPU B bei 5W bedeutet das keineswegs, dass es bei 50W noch genauso sein muss.

Dass eine Y-CPU alt aussehen kann ist klar, das ist ja auch nicht der sinnvolle Bereich von x86.
Ähnlich würde es aussehen, wenn du eine ARM-CPU gegen die 130W eines 6950X stellst - wenn es so eine ARM-CPU überhaupt gäbe (es hat einen grund warum es die nicht gibt...) sähe die da auch sehr alt aus.

Ein Hurricane Kern mit 2,4 Ghz (IPad Pro) ist fast so schnell wie ein 3,6 Ghz Skylake Kern.
Demzufolge sollten 12 Hurricane Kerne mit der Taktrate es mit dem 6950X durchaus aufnehmen können wen man SMT ausschaltet.
Mit aktivem SMT bräuchte man wohl noch ein paar Kerne mehr oder selbst SMT.
Und bedenke das da schon in 3 Monaten der Nachfolger auf den Markt kommt der mal eben 30-40% mehr IPC haben kann.
 
Zuletzt bearbeitet:
Ein Hurricane Kern mit 2,4 Ghz (IPad Pro) ist so schnell wie ein 3,6 Ghz Skylake Kern.
Bei welcher Anwendung?

x86 ist dafür gedacht, ein möglichst breites Spektrum an Anwendungen performant hinzubekommen. Anders gesagt man kann alles damit machen - nur eben nichts extrem schnell aber auch nichts extrem langsam. Vergleichen könnte man das nur, wenn man einen anständigen Parcours baut in dem 15 oder 20 Kernfelder abgeprüft werden. Wenn da im Mittel noch immer herauskommt, dass dein Hurricane deutlich schneller ist und es keinen Bereich darunter gibt wo er völlig unbrauchbar langsam ist (oder etwas sogar gar nicht kann...), DANN haben wir einen ernsthaften Konkurrenten.

Die Diskussion gibts ja auch immer mit GPUs. Klar sind die Kilometerweit schneller von den Flops her gesehen und natürlich kann eine GPU bestimmte Teilaufgaben Welten schneller erledigen (etwa Hashes finden...) aber es gibt bereiche die GPUs extrem langsam oder GAR NICHT können - kurioserweise übrigens Dinge, mit denen öfter mal geworben wird... GPUs können beispielsweise das Hauptfeature des neuen HEVC-Codecs, sogenannte 64er CTUs, nicht berechnen. Dennoch macht AMD und NVidia werbung mit GPU-encoding das extrem schnell ist - ist es auch, denn es werden nur 32er CTUs benutzt und viele Funktionen des Codecs abgeschaltet. Das Ergebnis ist zwar schnell, aber qualitativ sehr viel schlechter als die x86-version. Auch hier ist wieder die Anwendung wichtig - für LetsPlays auf YT ist es mehr als ausreichend die GPU zu benutzen - sein Hochzeitsvideo dagegen sollte man eher auf einer CPU berechnen die auch alles kann.

Also wenn ich heute jemand frage, sagt der mir immer, dass x86 technisch veraltet ist.
Veraltet nicht, lediglich unbestreitbar "alt" (was nicht schlecht bedeutet).
Der springende Punkt ist eher, dass es wahnsinnig optimiert ist über die vielen Jahrzehnte. Entsprechend klein sind ja die IPC-Zuwächse gewesen die letzten Jahre. Ob eine andere Architektur da bedeutend mehr Potential hat muss sich aber auch erst zeigen, denn die Optimierungen sind ebenfalls größtenteils Rechenleistungsabhängig (schnellere Chips können schneller noch schnellere entwickeln :ugly:) - oder anders gesagt ARM hat die letzten zwei, drei Jahre eine Menge an Optimierung erfahren für die x86 Jahrzehnte gebraucht hat.
Es ist nicht zu erwarten, dass x86 noch große IPC-Sprünge macht, ich würde aber ebenfalls nicht erwarten, dass es da bei ARM noch gewaltige Sprünge in kürzeren zeitabständen geben wird.
 
Bei welcher Anwendung?

x86 ist dafür gedacht, ein möglichst breites Spektrum an Anwendungen performant hinzubekommen. Anders gesagt man kann alles damit machen - nur eben nichts extrem schnell aber auch nichts extrem langsam. Vergleichen könnte man das nur, wenn man einen anständigen Parcours baut in dem 15 oder 20 Kernfelder abgeprüft werden. Wenn da im Mittel noch immer herauskommt, dass dein Hurricane deutlich schneller ist und es keinen Bereich darunter gibt wo er völlig unbrauchbar langsam ist (oder etwas sogar gar nicht kann...), DANN haben wir einen ernsthaften Konkurrenten.

Die Diskussion gibts ja auch immer mit GPUs. Klar sind die Kilometerweit schneller von den Flops her gesehen und natürlich kann eine GPU bestimmte Teilaufgaben Welten schneller erledigen (etwa Hashes finden...) aber es gibt bereiche die GPUs extrem langsam oder GAR NICHT können - kurioserweise übrigens Dinge, mit denen öfter mal geworben wird... GPUs können beispielsweise das Hauptfeature des neuen HEVC-Codecs, sogenannte 64er CTUs, nicht berechnen. Dennoch macht AMD und NVidia werbung mit GPU-encoding das extrem schnell ist - ist es auch, denn es werden nur 32er CTUs benutzt und viele Funktionen des Codecs abgeschaltet. Das Ergebnis ist zwar schnell, aber qualitativ sehr viel schlechter als die x86-version. Auch hier ist wieder die Anwendung wichtig - für LetsPlays auf YT ist es mehr als ausreichend die GPU zu benutzen - sein Hochzeitsvideo dagegen sollte man eher auf einer CPU berechnen die auch alles kann.


Veraltet nicht, lediglich unbestreitbar "alt" (was nicht schlecht bedeutet).
Der springende Punkt ist eher, dass es wahnsinnig optimiert ist über die vielen Jahrzehnte. Entsprechend klein sind ja die IPC-Zuwächse gewesen die letzten Jahre. Ob eine andere Architektur da bedeutend mehr Potential hat muss sich aber auch erst zeigen, denn die Optimierungen sind ebenfalls größtenteils Rechenleistungsabhängig (schnellere Chips können schneller noch schnellere entwickeln :ugly:) - oder anders gesagt ARM hat die letzten zwei, drei Jahre eine Menge an Optimierung erfahren für die x86 Jahrzehnte gebraucht hat.
Es ist nicht zu erwarten, dass x86 noch große IPC-Sprünge macht, ich würde aber ebenfalls nicht erwarten, dass es da bei ARM noch gewaltige Sprünge in kürzeren zeitabständen geben wird.

Ich bezog mich auf den Geekbench 4.1 Parkour, Sunspider Otane,Jetstream,... (die ganzen Browserbenchmarks halt) und dem 3D Mark CPU Test.
 
Also eine von vielen Anwendungen (Browserzeug) - und dazu genau die, worauf die CPU nunmal (sinnvollerweise weil das genau das ist was 99% der Leute machen) optimiert wurde.

Dann lass die CPU mal einen Videoclip in den HEVC konvertieren, eine Datei (oder besser mehrere gleichzeitig) von ein paar Hundert MB zuerst verschlüsseln (AES, Twofish, Serpent) und dann mit nem großen Wörterbuch packen. Dann könnte man noch ein bissl was rendern (Raytracing) und eine große Menge Zufallszahlen erzeugen und danach der Größe nach sortieren lassen... oder maln Mandelbrotfraktal malen. Halt alle möglichen verschiedenen Dinge tun um zu sehen wo Stärken und wo Schwächen sind (ALUs, FPUs, Cache,...) - es würde mich ziemlich wundern, wenn die ARM-CPU da im Mittel über alle Aufgaben mithalten könnte.
 
Also eine von vielen Anwendungen (Browserzeug) - und dazu genau die, worauf die CPU nunmal (sinnvollerweise weil das genau das ist was 99% der Leute machen) optimiert wurde.

Dann lass die CPU mal einen Videoclip in den HEVC konvertieren, eine Datei (oder besser mehrere gleichzeitig) von ein paar Hundert MB zuerst verschlüsseln (AES, Twofish, Serpent) und dann mit nem großen Wörterbuch packen. Dann könnte man noch ein bissl was rendern (Raytracing) und eine große Menge Zufallszahlen erzeugen und danach der Größe nach sortieren lassen... oder maln Mandelbrotfraktal malen. Halt alle möglichen verschiedenen Dinge tun um zu sehen wo Stärken und wo Schwächen sind (ALUs, FPUs, Cache,...) - es würde mich ziemlich wundern, wenn die ARM-CPU da im Mittel über alle Aufgaben mithalten könnte.

Raytracing und AES sind zum Beispiel unter anderem Teil des Geekbench 4.1s genau wie Tests der Cachelatenzen und Bandbreite.
 
Das ist ja schon mal ein Anfang. :)

Was mich da stört ist, dass die Dinge immer durch die gleichen Parcours gescheucht werden, hier Geekbench und der Antutu da usw - und genau um da gut auszusehen wird eben da optimiert (genau wie 3D-mark bei Grafikkarten).
Es würde mich wirklich interessieren wie eine solche CPU sich bei irgendeinem realen rechenintensiven Fall schlägt, beispielsweise 2 Minuten FullHD-Video mit Standardeinstellungen in den HEVC komprimieren, also ohne irgendwelche GPU-Beschleunigung. Aber solche Benchmarks findet man (oder mindestens ich) nicht.
 
Das ist ja schon mal ein Anfang. :)

Was mich da stört ist, dass die Dinge immer durch die gleichen Parcours gescheucht werden, hier Geekbench und der Antutu da usw - und genau um da gut auszusehen wird eben da optimiert (genau wie 3D-mark bei Grafikkarten).
Es würde mich wirklich interessieren wie eine solche CPU sich bei irgendeinem realen rechenintensiven Fall schlägt, beispielsweise 2 Minuten FullHD-Video mit Standardeinstellungen in den HEVC komprimieren, also ohne irgendwelche GPU-Beschleunigung. Aber solche Benchmarks findet man (oder mindestens ich) nicht.

Das sollte ja eigentlich machbar sein.
Das Problem dabei ist halt das da auch noch die Software reinspielt.
IMovie und eine abgespeckte Premiere Pro Version gibt es auch für IOS (es gibt sogar einen Total War teil für IOS )
 
Veraltet nicht, lediglich unbestreitbar "alt" (was nicht schlecht bedeutet).
Der springende Punkt ist eher, dass es wahnsinnig optimiert ist über die vielen Jahrzehnte. Entsprechend klein sind ja die IPC-Zuwächse gewesen die letzten Jahre. Ob eine andere Architektur da bedeutend mehr Potential hat muss sich aber auch erst zeigen, denn die Optimierungen sind ebenfalls größtenteils Rechenleistungsabhängig (schnellere Chips können schneller noch schnellere entwickeln :ugly:) - oder anders gesagt ARM hat die letzten zwei, drei Jahre eine Menge an Optimierung erfahren für die x86 Jahrzehnte gebraucht hat.
Es ist nicht zu erwarten, dass x86 noch große IPC-Sprünge macht, ich würde aber ebenfalls nicht erwarten, dass es da bei ARM noch gewaltige Sprünge in kürzeren zeitabständen geben wird.

Das ganze erinnert an den ATX Standard bei Netzteilen.
Ich hole mal kurz aus. :D
Der Standard ist uralt und wurde immer nur erweitert. Schaut man sich z.B. den 24 Pin Stecker an, findet man dort nur zwei 12 Volt Pins. Angesichts der Tatsache, dass heutige Rechner praktisch nur noch 12 Volt nutzen, erschreckend wenig Pins dafür vorhanden.
Man müsste also mal den ATX Standard entsorgen, einen komplett neuen Standard entwickeln -- der dann auch die Größe der Mainboard mit einbeziehen kann, denn aufgrund der immer riesigeren Sockel -- AMD mit 4094 Pins ist ja ein Monster -- müssen zwangsweise auch die Mainboards größer werden, um noch alles unter zu bekommen.

Und das gleiche kannst du jetzt bei den CPUs übertragen.
Auch hier hat die x86 Architektur noch uralte Zöpfe, die heute niemand mehr braucht, aber immer mitgeschleppt werden.
Man müsste also den ganzen Kram entsorgen und was völlig neues entwickeln.

Nachteil bei beiden System wäre dann, dass nichts mehr abwärts kompatibel wäre.
Vorteil wäre, dass man keine alten sachen mehr hat und sich dadurch die Leistung für moderne oder kommende Dinge deutlich besser anpassen ließen.
 
Also ich finde es Wahnsinn, wie sich die ARM Prozessoren entwickelt haben. So lassen sich mit meinem 10,5" iPad Pro einfach und vor allem schnell in iMovie HD Videos schneiden und rendern. Natürlich erfüllt das keine Profi Ansprüche, aber wer nur mal ein paar Urlaubserinnerungen zusammenschneiden möchte, für den ist das eine gute Lösung, wo er keinen PC mehr für benötigt. An sowas war mit dem SoC des Ur-iPhones vor 10 Jahren noch nicht ansatzweise zu denken.
 
Zurück