Das Einzige was hier Lol ist sind solche Kommentare. Schon mal etwas von CPU Spy gehört? Solltest du mal nutzen und mir sagen warum Rohleistung und in welchen konkreten Anwendungszenarien heutiger Top-Smartphones wichtig ist unter der Prämisse das diese meist, siehe ca. 80% Deepsleep, eh brach liegt?!^^ Ich habe ein Note4 mit "betagter" HW und dennoch werden bei den high CPU States Werte im 1-2 Minutenbereich angezeigt, in einem Erfassungszeitraum von knapp einem Monat! Sprich die HW wird bei weitem, weitem nicht ansatzweise ausgereizt, wozu also noch immer mehr?? Benenne mal konkrete Beispiele die diese Performance nutzen und wo man mit einem Note4 beispielsweise aus der Wäsche guckt, kläre uns auf ich bin sehr gespannt.^^
MfG
Auf den iPad z.B. für Apps wie Affinity Photo oder iMovie. 4K 60 FPS und größere RAW Fotos lassen sich mittlerweile problemlos damit bearbeiten. Gerade Affinity Photo nutzt eben Funktionen, die der Desktop Version von Photoshop gleich kommen und erfordert z.B. mindestens ein iPad Air 2 und läuft darauf ziemlich langsam. Gerade das automatische Freistellen von Bildern mit komplexen Inhalten (z.B. haare), was unheimlich gut funktioniert, verlangt selbst dem iPad Pro mit 10K Punkten im Geekbench einige Gedenksekunden ab.
Ansonsten ist die Leistung eben auch nötig, um mit größeren Apps im Multitasking zu arbeiten. Safari mit mehreren Tabs auf der linken Seite, Word, Excel usw. rechts, dann noch als overlay ein Video sowie ne weitere App als slide over. Läuft auf nem iPad pro alles @ 120 Hz. Dabei kann ich per Drag and Drop Inhalte von der einen App in die andere schieben. Das erfordert alles ziemlich hohen Datendurchsatz, den ältere Geräte nicht bieten.
Dann eben Bildanalyse und Objekterkennung. Unter iOS läuft z.B. ein Task, der alle Fotos on device nach Gesichtern und Objekten erkennt. Du kannst dann einfach nach irgendwelchen Objekten suchen und man bekommt die passenden Ergebnisse (übrigens ein einsatzzweck für die Neural Engine.) Android kann das auch, aber nur wenn die Fotos bei Google hochgeladen wurden.
Allgemein braucht der ganze Augmented Reality kram ziemlich viel Leistung. Meine Geräte laufen damit auf quasi vollast und werden schön warm. Kein wunder, wenn in echtzeit bei 60 FPS eine Bild- und bewegungsanalyse durchgeführt werden muss und nebenbei noch 3D Grafik berechnet wird. Klar, praktisch ist das aktuell ein Gimmick, aber aus technischer sicht extrem interessant und in Zukunft sehr vielversprechend. Die Leistung und vor allem Effizienz kann da gar nicht hoch genug sein, Einfachere Apps, wie Dokumentenscanner sind dank der neuen Bilderkennungs APIs in iOS jetzt schneller und präziser bei der Objekterkennung und die Neural Engine im A11 macht das ganze eben mit weniger Energieaufwand.
Dann eben so dinge wie HEVC Video Encoding bei 4K 60 FPS, genauso wie Rauschunterdrückung, und Videostabilisierung, die per Software und Hardware erfolgt. Gut, einiges davon wird per Hardwarebeschleunigung gelöst, aber die muss auch sehr potent sein, RAM und Flash Storage müssen mit der Last klar kommen.
Aktuelle iOS Geräte schaffen lesend z.B. 500-1000 MB/sec. Schreibend immerhin noch 300 MB/sec. Viele günstigere Android geräte kommen nur auf nen Bruchteil dieser Werte...
Die Gesichtserkennung im iPhone X dürfte auch einiges an Rechenleistung fordern. Laut Apple wird dafür auch wieder die Neural Engine verwendet. Ist eben relativ aufwändige Bildanalyse im dreidimensionalen Raum, die gut genug sein muss, um als Sicherheitsfunktion zu taugen und eben auch dann funktionieren muss, wenn der Nutzer eine Brille trägt, sich nen Bart wachsen lässt oder ne Mütze auf hat.
Das alles wäre z.B. vor 5 Jahren noch nicht denkbar gewesen. Da gabs viele Geräte, die schon mit einer einzigen aufwändigeren Website überfordert waren.
Es ist eben so, dass erst durch die Leistungsstärkere Hardware Anwendungsfälle entstehen, die zuvor nicht möglich waren. Dadurch dass das iPad mittlerweile so leistungsstark ist, kann ich es als Notebook ersatz nutzen. Und dank Handover und Air Drop nutze ich mein iphone damit auch sehr viel produktiver, als die Jahre zuvor, eben WEIL damit nun alles genauso schnell oder schneller und bequemer funktioniert, als auf nem Desktop. Wären die Geräte langsamer würde ich die Funktionen entweder nicht nutzen, oder es gäbe sie gar nicht (stichwort multitasking mit bis zu drei Apps gleichzeitig auf dem Display).
Gut, das alles bezieht sich jetzt eher aufs iPad, aber im endeffekt haben wir es dem boomenden Samrtphone markt und den immer schnelleren SoCs zu verdanken, dass man Tablets heute auf diese Weise nutzen kann. Genauso wie Smartwatches. Die neue Apple Watch Unterstützt GPS und LTE. Ich denke manche werden sich noch dran erinnern, als man bei der ersten Version noch mit kurzen Laufzeiten zu kämpfen hatte. Jetzt ist die Effizienz dank den Entwicklugen im Smartphone Bereich so hoch, dass man GPS und LTE integrieren kann, ohne die Laufzeiten zu reduzieren. Ja, andere Hersteller hatten das schon früher, hatten aber anderweitig genauso mit Kompromissen zu kämpfen. Ohne die immer schnelleren Smartphone, wären Wearables gar nicht möglich bzw. auf dem Niveau des Spielzeugs von vor 10 Jahren mit monochorm LC Display und ner Rechenleistung einer Kartoffel.
Fortschritte in einem bereich bedeuten immer auch Fortschritte in anderen bereichen und neue Einsatzgebiete. Und das ist eigentlich ne verdammt spannende Sache.