Mephisto_xD
BIOS-Overclocker(in)
In Firmen kann ich es ja noch verstehen, ein Röntgengerät mit einem siebenstelligen Preisschild ersetzt man nicht weil die Festplatte kaputt ist, selbst wenn der Ersatz für heutige Verhältnisse unverschämt teuer ist.Habt ihr schon mal 1000 Euro für eine Ersatzfestplatte mit 10Megabyte bezahlt? Nicht Terabyte! Nein! Megabyte! Versucht eure gesamte Hardware und Software in der Firma mal auf einen Nenenr zu bringen, ein Haareraufen für die IT!
Auch privat setze ich stellenweise sehr alte Hardware ein, ihr doch auch? ARm hat bei mir deshalb nichts verloren.
Aber Zuhause? Ich habe ehrlich gesagt keine Hardware, die mit einem ARM Gerät per se nicht funktionieren würde. Bis auf Computerinnereien wie PCIe Karten natürlich. Disketten und CDs sind längst auf die Festplatte gezogen, und die Peripherie setzt mittlerweile ausschließlich auf USB oder LAN. Selbst wenn ich noch Geräte mit seriellem, parallelem oder noch antikerem Anschluss hätte, man kann mittlerweile alles an einen USB-Port hängen. Es kann natürlich sein, dass man da dann auf fehlende Treiber stößt, weil der Hersteller die nur in Binärform bereitstellt (besonders bei Druckern), aber die meisten Treiber leben direkt im Kernel und würden daher einen Mikroarchitekturwechsel überleben.
Die Krux für mich ist eher die Software von Drittanbietern. Hier wird sich zeigen wie gut Apple die Entwickler motivieren kann, und wie gut der Emulator funktioniert.
Quark.Tja - einfach nein. ARM ist RISC - das was mit dem Befehlssatz auskommt ist sehr effizient, alles was die Befehlserweiterungen von x86/64 nutzt läuft aber langsam und ineffizienter. Das ist einfach ein fundamentaler unterschied zwischen RISC und CISC. Genauso wie ein FBGA eine general-purpose CPU in gewissen Bereichen abhängt, aber eben bei general Purpose Anwendungen nicht Ansatzweise mithalten kann.
Erstens mal ist der Unterschied zwischen RISC und CISC in Bezug auf ARM vs x86 nur noch akademisch. x86 führt kopmpliziertere Befehle schon seit dem Pentium Pro nicht mehr in einem Takt aus, sondern teilt sie in mehrere einfache Mikroops und ist damit defacto RISC. Auf der anderen Seite ist ARM schon lange nicht mehr der minimalistische Befehlssatz, der mal für ultrastromsparende CPUs gedacht war, sondern hat Erweiterungen wie NEON, die in ihrer Komplexität selbst AVX512 in den Schatten stellen.
Zweitens hat das ganze überhaupt nichts mit einem FPGA zu tun. Die Stärke eines FPGAs liegt darin, Hardware durch Software abbilden zu können, auf Kosten von Effizienz und Fläche. Der korrekte Vergleich wäre ein spezialisierter ASIC gewesen - but oh wait, solche Spezialhardware gibt es ja auf modernen CPUs, z.B. um Videos zu dekodieren.
Leistungsaufnahme skaliert nicht linear mit der Taktfrequenz, sondern bestenfalls quadratisch. Und das gilt auch nur, wenn die zugrundeliegende Hardware noch alle Timings einhält, also nach jedem Takt jeder Transistor in einem wohldefinierten Zustand ist. Eine CPU, die auf 2 GHz ausgelegte wurde, wird 4 GHz mit ziemlicher Sicherheit überhaupt nicht mitmachen, nichtmal mit Stickstoff. Umgekehrt ist eine 4 GHz CPU bei 2 GHz um Welten effizienter. Guck dir mal die Kurve bei einem Zen-2 Core an: Ein einzelner Kern kann mal locker 10W ziehen wenn er über die 4 GHz rausgeht, aber zieht weniger als 2 W wenn man ihn auf 2 GHz taktet.ARM ist viel leistungsfähiger als x86 ... man überlege nur mal man würde ein ARM System entwickeln was die Leistungsaufnahme eines x86 zur Verfügung hätte da sag ich nur gg x86