AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren
Warum soll x86 eigentlich allem anderen ueberlegen sein?
Ich nutze unter Linux auch verschiedene Architekturen, und habe eigentlich keine Nachteile festgestellt.
Wo sind denn die (bezahlbaren) Prozessoren mit anderen Architekturen, die genauso performant und universell einsetzbar sind?
Warum gibt es außer ein paar Developer-Boards kein einziges ARM-Board für einen Desktop-PC (und erst recht keins, das auch nur ansatzweise interessant in
Sachen Performance wäre)
Soweit mir bekannt ist sind selbst die performanten ARM-CPUs für Server und damit u.U. auf Energieeffizienz optimiert und nicht auf max. Leistung. PowerPC gibt es auch nur als Server (Gegenbeispiele sind gerne gesehen) Alpha, MIPS und IA64 sind tot. Was bleibt dann noch, wenn es nicht um HTPC geht sondern um universell einsetzbare und gleichzeitig rechnenstarke Computer im Heim- und Businessbereich geht?
Vieleicht wird es ja mit RISC-V etwas, oder doch mal mit leistungsfähigen ARM CPUs, für die es auch eine passende Softwareunterstützung absiets vom Server geben wird. Alles ist nunmal nicht als OpenSource verfügbar, ob man dass mag oder nicht.
Warum hat Apple damals den PowerPC beerdigt? Vermutich waren es einfache wirtschaftliche Überlegungen, genauso wie bei den Gerüchten aus dem vergangenen Jahr, dass Apple u.U. wieder von x86 weg gehen könnte.
Darum bin ich eh der Meinung, dass die ganzen Streamerei mit GPU über NVENC eh viel effizienter ist. Ich sehe nicht ein, einen irrsinnigen Prozessor dazu zu nutzen für minimal bessere Qualität..
Die Datenrate bei ansatzweise gleicher Qualität scheint beim Streamen vollkommen unwichtig zu sein, so lange der Upload groß genug ist. Dreht der Streaming-Server die Videos eigentlicht nochmal durch die Mangel oder werden die von Dir produzierten und hochgeladenen Streams 1:1 wieder ausgeliefert?
Spezialisierte Prozessoren wird es abseits bestimmter Anwendungsszenarien nie wieder geben.
Wär heute unmöglich, Standards zur Interoperabilität zwischen diversen Chips diverser Hersteller auf die Beine zu stellen.
Alleine schon vom Namen her sind Spezielchips immer auch ganz spezielle und eingeschränkte Szenarien festgelegt. Egal, ob Videode- und Codierung, Verschlüsselung, KI, Bitcoin oder Raytracing.
Wer heute aktuelle Videostandards dekodieren möchte, steht mit einer IGP oder einer Grafikkarte von vor 6-7 Jahren sehr schlecht da. Wer AES verschlüsselte VeraCrypt-Laufwerke nutzen möchte, darf ohne passende CPU auch recht lange warten. und wenn Quantencomputer doch schneller kommen wie derzeit noch erwartet, dann bringt einem AES256 überhaupt nichts mehr. Mir wäre dann ein Zusatzchip bedeutend lieber wie wieder die CPU wechseln zu müssen.
Dass ich meine Raw-Bilder im PC zeitaufwändig umwandeln muss anstatt den darauf spezialisierten Chip der Kamera zu nutzen, liegt auch nur am Unwillen des Kameraherstellers, das ganze vernünftig zu integrieren. Da wird lieber der Algorithmus nachprogrammiert anstatt die Kamera per USB3 vernünftig anzubinden.
Eher wird sich irgendwann eine neue universelle Prozessorarchitektur durchsetzen. Das wird aber auch nicht ARM sein...
Wobei - wenn ich so überlege... Ich bezweifle, dass überhaupt x86 das Limit darstellt - und nicht schlicht physikalische Eigenschaften.
Man könnte sicherlich vieles effizienter lösen wie es x86/x64 tut. Warum muss ein x86-Prozessor die Befehle erst einmal in micro-OPs zerlegen um diese dann zu verarbeiten. Das könnte der Compiler vorher u.U. viel effizienter machen.
Aber genauso, wie sich VHS damals nicht durchgesetzt hat, weil es das bessere System war, hat sich x86 nicht deshalb durchgesetzt, weil es das besste/effizienteste System war.
Ich finde es schon lustig, dass im Artikel ausgerechnet eine "Physikeinheit" genannt wird. PhysX ist genau aus einer solchen Hardwareerweiterung entstanden.