Schnellste Befehlssatzarchitektur?

Donamix

Kabelverknoter(in)
Hey,

hab mich letztens mit einem Kommilitonen aus einem etwas hardwarenäheren Fachbereich unterhalten und irgendwie kam er darauf, dass ARM prinzipiell schneller als x86 sei.
Gäbe aber noch andere Befehlssätze, die durchaus noch schneller wären, aber er konnte mir auf Anhieb keine Namen nennen.
Habe bisschen nach der "schnellsten Architektur" (falls man das überhaupt so sagen kann) gegoogelt aber bin nicht so recht fündig geworden. Ist sicherlich auch nicht ganz eindeutig, da die Einsatzgebiete vermutlich komplett verschieden sind.
Gibt es eine schnellste Architektur?

x86 ist ja schon ziemlich alt und das Ende der Fahnenstange ist vermutlich(?) eher erreicht als bei anderen Architekturen.
Wenn es also signifikant schnellere Befehlssätze gibt, denkt ihr, dass es irgendwann einen Wechsel Consumer-Bereich weg von x86 geben wird? Oder ist das so gut wie aussichtslos, da zu viel Software etc neu compiled/angepasst/geschrieben werden müsste?
Bzw. andere eventuell schnellere Befehlssätze sind auf die Anforderungen des Consumer-Bereichs garnicht ausgelegt sondern eignen sich nur für ganz spezielle Dinge?
In naher Zukunft wird das vermutlich eh nicht der Fall sein, aber der Umstieg von IPv4 auf IPv6 dauert ja auch schon recht lange und muss trotzdem gemacht werden.

Vllt weiß da jemand mehr.

Grüße
 
x86 wird bleiben. Intel hatte sich ja schon beim Itanium an einem neuen Befehlssatz versucht. x86 ist super stark optimiert und unzählige male erweitert wurden, zuletzt mit den AVX2 Vektorregistern.

Du musst auch ein paar Sachen bedenken: x86 ist ne CISC-Architektur, während ARM eine RISC-Architektur ist. Kommt es dir jetzt eher auf möglichst hohen Takt (RISC) oder möglichst hohe IPC (CISC) an?
 
Zuletzt bearbeitet:
X86 ist schon seit dem Pentium Pro eher ein RISC Prozessor mit CISC Frontend. So wie quasi jede Multi/Superskalare Architektur. Deswegen ja die Aussage dass die Grenzen fließend sind.
 
Ich denke es kommt eher darauf an was du machen willst

Bei FLOPs unterscheidet sich das je nachdem schon ziemlich stark, wie man ja auch bei GPU vs. CPU in diesem Bereich sieht
 
Obwohl es bei den FLOPS ja auch zu sagen ist, das es eben nur eine theoretische Angabe ist.

AMD FX8350: 128 GFLOPS (multithread) = 4 (Module) * 4*10^-9 *s^-1 * 2 FPU * 2 (FMA) * 2 FLOPS/FPU
i7-2600K: 108,8 GFLOPS (multithread) = 4 (Kerne) * 3,4*10^-9 *s^-1 * 2 FPU * 4 FLOPS/FPU

Jedoch ist der i7 durch die höhere IPC der SandyBridge-Architektur und die effizienteren Caches in Anwendungen trotzdem schneller. Der FX kann vor allem durch sein gemeinsames Fetch/Decode je Modul pro Takt weniger Instruktionen laden und dekodieren.
 
Ja, kann man halt nicht so vergleichen, aber ich finde FLOPs ist besonders bei der Wissenschaft von Bedeutung

z..B. zieht der Prozessor meine PS2 in dem Bereich immernoch meinen P4 aus 2006 ab, obwohl der Takt ueber 10 mal hoeher ist
 
Na einfach weil sich auch die IPC deutlich gesteigert hat. Mein i5-4200U (2K+HT) mit 1,6 GHz im HTPC ist auch deutlich schneller als mein alter Laptop Pentium (2K) mit 1,73 GHz von 2008.
 
Na einfach weil sich auch die IPC deutlich gesteigert hat. Mein i5-4200U (2K+HT) mit 1,6 GHz im HTPC ist auch deutlich schneller als mein alter Laptop Pentium (2K) mit 1,73 GHz von 2008.

Aber da ises ja genau umgekehrt

PS2 Prozessor aus 2000 ist schneller als der P4 aus 2006 mit hoeherem Takt :D, der PS2 Prozessor hat irgendwie nur 200MHz und der P4 3GHz
 
Die PS2 hatte eine 128Bit CPU. Quasi reiner SSE Betrieb. Halbiert/Viertelt aber den Durchsatz wenn man etwas doch nur in 64/32Bit rechnen will. Dazu wurden bei der Leistungsangabe immer beide Chips, also quasi CPU+GPU, addiert.
Wobei z.B. die Vektor Einheit wirklich in der CPU saß, normal findet man die in der GPU.
Emotion Engine – Wikipedia
 
Die PS2 hatte eine 128Bit CPU. Quasi reiner SSE Betrieb. Halbiert/Viertelt aber den Durchsatz wenn man etwas doch nur in 64/32Bit rechnen will. Dazu wurden bei der Leistungsangabe immer beide Chips, also quasi CPU+GPU, addiert.
Wobei z.B. die Vektor Einheit wirklich in der CPU saß, normal findet man die in der GPU.
Emotion Engine – Wikipedia

Dann war das Ding doch eigentlich ziemlich stark fuer die damalige Zeit oder? Besonders fuer Berechnungen im wissenschaftlichen Bereich bestimmt mit FLOPs
 
Zurück