x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Qualcomm setzt bei mobilen Chips schon lange auf spezialisierte Co-Pozessoren. Da gibt es Einheiten für Sprachverarbeitung, Bildverarbeitung, Objekt-Erkennung, KI und allgemeine DSPs. Nvidia geht im Grunde in die gleiche Richtung (Cuda-, Tensor, RT-Cores), mit Augenmerk auf parallele Ausführung.

Das Ende klassischer Prozessoren sehe ich darin aber nicht. Es muss trotzdem eine zentrale Recheneinheit geben (central processing unit = CPU), die die ganzen Spezialeinheiten koordiniert.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ich warte schon seit Jahren auf Quanten-CPU's. Wo bleiben die zur Hölle?

a) Zustandsverschränkung von mehreren Duzend QBits ist halt nicht ganz so einfach umzusetzen.
b) Nur die wenigsten Probleme sind überhaupt durch Quantenalgorithmen effizienter lösbar, als durch traditionelle Informationsverarbeitung. Knackst du gerne Verschlüsselungen oder durchsucht du gerne Listen mit Abermilliarden von Einträgen? Nein? Dann bringt dir der Quantencomputer aktuell nicht sonderlich viel Mehrwert.
c) Und selbst wenn glaube ich nicht, dass du Bock drauf hast,deineen Quantencomputer dauerhaft auf <10 K zu kühlen, damit die Quantenzustände nicht mit der Umgebung wechselwirken.
Ergo: nein, der Quantencomputer wird, zumindest stand jetzt, keine große Rolle für Endanwender haben.
gRU?; cAPS
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Jaja, PC als Gaming Platform ist tot, Ende des x86, wie oft ich das schon hören musste....
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Und was würde passieren wenn man alle Transistoren und Kerne zu 3d Transistoren und 3d Kerne macht. Hätte man dann mehr Platz oder würde dann die Leistung steigen?
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Warum soll x86 eigentlich allem anderen ueberlegen sein?
Ich nutze unter Linux auch verschiedene Architekturen, und habe eigentlich keine Nachteile festgestellt.
Wo sind denn die (bezahlbaren) Prozessoren mit anderen Architekturen, die genauso performant und universell einsetzbar sind?

Warum gibt es außer ein paar Developer-Boards kein einziges ARM-Board für einen Desktop-PC (und erst recht keins, das auch nur ansatzweise interessant in Sachen Performance wäre)

Soweit mir bekannt ist sind selbst die performanten ARM-CPUs für Server und damit u.U. auf Energieeffizienz optimiert und nicht auf max. Leistung. PowerPC gibt es auch nur als Server (Gegenbeispiele sind gerne gesehen) Alpha, MIPS und IA64 sind tot. Was bleibt dann noch, wenn es nicht um HTPC geht sondern um universell einsetzbare und gleichzeitig rechnenstarke Computer im Heim- und Businessbereich geht?

Vieleicht wird es ja mit RISC-V etwas, oder doch mal mit leistungsfähigen ARM CPUs, für die es auch eine passende Softwareunterstützung absiets vom Server geben wird. Alles ist nunmal nicht als OpenSource verfügbar, ob man dass mag oder nicht.

Warum hat Apple damals den PowerPC beerdigt? Vermutich waren es einfache wirtschaftliche Überlegungen, genauso wie bei den Gerüchten aus dem vergangenen Jahr, dass Apple u.U. wieder von x86 weg gehen könnte.

Darum bin ich eh der Meinung, dass die ganzen Streamerei mit GPU über NVENC eh viel effizienter ist. Ich sehe nicht ein, einen irrsinnigen Prozessor dazu zu nutzen für minimal bessere Qualität..
Die Datenrate bei ansatzweise gleicher Qualität scheint beim Streamen vollkommen unwichtig zu sein, so lange der Upload groß genug ist. Dreht der Streaming-Server die Videos eigentlicht nochmal durch die Mangel oder werden die von Dir produzierten und hochgeladenen Streams 1:1 wieder ausgeliefert?

Spezialisierte Prozessoren wird es abseits bestimmter Anwendungsszenarien nie wieder geben.
Wär heute unmöglich, Standards zur Interoperabilität zwischen diversen Chips diverser Hersteller auf die Beine zu stellen.
Alleine schon vom Namen her sind Spezielchips immer auch ganz spezielle und eingeschränkte Szenarien festgelegt. Egal, ob Videode- und Codierung, Verschlüsselung, KI, Bitcoin oder Raytracing.

Wer heute aktuelle Videostandards dekodieren möchte, steht mit einer IGP oder einer Grafikkarte von vor 6-7 Jahren sehr schlecht da. Wer AES verschlüsselte VeraCrypt-Laufwerke nutzen möchte, darf ohne passende CPU auch recht lange warten. und wenn Quantencomputer doch schneller kommen wie derzeit noch erwartet, dann bringt einem AES256 überhaupt nichts mehr. Mir wäre dann ein Zusatzchip bedeutend lieber wie wieder die CPU wechseln zu müssen.

Dass ich meine Raw-Bilder im PC zeitaufwändig umwandeln muss anstatt den darauf spezialisierten Chip der Kamera zu nutzen, liegt auch nur am Unwillen des Kameraherstellers, das ganze vernünftig zu integrieren. Da wird lieber der Algorithmus nachprogrammiert anstatt die Kamera per USB3 vernünftig anzubinden.

Eher wird sich irgendwann eine neue universelle Prozessorarchitektur durchsetzen. Das wird aber auch nicht ARM sein...
Wobei - wenn ich so überlege... Ich bezweifle, dass überhaupt x86 das Limit darstellt - und nicht schlicht physikalische Eigenschaften.
Man könnte sicherlich vieles effizienter lösen wie es x86/x64 tut. Warum muss ein x86-Prozessor die Befehle erst einmal in micro-OPs zerlegen um diese dann zu verarbeiten. Das könnte der Compiler vorher u.U. viel effizienter machen.

Aber genauso, wie sich VHS damals nicht durchgesetzt hat, weil es das bessere System war, hat sich x86 nicht deshalb durchgesetzt, weil es das besste/effizienteste System war.

Ich finde es schon lustig, dass im Artikel ausgerechnet eine "Physikeinheit" genannt wird. PhysX ist genau aus einer solchen Hardwareerweiterung entstanden.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ich hätte ne idee,warum macht man es nicht so das man x86 & x64 einfach streicht und daraus dann x32 draus macht.Dann x86 oder x64 Kompaliert.Also sprich es flexible die einheiten macht.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Man könnte sicherlich vieles effizienter lösen wie es x86/x64 tut. Warum muss ein x86-Prozessor die Befehle erst einmal in micro-OPs zerlegen um diese dann zu verarbeiten. Das könnte der Compiler vorher u.U. viel effizienter machen.

Da muss ich dir Widersprechen. Das Befehle noch weiter aufgeteilt werden hat schon seinen Sinn. Allein schon deshalb weil sonst die Sprache (also x86_64) zu kompliziert werden würde. Compiler übersetzen von normalen Programmiersprachen zu Maschienencode, die CPU kann das dann abarbeiten wie sie will so lange das Ergebnis das richtige ist. Wäre das nicht so dann müsste der Compiler die Entscheidung treffen - was auch bedeuten würde das wenn eine CPU sich etwas anders verhält die Leistung flöten geht.
zB wenn man eine If-Abfrage von Bitmanipulationen abhängig macht kann es für die CPU Sinn machen das ganze erst garnicht zu berechnen weil sie eine einzelne Bitüberprüfung auch direkt in Hardware in einem Schritt machen kann.
(das Zählen von gesetzten bits wäre da ein Beispiel - der AVX2 befehl dafür ist manchmal deutlich schneller, manchmal deutlich langsamer als andere Methoden - kommt auf das Szenario an und die CPU kann das zum Teil erkennen. Der unterschied kann schon mal eine Faktor 2 sein)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wo sind denn die (bezahlbaren) Prozessoren mit anderen Architekturen, die genauso performant und universell einsetzbar sind?
...
Aber genauso, wie sich VHS damals nicht durchgesetzt hat, weil es das bessere System war, hat sich x86 nicht deshalb durchgesetzt, weil es das besste/effizienteste System war.
...

Du meintest sicher Video 2000, oder?
VHS hat sich durchgesetzt, war aber nicht das bessere System.

mfg
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Das ist Dummfug. Ein Spezial-Prozessor ist so lahm, dass er niemals einen Universal-Prozessor ersetzen kann.
Wahrscheinlich wollen die Laberheinis nur mal in den Medien auftauchen.
Die x86_64 CPUs schleppen allerdings soviel Altlasten mit, dass eine Generalüberholung nicht schaden könnte.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Warum soll x86 eigentlich allem anderen ueberlegen sein?
Ich nutze unter Linux auch verschiedene Architekturen, und habe eigentlich keine Nachteile festgestellt.

Ist es nicht. Es kommt immer auf die Aufgaben an, die bewältigt werden müssen, die sonstigen Anforderungen und natürlich die Mikroarchitektur. Ich sehe in dem CISC-Befehlssatz sogar Nachteile (die Notwendigkeit einer CISC-RISC-Umsetzung), die die Vorteile (dichter gepackter Programmcode durch variable Befehlsgröße) überwiegen. Vielleicht übersehe ich aber auch was. Im großen und ganzen ist der Befehlssatz aber offensichtlich durchaus brauchbar, die Mikroarchitekturen sind hochoptimiert und die extreme Verbreitung spielt auch eine Rolle. Ein weiterer Vorteil von anderen Befehlssätzen wäre natürlich die eventuelle Lizenzfreiheit.

Das Ende klassischer Prozessoren sehe ich darin aber nicht. Es muss trotzdem eine zentrale Recheneinheit geben (central processing unit = CPU), die die ganzen Spezialeinheiten koordiniert.

Genau das. Im Endeffekt ist es doch schon längstens so, oder hat schon längstens angefangen. Alles, was wirklich Aufwand bedeutet und in halbwegs generelle Aufgaben unterteilt werden kann ist in Form von Befehlsatzerweiterungen als Spezialfunktion der CPU realisiert, alles andere als externer oder interner Koprozessor. Der Kleinkram oder alles, was sich eben nicht generalisieren lässt läuft in Software, jeweils, weil es den Aufwand nicht lohnt. Im ersteren Fall, weil der Gewinn vernachlässigbar wäre, im zweiten, weil die Kosten exorbitant wären. Zwischenlösung wäre eventuell ein FPGA in der CPU, für den ein Programm noch die Programmierung der für dieses Programm sinnvollen Spezialfunktionen mitbringen müsste. So könnte man bestimmte, häufig genutzte Methoden "in Hardware" abbilden.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Achso ok. Dachte nur mal sowas in der Richtung gelesen zu haben weil ja die früheren Konsolen u.a. damit ausgestattet waren.
Auch Workstations von "Silicon Graphics". :)

SGI war vor meiner Zeit und weit oberhalb meiner Preisklasse, zeichnete sich meinem Wissen nach aber durch spezielle ASCIs für Grafik-/FP-Beschleunigung und weniger durch überragende CPU-Leistung aus. Die populärste Basis Konsolen bis in die 90er hinein sowie für Heimcomputer, aber auch für zum Beispiele viele Apple-Generationen war die Motorola-68000-Architektur – also CISC. :-)


wo bleiben die bioneuralen Gelpacks?! :huh::hail:

Haben mal wieder Fieber.


Wo sind denn die (bezahlbaren) Prozessoren mit anderen Architekturen, die genauso performant und universell einsetzbar sind?

Warum gibt es außer ein paar Developer-Boards kein einziges ARM-Board für einen Desktop-PC (und erst recht keins, das auch nur ansatzweise interessant in Sachen Performance wäre)

Soweit mir bekannt ist sind selbst die performanten ARM-CPUs für Server und damit u.U. auf Energieeffizienz optimiert und nicht auf max. Leistung. PowerPC gibt es auch nur als Server (Gegenbeispiele sind gerne gesehen) Alpha, MIPS und IA64 sind tot. Was bleibt dann noch, wenn es nicht um HTPC geht sondern um universell einsetzbare und gleichzeitig rechnenstarke Computer im Heim- und Businessbereich geht?

Vieleicht wird es ja mit RISC-V etwas, oder doch mal mit leistungsfähigen ARM CPUs, für die es auch eine passende Softwareunterstützung absiets vom Server geben wird. Alles ist nunmal nicht als OpenSource verfügbar, ob man dass mag oder nicht.

Warum hat Apple damals den PowerPC beerdigt? Vermutich waren es einfache wirtschaftliche Überlegungen, genauso wie bei den Gerüchten aus dem vergangenen Jahr, dass Apple u.U. wieder von x86 weg gehen könnte.

Die PowerPC-Entwicklung wurde nicht von Apple betrieben, sondern von IBM – oder eben auch nicht. Irgendwann wurde der Leistungsrückstand auf x86 so groß, dass Apple die Reißleine gezogen hat. Offensichtlich zu Recht, denn die meisten PowerPC-Programme liefen trotz Emulation auf den ersten Intel-Macs schnell genug und native x86-Entwicklungen deutlich schneller als auf den Vorgängern. Die Gerüchte über einen neuen Architekturwechsel speisen sich vor allem aus Apples ARM-Erfahrungen. Die Prozessoren für eigenen Mobile-Geräte entwickelt man schon seit langem selbst und ist damit überaus erfolgreich. Bei x86 für Notebooks und Desktops kann man das mangels Lizenz nicht, dazu müsste man auch hier auf ARM wechseln.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Du meintest sicher Video 2000, oder?
VHS hat sich durchgesetzt, war aber nicht das bessere System.

mfg

fotoman hat nichts anderes geschrieben, man muss nur genau und vielleicht auch etwas zwischen den Zeilen lesen und verstehen ;)

[...]Aber genauso, wie sich VHS damals nicht durchgesetzt hat, weil es das bessere System war, hat sich x86 nicht deshalb durchgesetzt, weil es das besste/effizienteste System war.
[...]

In dem Gleichnis erklärt er nur dass sich VHS trotz dessen dass es eigentlich bessere Videosysteme gibt durchgesetzt hat, genau wie bei x86.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wäre das nicht so dann müsste der Compiler die Entscheidung treffen - was auch bedeuten würde das wenn eine CPU sich etwas anders verhält die Leistung flöten geht.
Was auch heute schon der Fall ist. Den selben Quelltext einer Hochsprache übersetzt jeder Compiler anders und optimiert dabei mehr oder weniger gut meist nur für eine Plattform. Da wird dann das selbe Programm auf der einen CPU schneller und auf der anderen langsamer wie das jeweilige Compilat auf der selben CPU mit dem anderen Compiler.

zB wenn man eine If-Abfrage von Bitmanipulationen abhängig macht kann es für die CPU Sinn machen das ganze erst garnicht zu berechnen weil sie eine einzelne Bitüberprüfung auch direkt in Hardware in einem Schritt machen kann.
Dort krankt jeder Assembler-Befehlssatz. Dinge, die er nicht kennt, muss man irgendwie umschreiben, obwohl diese die HW u.U. trotzdem könnte.

VHS hat sich durchgesetzt, war aber nicht das bessere System.
x86 ist auch nicht unbedingt das beste System für alle universellen Aufgaben. Intel hat sich nur durchgesetzt, weil sie zur richtigen Zeit mit den passenden Partnern/Kunden am richigen Platz waren.

Wenn ich an meinen damaligen DEC Alpha denke, dann war der unter Linux und selbst unter Win NT4 performanter wie ein IBM Compatibeler PC (falls jemand sein Windows-Programme auch für Alpha angeboten hat). Aber halt auch massivst teurer, niemals für den Privatkunden vermarktet und am Ende abseits eines kleinen Nieschenmarktes für niemanden mehr interessant.

Das ist Dummfug. Ein Spezial-Prozessor ist so lahm, dass er niemals einen Universal-Prozessor ersetzen kann..
Abseits der reißerischen Überschrift behauptet das auch niemand. Es wird nur noch bedeutend mehr Spezialprozessoren (oder Prozessorerweiterungen) geben wie heutzutage bereits.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Die populärste Basis Konsolen bis in die 90er hinein sowie für Heimcomputer, aber auch für zum Beispiele viele Apple-Generationen war die Motorola-68000-Architektur – also CISC. :-)
Die Konsolen "3DO", "Sega Saturn", "Nintendo 64" und "PS1" hatten z.B. RISC Prozessoren.;)

Basierend auf der "MIPS" Architektur: MIPS-Architektur – Wikipedia
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Abseits der reißerischen Überschrift behauptet das auch niemand. Es wird nur noch bedeutend mehr Spezialprozessoren (oder Prozessorerweiterungen) geben wie heutzutage bereits.



Das heißt noch mehr erweiterungen die die software erst noch unterstüzen muss.Das heißt es muss dann der entwickler inplementieren.Ansonsten liegen die neuen erweiterungen brach.Und es gäbe keine weitere mehrleistung,ohne diese Optimierung.Aber wie auch immer,es gibt halt auch dort grenzen.Wie stark es mehrleistung geben wird,das kann auch niemand sagen.Und ob es überhaupt ne mehrleistung gibt,ist auch eine gute Frage.Man kann nicht sagen ob es wirklich überhaupt ne mehrleistung gibt.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Erst sprichst du von "frühen Konsolen", jetzt von Saturn, N64 und PS1.
Ich fühl mich alt. :-(
Ich hatte nicht geschrieben "frühe" sondern "frühere". :D
Also gar nicht genau festgelegt.
Aber mach dir nichts draus manchmal fühle ich mich auch alt.;)

Edit: Der Atari Jaguar hatte übrigens einen 68000´er + Risc Co-Prozessor.
 
Zuletzt bearbeitet:
Zurück