x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Das hast du wohl verpasst
kaffee.gif

Scheint so als hättest du weder die Spekulations-news noch die News zu IBM/MIT wirklich gelesen bzw verstanden.
MIT hat vor Jahren damit angefangen mit Graphen für Schaltkreise herumzutüfteln. Und damals wurde dann auch vermutet das man in weit entfernter Zukunft 500 GHz oder schneller Systeme realisieren könne. Ähnlich wie damals auch Intels 10 GHz CPU :P


Erst Quantencomputer könnten die x86-Architektur als Alltagsrechner ablösen.
Nein, gerade die werden das nicht können - aus dem einfachen Grund das diese für einfache lineare Berechnungen viel zu langsam/ineffizient sind.
das liegt in der Natur von Quantenberechnungen - diese sind sehr gut darin große Datenmengen zu filtern und durchzuackern, aber absolut ungeeignet serielle aufgaben zu erledigen.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wenn ich mir diesen Bericht so durchlese und etwas in der Vergangenheit bohre fällt mir da direkt ein Name ein: Commodore Amiga
Agnus, Denise und Paula, dazu noch der 68000er.
Seinerzeit war diese Technik Maßgebend :-)

Das können sich halt User von X86-CPUs nicht vorstellen. Genial ist weiterhin, daß die Nachteile aus der Vergangenheit bekannt sind. Durch eine generelle Sockelung der Customs könnte man dem vorgreifen, aber naja..... wird wohl anders kommen.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Scheint so als hättest du weder die Spekulations-news noch die News zu IBM/MIT wirklich gelesen bzw verstanden.
MIT hat vor Jahren damit angefangen mit Graphen für Schaltkreise herumzutüfteln. Und damals wurde dann auch vermutet das man in weit entfernter Zukunft 500 GHz oder schneller Systeme realisieren könne. Ähnlich wie damals auch Intels 10 GHz CPU :P
Die erste Dell-Graphcore IPU-Appliance fuer Rechenzentren ist da
https://www.heise.de/newsticker/meldung/Hot-Chips-Thinci-stellt-Graphen-Prozessor-fuer-Machine-Learning-vor-3809086.html

Nicht so theoretischer Natur, zwar ein gewaltiger Co-Prozessor aber 5 Petaflops..:ugly:

Der Ansatz is genial, sie haben die Speicherbausteine gleich im DIE integriert, am Ende um die 600MB. Obwohl das wenig klingt, kann der Speicher fast ohne Latenz erreicht werden, das entpricht einer gigantischen Bandbreite .

Wenn ich Intel wäre, würde ich den ganzen DRAM-Herstellern mit dem Konzept einen Riesenbatzen vom Kuchen nehmen.
 
Zuletzt bearbeitet:
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Spezialisierte Prozessoren wird es abseits bestimmter Anwendungsszenarien nie wieder geben.
Wär heute unmöglich, Standards zur Interoperabilität zwischen diversen Chips diverser Hersteller auf die Beine zu stellen. Am Ende würde dem Nutzer alles viel teurer und aufwendiger kommen und die Komplexität stark steigern - oder die Funktionen extrem einschränken..

Abseits von ASICs gibts schon ewig nur spezialisierte Prozessoren - wozu ich neben CPUs mittlerweile auch GPUs zähle, sind die doch schon lange nicht mehr nur für Grafikberechnungen nutzbar.

Eher wird sich irgendwann eine neue universelle Prozessorarchitektur durchsetzen. Das wird aber auch nicht ARM sein...
Wobei - wenn ich so überlege... Ich bezweifle, dass überhaupt x86 das Limit darstellt - und nicht schlicht physikalische Eigenschaften.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren


Da steht aber iwie nur 2 PetaFlops. Und das ding als CPU zu bezeichnen.. selbst als Spezialprozessor gehn die Dinger nicht mehr durch. Das ist wirklich nurmehr Signalverarbeitung. Wenn ich mich recht erinnere sind das Beschleunigungskarten mit fest verdrahttetem 4layer 16bit Convolution Neural Network. Wenn man das benötigt ist es Top. Will man aber irgend etwas anderes machen dann wars das.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Warum soll x86 eigentlich allem anderen ueberlegen sein?
Ich nutze unter Linux auch verschiedene Architekturen, und habe eigentlich keine Nachteile festgestellt.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Wenn CPUs irgendwann selbständig "denken" können, braucht die digitale Welt keine Menschen mehr.

Kurz gesagt wird die Ki bald Einzug in CPUs nehmen und dann zählt mal 1 und 1 zusammen.:hmm:
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

wo bleiben die bioneuralen Gelpacks?! :huh::hail:

Die waren doch für Datenübertragung bzw. Kommunikation zw. der gesamten Technik und keine berechnenden CPU's oder?
Bei der Voyager wurde ja meist nur gesagt, dass die Reaktionsfähigkeit doppelt so schnell sei (oder so ähnlich)

Ich denke der klassische Prozessor wird mehr erweitert, passiert bereits mit AVX usw. und dann muss die Fertigung einen großen Schritt machen.
Die Shrinks gehen nicht ewig weiter. Graphen, Quanten usw. könnten in Zukunft kommen.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Forscher-oraklen-das-Ende-klassischer-Prozessoren

Also Forscher orakeln jetzt?
Sorry, aber ich kann dieser Überschrift nichts abgewinnen.

Das eine Entwicklung in diese Richtung nicht nur denkbar ist sondern evtl. notwendig ist, mag sein. Allerdings sind Forscher für mich mehr oder weniger Wissenschaftler und ein Orakel ist bei mir, mehr oder weniger, eher das Gegenteil. Es liest sich, als würden die Wissenschaftler Ihre Forschung nach dem Bauchgefühl lenken, welches sie nach dem Lesen Ihres Horoskopes haben.

Ich mir kann schon gut vorstellen, dass CPUs, Ihrem Zweck entsprechend, weiterentwickelt werden. Eine für das OS und dazu eine speziell nur für Spiele. Oder eine für das OS und dazu eine nur für zB. wissenschaftliche Spezialprogramme. Natürlich würden diese dann wesentlich effizienter sein. Das BIOS hat sich auch weiter entwickelt; warum sollten sich nicht auch CPUs für spezialisierte Aufgabengebiete Unterscheiden dürfen?
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Der Grund, warum man seit fast 20 Jahren irgendwo zwischen 1 und 5 GHz rumzappelt ist, weil der Transistor bei heutiger Logik eben nicht mehr die Schaltfrequenz limitiert. Auch Transistoren mit Transitfreqenzen von mehreren 1000 GHz werden daran nichts ändern. Ein einziger Transistor ist in der Hinsicht etwas ganz anderes, als eine fertige Schaltung, die 8 Metal Layers über dem Chip hat.

Ernst gemeinte Frage:
Woran liegt es, dass wir nicht mehr als 5GHz haben?

Mal was anderes. Ich studiere E-Technik und blicke nur die Hälfte was ihr so von euch gebt. Habt ihr euch das alles privat angelesen und recherchiert?

Was haltet ihr denn von Lichtprozessoren? Habe mich zwar nicht aktiv damit beschäftigt und nur was aufgeschnappt aber klingt ganz interessant.
Ich glaube auch nicht, dass wir in den nächsten 5 Jahren eine andere Technik als die bisherige in der CPU-Produktion sehen werden. Auch spezialistierte CPUs halte ich für nicht oder zumindest schwer umsetzbar im Consumermarkt.

Da bin ich auch mal gespannt wie das weiter geht. Gab es alles schon. Von den Spezialprozessoren zu den x86 Allroundern und nun wieder Kommando zurück. Dann kommen vielleicht irgendwann mal Quantencomputer und danach Bio Computer oder eine Kombination davon :D

Sorry. Der Druckauftrag für das künstliche Herz ist vor den Bio Computer gerutscht. Kann also noch was dauern ;)
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Das Problem sollen die parasitären Bauteile sein. Das wären beispielsweise die gesamten Leitungen die die Transistoren verbinden. Dadurch erhälst du einen Tiefpassfilter, der die hohen Frequenzen nicht zulässt.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Darum bin ich eh der Meinung, dass die ganzen Streamerei mit GPU über NVENC eh viel effizienter ist. Ich sehe nicht ein, einen irrsinnigen Prozessor dazu zu nutzen für minimal bessere Qualität..
Spezialisierte Prozessoren sind viel besser.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ernst gemeinte Frage:
Woran liegt es, dass wir nicht mehr als 5GHz haben?
Hat unter Anderem mit Leckströmen, welche bei steigender Frequenz ein größeres Problem werden zu tun, und eben, weil du nach wie vor eine mehrlagige Beschaltung hast. Du hast ca. 1000 Pins, musst aber Milliarden von Transistoren ansteuern. Das ist ein enormer Schaltungsaufwand. Und deine Beschaltung schluckt hohe Frequenzen. Kannst du dir so vorstellen: wenn du zwei parallel zueinanderverlaufende Metallbahnen hast und auf nur einer wird Spannung angelegt, dann wirkt die zweite Metallbahn wie ein parasitärer Kondensator. Und ein parallel geschalteter Kondensator ist eben ein Tiefpass erster Ordnung. Wenn du das ganze mit höherer Frequenz taktest, dann geht also immer mehr Energie in diesem Kondensator Flöten. Egal, wie gut die Transistoren sind.
Mal was anderes. Ich studiere E-Technik und blicke nur die Hälfte was ihr so von euch gebt. Habt ihr euch das alles privat angelesen und recherchiert?
Ich auch, habe mich in Halbleitertechnologie vertieft. ;)
Was haltet ihr denn von Lichtprozessoren? Habe mich zwar nicht aktiv damit beschäftigt und nur was aufgeschnappt aber klingt ganz interessant.
Lichtprozessoren stelle ich mir schwierig vor, weil Photonen naturgemäß nicht wirklich wechselwirken. Optische Signalverteilung könnte ich mir vorstellen, aber da müsste erst der Si-Platform kompatible Laser her.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ich denke auch, dass CPUs zukünftig heterogener werden. CPU-Kerne sind mittlerweile sehr klein. Die Möglichkeiten sie (durch mehr Transistoren) schneller zu machen sind begrenzt und auch der Nutzen von immer mehr Kernen bringt nur in manchen Anwendungen Vorteile. Die Frage ist nun, ob man entweder eine Sammlung von Fixed-Function-Einheiten baut, die zwar jede für sich nicht so häufig genutzt wird, dafür aber sehr schnell und sparsam ist und aufgrund ihrer geringen Größe kaum etwas kostet oder ob man den bisherigen Weg weitergeht und auf programmierbare Einheiten setzt, die aber aufgrund ihrer Architektur andere Stärken/Schwächen als die eigentlichen CPU-Kerne haben. Auch ein Mittelding mit FPGA-artigen Einheiten wäre denkbar. Sehr langfristig könnten auch "Quantencomputing-Einheiten" hinzukommen.

Meine persönlichen Favoriten sind FPGA-Einheiten. Diese können Zahlreiche Algorithmen sehr viel effizienter Ausführen als CPUs und bleiben dennoch vollständig programmierbar.
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ich warte schon seit Jahren auf Quanten-CPU's. Wo bleiben die zur Hölle?
 
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Da steht aber iwie nur 2 PetaFlops. Und das ding als CPU zu bezeichnen.. selbst als Spezialprozessor gehn die Dinger nicht mehr durch. Das ist wirklich nurmehr Signalverarbeitung. Wenn ich mich recht erinnere sind das Beschleunigungskarten mit fest verdrahttetem 4layer 16bit Convolution Neural Network. Wenn man das benötigt ist es Top. Will man aber irgend etwas anderes machen dann wars das.

Es sollte nur beispielhaft zeigen, dass es heute schon komplexe chips auf der basis von graphen gibt. Gerade machen sie Nvidia den hintern heiß bei deep learning etc.
 
Zuletzt bearbeitet:
AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren

Ernst gemeinte Frage:
Woran liegt es, dass wir nicht mehr als 5GHz haben?

Mal was anderes. Ich studiere E-Technik und blicke nur die Hälfte was ihr so von euch gebt. Habt ihr euch das alles privat angelesen und recherchiert?

Was haltet ihr denn von Lichtprozessoren? Habe mich zwar nicht aktiv damit beschäftigt und nur was aufgeschnappt aber klingt ganz interessant.
Ich glaube auch nicht, dass wir in den nächsten 5 Jahren eine andere Technik als die bisherige in der CPU-Produktion sehen werden. Auch spezialistierte CPUs halte ich für nicht oder zumindest schwer umsetzbar im Consumermarkt.



Sorry. Der Druckauftrag für das künstliche Herz ist vor den Bio Computer gerutscht. Kann also noch was dauern ;)
Ich bin kein e-Techniker, aber was Gater sind, wie sie funzen und wie man Low 0 und high 1 umgeht, musste ich lernen. Ich habe CPLDs und FPGAs geproggt, sie als Hilfsprozi einem x86 oder ARM Cortex M0-M4 über einen Tristate driver zur Verfügung gestellt etc.
CPUs sind im Grunde genommen sehr komplexe logische Schaltungen. AVX oder SSE Befehle kann man schon als Hilfsprozessoren betrachten: Ist ein Befehl schneller über sie ausführbar ( in wenigeren Taktzyklen) werden die Eingangswerte zu dem Bereich über Signale geleitet, AVX berechnet das Ergebnis und schreibt es im Ausgangsregister.
Aus logischer Sicht ist das Problem, dass eine logische Schaltung IMMER aktiv ist, die einzelen Prozesse alle ohne Ausnahme parllel laufen, die auf Signalveränderungen reagieren, und die einzige Möglichkeit zur Kommunikation zwischen den Prozessen sind Signale und Register, die man mit dem Takt timen muss, sonst fliegt alles um die Ohren ( zwei mal HIGH beim selben Bit, geht womöglich kaputt). Die Zeit läuft also zweidimensional, einmal die reale Zeit durch den Takt repräsentiert und einmal die delta Zeit in den Prozessen selbst, die parallel/senkrecht dazu verlaufen. Die gesamte Schaltung muss sich mit dem Takt von außen unverändert verhalten, sonst fällt die Schaltung auseinander.
Aus der e-Techsicht sind 1 und 0 Spannungslevel, angenommen 0 enspricht 3.3V und 1 entspricht 5V, dann besitzt eine logische Einheit den boolschen Wert 1, wenn die Spannung 5V beträgt und 0, wenn die Spannung 3,3V beträgt. Um den Zustand zu verändern bedarf es Strom. In der realen Welt bleiben die Signale nicht genau genug über die gesamte Strecke der Leiterbahn, wodurch es zu metastabilen Zuständen kommen kann:
Metastabilitaet (digitale Schaltung) – Wikipedia
Damit es nicht dazu kommt, sind auf dem gesamten Chip unzählige Verstärker verteilt, die einem Signal z.B. mehr Energie geben , als für eine 5V Spannung für eine 1 benötigt wird. Der Überschuss wird von Filtern mit Kondensatoren abgefangen, sie sind auch zu hauf auf dem Chip verteilt. Daraus ergibt sich der Verbrauch: Anfangs Energie, die ganzen Verstärker werden permanent versorgt, die Leiterbahnen (Signalträger) brauchen auch Energie, je länger die Strecke ist (da kommt die meiste Ersparnis bei Node- Shrinks). Je höher der Takt geht, desto mehr Signalrausch => noch mehr Energie geht in die Kondensatoren zum Filtern => Der Stromverbrauch und die Temperatur gehen durch die Decke.
Die Milliarden von Transistoren sind meistens nicht gleichzeitig aktiv. Ein Großteil wird zum Beispiel durch AVX gleichzeitig aktiviert => Stromaufnahme und Temperatur steigen sehr schnell => der Prozessoer verringert dann den Takt, um Supergau zu verhindern :D

P.S.: Über die Belichtungsverfahren etc. habe ich keine Ahnung und habe auch nicht nachgelesen. Was ich aber zum Beispiel weiß, ist dass Graphen basierte Transistoren viel weniger Energie benötigen, um von 0 auf 1 zu schalten, dadruch kann man sich schwächere Verstärker und Kondensatoren mit geringerer Kapazität leisten. Das ist auf jeden Fall ein Upgrade gegenüber Silizium.
 
Zuletzt bearbeitet:
Zurück