AW: x86-CPU: Forscher oraklen über das Ende klassischer Prozessoren
Ernst gemeinte Frage:
Woran liegt es, dass wir nicht mehr als 5GHz haben?
Mal was anderes. Ich studiere E-Technik und blicke nur die Hälfte was ihr so von euch gebt. Habt ihr euch das alles privat angelesen und recherchiert?
Was haltet ihr denn von Lichtprozessoren? Habe mich zwar nicht aktiv damit beschäftigt und nur was aufgeschnappt aber klingt ganz interessant.
Ich glaube auch nicht, dass wir in den nächsten 5 Jahren eine andere Technik als die bisherige in der CPU-Produktion sehen werden. Auch spezialistierte CPUs halte ich für nicht oder zumindest schwer umsetzbar im Consumermarkt.
Sorry. Der Druckauftrag für das künstliche Herz ist vor den Bio Computer gerutscht. Kann also noch was dauern
Ich bin kein e-Techniker, aber was Gater sind, wie sie funzen und wie man Low 0 und high 1 umgeht, musste ich lernen. Ich habe CPLDs und FPGAs geproggt, sie als Hilfsprozi einem x86 oder ARM Cortex M0-M4 über einen Tristate driver zur Verfügung gestellt etc.
CPUs sind im Grunde genommen sehr komplexe logische Schaltungen. AVX oder SSE Befehle kann man schon als Hilfsprozessoren betrachten: Ist ein Befehl schneller über sie ausführbar ( in wenigeren Taktzyklen) werden die Eingangswerte zu dem Bereich über Signale geleitet, AVX berechnet das Ergebnis und schreibt es im Ausgangsregister.
Aus logischer Sicht ist das Problem, dass eine logische Schaltung IMMER aktiv ist, die einzelen Prozesse alle ohne Ausnahme parllel laufen, die auf Signalveränderungen reagieren, und die einzige Möglichkeit zur Kommunikation zwischen den Prozessen sind Signale und Register, die man mit dem Takt timen muss, sonst fliegt alles um die Ohren ( zwei mal HIGH beim selben Bit, geht womöglich kaputt). Die Zeit läuft also zweidimensional, einmal die reale Zeit durch den Takt repräsentiert und einmal die delta Zeit in den Prozessen selbst, die parallel/senkrecht dazu verlaufen. Die gesamte Schaltung muss sich mit dem Takt von außen unverändert verhalten, sonst fällt die Schaltung auseinander.
Aus der e-Techsicht sind 1 und 0 Spannungslevel, angenommen 0 enspricht 3.3V und 1 entspricht 5V, dann besitzt eine logische Einheit den boolschen Wert 1, wenn die Spannung 5V beträgt und 0, wenn die Spannung 3,3V beträgt. Um den Zustand zu verändern bedarf es Strom. In der realen Welt bleiben die Signale nicht genau genug über die gesamte Strecke der Leiterbahn, wodurch es zu metastabilen Zuständen kommen kann:
Metastabilitaet (digitale Schaltung) – Wikipedia
Damit es nicht dazu kommt, sind auf dem gesamten Chip unzählige Verstärker verteilt, die einem Signal z.B. mehr Energie geben , als für eine 5V Spannung für eine 1 benötigt wird. Der Überschuss wird von Filtern mit Kondensatoren abgefangen, sie sind auch zu hauf auf dem Chip verteilt. Daraus ergibt sich der Verbrauch: Anfangs Energie, die ganzen Verstärker werden permanent versorgt, die Leiterbahnen (Signalträger) brauchen auch Energie, je länger die Strecke ist (da kommt die meiste Ersparnis bei Node- Shrinks). Je höher der Takt geht, desto mehr Signalrausch => noch mehr Energie geht in die Kondensatoren zum Filtern => Der Stromverbrauch und die Temperatur gehen durch die Decke.
Die Milliarden von Transistoren sind meistens nicht gleichzeitig aktiv. Ein Großteil wird zum Beispiel durch AVX gleichzeitig aktiviert => Stromaufnahme und Temperatur steigen sehr schnell => der Prozessoer verringert dann den Takt, um Supergau zu verhindern
P.S.: Über die Belichtungsverfahren etc. habe ich keine Ahnung und habe auch nicht nachgelesen. Was ich aber zum Beispiel weiß, ist dass Graphen basierte Transistoren viel weniger Energie benötigen, um von 0 auf 1 zu schalten, dadruch kann man sich schwächere Verstärker und Kondensatoren mit geringerer Kapazität leisten. Das ist auf jeden Fall ein Upgrade gegenüber Silizium.