CPU-Forschung: Wissenschaftler fertigen kompletten RISC-Prozessor mit Nanotubes

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu CPU-Forschung: Wissenschaftler fertigen kompletten RISC-Prozessor mit Nanotubes

Wissenschaftler des MIT und von Analog Devices haben gemeinsam einen Prozessor hergestellt, der komplett auf Nanotubes setzt. Diese könnten in Zukunft eine Alternative zu Silizium darstellen, da sie weniger Platz benötigen und höhere Taktfrequenzen ermöglichen. Beim hergestellten Prozessor ist davon aber wenig zu spüren, dann die Fertigung hat noch einige Probleme.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: CPU-Forschung: Wissenschaftler fertigen kompletten RISC-Prozessor mit Nanotubes
 
Darum wohl eine RISC und nicht CISC CPU , der verringerte Befehlssatz spart sicher die ein oder andere Schaltung ...
die ersten ARM waren ja auch zum Teil bei gleichen Mhz um denn Faktor 2 bis 3 schneller , das sollte man nicht vergessen !
Auch die PPC 603 haben noch Kreise um die ach so tollen Pentiums gezogen bei weniger Hitz Verbrauch und schon einem Powersave Modus , was Apple Laptops damals nicht nur Optisch welten besser gemacht hat als PC Laptops der Zeit ;)
 
War es aber nicht so, dass CNT-Transistoren deutlich höher takten können, als ihre Silizium-Pendants?
Sollten die CNT-CPUs also ebenso schnell wachsen, wie es die Siliziumvarianten getan haben, sind wir da vermutlich in gar nicht so ferner Zukunft auf einem Niveau, das zumindest mit Silizium vergleichbar ist.
 
Ach wie schön wenn PCGH Nachrichten auch aus 3ter Hand noch kopiert, schön mit 3 Tagen Versatz.
MIT/Nature => ArseTechnica => Computerbase => PCGH.
ist es so schwer die MIT-Pressemitteilung herzunehmen?

https://hips.hearstapps.com/hmg-pro...shot-2019-08-27-at-10-36-57-pm-1566970629.jpg
Die Dinger sind auch noch richtig riesig.
32 Chips auf einem Wafer. Und ja - das große Rechteck in jedem Chips - das ist die Carbon-Nanotube-CPU.


die ersten ARM waren ja auch zum Teil bei gleichen Mhz um denn Faktor 2 bis 3 schneller , das sollte man nicht vergessen !
Gegenteil - sie waren um 2-3 mal langsamer, je nach Aufgabengebiet auch 10x oder schlechter. Der Vorteil von RISC ist das man sich auf wenige befehle einschränken kann und diese sehr effizient sind. Dadurch verliert man aber in generelleren und spezifischeren Problemstellungen an Leistung. (Genau deshalb haben wir ja jetzt auch Hardware-Decoder für gängige Videoformate - weil das auch auf einer x86_64 Architektur zu viel Leistung benötigt).
Schnell sind sie dann wenn nur die einfachen Instruktionen benötigt werden.


Laut Wikipedia sogar deutlich mehr

Quelle: Graphen – Wikipedia

Aber kommt wohl auch drauf an wie komplex die Schaltungen sind.

Einzelne Transistoren herzustellen ist vergleichsweise "Einfach" - kostet dann halt ein paar zehntausend Euro.
Für einen Chip müssen diese aber auch hintereinander geschalten werden, das sind bei komplexeren Operationen schon mal 10 Gater oder mehr (teils 20-30). Damit die Signale stabil sind und keine Fehler auftreten muss eine CPU da auch 10mal langsamer sein als die Transistoren.
Selbst mit 20 GHz Transistoren kommt man bei modernen CPUs nicht weit.
 
Zuletzt bearbeitet:
Äußerst Interessant. Da momentan sich die Geschichte wiederholt jedoch dieses mal mit Transistoren statt Tubes ist es der Masse nicht zu entnehmen das Sie Moore's Law verstanden haben. Ja Sie bezieht sich laut Aussage des Author auf die "Transistor" Fläche, jedoch ist es eigentlich mehr die Lernstetigkeit gemeint als die Weiterentwicklung beständiger Elemente. Der Mensch sehnt sich ja auch nicht nach Grenzen, sondern schaut nach Wegen diese zum umgehen -> :wall: . :D

Denn auch wenn wir bald die wirtschaftlichen Grenzen sehen, dann die physikalische Grenze und dann auch noch die chemische Grenze erreichen, gibt es schon längst neue Ideen den Fortschritt beständig zu halten :daumen:
 
Also ich persönlich finde da aktuel GAAFETs interssanter, weil wir das in einigen Jahren kaufen können.
FinFET hat uns jetzt viele Jahre begleitet, auf die nächsten 10-20 Jahre mit GAAFET:)


Ob ich die Nanotubes zb. noch erleben werde, ist allesdings fraglich, weil das könnte echt noch einige Jahrzehnte dauern!
 
Für einen Chip müssen diese aber auch hintereinander geschalten werden, das sind bei komplexeren Operationen schon mal 10 Gater oder mehr (teils 20-30). Damit die Signale stabil sind und keine Fehler auftreten muss eine CPU da auch 10mal langsamer sein als die Transistoren.
Selbst mit 20 GHz Transistoren kommt man bei modernen CPUs nicht weit.

Japp! Einzelne Transistoren können auch mal schnell hunderte GHz schnell sein. 417GHz bei Raumtemperatur ist auch nicht gerade langsam. World record with frozen transistors - electronica Blog
 
Äußerst Interessant. Da momentan sich die Geschichte wiederholt jedoch dieses mal mit Transistoren statt Tubes ist es der Masse nicht zu entnehmen das Sie Moore's Law verstanden haben. Ja Sie bezieht sich laut Aussage des Author auf die "Transistor" Fläche, jedoch ist es eigentlich mehr die Lernstetigkeit gemeint als die Weiterentwicklung beständiger Elemente. Der Mensch sehnt sich ja auch nicht nach Grenzen, sondern schaut nach Wegen diese zum umgehen -> :wall: . :D

Denn auch wenn wir bald die wirtschaftlichen Grenzen sehen, dann die physikalische Grenze und dann auch noch die chemische Grenze erreichen, gibt es schon längst neue Ideen den Fortschritt beständig zu halten :daumen:

Jetzt erklär mir bitte was eine chemische Grenze sein soll welche NACH einer physikalischen kommt? :lol:
 
Jetzt erklär mir bitte was eine chemische Grenze sein soll welche NACH einer physikalischen kommt? :lol:

Rein chemisch könnte man wohl irgendwie auch weit unterhalb der 3nm Transistoren fertigen, nur macht einem dann der quantenmechanische (und das ist ein Teil der Physik) Tunneleffekt einen Strich durch die Rechnung.

=> chemisch ist mehr möglich als physikalisch.
 
Rein chemisch könnte man wohl irgendwie auch weit unterhalb der 3nm Transistoren fertigen, nur macht einem dann der quantenmechanische (und das ist ein Teil der Physik) Tunneleffekt einen Strich durch die Rechnung.

=> chemisch ist mehr möglich als physikalisch.

Chemie ist Teilmenge der Physik und beschreibt nur Bindungen zwischen Atomen. Physik hingegen ist viel mehr. Also, nein, einfach nur: nein.
 
Der Vorteil von RISC ist das man sich auf wenige befehle einschränken kann und diese sehr effizient sind. Dadurch verliert man aber in generelleren und spezifischeren Problemstellungen an Leistung. (Genau deshalb haben wir ja jetzt auch Hardware-Decoder für gängige Videoformate - weil das auch auf einer x86_64 Architektur zu viel Leistung benötigt).
Schnell sind sie dann wenn nur die einfachen Instruktionen benötigt werden.

In generelleren und spezifischeren Problemstellungen? Also in allen?

Ich würde ja sagen, dass wir Hardware-Decoder haben, weil alles, was direkt in Hardware läuft immer deutlich schneller und sparsamer geht und die gängigen Videoformate einem eben die Möglichkeit geben, etwas lohnenderweise in Hardware zu gießen. Der Unterschied hier ist der zwischen generalisierter und spezialisierter Hardware und nicht zwischen RISC und irgendetwas anderem.
 
Chemie ist Teilmenge der Physik und beschreibt nur Bindungen zwischen Atomen. Physik hingegen ist viel mehr. Also, nein, einfach nur: nein.

Dennoch ist es chemisch möglich kleiner Transistoren herzustellen, sie funktionieren dann nur leider physikalisch nicht.

Von daher liegst du falsch.

Du solltest dich nochmal genau damit beschäftigen, wie das ist, wenn eine Teilmenge die andere ausschließt.
 
Zurück