News Forschung: 15-nm-Schaltkreise nur noch 150 Atome voneinander getrennt

PCGH-Redaktion

Kommentar-System
Teammitglied
Also ich hab diesbezüglich mal unseren Professor befragt
der mir dann erklärt hat dass rein technisch mit silizium bei 9nm schluss ist danach ist es physikalisch nicht mehr möglich kleinere strukturen zu erreichen
wirtschaftlich ist für den großteil der unternehmen vermutlich aber schon bei 14-11 nm das ende der Fahnenstange erreicht
da ab dieser größe das umrüsten einer Fab unglaublich teuer werden wird
Wenn intel das schon in 5 jahren erreicht haben will dann bin ich wirklich mal gespannt was danach kommt auch intel kann die physik nicht außer kraft setzen
 
Der nächste größere Schritt werden vermutlich 3D-Chips sein. Noch fehlen dafür aber Fertigungsverfahren.

Das mit den 9nm bezweifle ich aber etwas. So wie ich das gelesen habe geht man im Moment davon aus dass bei <5nm die Tunneleffekte nicht mehr kontrollierbar sind. Auch ein Materialwechsel wird dabei übrigens nicht viel bringen. Vielleicht kommt man mit einem anderen Material noch ein paar Prozent kleiner, am grundsätzlichen Problem ändert das aber nichts.
 
Es gibt Intel Roadmaps bis 6nm, also kann bei 9nm nicht eine physikalische Grenze liegen.

Wenn das Ende aber erreicht ist, werden andere Trends kommen wie Kohlenstoffnanoröhrchen statt Kupfer oder Quantencomputer, die ja zz. mit Photonen schon machbar sind.
 
Auch wenn es auf den ersten Blick so scheint, als wäre wirklich fast das Ende der Fanenstange in Sachen Strukturverkleinerung erreicht, so macht es dann doch wenig Sinn, dass Intel so schnell die neuen Prozesse in Produkten umsetzt. Wenn sie sicher wüssten, dass es bald nicht mehr weitergeht, dann würde man nicht so eine offensive Strategie fahren. Ich denke Intel hat noch ein Ass im Ärmel, und zwar ein Pik-Ass.
 
Ich bin gespannt wie weit man mit Silizium runter gehen kann, und wann man andere Materialien benutzen muss um weitermachen zu können.
 
Je kleine Strukturen sind, um so mehr kommen quantenmechanische Effekte zum Tragen. D.h. insbesondere, dass Schaltzustände mit einer abnehmenden Wahrscheinlichkeit bestimmt sind (eine Art Rauschen). Letzeres erhöht die Möglichkeit für fehlerhafte Berechnungen.
Um trotzdem die Struktur zu verkleinern nutzt Intel zukünftig wohl u.a. eine Art 3D-Technik, damit die Anzahl der benachbarten Atome möglichst hoch gehalten wird.
Grundsätzlich kann man aber sagen, dass kleinere Strukturen mit einer höheren Fehlerwahrscheinlichkeit "erkauft" werden.
Auch wenn man hier viel forscht, aber der Glaube, dass stetige Verkleinerung weniger Stromverbrauch erzeugt hat Grenzen, nämlich: Die stark zunehmenden Leckströme.
Schau'n wir mal wo uns die Entwicklungen hin bringen.
 
Heute hat Intel noch die Möglichkeit AMD an die Wand zu spielen. In 5-10 Jahren kommt es möglicherweise eher drauf an wer billiger produzieren kann. Vermutlich liegen die Gehälter bei AMD im Schnitt deutlich unter denen von Intel Mitarbeitern.

Im Moment hat AMD nur das Problem das sie noch dieses 3D Dingsi einpflegen müssen und sich zügig von Totalschäden wie dem Bulldozer distanzieren müssen.
 
Wer weiß vielleicht klatschen wir dann demächst einfach nur 2 oder 4 Cpu's in unsere Rechner ähnlich dem Sli/Cf oder die cpu's werden immer größer und haben dann die größe einer Grafikkarte naja was weiß ich schon ist nur dahin geraten :D
 
Wer weiß vielleicht klatschen wir dann demächst einfach nur 2 oder 4 Cpu's in unsere Rechner ähnlich dem Sli/Cf oder die cpu's werden immer größer und haben dann die größe einer Grafikkarte naja was weiß ich schon ist nur dahin geraten :D

Mehrere CPUs in den rechner klatschen tun wir seit vielen Jahren - oder hast du noch nie was von Dual und Quadcores gehört? :P
Die Fläche vergrößern hat viele Probleme, einerseits bleibt die Energiedichte die gleiche, heißt eine CPU mit doppelter Fläche verbraucht doppelt so viel Strom und produziert doppelt so viel Abwärme. Andererseits ist die Fehlerwahrscheinlichkeit bei großen Chips viel höher als bei kleinen (wegen der Transistorzahl die erreicht werden muss beim Herstellen), daher versuchen die Hersteller ja immer möglichst kleine Chips zu bauen, das ist viel billiger und einfacher als solche fetten Transistormonster (wie etwa der GF110^^).

Also egal wie die Lösung aussehen wird - Chips so groß wie ne Hand werden wir höchstwahrscheinlich niemals sehen :D
 
Ich schätze auch mal das man eine große Wakü in Zukunft dringender denn je brauchen wird. Aquacomputer arbeitet sicherlich schon an einem komplett Fußbodenheizungspaket.
 
Ich hoffe einfach mal, dass wir nicht soweit kommen unsere Räume mit nem PC wirklich heizen zu können :ugly:

Bei guter Isolierung (und damit sollte Energiesparen anfangen ;) ) sind wir schon lange soweit.

Aber mit Miniaturisierung wird das nicht schlimmer werden, im Gegenteil. Wenn wir uns wirklich an einatomige Elemente annähern und deswegen nicht mehr weiter verkleinern können (in 10-20 Jahren...), dann arbeiten wir umgekehrt auch in Bereichen, in denen eine Reihe elektrischer Regeln nur noch eingeschränkt gelten, weil wir es eher mit einzelnen Elektronen auf klar begrenzten zu tun haben. Dazu zählt dann z.B. auch die Wärmeentwicklung.
 
Zurück