Intel im Jahr 2022 : 4 Nanometer Fertigung ?

Explosiv

BIOS-Overclocker(in)
Intel im Jahr 2022 : 4 Nanometer Fertigung ?
full

Auf einer vor kurzem stattgefundenen Veranstaltung in Japan, hat Prozessorhersteller Intel einen Ausblick in Sachen zukünftiger Fertigungstechnologie gewagt.
Dieser ist sehr anspruchsvoll, es wird in diesem eine Fortführung des 2006 eingeführten Tick-Tock-Modells ausgegangen, welches an einem Zweijahresrückmus festhält und eine neue Architektur (Tock) und die ensprechenden Refresh´s (Tick) im kleineren Fertigungsverfahren vorsieht.
So ist der Nehalem , der aktuell im 45nm Verfahren gerfertigt wird der oben genannte Tock.
Das bedeutet, das Anfang nächsten Jahres der Tock durch den Westmere im 32 Nanometer-Verfahren ( Tick ) abgelöst wird.
In der unteren Tabelle sieht man die Fortführung des Tick-Tock-Modells
full

Bereits jetzt verfüge man über die Möglichkeit und technische Vorraussetzung im 16 Nanometerverfahren zu fertigen, jedoch ist dieser Schritt erst ab 2014 vorgesehen.
Alles andere ist nach heutigem Technologiestand noch nicht umsetzbar und es mangelt hier auch an realistischen Ideen.
Man ist aber optimistisch das bis dahin Lösungen gefunden werden, so das 2022 eine Produktion von 4 Nanometer CPU´s realisierbar wäre.

Dies würde rechnerisch bedeuten, das unter 4 statt 45 Nanometer das Transistorbudget auf 0,79 Prozent der Chipfläche umgesetzt werden kann.
Das würde einen Vorteil um den Faktor 127 bedeuten.​
Quelle : hardware-infos
 
Zuletzt bearbeitet:
Die können jetzt natürlich einiges erzählen und das Jahr 2022 ist nocht sehr, sehr weit weg.

Wer weiß schon, wie die Hardware in diesem Jahr aussehen wird...

Außerdem hatte Intel bereits vor einigen Jahren durchaus optimistische Prognosen mit der Steigerung der Taktfrequenz gewagt.

Ich genieße diese Aussage von Intel mit Vorsicht.

2022 werde ich diese News nochmal aufgreifen und dann können wir darüber sprechen. ;)
 
Oh mein Gott
aba ich gebe euch recht man weiß ja gar nich wie die hardware dann aussieht!!
ich würde erstma abwarten bis 32 nm und 22 nm kommen das is ja gar nicht mehr so lange hin
 
Warum Intel jetzt schon an 2022 denkt, es sollte erstmal 32 nm Kommen dann kann man über denn nächsten Schritt nachdenken. Jedoch kann ich mir gut vorstellen das es in diesem Zeitraum realisierbar ist.
 
Wie bereits erwähnt wird es sich hier größtenteils um Spekulationen handeln..

Sich jedoch vorzustellen, dass Chips in 12 Jahren in 4 nm hergestellt werden könnten, ist im Hinblick auf die bisherige Entwicklung wirklich verblüffend :daumen:
 
Wie bereits erwähnt wird es sich hier größtenteils um Spekulationen handeln..

Sich jedoch vorzustellen, dass Chips in 12 Jahren in 4 nm hergestellt werden könnten, ist im Hinblick auf die bisherige Entwicklung wirklich verblüffend :daumen:
Naja, vor 4 Jahren waren es noch 130nm, im Frühjahr stellt Intel nun schon auf 32nm runter ..... allzu unrealistisch ist das daher nicht =)
 
Ein Siliziumatom hat gerade mal einen Durchmesser von 0,235nm. Bei einer Fertigungsbreite von 4nm sind es dann gerade mal 17 Siliziumatome die nebeneinander Platz finden werden. Ich frage mich gerade: "Wenn die Atome z.b. qudratisch ausgelegt werden um Kontaktfläche zu schaffen (um z.B. den Anschluß der Basis eines Transitors zu bilden), so stehen gerade mal eine Kantenlänge von 0,49nm bei 4 Atomen zur Verfügung, wie soll dann noch konnektiert werden!?"

Mit dem heutigen Verfahren der "Löttechnik" wird es dann wohl nicht mehr funktionieren...
 
es ist wirklich kaum vorstellbar. intel rechnet das ganze zwar hoch, aber mich wundert es schon, dass sie 16nm umsetzen wollen. ich hörte irgendwo her, dass um die 32nm herum schon das theoretische ende vorliegt. aber ich weiß nicht mehr genau, was ich da gehört oder gelesen habe
 
Mich würde deren Leistung interessieren...
Aso, früheren Prognosen nach sollte der Mensch bereits im Jahr 2000 Kolonien auf dem Mond errichtet haben :)
 
Ein Siliziumatom hat gerade mal einen Durchmesser von 0,235nm. Bei einer Fertigungsbreite von 4nm sind es dann gerade mal 17 Siliziumatome die nebeneinander Platz finden werden. Ich frage mich gerade: "Wenn die Atome z.b. qudratisch ausgelegt werden um Kontaktfläche zu schaffen (um z.B. den Anschluß der Basis eines Transitors zu bilden), so stehen gerade mal eine Kantenlänge von 0,49nm bei 4 Atomen zur Verfügung, wie soll dann noch konnektiert werden!?"

Mit dem heutigen Verfahren der "Löttechnik" wird es dann wohl nicht mehr funktionieren...

Selbst wenn die das schaffe, stellt sich noch die Frage wie gering die Spannung sein muss, damit diese kleinen Leiterbahnen nicht durchbrennen? Zum anderen wird da das Problem mit der Elektromigration noch viel stärker zum Tragen kommen als es Heute der Fall ist.

Aber wer kann schon genau sagen was in 12 Jahren ist und wenn nix weiter Schlimmes passiert, werden wir das auch noch erleben. ;)
 
Aktuelle (Computer)Technik ist ähnlich ineffizient wie zb. auch der "steinalte" Verbrennungsmotor, der Großteil der Energie wird einfach nur in Wärme (und damit Abfall) umgewandelt - und muß dann sogar noch mitunter aufwendig abtransportiert/gekühlt werden. Der Wirkungsgrad eines Otto-Motors liegt btw bei unter 30%... wenn man also für 50€ tankt werden min. 35€ dazu genutzt die Umwelt zu erwärmen - crazy oder? Beim Computer ist es nicht viel anders...

Das alleine ist ja schon "unlogisch", doch kommt dann noch dazu das trotz "Weiterentwicklung" der Energieverbrauch von Computer (oder der Spritverbrauch von Fahrzeugen usw) nicht gesenkt sondern weiter gesteigert wurde - und auch dieser Trend scheint noch kein Ende zu finden... ich sage nur 1KW NTs in Heimcomputern.... wer hätte DAS vor 10 jahren gedacht.

Da die Entwicklung in der Computertechnik um ein vielfaches schneller voran schreitet als zb. beim Antriebsaggregat eines Fahrzeuges (obwohl, eigentlich auch nicht...), will ich doch hoffen das sich im angegebenen Zeitraum wesentlich mehr tut als nur "Schrott" in feineren Fertigungsverfahren zu produzieren.

Ein Artikel von 2001: scinexx | Computer der Zukunft: Rechnen mit Quanten, Licht und DNA - Computer optische Computer Laser - Computer, optische Computer, Laser, Nanotechnologie, Quantenmechanik, Quantencomputer, Tunneleffekt, Moores Law, Miniaturisierung, Zukunft, Techno

Ich bin kein Spezialist bzgl. Quantencomputer o.ä., aber in vielen Bereichen wird uns einfach nur eingeredet das Alternativen noch nicht möglich / in Aussicht wären, dabei sind es einfach nur finanzielle Interessen die uns weiterhin auf altmodische Technologien setzen lassen. Irgendwo auch kein Wunder, wenn sich damit noch Geld verdienen läßt, warum dann unnötig in "echten Fortschritt" investieren...

Und ich bin ganz sicher kein Grüner... :D Aber zb. einen PKW mit E-Motoren an jedem Rad, oder Computer die X-mal schneller sind bei X-mal weniger Energieverbrauch, also ich hätte nix dagegen. Und zumindest Ersteres ist schon lange möglich...
 
Zuletzt bearbeitet:
Weckt mich, wenn wir bei 12 Pikometern sind... :-D

Nee, ernsthaft: Ich glaube nicht, dass das was wird. Man hat heute keinerlei echte Vorstellung davon, wie ein Belichtungsprozess bei 12 nm vonstatten gehen soll, da es einfach kein Licht gibt, das dies kann, wie sollen da 4 nm drin sein? Außer mit einem völig neuen Prozessordesign. Holographie meinetwegen. Aber das mißt man dann wohl nicht mehr in nm ...
 
Warum Intel jetzt schon an 2022 denkt, es sollte erstmal 32 nm Kommen dann kann man über denn nächsten Schritt nachdenken. Jedoch kann ich mir gut vorstellen das es in diesem Zeitraum realisierbar ist.
Ein Unternehmen muß so weit denken. Die müssen es schließlich bis dahin entwickelt haben. 32nm ist für die schon bekannt, sie müssen nur noch lernen besser damit umzugehen...

Ein Siliziumatom hat gerade mal einen Durchmesser von 0,235nm. Bei einer Fertigungsbreite von 4nm sind es dann gerade mal 17 Siliziumatome die nebeneinander Platz finden werden. Ich frage mich gerade: "Wenn die Atome z.b. qudratisch ausgelegt werden um Kontaktfläche zu schaffen (um z.B. den Anschluß der Basis eines Transitors zu bilden), so stehen gerade mal eine Kantenlänge von 0,49nm bei 4 Atomen zur Verfügung, wie soll dann noch konnektiert werden!?"

Mit dem heutigen Verfahren der "Löttechnik" wird es dann wohl nicht mehr funktionieren...
Schon mal dran gedacht, dass man dann an den stellen, wo eine verbindugn komtm halt nicht nur eine 4nm breite spur macht, sondern da eine art block hinsetzt, wodran dann der kontakt kommt? Dadurch wird zwar die fläche etwas größer, die für den chip gebraucht wird, dafür ist aber dann auch der kontakt wieder realisierbar. Nur weil es so klein geht, muß nicht alles so klein gemacht werden.
Ich bin kein Spezialist bzgl. Quantencomputer o.ä., aber in vielen Bereichen wird uns einfach nur eingeredet das Alternativen noch nicht möglich / in Aussicht wären, dabei sind es einfach nur finanzielle Interessen die uns weiterhin auf altmodische Technologien setzen lassen. Irgendwo auch kein Wunder, wenn sich damit noch Geld verdienen läßt, warum dann unnötig in "echten Fortschritt" investieren...

Das Problem dabei ist nicht nur das geld, womit natürlich die forschung sehr viel schneller voranschreiten würde, sondern einfach die stelle wo wir stehen. Theoretisch kann man leicht sagen, wie so ein PC funktionieren soll, das praktisch und wirtschatlich zu realisieren, ist aber noch ein ding der unmöglichkeit. Sozusagen das Fusionskraftwerk der Computerwelt ;)
Sobalt irgend eine Uni oder Private Firma die ersten guten Modelle solcher PCs haben wird, wird die große Industrie sich diese ganz schnell einkaufen und dann wirds auch schlag auf schlag kommen. Bis dahin dauert es aber noch etwas.
 
Aktuelle (Computer)Technik ist ähnlich ineffizient wie zb. auch der "steinalte" Verbrennungsmotor, der Großteil der Energie wird einfach nur in Wärme (und damit Abfall) umgewandelt - und muß dann sogar noch mitunter aufwendig abtransportiert/gekühlt werden. Der Wirkungsgrad eines Otto-Motors liegt btw bei unter 30%... wenn man also für 50€ tankt werden min. 35€ dazu genutzt die Umwelt zu erwärmen - crazy oder? Beim Computer ist es nicht viel anders...
Wie kann man sowas vergleichen? Eine CPU hat in dem Sinne keinen Wirkungsgrad, weil der Zusammenhang Stromverbrauch->Rechenleistung nicht definiert ist und nicht definiert werden kann. Ein Verbrennungsmotor nutzt x% der Energie seiner Verbrennung für die Bewegung, der Rest wird in Wärme umgewandelt. Das kann man so aber überhaupt gar nicht mit einer CPU vergleichen, die wandelt im Endeffekt nahezu 100% der von ihr aufgenommenen Energie in Wärme um. Aber über Effizenz kann man da überhaupt nicht reden, das lässt sich so absolut nicht vergleichen.
 
irgendwann prankt auf jeder chipfabrik das zeichen "Vorsicht, Radioaktive Strahlung!" weil die mit hochfrequenter gammastrahlung belichten müssen um durch die masken zu kommen^^
 
irgendwann prankt auf jeder chipfabrik das zeichen "Vorsicht, Radioaktive Strahlung!" weil die mit hochfrequenter gammastrahlung belichten müssen um durch die masken zu kommen^^


Das bezweifle ich stark... erstmal wird es wohl heißen "Vorsicht, Röntgenstrahlung!":ugly:
Aber bis dahin ist Silizium wahrscheinlich schon an der Grenze des Material bedingtem Fertigungsprozesses.
 
Aktuelle (Computer)Technik ist ähnlich ineffizient wie zb. auch der "steinalte" Verbrennungsmotor, der Großteil der Energie wird einfach nur in Wärme (und damit Abfall) umgewandelt - und muß dann sogar noch mitunter aufwendig abtransportiert/gekühlt werden. Der Wirkungsgrad eines Otto-Motors liegt btw bei unter 30%... wenn man also für 50€ tankt werden min. 35€ dazu genutzt die Umwelt zu erwärmen - crazy oder? Beim Computer ist es nicht viel anders...
Du vergisst da was: Verbrennungsmotoren/Aktuelle Computertechnik mag neueren Entwicklungen rein technisch in der Theorie unterlegen und auch herrlich ineffizient sein, aber: Dafür sind sie (im Vergleich zur ursprünlglichen "Launchfassung" dieser Techniken) weit fortentwickelt und liefern das, was man "braucht":

- Power (Es kommt immer noch nichts an den Verbrennungsmotor ran, wenn es um pure Leistung geht, die modernsten Karren mit Strom haben nicht mal die halbe Reichweite eines Mittelklasse-Ottomotors, vom Antrieb von LKWs mal ganz zu schweigen ...)
- "Einfachheit" (Nicht zu unterschätzen, wir "wissen" wie man solche Dinge baut, und das einigermaßen effizient und kostengünstig, je komplizierter die eingesetzte Technik wird, umso komplizierter wird auch letztlich alles drumherum, und damit zunächst mal auch teurer)
- Ausbaufähigkeit (Die Technik vom Verbrennungsmotot an sich mag "uralt" sein, aber im Vergleich zu den ersten Klapperkisten von damals sind die heutigen Motoren wahre Effizienzmonster, man musste nur halt erst mal auf so Dinge wie "Feinstzerstäubung und perfekte Mischung von Treibstoff/Luft im Zyliderkolben kurz vor der Explosion erhöhen die Effizienz" kommen, ähnlich ist es mit Prozessoren, wie auch einen langen Weg hinter sich haben
 
Ich warte ja auch noch auf die 10 GHz-CPU (10 GHz in einem Kern wohlgemerkt ;)) und diese Prognose kam auch von Intel. Und war vorausgesagt für 2005.
Naja, eigentlich bin ich ja froh das man von diesem wahnwitzigen Gigahertz-Rennen weggekommen ist und man die sinnvollere Variante gewählt hat. War lustig wie der Intel-Typ auf der GC von "Intel und den Mitbewerbern" (im Plural wohlgemerkt) gesprochen hat (sehr nett, der Mensch denkt an Vias Marktanteil von gefühlt 1000%:ugly:)
Multithreading gehört ohne Zweifel die Zukunft.

Gruß,
André
 
Zurück