IBM Research Alliance: Erster 5-nm-Transistor vorgestellt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu IBM Research Alliance: Erster 5-nm-Transistor vorgestellt

Forscher von IBM, Globalfoundries und Samsung haben den ersten 5-Nanometer-Transistor entwickelt. Der Transistor setzt nicht mehr auf die FinFET-Architektur, sondern verwendet sogenannte Nanosheets. Entsprechende Chips bieten entweder mehr Leistung oder verbrauchen bis zu 75 Prozent weniger Energie als aktuelle Technik.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: IBM Research Alliance: Erster 5-nm-Transistor vorgestellt
 
Ich frag mich, wie weit das nocht geht. Hier wurde auch ein Artikel gepostet, der das Ende vom Silizium auf 5nm prophezeiht hat.
 
Ich frag mich, wie weit das nocht geht. Hier wurde auch ein Artikel gepostet, der das Ende vom Silizium auf 5nm prophezeiht hat.

Ich bin nicht sicher ob es 5nm oder doch 4nm waren, wo wir dann auf das physikalische Ende stoßen sollen. Aber bei den aktuellen Fertigungsverfahren redet ja auch keiner mehr von "echten" Größen. Kann gut sein, dass das vorgestellte 5nm-Vervahren physikalisch bei 10nm rumdümpelt... Da ist noch ein Jahrzehnt Luft nach oben. Dann brauchen wir entweder völlig neue Transistoren / Transistormaterialien oder es wird... kompliziert.
 
Nach "echten" 5nm müssen wir halt die Anzahl an Kernen auf den Chips extrem steigern wenn wir mehr Leistung wollen und dem entsprechend werden auch die dies dann größer. Aber man sieht ja bei AMDs Threadripper große Sockel sind gar kein Problem.
 
Damit dürfte Intels massiver Fertigungsfortschritt vermutlich bald der Vergangenheit angehören. Gut für AMD, dass gleich zwei ihrer Auftragsfertiger mit von der Partie sind!
Ich denke bis der Prozess marktreife erlangt hat, gehen vlt noch mal an die drei bis fünf Jahre ins Land und im Anschluß wird man diesen dann über mehrer Jahre weiter optimieren. Bis man wirklich an die physikalischen Grenzen stößt dauert es also noch etwas, sofern denn diese überhaupt bei 5nm liegt.
 
Verglichen mit den aktuellen 10-nm-Chips können mit Nanosheets erstellte Chips entweder 40 Prozent mehr Leistung bei gleichem Energiebedarf liefern oder aber bei gleicher Leistung 75 Prozent Energie einsparen.
Das hört sich sehr gut an, und klingt nach echten Fortschritt.
Dann sollten sich die großen Foundries auch auf diese Technologie konzentrieren.

Fragt sich nur, was man dann nach 5nm machen will?
 
Die Grenze liegt bei 20 Atomen Abstand, also etwa 2,2nm, allerdings muß man in der Lage sein diese auch exakt einzuhalten, man wird also schon vorher aufhören müssen.

Nach "echten" 5nm müssen wir halt die Anzahl an Kernen auf den Chips extrem steigern wenn wir mehr Leistung wollen und dem entsprechend werden auch die dies dann größer. Aber man sieht ja bei AMDs Threadripper große Sockel sind gar kein Problem.

Danach geht es mit Multisockelboards weiter. Bei den Grakas wird sich hoffentlich SFR irgendwann etabliert haben, sodass man auch da haufenweise GPUs nutzen kann.

Das Problem ist dass dies in eine Sackgasse führt, einerseits wird es irre teuer (macht euch mal auf Preise von 10.000€+ gefasst) und der Energieverbrauch setzt ebenfalls Grenzen. Spätestens wenn der 32A 3 Phasen CEE Stecker nichtmehr ausreicht wird es kritisch, mal ganz davon abgesehen dass so eine Kiste 6€/h für Strom benötigt.

Fragt sich nur, was man dann nach 5nm machen will?

Graphen gilt als heißer Anwärter, damit könnte man Frequenzen im zweistelligen GHz Bereich realisieren oder sogar noch mehr. Das Problem ist dass momentan nur zwei Transistoren auf einem Wafer aufgebracht wurden. Das zeigt zwar, dass Chips auf Graphen technisch möglich sind, hinkt jedoch der Siliziumtechnologie um ca. 50 Jahre hinterher. Quantencomputer sind ein viel gehandelter Kandidat, wenn es um die langfristige Perspektive geht. Allerdings ist die komplexeste, jemals mit einem Quantencomputer bewältigte Aufgabe "5x3=15", das ist auch noch sehr weit weg vom praxistauglichem Einsatz.
 
Nach "echten" 5nm müssen wir halt die Anzahl an Kernen auf den Chips extrem steigern wenn wir mehr Leistung wollen und dem entsprechend werden auch die dies dann größer. Aber man sieht ja bei AMDs Threadripper große Sockel sind gar kein Problem.
Naja, das ursprüngliche Problem bleibt. Wie bekommt man denn mehr Kerne auf einem Chip unter?
Warum Transistorskalierung so eine wichtige Sache ist, kann man aus Sicht der Schaltungstechnik auf zwei Gründe herunterbrechen
  • Die Grenzfrequenz der Transistoren steigt (offensichtlich mittlerweile kein großes Thema mehr)
  • Die Versorgungsleistung der selben Schaltung nimmt ab, wenn ich shrinke
Zwar haben heutige Transistoren Grenzfrequenzen von 50 GHz und mehr, die Beschaltung der Transistoren ("Parasitäre Bauteile") hat das aber leider nicht. Das musste Intel schmerzlich merken, als man den eigentlich für 10 GHz angekündigten Pentium 4 mit Biegen und Brechen auf 4 GHz takten konnte. Daher bleibt noch Teil 2 übrig: durch Verringerung der Strukturbreite ist es möglich, eine Schaltung mit mehr Transistoren mit der selben Versorgungsleistung zu betreiben, wie vorher. Und nur über das letzte Kriterium bekommt man es hin, immer mehr Kerne im Chip unterzubringen, ohne dass die Versorgungsleistung explodiert (vgl. an dieser Stelle: AMD Phenom 2 vs. AMD RyZen - oder noch besser zu sehen am Tick-Tock-Modell von Intel)
Daher ist es eben kein Ausweg, die Substrate immer größer zu machen (abgesehen davon: große Substratflächen sind teuer!). Theoretisch müsste man immer weiter skalieren, nur irgendwann grätscht einem halt die Quantenmechanik in den Lauf. Und das wird bei +- 5nm sein.
gRU?; cAPS
 
Nach "echten" 5nm müssen wir halt die Anzahl an Kernen auf den Chips extrem steigern wenn wir mehr Leistung wollen und dem entsprechend werden auch die dies dann größer. Aber man sieht ja bei AMDs Threadripper große Sockel sind gar kein Problem.

Nur die Ausbeute pro Wafer-ø wird extrem geringer, wenn die Dies wesentlich größer werden.
Dann müssen die doch bald auf 400er Scheiben aufrüsten, obwohl es ja angeblich derzeit rechnerisch teurer wäre (bei den aktuellen kleinen Prozessoren).
Man wird sich so einige Zeit retten können, aber langfristig müssen neue Techniken her, wenn man sonst nicht unter 5nm kommt.
Und ich fände es schade, wenn man irgendwann in naher oder ferner Zukunft sagt: so, mehr geht nicht, lebt damit bis zum Ende eurer Tage.
Wenn ich mir vorstelle, jemand hätte das bereits nach dem x8086 gesagt und man hätte die Entwicklugn bis zur heutigen Zeit nicht miterleben dürfen, da hätte mir aber was gefehlt.
 
Nur die Ausbeute pro Wafer-ø wird extrem geringer, wenn die Dies wesentlich größer werden.
Dann müssen die doch bald auf 400er Scheiben aufrüsten, obwohl es ja angeblich derzeit rechnerisch teurer wäre (bei den aktuellen kleinen Prozessoren).
Man wird sich so einige Zeit retten können, aber langfristig müssen neue Techniken her, wenn man sonst nicht unter 5nm kommt.
Und ich fände es schade, wenn man irgendwann in naher oder ferner Zukunft sagt: so, mehr geht nicht, lebt damit bis zum Ende eurer Tage.
Wenn ich mir vorstelle, jemand hätte das bereits nach dem x8086 gesagt und man hätte die Entwicklugn bis zur heutigen Zeit nicht miterleben dürfen, da hätte mir aber was gefehlt.
Intel hat wohl kaum Interesse daran, pleite zu gehen. Die müssen die Kaufanreize schaffen. Aktuell wird viel an alternativen Transistorkonzepten und/oder alternativen Materialien geforscht. An und für sich ist das auch vielversprechend, wenn man überlegt, wie viel Geld man über die Jahrzehnte darin investiert hat, den MOSFET totzuforschen.
gRU?; cAPS
 
Verglichen mit den aktuellen 10-nm-Chips können mit Nanosheets erstellte Chips entweder 40 Prozent mehr Leistung bei gleichem Energiebedarf liefern oder aber bei gleicher Leistung 75 Prozent Energie einsparen. Produkte wie Smartphones oder andere mobile Geräte könnten dann ohne Verbesserungen bei den Batterien mit einer Ladung zwei bis drei Mal länger durchhalten.

Da würde ich sehr laut protestieren - nur weil die CPU weniger Akkuleistung benötigt, hat das auf das Display keinerlei Auswirkung. Die Aussage mag vielleicht für Handys mit Nokia-3310-Display stimmen wo der größte Verbrauch tatsächlich vom Chip kommt, aber bei aktuellen ~6" Displays ist bei durchschnittlicher Nutzung das Display der größte Leistungsfresser!
 
Noch haben AMD u. Intel 10 Jahre Zeit sich für die Zeit nach 5nm auszudenken.

Ich denke nicht, dass nach 5nm Schluss ist. Entweder kommen neue Technologien zum vorschein oder neue Werkstoffe werden benutzt.

Ich denke Intel hat schon ein paar Ideen in den Schubladen.., denn ich denke ein Multimilliardenunternehmen, muss auch etwas in der Hinterhand haben, denn es will ja nicht Bankrott gehen.
 
Noch haben AMD u. Intel 10 Jahre Zeit sich für die Zeit nach 5nm auszudenken.

Ich denke nicht, dass nach 5nm Schluss ist. Entweder kommen neue Technologien zum vorschein oder neue Werkstoffe werden benutzt.

Ich denke Intel hat schon ein paar Ideen in den Schubladen.., denn ich denke ein Multimilliardenunternehmen, muss auch etwas in der Hinterhand haben, denn es will ja nicht Bankrott gehen.

Intel ist eine der Firmen, die am meisten für "die Zeit danach" forscht.
gRU?; cAPS
 
Noch haben AMD u. Intel 10 Jahre Zeit sich für die Zeit nach 5nm auszudenken.

Ich denke nicht, dass nach 5nm Schluss ist. Entweder kommen neue Technologien zum vorschein oder neue Werkstoffe werden benutzt.

Ich denke Intel hat schon ein paar Ideen in den Schubladen.., denn ich denke ein Multimilliardenunternehmen, muss auch etwas in der Hinterhand haben, denn es will ja nicht Bankrott gehen.
Also wenn wir nach den Bezeichnungen von TSMC usw. geht, wird es auch nach 3nm noch weitergehen.(dann evtl. langsamer) 5nm kommt ja schon 2020 und 3nm ist momentan für 2022 geplant. Es wird also noch eine ganze Weile dauern bis es herkömmlich nicht mehr weiter geht.
 
Naja, das ursprüngliche Problem bleibt. Wie bekommt man denn mehr Kerne auf einem Chip unter?
Warum Transistorskalierung so eine wichtige Sache ist, kann man aus Sicht der Schaltungstechnik auf zwei Gründe herunterbrechen
  • Die Grenzfrequenz der Transistoren steigt (offensichtlich mittlerweile kein großes Thema mehr)
  • Die Versorgungsleistung der selben Schaltung nimmt ab, wenn ich shrinke
Zwar haben heutige Transistoren Grenzfrequenzen von 50 GHz und mehr, die Beschaltung der Transistoren ("Parasitäre Bauteile") hat das aber leider nicht. Das musste Intel schmerzlich merken, als man den eigentlich für 10 GHz angekündigten Pentium 4 mit Biegen und Brechen auf 4 GHz takten konnte. Daher bleibt noch Teil 2 übrig: durch Verringerung der Strukturbreite ist es möglich, eine Schaltung mit mehr Transistoren mit der selben Versorgungsleistung zu betreiben, wie vorher. Und nur über das letzte Kriterium bekommt man es hin, immer mehr Kerne im Chip unterzubringen, ohne dass die Versorgungsleistung explodiert (vgl. an dieser Stelle: AMD Phenom 2 vs. AMD RyZen - oder noch besser zu sehen am Tick-Tock-Modell von Intel)
Daher ist es eben kein Ausweg, die Substrate immer größer zu machen (abgesehen davon: große Substratflächen sind teuer!). Theoretisch müsste man immer weiter skalieren, nur irgendwann grätscht einem halt die Quantenmechanik in den Lauf. Und das wird bei +- 5nm sein.
gRU?; cAPS


Kannst du das mit den "Beschaltung der Transistoren ("Parasitäre Bauteile")" ausführen? Oder hast du dazu Literatur/Website für mich?
 
Kannst du das mit den "Beschaltung der Transistoren ("Parasitäre Bauteile")" ausführen? Oder hast du dazu Literatur/Website für mich?

Parasitäre Bauteile sind Dinge, die du in der Schaltung eigentlich nicht einbaust und haben willst, aber die du im Realfall zwangsläufig reinbekommst. Als Beispiel: ein Draht hat neben einem gewissen Widerstand ja auch eine gewisse Induktivität und eine gewisse Kapazität, auch wenn diese winzig sind - und während du diese Dinge vernachlässigen kannst, wenn du niedrige Frequenzen anlegst, funktioniert das bei hohen Frequenzen eben nicht mehr zwangsläufig.
In der Metallisierung des Chips (deine Transistoren musst du ja auch irgendwie elektrisch kontaktieren) hast du beispielsweise Metallleiterbahnen, die durch ein isolierendes Material voneinander getrennt sind. Für sich allein gesehen sind das Leiterbahnen mit ohmschem Widerstand. Auf der anderen Seite: wenn du zwei Leiterbahnen und die Gebiete, bei denen diese überlappen, anschaust, sieht das folgendermaßen aus: Metall (Leiterbahn 1) - Isolation - Metall (Leiterbahn 2). Das ist ein Kondensator, den du eigentlich nicht haben willst, aber der nunmal da ist. Und das passiert nicht nur ein Mal. Sprich: letzten Endes hast du einen ohm'schen Widerstand mit vielen parallel geschalteten Kapazitäten - das ist ein Tiefpass. Sprich: je höher deine Frequenz, desto stärker wird dein Signal am Ende der Leitung gedämpft. Oder anders gesagt: Je höher die Frequenz der Schaltung, desto mehr Energie wird verbraten, bevor diese überhaupt am Chip ankommt.
Dadurch wird auch einleuchtend, warum es kein Problem ist, einen einzelnen Transistor mit mehreren Duzend (MOSFET) oder gar Hundert (Hetero-Bipolartransistor) GHz anzusteuern. Aber in der Schaltung kannst du das vergessen.
Interessant in dieser Hinsicht:
RC-Glied – Wikipedia
Tiefpass – Wikipedia
Integrierter Schaltkreis – Wikipedia
Kondensator (Elektrotechnik) – Wikipedia
Heterojunction bipolar transistor – Wikipedia (Frequenzrekord)
gRU?; cAPS
 
Zuletzt bearbeitet:
Parasitäre Bauteile sind Dinge, die du in der Schaltung eigentlich nicht einbaust und haben willst, aber die du im Realfall zwangsläufig reinbekommst. Als Beispiel: ein Draht hat neben einem gewissen Widerstand ja auch eine gewisse Induktivität und eine gewisse Kapazität, auch wenn diese winzig sind - und während du diese Dinge vernachlässigen kannst, wenn du niedrige Frequenzen anlegst, funktioniert das bei hohen Frequenzen eben nicht mehr zwangsläufig.
In der Metallisierung des Chips (deine Transistoren musst du ja auch irgendwie elektrisch kontaktieren) hast du beispielsweise Metallleiterbahnen, die durch ein isolierendes Material voneinander getrennt sind. Für sich allein gesehen sind das Leiterbahnen mit ohmschem Widerstand. Auf der anderen Seite: wenn du zwei Leiterbahnen und die Gebiete, bei denen diese überlappen, anschaust, sieht das folgendermaßen aus: Metall (Leiterbahn 1) - Isolation - Metall (Leiterbahn 2). Das ist ein Kondensator, den du eigentlich nicht haben willst, aber der nunmal da ist. Und das passiert nicht nur ein Mal. Sprich: letzten Endes hast du einen ohm'schen Widerstand mit vielen parallel geschalteten Kapazitäten - das ist ein Tiefpass. Sprich: je höher deine Frequenz, desto stärker wird dein Signal am Ende der Leitung gedämpft. Oder anders gesagt: Je höher die Frequenz der Schaltung, desto mehr Energie wird verbraten, bevor diese überhaupt am Chip ankommt.
Dadurch wird auch einleuchtend, warum es kein Problem ist, einen einzelnen Transistor mit mehreren Duzend (MOSFET) oder gar Hundert (Hetero-Bipolartransistor) GHz anzusteuern. Aber in der Schaltung kannst du das vergessen.
Interessant in dieser Hinsicht:
RC-Glied – Wikipedia
Tiefpass – Wikipedia
Integrierter Schaltkreis – Wikipedia
Kondensator (Elektrotechnik) – Wikipedia
Heterojunction bipolar transistor – Wikipedia (Frequenzrekord)
gRU?; cAPS

Danke mega gut erklärt. Also die die Bauteile kenne ich und Grundlagen der E Technik hab ich auch in meinem Studium. Leider aber keine Hochfrequenztechnik oder Halbleitertechnik.

Ist das der Grund warum 5 GHz qausi eine Grenze ist? Und warum takten GPUs nicht höher? :D
 
Zurück