News Neue Fertigungsprozesse: 2 nm mit Kostensprung - und eine Chance für China

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Neue Fertigungsprozesse: 2 nm mit Kostensprung - und eine Chance für China

Laut einer Analyse von Nikkei Asia werden die Fortschritte bei der Halbleiter-Entwicklung langsamer und teurer. Insbesondere der 2-nm-Prozess soll einen Kostensprung bringen. Gleichzeitig könnte die Situation eine Chance für China sein.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Neue Fertigungsprozesse: 2 nm mit Kostensprung - und eine Chance für China
 
Die Kosten pro Transistor und der Stromverbrauch pro Flop sind relevent. Die Kosten pro Wafer sind über verschiedene Fertigungsknoten betrachtet vollkommen egal. Wurstus est. Nichts davon im Artikel.

"Zudem könnte SMIC bald durch fehlende Lithografie-Maschinen mit High-NA-Optik ausgebremst werden."
Geht es hier um EUV oder ARFi? In dem Artikel fehlen leider alle relevanten Infos...
 
Das sieht für die nächste Dekade so aus, als würde es wesentlich relevanter werden, wie die Chip Designs und die Architekturen aussehen. Ich tippe mal, dass der Trend in Richtung spezialisierter Einheiten geht. AMD hat bereits AI Engines angekündigt, wie sie auch Apple seit geraumer Zeit in dem A und M Chips einsetzen. Vermutung: es geht in eine Orchestrierung von spezialisierten "Engines" bzw. Kernen oder Einheiten.
 
Naja, ich möchte ja nicht bezweifeln dass es immer mühsamer werden wird Fortschritte in einer schon sehr optimierten Technologie zu erzielen. Aber Preise haben auch immer was mit Marktmacht zu tun. Aktuell führt im High-End Bereich nichts an TSMC vorbei, die die Preise nach belieben diktieren können.

Daher hoffe ich, dass zumindest Intel und Samsung ihre Prozesse mal in den Griff bekommen, damit der Markt Alternativen hat und die Preise somit wieder fallen werden.
 
sorry für die Frage aber wieviel nm sind eigentlich möglich? irgendwann mal ist ja die Grenze erreicht.
 
die Kosten pro Transistor ergeben sich logischerweise aus dem Waferpreis
Hängen aber von der Transistordichte ab. Wenn die Dichte viermal so groß ist und der Wafer doppelt so teuer lohnts halt. Deswegen sind alle Zahlen im Artikel völlig ohne Aussagekraft.
sorry für die Frage aber wieviel nm sind eigentlich möglich? irgendwann mal ist ja die Grenze erreicht.
Physikalisch schätzt man aktuell, dass die kleinsten Gates im einstelligen nm-Bereich liegen können.
https://www.theverge.com/circuitbre...-nanometer-transistor-berkeley-lab-moores-law
Das wird aber die Marketingabteilungen nicht davon abhalten, die Phantasiezahlen weiternhin schrumpfen zu lassen. Lt. IEEE IRDS Roadmap (2022, More Moore) liegt der M0-Pitch vom 3nm-Knoten bei 24nm.
 
Zuletzt bearbeitet:
Hängen aber von der Transistordichte ab. Wenn die Dichte viermal so groß ist und der Wafer doppelt so teuer lohnts halt. Deswegen sind alle Zahlen im Artikel völlig ohne Aussagekraft.
Exakt. Die eigenen Schaubilder der Industrie sind bemerkenswert, weil alle Kostensprünge vor der noch nicht existenten 2nm Fertigung Preis/leistungstechnisch ziemlich gut aussehen. Es wird teurer, aber es springt auch deutlich mehr raus.

Beispiel: ein 10nm Wafer kostete anscheinend 9000$, der 5nm Wafer mit potentiell doppelt so vielen Transistoren "nur" 15000$.
Ist das so mies?
Es wird eben immer gemeckert.
 
Die Kosten pro Transistor und der Stromverbrauch pro Flop sind relevent. Die Kosten pro Wafer sind über verschiedene Fertigungsknoten betrachtet vollkommen egal. Wurstus est. Nichts davon im Artikel.

"Zudem könnte SMIC bald durch fehlende Lithografie-Maschinen mit High-NA-Optik ausgebremst werden."
Geht es hier um EUV oder ARFi? In dem Artikel fehlen leider alle relevanten Infos...

Wie an der Auflistung von 28 bis 2 nm zu erkennen ist, geht es um eine zeitliche Entwicklung, die zwangsläufig beides abdeckt. In Anbetracht dessen, dass die Quelle ihren Lesern selbst erklärt, was ein Wafer ist und sich in der Berechnung voll auf "Apple" konzentriert, weil man Angst hat, die Zielgruppe könnte spezialisiertere Firmen gar nicht erst kennen, sollte man keinen weiteren Tiefgang erwarten.

Man kann sich einen groben Bezug aber einfach selber herstellen: 7-nm-ITRS-Klasse-Nodes wie TSMC N4 oder Intel 4 (welche diese Quelle offensichtlich als "4 nm" interpretiert, auch wenn da nichts 4 nm groß ist) sollten grob eine viermal so hohe Transistordichte wie 14/16 nm erreichen; Intel 20A und TSMC N2 noch einmal eine Verdoppelung bringen. Das heißt wir hatten bislang langsam fallende Kosten pro Transistor (14-nm-Klasse auf 7-nm-Klasse kostet dreimal so viel pro Wafer, enthält aber viermal so viele Transistoren) und laufen in eine Stagnation hinein. (N2 verdoppelt noch einmal, kostet aber auch fast das Doppelte.)


Hängen aber von der Transistordichte ab. Wenn die Dichte viermal so groß ist und der Wafer doppelt so teuer lohnts halt. Deswegen sind alle Zahlen im Artikel völlig ohne Aussagekraft.

Physikalisch schätzt man aktuell, dass die kleinsten Gates im einstelligen nm-Bereich liegen können.
https://www.theverge.com/circuitbre...-nanometer-transistor-berkeley-lab-moores-law
Das wird aber die Marketingabteilungen nicht davon abhalten, die Phantasiezahlen weiternhin schrumpfen zu lassen. Lt. IEEE IRDS Roadmap (2022, More Moore) liegt der M0-Pitch vom 3nm-Knoten bei 24nm.

M0 ist ein gutes Stück gröber als die einzelnen Transistorbestandteile. Schließlich gibt es von ersteren mehr als kontaktiert werden müssen. Für Intel 10 nm alias Intel 7 bestätigen TEM-Aufnahmen eine Breite von 9,x nm im aktiven Bereich der Finnen. Die aktuellen Nodes erbringen ihre demgegenüber verdoppelte Transistordichte auch mit diversen Tricks, das heißt dieses Maß wird nicht um 2^0,5 geschrumpft sein, sondern bei der heutigen 7-nm-Klasse eher 8 nm betragen. Das prinzipielle Limit von Silizium wäre ein 1-Atom-Transistor, der dann rund 0,1 nm misst.

Allerdings würde die eingeschränkte räumliche Struktur des Materials schon lange vorher die Eigenschaften deutlich verändern; ein 0,4 × 0,4 nm messendes Gate unterscheidet sich von einem 4 × 4 nm messenden Gate um ein vielfaches mehr als sich letzteres von einem 40-×-40-nm-Modell abhebt. Da werden Nanosheets schon interessant, denn während die erst einmal wieder etwas in die Breite wachsen, lässt sich ihre Dicke unabhängig von den Limits der Lithographie reduzieren. Parallel darf man nicht vergessen, dass es sich um einen nicht-linearen Prozess handelt: Wir haben die Entfernung zum absoluten Limit zwar seit der 14-nm-Generation halbiert. (Und die endete vor gerade einmal 3 Jahren! :-D) Aber um von geschätzten, realen 8 nm auf unter 0,1 nm zu fallen, bräuchte es 7 weitere Halbierungen oder 14 full-nodes. Wenn man mal zurückzählt:
1. 7 nm (= Intel 4/TSMC N4)
2. 10 nm (= Intel 7)
3. 14 nm
4. 22 nm
5. 32 nm
6. 45 nm
7. 65 nm
8. 90 nm
9. 130 nm
10. 180 nm
11. 250 nm
12. 350 nm
13. 500/600 nm
14. 800 nm
800 nm liegt jetzt 14 Nodes zurück und wurde vom Ur-Pentium sowie den späteren 486ern genutzt. Wir haben also physikalisch noch Reserven für 30 Jahre Weiterentwicklung, wenn wir genauso schnell vorankommen, wie seit den frühen 90ern. Was wir aber nicht annähernd tun, bei Extrapolation der aktuellen Verlangsamung würde ich mit dem 0,1-nm-Node nicht vor 2080 rechnen, eher aber im nächsten Jahrhundert – wenn man bis dahin nicht irgendwas grundlegend anders macht, was eben gerade wegen des steigenden Schwierigkeitsgrades zu erwarten ist.
 
Von 7 auf 5 nm war schon ein Sprung von 50 %. Jetzt kommt noch einer. Wenn die Chips halt im Preis/Leistungsverhältnis mithalten können. Was solls, manchmal wird der Prozess ein oder zwei Jahre später günstiger.

Wenn sich die Chips keiner Leisten kann, müssen die halt nochmal ran. Solange es der Markt stemmen kann, geht es halt weiter.


Wahrscheinlich werden die Chips erst wieder billiger, wenn High-NA EUV mit anderer Technik billiger wird, aber wenn eine Maschine glaube ich 300 Millionen kostet im Vergleich zu 100 Millionen für normales EUV, dann ist da wohl ein sehr großer Kostenbrocken drin. (Die Wartung und laufenden kosten bei High-NA EUV wird wahrscheinlich auch 50% teurer sein als bei EUV...)
 
Zuletzt bearbeitet:
Die Kosten pro Transistor und der Stromverbrauch pro Flop sind relevent. Die Kosten pro Wafer sind über verschiedene Fertigungsknoten betrachtet vollkommen egal. Wurstus est. Nichts davon im Artikel.

Das sehe ich nicht so, ich würde eher sagen die Kosten pro Transistor sind für mich als Konsument irrelevant.
Der entscheidende Punkt ist doch die Größe des DIEs und wie viele aus einem Wafer purzeln.
Nehmen wir einfach mal an es wären 100 Stück für eine einfache Rechnung in 3nm und auch in 2nm erzielst du 100 Stück so wurden diese um 50% teurer.
Hat man in 2nm mehr Transistoren untergebracht und erzielt dadurch mehr Performance ist das schön und gut, aber alleine der Flächenverbrauch in Kombination mit der Yieldrate ist für den Preis ausschlaggebend.
Daher sehe ich da unter dem Kostenaspekt auch AMD und auch intel gegenüber Nvidia im Vorteil. Das Know How, welches man sich im Bereich der Chiplets aufgebaut hat, kommt in den nächsten Jahren voll zum tragen.
Und das kann für Nvidia schon sehr übel werden, wenn sie zwar mehr Performance liefern, der Konkurrent aber zum halben Preis bei guten Margen liefern kann.
 
Nein, drunkeNNN hat da schon recht: Simple "gute Chips pro Wafer"-Angaben sagen dir nichts über den Chip-Preis, denn der Wafer-Preis hängt davon ab, wie viele Bearbeitungsschritte auf wie teuren Maschinen nötig sind. 50 Prozent mehr Chips aus einem Wafer zu holen, wenn letzterer doppelt so teuer wird, bringt einen preislich nicht weiter.
 
Ne hat er eben nicht und offensichtlich verstehst du es auch nicht bzw. liest die Beiträge auch nicht richtig.

Wenn der Wafer teurer wurde und ich die identische Anzahl an funktionierender Chips aus dem Wafer bekomme, dann werden diese pro Stück teurer, simple Mathematik.
Warum der Wafer teurer wurde und ob die CPU/GPU eine höhere Transistordichte hat interessiert an dieser Stelle nicht, da es einzig um den Preis geht.
Das man im neuen Prozess mehr Leistung oder bessere Verbrauchswerte erzielen kann, steht auf einem anderen Blatt.

Und selbstverständlich bringt es etwas, wenn man 50% mehr Chips aus einem Wafer holt auch wenn dieser teurer wird. Das sind 50% mehr wie die Konkurrenz, welche über die gleiche Kostenstruktur bei der Herstellung verfügt! Das ist ein deutlicher Wettbewerbsvorteil!
 
Klingt vielleicht alles schlimmer als es wird (hoffentlich), aber irgendwo kann ich dann wohl auch froh sein, dass ich erst dieses Jahr auf ne 4080 und nen 5800X3D aufgerüstet habe.

Ich bin jemand, der seine Hardware gerne 3-5 Jahre, teils auch länger nutzt, je nach Marktlage, Anforderungen und Preisen.

Aber für mich sieht das erstmal so aus, als würde uns da in den nächsten Jahren viel Stagnation erwarten. Entweder wirds nur sehr kleine Leistungssteigerungen geben oder man wird diese durch extreme Preise bezahlen.

Das hat sich ja eigentlich schon mit der aktuellen GPU Generation gezeigt. Im Midragne kaum Verbesserungen, im High End mehr Leistung für viel mehr Geld. Das wird also nur nochmal viel extremer.

Da sich die Anforderungen neuer Spiele aber (Pathtracing mal ausgenommen) nicht mehr signifikant erhöhen, solange keine neue Konsolengeneration am Markt ist, ist das aus Spielersicht in der Praxis wohl auch noch verkraftbar. Zumindest für die nächsten Jahre…
 
Das steht auf dem gleichen Blatt. Das hieße nämlich, dass man einen Chip mit der gleichen Performance und weniger Verbrauch auf einer kleineren Chipfläche unterbringen kann.

Ne tut es eben nicht oder bringen die Hersteller etwa jedes Jahr Chips raus die einfach nur sparsamer werden und nicht performanter? Wäre mir neu...

Aus Verkaufsicht müssen die Chips auch performanter werden und das geschieht mit einem höherem Transistorbudget, was sich dann wiederum in der Fläche bemerkbar macht. Jedoch interessiert das den Kunden nicht und auch nicht die Preiskalkulation ob du jetzt mehr Transistoren für den Euro bekommst...
Der entscheidende Punkt ist hierbei wie viel Chips man aus dem Wafer bekommt und wenn dieser teurer wird und deine Chips nicht merklich kleiner, werden diese teurer und nichts anderes habe ich gesagt.
Als bestes Beispiel kann man hier doch die Zen Chiplets nehmen, die sind über die Generationen hinweg ähnlich groß geblieben und müssen aufgrund der teureren Waferpreisen folglich etwas in den Herstellungskosten gestiegen sein.
 
Ne hat er eben nicht und offensichtlich verstehst du es auch nicht bzw. liest die Beiträge auch nicht richtig.

Wenn der Wafer teurer wurde und ich die identische Anzahl an funktionierender Chips aus dem Wafer bekomme, dann werden diese pro Stück teurer, simple Mathematik.
Warum der Wafer teurer wurde und ob die CPU/GPU eine höhere Transistordichte hat interessiert an dieser Stelle nicht, da es einzig um den Preis geht.
Das man im neuen Prozess mehr Leistung oder bessere Verbrauchswerte erzielen kann, steht auf einem anderen Blatt.

Und selbstverständlich bringt es etwas, wenn man 50% mehr Chips aus einem Wafer holt auch wenn dieser teurer wird. Das sind 50% mehr wie die Konkurrenz, welche über die gleiche Kostenstruktur bei der Herstellung verfügt! Das ist ein deutlicher Wettbewerbsvorteil!

Na gut, wenn dich einzig und allein die Menge an Chips pro Wafer interessiert, dann wünsche ich viel Spaß mit Intels "Quark". Bei 40-50 mm² passen davon rund doppelt so viele drauf wie selbst von AMDs Zen-4-Chiplet und jeder davon stellt sogar eine komplette CPU dar.

Ich denke aber, alle anderen in diesem Thread sind nicht hinter der größten Masse an Chips her, sondern hinter der meisten Leistung für ihr Geld. Und betrachten deswegen sowohl die von der Transistordichte abhängige Leistung der Chips als auch die Kosten pro Wafer. Wer letzteres nicht macht und Leuten sogar Beleidigungen an den Kopf wirft, wenn diese es tun, sollte übrigens mit Betrachtungen einer "Kostenstruktur" vorsichtig sein...
 
Zurück