Intel: Probleme mit 10-nm-Fertigung kosten laut Analyst viele Jahre und Marktanteile

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel: Probleme mit 10-nm-Fertigung kosten laut Analyst viele Jahre und Marktanteile

Intels Kampf mit den 10 Nanometern habe in den Augen eines Analysten in den kommenden Jahren weitreichende Folgen. Die Vormachtsstellung Intels gerade im Bereich des Servers-Markts hält dieser für beendet. Bis der Rückstand aufgeholt sei, werde nicht nur viel Zeit vergehen, auch der Marktanteil werde deutlich schrumpfen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel: Probleme mit 10-nm-Fertigung kosten laut Analyst viele Jahre und Marktanteile
 
Wieso baggert Intel an 10nm rum wenns nicht klappt, und vor allem 7nm und 5nm anklopft?

Sind das überhaupt echte 10nm oder das plus vom plus der Pluse der 16nmanblickesnichtmehrdurch+++ verbesserung?
 
Ich bin da ganz Egoist: So lange es für mich als Kunden bessere Produkte und günstigere Preise (bei beiden Herstellern) bedeutet, GO AMD GO. Traurig würde es mich erst dann machen, wenn AMD irgendwann in der Zukunft die 80% Marktanteil hätte, und sich - so wie Intel die letzten 10 Jahre - auf Kosten des Fortschritts auf seinen Lorbeeren ausruhen würde. Allerdings, so witzig dieser Umstand wäre, so unwahrscheinlich ist er auch. ^^

Von daher: Sorry Intel, aber ich denke ihr habt Verständnis dafür, wenn ich euch jetzt erstmal keine Träne nachweine... :P

"Mal verliert man, und mal gewinnen die Anderen"

:D
 
Wieso baggert Intel an 10nm rum wenns nicht klappt, und vor allem 7nm und 5nm anklopft?

Sind das überhaupt echte 10nm oder das plus vom plus der Pluse der 16nmanblickesnichtmehrdurch+++ verbesserung?

Bis Intels 7nm so weit ist dauert es noch. Dafür wird vor allem auch EUV-Belichtung benötigt. Bei 10 nm hat man darauf verzichtet und deshalb jetzt Probleme.

Die Bezeichnungen sich schon seit einem Jahrzehnt nur Marketing.
 
Sind das überhaupt echte 10nm oder das plus vom plus der Pluse der 16nmanblickesnichtmehrdurch+++ verbesserung?

Ich glaube das war bei Haswell. Da hat Intel gesagt es gibt nichts, wirklich nichts in der CPU was 22nm groß ist.
Ich glaube das da was drann ist, allerdings muss man das Geschäftsmodell umstellen.
Es geht maximal bis 1, 2nm danach ist Schluss.
Danach muss die Architektur oder die Chipfläche dann die mehrleistung etc liefern.
Wenn es nicht mehr kleiner geht, dann eben breiter
 
Ich bin da ganz Egoist: So lange es für mich als Kunden bessere Produkte und günstigere Preise (bei beiden Herstellern) bedeutet, GO AMD GO. Traurig würde es mich erst dann machen, wenn AMD irgendwann in der Zukunft die 80% Marktanteil hätte, und sich - so wie Intel die letzten 10 Jahre - auf Kosten des Fortschritts auf seinen Lorbeeren ausruhen würde. Allerdings, so witzig dieser Umstand wäre, so unwahrscheinlich ist er auch. ^^

Yep. AMD hat sich mit Ryzen halt extrem Mühe gegeben und das Produkt überzeugt. Sie haben endlich (wieder) eine Basis, die sie nun verbessern können. Ich glaube auch nicht, dass Intel und AMD jemals die Plätze tauschen würden, witzig wäre es aber trotzdem.
 
Sind das überhaupt echte 10nm

Intels "10nm" haben einen echten/tatsächlichen Polypitch (Kontaktlänge) von ca. 55 nm. Genau wie TSMCs "7nm". Die "14(+++++)nm" liegen bei realen etwa 70 nm.
Die "7nm" von Intel werden einen Polypitch von etwa 45 nm haben.

Die Namen der Prozesse sind nur Markennamen/Marketing. Mit echten Größen/Längen haben die seit Jahrzehnten nichts mehr zu tun (eine CPU die tatsächlich 7nm große Strukturen hätte würde wegen Quantentunneleffekten vmtl. gar nicht funktionieren).
 
Eventuell könnte man auch über mehrere Ebenen stacken, so wie es beim Speicher der Fall ist.

Das wird schon sehr lange so gemacht. CPUs bestehen aus vielen Lagen übereinander. Mehrere Dies übereinander dagegen bringt nichts da nicht sinnvoll kühlbar und die Kommunikatioon untereinander funktioniert so einfach nicht. AMD hat das bei Ryzen ja mit dem InfinityFabric gelöst - nur sind die Dies aus Kühlungsgründen nebeneinander und nicht übereinander (Threadripper/Epyc).
 
Die Namen der Prozesse sind nur Markennamen/Marketing. Mit echten Größen/Längen haben die seit Jahrzehnten nichts mehr zu tun (eine CPU die tatsächlich 7nm große Strukturen hätte würde wegen Quantentunneleffekten vmtl. gar nicht funktionieren).

Wenn wir Marketing Zahlen rechnen dann ist so bei 1-2nm Schluss. Heisst also in Realität etwa 35nm?
 
Intels "10nm" haben einen echten/tatsächlichen Polypitch (Kontaktlänge) von ca. 55 nm. Genau wie TSMCs "7nm". Die "14(+++++)nm" liegen bei realen etwa 70 nm.
Die "7nm" von Intel werden einen Polypitch von etwa 45 nm haben.

Die Namen der Prozesse sind nur Markennamen/Marketing. Mit echten Größen/Längen haben die seit Jahrzehnten nichts mehr zu tun (eine CPU die tatsächlich 7nm große Strukturen hätte würde wegen Quantentunneleffekten vmtl. gar nicht funktionieren).

Das heißt wir liegen bei echten 50nm, also rund das 10 fache? XD
 
Wenn wir Marketing Zahlen rechnen dann ist so bei 1-2nm Schluss. Heisst also in Realität etwa 35nm?

Ich weiß nicht ab welchen echten Größenordnungen Quanteneffekte nicht mehr beherrschbar werden. Tendentiell wird die Zukunft aber nicht mehr nur auf blanke Miniaturisierung setzen da dem nunmal Grenzen gesetzt sind die nicht mehr allzuweit weg liegen. Es werden andere Verfahren, Materialien, Aufbauten oder sogar Logiken usw. kommen müssen um nach sagen wir mal grob 2030 noch größere Performancesprünge zu realisieren.
 
Dann ist es ja noch schlimmer, dass Intel so lange getrödelt hat, um über 4 Kerne zu kommen. Wenn es dann soweit ist, dass man Mehrleistung nur noch über die Kernzahl definieren kann, weils nicht mehr kleiner geht, muss die Softwareseite dann aber ganz schön hetzen, um da hinterher zu kommen.
 
Wenn wir Marketing Zahlen rechnen dann ist so bei 1-2nm Schluss. Heisst also in Realität etwa 35nm?

Zur Zeit sprechen sie von Grenzen, die etwa bei echten 5nm erreicht werden. Was wir als 5nm als Nachfolge-Technik erleben werden, wird reell bei etwa 30nm liegen. Sowohl bei Intel's 10nm als auch TSMC's 7nm liegen die kleinsten Strukturen (die auf einem Chip allerdings kaum vorkommen) bei knapp 35-40nm mit etwa 1nm Vorteil für Intel (also etwa 36 zu 37nm)...
 
Nur weils nicht mehr über Verkleinerung geht bedeutet das nicht dass es nur über mehr Kerne geht (was auch begrenzt ist da du nicht beliebig viele Kerne setzen kannst wenn der Chip nicht mehr verkleinert werden kann). Mehr kerne ist nur die günstigste Weise gewesen um die Performance zu erhöhen, denn die anderen Möglichkeiten sind sehr unschön.
Beispiel 1: Materialien nutzen die mit Taktraten von Hunderten GHz laufen können. Gibts alles (Graphen beispielsweise - gibts seit 10 Jahren schon solche Transistoren), nur wäre der finanzielle Aufwand sowas zur Serienreife zu bringen extrem hoch.
Beispiel 2: Streiche x86-Kompatibilität von vor 40 Jahren und nutze eine moderne, viel effizientere Methode. IPC-Steigerungen von 1000+% wären die Folge... und, dass kein aktuelles programm oder Betriebssystem laufen würde bzw. man ALLES an Software anpassen müsste. Das machst du erst wenn sonst gar nichts mehr geht.
 
Weil auch hier wieder das Thema Fertigungsgröße und dessen Bezug aufkommt kopiere ich mal meinen Beitrag:

Wenige Nanometer (geschätzt so 3-5) große Strukturen haben ein immenses Problem mit dem Tunneleffekt. Spätestens wenn die tatsächlichen Strukturgrößen in diese Bereiche kommen ist es mit "simplen" verkleinern vorbei.
Also bekannt ist das schon. Guck dir den Beitrag dazu auch von EyRaptor an (http://extreme.pcgameshardware.de/n...produktion-7-nm-hat-begonnen.html#post9336342)

Und reine Marketing-Begriffe sind es auch nicht. Die Angaben stimmen nicht mehr wie früher mit den tatsächlich gemessenen überein aber liegt an der 3D Bauweise statt der planaren. Man rechnet halt in Flächenverbrauch statt in absoluten Werten grob gesagt.
Ich habe mit 28nm planar xy mm² verbraucht und verbrauche in meiner neuen FinFET Fertigung für etwa dasselbe nur noch xy/2 mm² also nenne ich das 14 nm.

Etwas ausführlicher: http://extreme.pcgameshardware.de/s...ertigstellung-2020-geplant-2.html#post9231690
Wikipedia dazu: Technologieknoten – Wikipedia

Nur weils nicht mehr über Verkleinerung geht bedeutet das nicht dass es nur über mehr Kerne geht (was auch begrenzt ist da du nicht beliebig viele Kerne setzen kannst wenn der Chip nicht mehr verkleinert werden kann). Mehr kerne ist nur die günstigste Weise gewesen um die Performance zu erhöhen, denn die anderen Möglichkeiten sind sehr unschön.
Beispiel 1: Materialien nutzen die mit Taktraten von Hunderten GHz laufen können. Gibts alles (Graphen beispielsweise - gibts seit 10 Jahren schon solche Transistoren), nur wäre der finanzielle Aufwand sowas zur Serienreife zu bringen extrem hoch.
Beispiel 2: Streiche x86-Kompatibilität von vor 40 Jahren und nutze eine moderne, viel effizientere Methode. IPC-Steigerungen von 1000+% wären die Folge... und, dass kein aktuelles programm oder Betriebssystem laufen würde bzw. man ALLES an Software anpassen müsste. Das machst du erst wenn sonst gar nichts mehr geht.

Beispiel 1 wird aber schon nicht so einfach gehen wegen parasitären Bauteilen. Deutlich höhere Taktraten kann selbst ein Si-Transistor heute schon. Die Verschaltung drum herum nur meist nicht.
 
Das heißt wir liegen bei echten 50nm, also rund das 10 fache? XD

Nein, liegen wir nicht.

Man muß eben wissen, was gemeint ist. In den 70ern kam es beim Fortschritt hauptsächlich auf den Abstand von Source und Drain an, dazu wurde noch ein wenig für die Anschlüsse gebraucht. Da es aber etwas mühsam war dauernd von einem "1,8μm Prozess, zwischen Source und Drain" zu sprechen, hat man einfach nur noch von einem "1,8μm Prozess" gesprochen und jeder wußte, was gemeint war. Das ganze hat sich so dann eingebürgert und ist auch für Werbezwecke ideal. Somit haben wir also echte 10nm, wobei bei einigen Firmen kreatives betrachten der Aufnahmen des Elektronenmikroskops dazugehört. Unglücherweise ist heute das "wenige für die Anschlüsse" der dominierende Faktor geworden.

Ich weiß nicht ab welchen echten Größenordnungen Quanteneffekte nicht mehr beherrschbar werden.

Unter 20 Atomlagen wird aus dem Halbleiter ein Leiter. Also 2,2nm, da man das technisch nicht 100% im Griff haben wird, kann man von 2,5-3nm ausgehen. Der ganze Transistor, auf den du abzielst, wird folglich wohl schwer unter 10nm zu fertigen sein.
 
Zurück