Intel: 10-nm-Verzug aufgrund der aggressiven Herangehensweise an Moores Law

Als ob es nun abhängig von der -NM- wäre kann immer noch ausreichend mit einer 14nm CPU zocken, arbeiten und erstellen.
Als ob 10nm dringend nötig wären omg. Klar arm das intel zu dumm ist sich Maschinen zu zulegen die in 10nm Produzieren. Wobei das ja nun einige hinbekommen z.B. AMD, Samsung....
Glaube kaum dass es an einem Prototypen liegt der nicht richtig funktioniert. Wollen aus dem alten halt rausholen was geht, wie Nvidia!
1080 & 2080 so viel unterschiede wie Rote und Grüne Trauben. Also aus alt mach neu und verkaufe es überteuert an den dummen Kunden. Konsolen werden daher wieder mehr als PCs verkauft und werden immer interessanter werden.
Für 300€ bekommt man eine PS4 mit Games, wo genau so flüssig ablauft und sogar fast besser ausehen tut als auf einer 360€ teuren 2060RTX. Das ist ein echter Witz, Liebe Hardwarehersteller. Wacht auf und Passt mal eure Preise an!!!!!
Denn alleine für die kosten einer 2060 RTX oder einer CPU und dann ist noch nix mit zocken. Eine vollwertige Konsole für einen kleineren Preis zu bekommen und gleich los zocken zu können, ist doch die bessere Alternative.
 
Zuletzt bearbeitet:
3.) Die Aussage das man mit dem 10nm Zielen zu aggressiv war stimmt ja.
Intel hat einige sehr Innovative Sachen mit ihren 10nm Prozess eingeführt bzw. eine ganze Packung unter gewissen Parametern zusammengestellt (Contact Over Active Gate, Single Dummy Gate, Cobalt in Metal 1 and more), welche in der Praxis aber für eine massive Verzögerung gesorgt haben, da man die Situation zu optimistisch eingeschätzt hat.

Das scheint allgemein Konsens zu sein, dass die Masse an Veränderungen die Probleme verursacht hat, weil sie dann nicht im Zusammenspiel auf vernünftige Yields kamen. Anhand der Serien die man jetzt zuerst plant, kann man ja auch vermuten, dass die Yields immer noch nicht berühmt sein können.

Zur Wahrheit gehört aber auch, dass Intel schon bei 14nm Probleme hatte die angestrebten Yields zu erreichen. Wenn man dagegen die Yield-Gerüchte über die Zen 2 bei TSMC hört, erscheinen die fast zu gut um wahr zu sein.


Intel hat 10 nm von Anfang an ohne EUV geplant. 7 nm war der Node, bei dem man lange Zeit beide Optionen in Betracht zog und sich erst mit fortschreitender Verzögerung auf EUV festgelegt hat.

Konnten sie imo auch nicht, da die EUV-Maschinen ja auch immer wieder von Verzögerungen betroffen waren. Könnte am Ende aber auch ein Henne-Ei Problem gewesen sein, weil die Bestellvorrausagen von den EUV-Herstellern wurden ja auch fast nie erreicht. Es gab dann zu dem Zeitpunkt wo Intel mit 10nm durchstarten wollte wohl auch nicht genug Maschinen für eine Massenproduktion.


Spannend finde ich ja eher, was genau die Intel-Lieferschwierigkeiten verursacht hat. Entweder hatte man sich bei der Nachfrage extrem verkalkuliert oder man hatte wirklich teilweise schon die Fertigungen für 10nm vorbereitet, als die Yields noch mies waren und konnte dann da einfach nicht starten.
 
Als ob es nun abhängig von der -NM- wäre kann immer noch ausreichend mit einer 14nm CPU zocken, arbeiten und erstellen.
Als ob 10nm dringend nötig wären omg. Klar arm das intel zu dumm ist sich Maschinen zu zulegen die in 10nm Produzieren. Wobei das ja nun einige hinbekommen z.B. AMD, Samsung....
Glaube kaum dass es an einem Prototypen liegt der nicht richtig funktioniert. Wollen aus dem alten halt rausholen was geht, wie Nvidia!
1080 & 2080 so viel unterschiede wie Rote und Grüne Trauben. Also aus alt mach neu und verkaufe es überteuert an den dummen Kunden. Konsolen werden daher wieder mehr als PCs verkauft und werden immer interessanter werden.
Für 300€ bekommt man eine PS4 mit Games, wo genau so flüssig ablauft und sogar fast besser ausehen tut als auf einer 360€ teuren 2060RTX. Das ist ein echter Witz, Liebe Hardwarehersteller. Wacht auf und Passt mal eure Preise an!!!!!
Denn alleine für die kosten einer 2060 RTX oder einer CPU und dann ist noch nix mit zocken. Eine vollwertige Konsole für einen kleineren Preis zu bekommen und gleich los zocken zu können, ist doch die bessere Alternative.
Das die 10nm Produkten nicht lauft liegt daran das die ausbeute zu gering ist und das ist ein aufbauproblem und kein Maschinenproblem und die 10nm ist wegen der Kongurenz nötig weil die aktuellen Intel CPUs ineffizient sind vs amd 7nm und noch was zu den Konsolen die neue Generation ps5 soll mindestens 550€ kosten laut aktuellen Quellen Gerüchten soll die sogar 800€ und ja die Fertigung wird aufwendiger sowie die Forschungsarbeiten und das kostet nunmal Geld
 
Daher wird Intel den 10 nm Prozess vorerst da verwenden, wo hohe Taktraten bisher nicht so eine große Rolle spielen - in Servern und bei ihren GPUs.
gRU?; cAPS
Du hast Laptops vergessen. Das ist DER Markt für 10nm, bis sie die CPUs höher takten.

Moore's Law ist kein Naturgesetz, es war eine Beobachtung in der Halbleiterindustrie, die man zum Gesetz erklärt hat. Physik kann man mit irgendwelchen Pseudogesetzen nicht umgehen, seinen Aussagen nach sind sie daran gescheitert.
 
Wegen "aggressiver Innovationskraft" ist mir Intel in den letzen 10 Jahren eher nicht aufgefallen.

Nicht, dass ich Intels Niedergang nicht mit großer Freude zur Kenntnis nehme,
schließlich wette ich seit 3 Jahren an der Börse auf den Aufstieg AMDs.
Bislang übrigens recht erfolgreich.

Trotzdem bin ich so fair und sage, Intels-CEO ist das größte Problem.
Und natürlich könnte Intel so ab 2021 tatsächlich wieder ein ernsthafter Konkurrent werden,
bis dahin setze ich weiter auf AMD.

nur mal so am Rande, was denkst du wie sich die Chip-Fläche und die Leistungsaufnahme so entwickelt hat. Intel´s Y SoC sind jetzt nicht so schlecht. Natürlich ist das momentane Kernwachstum Dünger auf dem Boden der Softwareparallelisierung, aber Software die mehr als 4 Kerne effizient auslasten kann ist im Consumerbereich immer noch selten anzutreffen.
 
Wie kann man als CEO einer der größten Tech-Firmen weltweit so einen Nonsens von sich geben?

Was ist da denn explizit für eine Aussage gemeint? Dass Intel den 10nm Prozess zu aggressiv angestrebt hat, dürfte denke ich klar sein, deshalb hat man 10nm ja schrittweise eingedampft.

Jeder weiß dass Intel jahrelang mit 4C/8T in der oberen Leistungsklasse rumgedümpelt ist

AMD hatte noch weniger zu bieten als Intel.

und hätte AMD mit Ryzen nicht den Druck erhöht, würde man sich darauf wohl heute noch ausruhen. Vor 11 Jahren gab es die letzte "neue" Arch.

Kein Unternehmen ruht sich aus, die Kerne wären auch ohne AMD sukzessive gewachsen, nur eben nicht ganz so schnell.
Wer viele Kerne braucht, konnte damals auch schon zu HEDT greifen. Und die Kritik wegen der Architektur: AMD´s aktuelle Architektur hat auf Intels derzeitige Architektur aufgeschlossen, aber besser ist AMD´s Architektur nicht.S
Sie haben nur den Vorteil des bessere Fertigungsprozesses.
 
So um das Jahr 2000 herum wäre es typisch gewesen einen Pentium 3 und eine GeForce 256 gehabt zu haben. Diese CPU hat unglaubliche 20W verbraucht und die Grafikkarte noch einmal ca. das gleiche. So genau hat das damals niemand gemessen.

Wenn wir das mit heute vergleichen, dann ist die CPU irgendwo zwischen 50W und 100W unter einem Vollastszenario das selten erreicht wird. Die Grafikkarten sind bei 200W bis 300W und haben die Tendenz das auch abzurufen.

Auffällig ist, dass diese 100W schon 2008 das gesetzte Limit waren, als der Prozess noch 130nm war. Intel behauptete damals mit der Tech wären 10GHz kein Problem. Effektiv gammeln wir jetzt 15 Jahre in der Nachbarschaft von 3,5Ghz herum, mit hier und da einem Boost Modus der uns zeitlich begrenzt höher bringt. Wir hatten eine Migration auf 64 Bit, den Trend zu mehr Kernen (aber auch nur begrenzt) und das Absorbieren des Speichercontrollers auf die CPU. Was ziemlich Mist war für Boardhersteller, weil ob ein Board jetzt ECC kann, oder schneller getakteten Speicher unterstützt, das entscheidet jetzt alles Intel im Chip und bittet entsprechend zur Kasse. Das ist nicht mehr Geld das der Boardhersteller verdienen kann indem er Features bietet. Gleiches gilt für die OnBoard Grafikkarten von damals, da hat Intel auch den Boardpartnern (und auch Nvidia) das Wasser abgegraben.

Intel hat halt davon profitiert, dass das Internet einen unglaublichen Hardwarehunger entwickelt hat und die Landschaft mit Datencentern vollgepflastert ist wie man sich das nicht hätte denken können. Ansonsten hat Intel gehörig geschlafen die letzten 10 Jahre. Wenn man sich ansieht wie Apple seine CPU/GPU Combos aufbaut, wenn man sich ansieht wie Sony und MIcrosoft inzwischen ihren Konsolen bestellen bei AMD, dann verschiebt sich da etwas. Selbst wenn wir nur von Intel reden. Angenommen wir wollten einen Media-PC zum 4k Streamen auf einen Fernseher suchen. Wir würden nicht auf i3 oder i5 schauen, wir würden nicht auf die Kerne schauen, oder Hyperthreading. Nein, wir würden auf die Genereation der Core-i CPU achten, weil abhängig davon kann die verbaute HD Graphics 4k oder nicht. Also 3. Generation 4 Kern mit Hyperthreading und 3.7 GHz ist weg vom Fenster und 4. Generation mit nur 4 Kernen und 2.7GHz ist plötzlich der Wunschprozessor. Aktuell haben viele Leute 100W an möglicher Leistung aber nicht so richtig ein Anwendungsgebiet. AMD will ich da nicht ausnehemn, denn das gilt für die 100W Ryzens ganz genauso und die meisten davon haben gar keine Grafikeinheit was den Office Bereich halt nicht so überzeugt. Hurrah, eine GT710 mehr verbaut in der Welt.
 
Naja Poly... da bin ich ganz anderer Meinung.
AMDs Architektur hat mehr IPC und wesentlich bessere Skalierbarkeit und das hat mal gar nichts mit der Fertigung zu tun. Die weiteren Vorteile, weniger Verbrauch und geringere Temperatur geht zum Teil auf die Fertigung. AMD hat überholt. Hätte Intel nicht Zugriff auf diese Hochtaktfertigung wären Sie Hoffnungslos unterlegen.
 
Ich denke eher, das Intels Probleme bei der 10 nm Fertigung darin zu suchen sind, das hier einfach nicht mehr diese hohen Taktraten machbar sind, wie sie derzeit ja vorhanden sind. Die Intel i7/i9 liegen in Games ja nur noch deshalb hauchdünn vorne, weil sie weiterhin von ihren hohen Takten zehren können. Wäre das nicht gegeben, hätte Intel schon beim Zen+ das Nachsehen gehabt und wären spätestens mit Zen2 brutal verprügelt worden. Und zwar in allen Belangen !

Zen2 hat faktisch nur ein minimal höheren Takt als der Zen Refresh. Trotzdem werden die CPUs wärmer trotz der 7 nm Fertigung. Die gleichen Probleme hat Intel mit ihrer 10 nm Fertigung. Bei Takten über 4 GHz explodiert die Abwärme. Übertragen auf die 10 nm Fertigung hätte das bedeutet, das ein entsprechender i9 9900 in 10nm mit Takten um 4 GHz hoffnungslos gegen einen Ryzen 3700 unterlegen wäre.

Intel spricht ja von einer IPC Steigerung von 18% bei der nächsten Architektur. Die werden sie auch bitter nötig haben, um den Taktverlust leistungsmäßig ausgleichen zu können. Und eine neue Architektur schüttelt man eben mal nicht so aus dem Ärmel. Siehe AMD. Dort hat man nach dem Bulldozer/Vishera Fail bis 2017 gebraucht, um was grundlegend Neues aufzulegen. Intel ist derzeit in einer bescheidenen Situation, weil man nur noch die Brechstange auspacken kann, um AMD was entgegensetzen zu können. Also beim i9 noch zwei weitere Kerne 14 nm +++++ anzukleben, oder hoch selektierte Dies mit bis zur absoluten Kotzgrenze geprügelten 5 GHz Allcore. Beides mit allen Folgen und Konsequenzen. Die Leistungsaufnahmen dieser überzüchteten CPUs werden durch die Decke schießen.
 
Das größte Problem das Intel mit der 10nm-Fertigung hat ist, dass AMD mit der ZEN-Architektur immer weiter zu Intel aufgeschlossen hat und mit ZEN 2 mittlerweile auch so weit ist, Intel über alle Bereiche hinweg die Rücklichter zu zeigen. Intel hat einfach darauf spekuliert, dass ZEN genau so sch**ße wird wie Bulldozer und dachte, man hätte ja noch ewig Zeit mit 10nm und dass man die Kunden im Consumer-Bereich ja noch mal vier, fünf Jahre mit Quadcores abspeisen kann. Tja, ZEN ist aber nicht sch**ße, sondern richtig gut und Intel geht der A*sch langsam auf Grundeis. Wenn AMD so weiter macht, kommt 2020/21 schon ZEN 2+/3 auf den Markt und spätestens dann wird Intel dem mit seinen 14+++ nichts mehr entgegenzusetzen haben.

Interessant wird auch, wie sich die Marktanteile in den nächsten Monaten entwickeln. Man sieht ja schon einen Trend zu Gunsten AMDs und ich denke, der wird sich noch beschleunigen. Spätestens dann wird Intel sicher auch mal an der Preisschraube drehen müssen, da sie ansonsten irgendwann von AMD überholt werden. Und das wird nicht nur im Consumer-Bereich so kommen, sondern auch bei den Servern, Workstations und im Datacenter-Bereich. Intel erhöht die TPD der Xeons für ein paar Prozent mehr Leistung, AMD bietet für den halben Preis mehr als doppelt so viele Kerne, PCIe 4.0, mehr Lanes, etc.

TL,DR: Intel hat sich an seiner Überheblichkeit verschluckt und bekommt nun die Rechnung dafür.
 
Was ist da denn explizit für eine Aussage gemeint? Dass Intel den 10nm Prozess zu aggressiv angestrebt hat, dürfte denke ich klar sein, deshalb hat man 10nm ja schrittweise eingedampft.



AMD hatte noch weniger zu bieten als Intel.



Kein Unternehmen ruht sich aus, die Kerne wären auch ohne AMD sukzessive gewachsen, nur eben nicht ganz so schnell.
Wer viele Kerne braucht, konnte damals auch schon zu HEDT greifen. Und die Kritik wegen der Architektur: AMD´s aktuelle Architektur hat auf Intels derzeitige Architektur aufgeschlossen, aber besser ist AMD´s Architektur nicht.S
Sie haben nur den Vorteil des bessere Fertigungsprozesses.

Najaa... halt mal den Ball flach, Intel bekommt die Belichtungsmaschinen von ASML, genau wie TSMC. Wenn intel damit nicht klarkommt, warum auch immer, ist es deren Fehler. Wenn 2 Formel 1 Teams die Motoren mit gleichen Maschinen bauen können und einer bekommt es nicht hin.. wer ist dann der Looser?
 
Wie kann man als CEO einer der größten Tech-Firmen weltweit so einen Nonsens von sich geben? Jeder weiß dass Intel jahrelang mit 4C/8T in der oberen Leistungsklasse rumgedümpelt ist und hätte AMD mit Ryzen nicht den Druck erhöht, würde man sich darauf wohl heute noch ausruhen. Vor 11 Jahren gab es die letzte "neue" Arch.

Wie kann man nur so einen Nonsense schreiben. Es geht hier um den Fertigungsprozess. Hast du das überhaupt verstanden oder wolltest du einfach nur bashen?
 
Intel behauptete damals mit der Tech wären 10GHz kein Problem. Effektiv gammeln wir jetzt 15 Jahre in der Nachbarschaft von 3,5Ghz herum, mit hier und da einem Boost Modus der uns zeitlich begrenzt höher bringt.

Naja, eigentlich hängen wir eher in der Nachbarschaft von 4,5 GHz rum und das nicht mit den vielstufigen Netburstprozessoren, sondern mit Prozessoren mit deutlich kürzeren Pipelines. Das ist schon ein großer Fortschritt.
 
"Zu hoch" ist relativ. Intels 10-nm-Prozess führt 3-4 unabhängige Technologien gleichzeitig ein (oder auch nicht) und erreicht damit einen Skalierungsfaktor, der etwas als bei einem normalen Fullnode ist. Das war ambitioniert, aber nicht übermäßig. Wenn man einen Sprung, der 3 Jahren normalen Fortschritts entspricht, in 2 Jahren absolvieren möchte, dann aber 5 Jahre braucht, dann liegt das Problem nicht nur bei den Innovationen.

Intel hat 10 nm von Anfang an ohne EUV geplant. 7 nm war der Node, bei dem man lange Zeit beide Optionen in Betracht zog und sich erst mit fortschreitender Verzögerung auf EUV festgelegt hat.

Wenn du "schlau" genug bist, ganz "einfach" Hochleistungstransistoren in Polykristalinem Silizium zu implementieren, dann solltest du diese Technik schnell zum Patent anmelden und selbiges dann für eine mindestens 11 stellige Summe verkaufen. Dreidimensionale Logik gilt seit Jahrzehnten als DIE Zukunft der Halbleitertechnik, ist bislang aber noch niemanden gelungen. Auch in 3D-Flash sind nur die Speicherzellen gestapelt, bei ct-Flash werden einfach mehrere Abschnitte eines aufrecht stehenden Zylinders als unabhängige Speicherbereiche genutzt. Die Logikschaltungen (von denen Flash eher wenig braucht) liegen aber alle in einer Ebene unter den Speicherzellen. (Siehe u.a. PCGH 12/15)

Noch niemandem gelungen? Glaube ich nicht. Irgendwo liegen schon Entwürfe bei Intel/AMD rum denke ich. Das was die jetzt machen mit den Chiplets ist auch nicht neu.
 
Intel-CEO:
"Diese doofe Sache namens 'Realität', die wir halt leider manchmal beachten müssen, hält unsere Innovationskraft zurück!"
Danke, musste lachen.
 
Zurück