Intels Verzug bei 10 nm... - Das sagen die PCGH-Redakteure dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intels Verzug bei 10 nm... - Das sagen die PCGH-Redakteure dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "Intels Verzug bei 10 nm..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intels Verzug bei 10 nm... - Das sagen die PCGH-Redakteure dazu
 
Intels damaliger Finanzchef Robert "Bob" Swan sagte schon auf der Credit-Suisse-Konferenz Ende November 2018, dass Intel zu aggressiv vorgegangen sei, beim 10nm Prozess.

Anfang Dezember desselben Jahres, auf der 39. Nasdaq-Investorenkonferenz, widersprach Murthy Renduchintala dieser Aussage. Er ist der Leiter der Technologieabteilung bei Intel.

Zu damaligen Zeit schien es so, als hätte Intel auch Kommunikationsprobleme und jetzt wiederholt Bob Swan, mittlerweile CEO, seine Aussage zu aggressiv vorgegangen zu sein.

Da Bob Swan CEO ist, scheint Intel sich jetzt endlich einig zu sein! Oder kommt in ein paar Tagen doch wieder eine gegenteilige Aussage aus der Führungsebene von Intel???
 
Intel hat AMD einfach unterschätzt. Die dachten Zen wäre genau so eine Krücke wie Bulldozer und würden dann kalt erwischt, als sich herausgestellt hat, dass Zen konkurrenzfähig mit Skylake ist. Jetzt mit Zen 2 ist man praktisch in allen Bereichen gleichauf mit Coffe Lake und seinen Ablegern, spätestens Zen 3 wird an Intel vorbeiziehen. Die gesamte Planung von Intel war darauf ausgelegt, dass man weiter mit wenig konkurrenzfähigen AMD-Prozessoren zurecht kommen muss. Man sah ja schön nach dem Release der ersten Zen-Generation, dass Intel plötzlich doch sechs Kerne in den Consumer-Bereich bringen kann. Nach Zen+ waren es dann plötzlich acht Kerne. Nur sieht man, dass Intel immer noch auf dem hohen Ross sitzt, wenn man sich die Preise gibt.
 
Intels damaliger Finanzchef Robert "Bob" Swan sagte schon auf der Credit-Suisse-Konferenz Ende November 2018, dass Intel zu aggressiv vorgegangen sei, beim 10nm Prozess.

Anfang Dezember desselben Jahres, auf der 39. Nasdaq-Investorenkonferenz, widersprach Murthy Renduchintala dieser Aussage. Er ist der Leiter der Technologieabteilung bei Intel.

Zu damaligen Zeit schien es so, als hätte Intel auch Kommunikationsprobleme und jetzt wiederholt Bob Swan, mittlerweile CEO, seine Aussage zu aggressiv vorgegangen zu sein.

Da Bob Swan CEO ist, scheint Intel sich jetzt endlich einig zu sein! Oder kommt in ein paar Tagen doch wieder eine gegenteilige Aussage aus der Führungsebene von Intel???

Wollte auch gerade schreiben, genau die selbe Aussage gab es doch letztes Jahr schon unter Brian Krzanich. Nur war mir nicht mehr geläufig, wer das genau sagte...
Nunja, nun ist er der Boss, jetzt hat er Recht zu haben, da wird sicher keiner gegen angehen. ^^
 
Nur sieht man, dass Intel immer noch auf dem hohen Ross sitzt, wenn man sich die Preise gibt.

Intel geht davon aus, dass es immer noch die (Markt)Zügel fest in der Hand hat, da fällt das Absteigen schwer. Allerdings kann man vom (hohen) Ross auch herunterfallen und das kann sehr unglimpflich ausgehen.
 
Der Verzug ist nötig für jeden, der mit PCs zu tun hat. AMD muss jetzt über einen langen Zeitraum mehr CPUs als Intel verkaufen, damit wieder eine Balance besteht. Dann wird man sehen, was die Zukunft bringt.
AMDs Infinity Fabric ermöglicht es jetzt jedenfalls mal den Kunden, aufzuatmen, und gibt die Verantwortung an die beiden Unternehmen weiter, zu handeln.

Edit: Übrigens habe ich überhaupt kein Mitleid, für diejenigen die "nicht mal eben den Tanker Richtung AMD komplett herumreißen" können. Wer sich als Unternehmen langfristig von einem anderen abhängig macht, weiß doch, dass es ihn früher oder später teuer zu stehen kommt. Das tut man z.B. wenn das Geld fehlt, in Form von einer Abhängigkeit zu Kreditgebern etc. Wenn der Laden auch ohne Belastungen von außen leben kann, macht das doch kein intelligenter Geschäftsmann, nur um kurzfristig eventuell ein paar Pfennige zu sparen.
 
Zuletzt bearbeitet:
Sehe das ähnlich, einige Intel-Partner (nicht nur OEMs/Marktketten) haben die eigene Abhängigkeit und die Marktschieflage befeuert und mitzuverantworten. Kurzsichtigkeit und kurzfristiges Vorteilsdenken haben gesiegt, ab einem bestimmten Punkt hat man sich sogar in Sicherheit gewogen. "To big to fail" gibt es in dieser dynamischen Branche nicht, dass sollte man nach vielen Dekaden Computergeschichte wissen.
 
Zitat von PCGH-Torsten:"
Da gab es eine ganze Reihe von Fehlern, die lange unbemerkt blieben."

Spectre und Meltdown sind da ein gewichtiger Aspekt.
Intel hat doch gerade diese Sicherheitslücken perfektioniert!
Warum, das ist die wichtigere Frage und wer will von Intels Kunden, keine eventuell offenen Spionagetüren inklusive geliefert bekommen, wo man seitens der Kunden befürchten muß, ein Spionage-Opfer zu werden!
In einer ganzen Reihe der Intel-Großkunden, gibt es genug Geheimnisse, die andere Begehren!
Das huaweische Dilema zur Datenspionage, könnte auch gezielt auf Intel angewendet werden, wenn man genau diese Sicherheitslücken so bestätigt bekommt, das wirklich seit geraumer Zeit, diese schon vor Bekanntgabe , ausgenutzt wurden.
Warum AMD und ARM offensichtlich wohl nur fast zur Hälfte mit den Spectre- und Meltdown-Probleme belastet sind, wer weiß?
Deshalb würde ich AMD und auch ARM, nicht dazu ausschließen wollen.
 
Zitat von PCGH-Torsten:"
Da gab es eine ganze Reihe von Fehlern, die lange unbemerkt blieben."

Spectre und Meltdown sind da ein gewichtiger Aspekt.
Intel hat doch gerade diese Sicherheitslücken perfektioniert!


Meine Aussage bezieht sich ausdrücklich auf die Fertigung, nicht auf bei beiden Herstellern in der logischen Arbeitsweise der Architekturen steckende Lecks.

Intel wollte Cannon Lake 2016 bringen – Gerüchte über abweichende Pläne wurden ein Jahr vorher laut. Intel sollte Cannon Lake 2017 bringen – die Absage drang zum Jahresanfang an die Öffentlichkeit. Intel hat Cannon Lake 2018 veröffentlicht – aber nur in homöpathischen Dosen und weil man das ein Jahr vorher den Aktionären versprochen hatte. Gleichzeitig hat alle Welt auf Ice Lake gewartet, aber das der nicht kommt, wurde mal wieder 6-9 Monate im voraus klar. Genau das gleiche Spiel wiederholt sich jetzt 2019 mit den Desktop-Ice-Lakes, die erst dieses Jahr und jetzt frühestens 2020 erscheinen sollen. Währenddessen scheint das erwartete komplette Mobile-Line-Up auf den ULV-Bereich zu schrumpfen, sodass auch hier wieder große Teile der diesmal sogar offiziell angekündigten Produkte 9 Monate nach der Ankündigung doch nicht lieferbar sind, stattdessen geistern schon wieder neue 14-nm-Codenamen durch die Gerüchteküche.

Sorry, aber das ist nicht normal und das kann auch nicht auf einen Fehler zurückzuführen sein. Mindestens seit Mitte der 90er waren zu jedem Zeitpunkt Intel-Roadmaps bekannt, die mindestens zwei-drei Generationen in die Zukunft reichten. Und dieses wurden 1:1 abgearbeitet wie ein Uhrwerk. (Einzige Ausnahme: Der Wechsel von Netburst auf Core, als Teile der Roadmap ausgetauscht wurden. Aber selbst da war der alte Plan on track und der neue wurde reibungslos ausgeführt.) Gab es Probleme, verschob sich der Launch entsprechend nach hinten, das wurde aber lange vorher absehbar und es liegt in der Natur der Sache, dass sich komplexe Entwicklungen nicht tagesgenau prognostizieren lassen. Nicht so bei 10 nm: Dreimal hätten entsprechende CPUs laut Roadmaps schon ihre Vorgänger beerben sollen, eine vierte Verschiebung ist sehr wahrscheinlich. Und kein einziger dieser Schritte war langfristig absehbar, maximal tauchten 12 Monate vorher erste Andeutungen auf, die auch ebenso gut eine Ente oder ein Plan B sein konnten. Diese Kette von plötzlichen Verschiebungen kann in meinen Augen nicht eine einzige Ursache haben. Intel muss jedesmal gedacht haben "Damn. Ein Fehler. Aber egal, den lösen wir jetzt und dann kommt der große Durchbruch." Aber jedesmal kam nach der Lösung nur der nächste Fehler und das ist in dieser Dichte wirklich sehr ungewöhnlich und, zumindest aus meiner Sicht, auch sehr spannend.

Nicht nur aus rein technischem Interesse – sondern auch mit Blick auf die Zukunft. Intel 10 nm ist nicht nur eine Größenschrumpfung, sondern beinhaltet COAG, SDG und die, wenn es denn gelingt, ambitionierteste Anwendung von SAQP, die Intel einen komplette Node Vorsprung bei vergleichbarer Belichtungstechnologie bringen sollte. Wenn Intels Verzögerungen tatsächlich auf die Vielzahl potenzieller Problemquellen und deren erfolgreiche Lösung zurückgeht, dann könnte sich der heutige Rückstand in einen technischen Vorteil wandeln lassen. Denn "feineres Licht führt zu feineren Strukturen" kann Intel im nächsten Schritt sehr leicht von allen Konkurrenten kopieren. Der Weg zu sauberem 7nm+ (die aktuellen 7-nm-AMD-Produkte liegen nur auf Augenhöhe mit Intel 14 nm und Nvidia 12 nm) besteht bei TSMC letztlich nur darin, die neueste Anlagengeneration bei ASML zu bestellen; Samsung wird ähnliches nachgesagt. So eine Bestellung kann auch Intel aufgeben und mit bestehenden Entwicklungen kombinieren – aber die Konkurrenten können von Intels 10-nm-Techniken nur die Grundkonzepte nachlesen und müssen alles andere selbst entwickeln, wenn sie mit ihren "5 nm" gegen Intels "7 nm" antreten.
(Wenn. Wenn Intel so weitermacht, kommt denen ihr 7-nm-Node erst gegen 3-nm-Samsung.)
 
Meine Aussage bezieht sich ausdrücklich auf die Fertigung, nicht auf bei beiden Herstellern in der logischen Arbeitsweise der Architekturen steckende Lecks.

Intel wollte Cannon Lake 2016 bringen – Gerüchte über abweichende Pläne wurden ein Jahr vorher laut. Intel sollte Cannon Lake 2017 bringen – die Absage drang zum Jahresanfang an die Öffentlichkeit. Intel hat Cannon Lake 2018 veröffentlicht – aber nur in homöpathischen Dosen und weil man das ein Jahr vorher den Aktionären versprochen hatte. Gleichzeitig hat alle Welt auf Ice Lake gewartet, aber das der nicht kommt, wurde mal wieder 6-9 Monate im voraus klar. Genau das gleiche Spiel wiederholt sich jetzt 2019 mit den Desktop-Ice-Lakes, die erst dieses Jahr und jetzt frühestens 2020 erscheinen sollen. Währenddessen scheint das erwartete komplette Mobile-Line-Up auf den ULV-Bereich zu schrumpfen, sodass auch hier wieder große Teile der diesmal sogar offiziell angekündigten Produkte 9 Monate nach der Ankündigung doch nicht lieferbar sind, stattdessen geistern schon wieder neue 14-nm-Codenamen durch die Gerüchteküche.

Sorry, aber das ist nicht normal und das kann auch nicht auf einen Fehler zurückzuführen sein. Mindestens seit Mitte der 90er waren zu jedem Zeitpunkt Intel-Roadmaps bekannt, die mindestens zwei-drei Generationen in die Zukunft reichten. Und dieses wurden 1:1 abgearbeitet wie ein Uhrwerk. (Einzige Ausnahme: Der Wechsel von Netburst auf Core, als Teile der Roadmap ausgetauscht wurden. Aber selbst da war der alte Plan on track und der neue wurde reibungslos ausgeführt.) Gab es Probleme, verschob sich der Launch entsprechend nach hinten, das wurde aber lange vorher absehbar und es liegt in der Natur der Sache, dass sich komplexe Entwicklungen nicht tagesgenau prognostizieren lassen. Nicht so bei 10 nm: Dreimal hätten entsprechende CPUs laut Roadmaps schon ihre Vorgänger beerben sollen, eine vierte Verschiebung ist sehr wahrscheinlich. Und kein einziger dieser Schritte war langfristig absehbar, maximal tauchten 12 Monate vorher erste Andeutungen auf, die auch ebenso gut eine Ente oder ein Plan B sein konnten. Diese Kette von plötzlichen Verschiebungen kann in meinen Augen nicht eine einzige Ursache haben. Intel muss jedesmal gedacht haben "Damn. Ein Fehler. Aber egal, den lösen wir jetzt und dann kommt der große Durchbruch." Aber jedesmal kam nach der Lösung nur der nächste Fehler und das ist in dieser Dichte wirklich sehr ungewöhnlich und, zumindest aus meiner Sicht, auch sehr spannend.

Nicht nur aus rein technischem Interesse – sondern auch mit Blick auf die Zukunft. Intel 10 nm ist nicht nur eine Größenschrumpfung, sondern beinhaltet COAG, SDG und die, wenn es denn gelingt, ambitionierteste Anwendung von SAQP, die Intel einen komplette Node Vorsprung bei vergleichbarer Belichtungstechnologie bringen sollte. Wenn Intels Verzögerungen tatsächlich auf die Vielzahl potenzieller Problemquellen und deren erfolgreiche Lösung zurückgeht, dann könnte sich der heutige Rückstand in einen technischen Vorteil wandeln lassen. Denn "feineres Licht führt zu feineren Strukturen" kann Intel im nächsten Schritt sehr leicht von allen Konkurrenten kopieren. Der Weg zu sauberem 7nm+ (die aktuellen 7-nm-AMD-Produkte liegen nur auf Augenhöhe mit Intel 14 nm und Nvidia 12 nm) besteht bei TSMC letztlich nur darin, die neueste Anlagengeneration bei ASML zu bestellen; Samsung wird ähnliches nachgesagt. So eine Bestellung kann auch Intel aufgeben und mit bestehenden Entwicklungen kombinieren – aber die Konkurrenten können von Intels 10-nm-Techniken nur die Grundkonzepte nachlesen und müssen alles andere selbst entwickeln, wenn sie mit ihren "5 nm" gegen Intels "7 nm" antreten.
(Wenn. Wenn Intel so weitermacht, kommt denen ihr 7-nm-Node erst gegen 3-nm-Samsung.)

Ich meine, das sowohl als auch, gewisse Abhängigkeiten zueinander bestehen können.
Wir können leider nur vermuten, aber nichts konkretes wissen.
Wie du schon geschrieben hast, es wäre sehr interessant, was bei Intel alles schief läuft, da auch ich selbst mit einer ordentlichen Antwort auf AMD's Ryzen-Cpu's gerechnet habe!
 
"Intel hat mittlerweile Wichtigeres zu tun und wird direkt vom Pentagon zur Wahrung der nationalen Sicherheit bei der Analyse und Nutzbarmachung revolutionärer Alien-Technologie in einem unterirdischen Geheimlabor in Area 51 finanziert." -- Einer Eurer Redakteure ist offensichtlich Dihydrogenmonoxid-Suchtie, anders ist das Geschreibsel nicht zu erklären. Redet dem das mal aus, auch wenn es von Regierung, NGOs und Lobbies stets verharmlost wird!
 
War ja schon vor Jahren bekannt. Intel hat auch anfangs schon keine Hel daraus gemacht das sie mit den 10nm schon sehr auf Risiko fahren da sie nicht nur gewaltige Änderungen der Größen vor hatten sondern auch noch einiges der darunterliegenden Grundlagen umreisen wollten.
Jetzt hat intel dadurch einen gewaltigen Verzug dafür aber auch die Technologien die Samsung, Hynix, TSMC und co für 5nm erst anfangen müssen zu erforschen. Und dazu kommt die schon längst überfällige Architektur-Überarbeitung. Sie haben sich da ja auch nicht gerade wenig vorgenommen und seit Haswell munter herum experimentiert - anscheinend ja auch die Architektur deutlich überarbeitet aber für 10nm zugeschnitten (sonst hätten sie es ja mitlerweile bei 14nm genommen).

Ob das schlau war? werden wir sehen wenn die 10nm im Desktop ausrollen und wir dann irgendwann mal die Benchmarks und vergleiche zu anderen Fertigungen haben.
 
Ich als zugegebener Amateur, sehe da eher ein grundsätzliches Problem.
Immer mehr Kerne + hohen Takt vs. immer kleinere Fertigung.
Wenn die DIEs immer kleiner werden aber immer mehr Kerne mit hohen Taktraten beinhalten, da muss doch irgendwann physikalisch ein Ende sein …
Wie soll denn unter normalen Umständen von so einen kleinen DIE die Abwärme noch vernünftig abgeführt werden? :/
Das zeigt sich doch jetzt schon beim 7nm Ryzen deutlich.
Ich denke. Intel wird da ähnlich Probleme haben …
Zudem kommt noch die Erwartung und der daraus folgende Druck von der „isch daggde mai aikore üba 5 Ghz schaisseggal diggaa“-Fraktion.

Auch Silizium und die Physik haben nun mal ihre Grenzen.
Und an die stoßen wir wohl langsam.
Oder vielleicht auch schneller … :/
 
Die ganze Diskussion rund um 7nm vergisst ein wesentliches Problem und das ist, dass auf CPUs betrachtet, die Verkleinerung keine Kundenvorteile mehr bringt.

Bereits vor 15 Jahren hatte Xeon so um die 3 GHz und war in 130nm gefertigt und 100W TDP verbraucht. Kleinere Fertigungsprozesse haben weder dazu geführt, dass man den Basistakt nennenswert erhöhen konnte (z.B die früher oft fabulierten 10GHz an die heute kaum jemand mehr erinnert werden möchte), noch haben kleinere Fertigungsprozesse dazu geführt, dass man 100W durchbrechen konnte. Man stelle sich ein Design vor das 300W abführen kann und stabil auf 7.5GHz Basistakt läuft.

Zwischen 1995 und 2005 hat sich die TDP einer CPU von 20W auf 100W verfünffacht und der Takt von 60Mhz auf 2GHz entwickelt. Danach sind diese beiden Kenngrößen an eine Wand geprallt hinter der es nicht weitergeht. Seitdem sehen wir architektonische Optimierungen, aber der Fertigungsprozess selbst bringt nichts mehr was im Kontext der 90er und 00er erwähnenswert wäre.

Deshalb ist Intel mit ihrem 14nm Chip auch so schnell wie AMD mit ihrem 7nm Chip. Ein kleinerer Fertigungsprozess hat heute vor allem den Vorteil, dass mehr Chips auf ein Die passen und es billiger in der Herstellung ist. Da wird Intel doch nicht alles Geld der Welt in 10nm stecken. Wofür? i9-10900k mit 100Mhz mehr und hier und da ein paar Transistoren mehr, damit man wieder genau auf +15% gegenüber der Vorgängergeneration herauskommt?

Überall nur Flaschenhälse. Wieivel Watt man vom CPU-Die in den Heatspreader und von dort in den Kühlkörper leiten kann hat ein Jahrzehnte altes Limit. Die Stagnation im Takt umgeht man mit BaseClock/BoostClock Spielereien damit auch hier keine Hotspots aus dem ersten Flaschenhals entstehen.

Die Frage bei 3D Chipdesigns wird nicht sein wieviele Stacks man stapeln kann (Spoiler: Im Wert von 100W), sondern ob man Chips hinbekommt die man mal mindestens von zwei Seiten kühlen kann, weil der Die die Hitze nicht nur in einer Richtung abgeben muss. Dann können wir zu 200W Mainstream CPUs Hallo sagen und auch den Takt nach oben treiben. Bis dahin könnte es allerdings schon so weit sein, dass die Berechnungen die eine CPU heute ausführt so weit zur Nebensache geraten sind, dass man den Aufwand nicht mehr für eine CPU betreibt.
 
"Für mich klingt das alles nach Beschwichtigung von Aktionären. Das mag auch daran liegen, dass CEO Bob Swan diese Aussage auf der 2019er FORTUNE-Brainstorm-Tech-Versammlung in Aspen, Colorado (der reichsten Stadt in den gesamten USA) gemacht hat, dort treffen sich die Chefs der Fortune-500-Firmen, also jenen 500 umsatzstärksten Unternehmen der Welt. Und dort treffen sich deren wichtigste Investoren und Aktionäre."

"Klingt mir Intels Begründungen eher wie eine Ausrede um die Aktionäre, zu beruhigen. Zumindest zieht bei mir das Argument, dass man stehts versucht habe Moore‘s Law zu übertreffen irgendwie überhaupt nicht."

Ich mein was sollst da noch sagen, mittlerweile treiben die Konzernhansel es schon so bunt, daß selbst die positiv geneigten Leute aus den Informationsbereichen dieser Techniksparte mißtrauisch werden. Das sind ja keine Deppen und haben weder Elvis noch Hitler unterm Bett, noch fliegen se mit Flugscheiben nach Feierabend aufm LSD Trip zum Mars (hoffe ich mal). :D
 
Ich als zugegebener Amateur, sehe da eher ein grundsätzliches Problem.
Immer mehr Kerne + hohen Takt vs. immer kleinere Fertigung.
Wenn die DIEs immer kleiner werden aber immer mehr Kerne mit hohen Taktraten beinhalten, da muss doch irgendwann physikalisch ein Ende sein …
Wie soll denn unter normalen Umständen von so einen kleinen DIE die Abwärme noch vernünftig abgeführt werden? :/
Die kleinere Fertigung macht auch die Bauteile (normalerweise) effizienter, der limitierende Faktor ist dann nur Leistung pro Fläche - und diese ändert sich nicht so stark.

Auch Silizium und die Physik haben nun mal ihre Grenzen.
Und an die stoßen wir wohl langsam.
Oder vielleicht auch schneller … :/

Deshalb forschen sie ja auch an anderen Materialien und Bauweisen - zB gestackte Logik mir viele Kernen die dafür effizient und langsam sind.


Bereits vor 15 Jahren hatte Xeon so um die 3 GHz und war in 130nm gefertigt und 100W TDP verbraucht.
Netburst single/dual-Core die > 1000€ gekostet haben mit 100 W verbraucht - und ein einfacher i3 läuft denen heute schon davon - teils deutlich.


(z.B die früher oft fabulierten 10GHz an die heute kaum jemand mehr erinnert werden möchte),
Gibt es, hab schon mit sowas gearbeitet - sind halt Spezialprozessoren die für generelle Anwendungen ungeeignet sind. Teuer und ineffizient, da nur auf ihre Aufgabe zugeschnittenWnn duSignalprozessoren haben willst die gibts noch deutlich schneller.

Seitdem sehen wir architektonische Optimierungen, aber der Fertigungsprozess selbst bringt nichts mehr was im Kontext der 90er und 00er erwähnenswert wäre.
Es geht noch immer nach Moor weiter...............
 
zu Moore's Law

Coppermine P3 aus dem Jahr 2000, was man als Gamer so haben musste, 21Mio Transistoren, 80mm², 180nm
Das sind 262500 Transistoren pro mm²
18 Jahre mit 12 Monaten, nach Moore, also 12 "Verdoppelungen".
Dann sind wir bei 1 Milliarde Transistoren pro mm² (1.075.200.000)

Hmm, irgendwie haut das bei Intel nicht hin, denn der 9900k ist nachweislich erheblich größer als 8mm²

Wir können uns auch von der 180nm Seite dem Problem nähern. Damit sich die Anzahl der Transistoren verdoppelt, muss sich ja nur die Strukturgröße verringern um Faktor Wurzel 2.
180/((sqrt2)^12) =
hmm, 2,8nm, da sind wir in der Spitze ja nicht so weit weg, außer bei Intel, da haben wir statt 12 Sprüngen, irgendwie nur 7 Stück mitgemacht.


Kurzgesagt, wir sollten Intel nicht an Moore's Law messen, auch wenn es weiterhin Chipschmieden gibt, die was den Fortschritt angeht noch Schritt halten können. Dort wo Bedarf an Intel herrscht hat Intel keine Konkurrenz (bisschen AMD) und dort wo ein anderer Bedarf herrscht ist Intel nicht existent. Bestes Beispiel Smartphones.
 
zu Moore's Law

Coppermine P3 aus dem Jahr 2000, was man als Gamer so haben musste, 21Mio Transistoren, 80mm², 180nm
Das sind 262500 Transistoren pro mm²
18 Jahre mit 12 Monaten, nach Moore, also 12 "Verdoppelungen".
Dann sind wir bei 1 Milliarde Transistoren pro mm² (1.075.200.000)

Hmm, irgendwie haut das bei Intel nicht hin, denn der 9900k ist nachweislich erheblich größer als 8mm²
Nur ist das nicht was Moore gesagt hat............. aber hey - lesen ist ja bekanntlich eine aussterbende Qualifikation.
 
Zurück