Ice Lake: Intel soll 10-nm-Prozess gestrichen haben

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ice Lake: Intel soll 10-nm-Prozess gestrichen haben

Intel soll den 10-nm-Fertigungsprozess gestrichen haben, in dem eigentlich die Ice-Lake-CPUs produziert werden sollten. Grund dafür seien die Probleme, die schon für eine mehrjährige Verspätung sorgten. Sofern das Gerücht stimmt, hätte Intel mehrere alternative Optionen. Gewissheit könnte es in den kommenden Tagen geben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ice Lake: Intel soll 10-nm-Prozess gestrichen haben
 
Es ist vielleicht wirklich besser den Prozess zu streichen als halbfertige Prozessoren im 10nm Format zu produzieren, wo man mit Mühe und Not all die Probleme umgangen hat, um was halbwegs funktionstüchtiges auf den Markt zu schmeißen.

Aber dann schaut man wieder auf die verlöteten 9000er und merkt, dass Intel eigentlich immer noch halbe Sachen macht. Ist das die Wende? :hmm:
 
Seien wir ehrlich, 10nm klappt einfach nicht und die 7nm mit EUV sind mittlerweile näher an der Produktionsreife als die Zwischenlösung. Daher wohl die richtige Entscheidung.
Stellt sich nur die Frage, wann die 7nm soweit sind und ob das noch vor TSMCs 7nm EUV oder gar modernere 5nm gelingt...
 
Wäre nur Konsequent und eigentlich schon sehr spät die Reißleine gezogen, aber besser als ganz damit auf die Schnauze zu fallen. So wie ich das verstanden habe, ist das Problem an dem 10nm prozess von Intel, dass eben noch nicht in EUV belichtet wird, was bei den kleineren Strukturbreiten Probleme macht. Deswegen könnte es durchaus sein dass, wenn sie mittlerweile EUV im Griff haben, ein 7nm Prozess damit sehr schnell reif für die Produktion sein könnte, ohne die ganzen Probleme die man jetzt mit 10nm hat. Freilich wird das vor 2020 nichts, bis dahin hat AMD freie Bahn, hoffentlich können sie es nutzen.

Je nachdem wie lange es dauert, durchaus denkbar dass Intel nochmal was in 14nm+++ bringt, diesmal nicht mit mehr Kernen, dafür mit den Architekturverbesserungen für Cannon Lake bzw. Ice Lake, die ja nochmal ein paar Prozent IPC bringen sollen. Dann aber hoffentlich nochmal mit Optimierungen beim Package, weil so wie das beim Coffee lake Refresh mit dem Verlöten in die Hose gegangen ist wird das nichts...
 
@Th3o
Der Glaube (Hoffnung) ist kein Wissen. Der Glaube ist das Unwissen, jenes die Katholische Kirche und ähnliches in die Welt gesetzt haben, um fehlendes Wissen einer kognitiv zu primitiven Gesellschaft durch Glauben (Unwissen) zu ergänzen. Der Kreationismus, aka Intelligent Design, welcher gegenwärtig die Welt mit verpestet, indem er seine Insuffizienz durch Irrationalität begründet, ist auch nicht besser und ich wittere schon die nächste große Gefahr, dass die Menschheit durch die nachfolgende Religion für kommende Jahrhunderte in die Stagnation seines Fortschrittes verfällt. Was folgt als Nächstes an Verdummung? Unitology? Sobald der Mensch keine Antwort findet muss anstelle ihrer die altbekannte Verblödung einer neuen Religionsform herhalten. Anstatt dass er endlich die Einsicht aufbringt, dass er noch nicht so weit ist, damit seine Fragen erhört werden.
 
die wollen es halt noch ein wenig weiter versuchen,ehe sie wirklich aufgeben.Wenn sie bis 2020 immer noch den 10 nm nicht gemeistert haben zum laufen zu kriegen,dann werden sie ganz gewiss aufgeben.
 
Wäre nur Konsequent und eigentlich schon sehr spät die Reißleine gezogen, aber besser als ganz damit auf die Schnauze zu fallen. So wie ich das verstanden habe, ist das Problem an dem 10nm prozess von Intel, dass eben noch nicht in EUV belichtet wird, was bei den kleineren Strukturbreiten Probleme macht. Deswegen könnte es durchaus sein dass, wenn sie mittlerweile EUV im Griff haben, ein 7nm Prozess damit sehr schnell reif für die Produktion sein könnte, ohne die ganzen Probleme die man jetzt mit 10nm hat. Freilich wird das vor 2020 nichts, bis dahin hat AMD freie Bahn, hoffentlich können sie es nutzen.

Je nachdem wie lange es dauert, durchaus denkbar dass Intel nochmal was in 14nm+++ bringt, diesmal nicht mit mehr Kernen, dafür mit den Architekturverbesserungen für Cannon Lake bzw. Ice Lake, die ja nochmal ein paar Prozent IPC bringen sollen. Dann aber hoffentlich nochmal mit Optimierungen beim Package, weil so wie das beim Coffee lake Refresh mit dem Verlöten in die Hose gegangen ist wird das nichts...

Der komplette Verlust von 10nm wäre die größte Firmentragödie.

Bis 2020 auf 14nm zu produzieren würde aller Wahrscheinlichkeit nach mehr als 1 Jahr Alleingang seitens AMD bedeuten. Der Vorsprung von 7nm und Zen2 wird sicherlich mehr als 25% betragen und nur durch einen nochmals optimierten 14nm Prozess nicht zu holen sein.
 
Intels Fertigungsprozess auf 10nm ist in der Gesamtheit des womöglich beizubehaltenden Shrinks wahrscheinlich kleiner wie TSMCs 7nm-Prozess. TSMCs 12nm-Prozess ist auch nicht 1:1 zu Intels erster Iteration des 14nm-Prozesses und mit 14FF+ sowie 14FF++ ist Intel sogar noch ein ganzes Stück davongezogen, weil einfach die inhärenten Strukturen enger und womöglich auch kleiner sind und damit die Signalwege kürzer sind. Die um ein Vielfaches geringeren Kernspannungen und das hohe Taktpotenzial offerieren geradezu wie kurz die Signallaufzeiten sein müssen. Guckt euch nur mal die Bauteilgrößen von ASUS-Mainboards an und vergleicht sie mit der Konkurrenz: Diese Bauteile sind geschätzt nur halb so groß, und das liegt nicht nur daran, dass ASUS aufgrund der in fast nicht gegebenen Einsparungen in die teuren Elemente von International Rectifier investiert, auch um 150 Euro, wofür ASRock und Co. einen enormen Preis von 250 Euro verlangen, denn die Konkurrenz wie ASRock kriegen die gleichen hochintegrierten Bauteile auch nicht in so klein, die Kondensatoren umfassen sichtlich das doppelte Volumen, sondern weil ASUS es sich zur Ambition setzt, der Beste sein zu wollen und das gelingt nur durch höchstmögliche Effizienz. Kleinere Bauteile sind theoretisch effizienter und bieten daher noch mehr Leistungsfähigkeit.
 
Zuletzt bearbeitet:
Gibt quasi nur kalten Kaffee bei Intel...
Wenns nix wird ist es wohl das beste als weiter Kohle reinzupumpen. Allerdings merkt man den 9000ern auch die Kotzgrenze an oder täuscht das.

Psst, denen fällt nur langsam keine neuer Name mehr ein.
I7-10700K in 14+++auf Z470 im Sockel 1152.
Da quatscht man sich auch langsam ne Telefonzelle an Fuß.

Bin mal gespannt was so kommt.
 
...Kondensatoren umfassen sichtlich das doppelte Volumen...
...Kleinere Bauteile sind theoretisch effizienter und bieten daher noch mehr Leistungsfähigkeit...

Hast du dazu weitere Informationen?
Denn in meiner Branche schaut das genau anders aus, um so wertiger/besser/belastbarer, um so größer werden die Kondensatoren,
je kleiner, desto geringer die Spannungsfestigkeit, ESR sinkt enorm, keine Selbstheilung, Güte (Q) im Keller, hoher Verlustfaktor etc.
(Da kann man eh nur auf Folie hoffen, früher sah man gerne & oft die Papiergeschichten.....[elko] pfui)

Bei Spulen übrigens ähnlich, wenn kleiner, muss ein Kern "rein", was aber wieder ganz andere Probleme, wie z.B. ne sehr frühe Sättigung mit sich bringt,
oder auch der Abstand der Bauteile massiv erhöht werden muss und/oder Backlack & Vakuum benötigt.
Es gleiche bei üblichen Widerständen, da muss einfach die Wärme abgeführt werden (Keramik/Alu/Kupfer), das kostet eben Platz.

Kurzum:
Hast du Informationen zu den Kondensatoren, ob die Kleineren wirklich "besser" sind und wenn ja würde ich gerne wissen warum und wie genau.
Wer defekte Boards hat, kann auch gerne mal welche auslöten und ir senden, mein Kondensator-Vergleich ist noch lange nicht fertig
und die Messreihe ist schon recht groß bisher ;)

Sieht pro gemessenem Knecht so aus bei mir (100 kHz habe ich nicht aufgenommen in die Tabelle, ist aber ebenfalls dokumentiert):
1016408-ice-lake-intel-soll-10-nm-prozess-gestrichen-haben-zwischenablage02.png





OT Ende ;)
 

Anhänge

  • Zwischenablage02.png
    Zwischenablage02.png
    218,5 KB · Aufrufe: 539
Zuletzt bearbeitet:
Tja - ein typ der meistens falsch liegt und für sein itnel-gebashe bekannt ist.....
Mit der Entwicklung von 10nm hat sich intel grob verschätzt. Aber aufgeben? Warum sollten sie das tun wenn der Hauptgrund das sie so lange brauchen doch der ist das sie Grundlagenforschung an Technologien betreiben die ihnen auch den Schritt zu 5nm ermöglichen wird? TSMC und GloFo haben das erst noch vor sich.

Auch darf man nicht vergessen das Intels 14 nm schon jetzt ähnliche packungsdichten zu TSMCs 7 nm schafft - für CPUs fällt die Packungsdichte aber deutlich geringer aus damit sie die Chips höher takten können.
Hat Intel sicher schon genug gekostet und wird wohl noch ne zeit lang dauern bis sie mit dem Ergebnis zufrieden sind.
 
Zuletzt bearbeitet:
ok verstehe.Wie lange wird es dauern bis alle am ende des shrinken am ende fertig sind.
Und wird TSMC nicht auch irgendwann das gleiche Problem wie intel jetzt hat haben.Ich denk mal das durch das shrinken ja auch die packdichte dichter wird oder irre ich mich damit?
 
Ich denk mal das durch das shrinken ja auch die packdichte dichter wird oder irre ich mich damit?

Jein - man KANN dadurch dichter Packen - oder auch den Platz anders nutzen um die Effizienz oder andere Eigenschaften zu verbessern (oder ein mix aus allem).
So werden zB die meistne Analogen Bauteile noch weitaus größer gefertigt weil dies bessere eigenschafften vor allem im Bezug auf Rauschen ermöglichen.
 
@Bandicoot
Hatte NVIDIA in bis vor Fermi nicht anders umgesetzt. Fermi (Streaming Multiprocessor) und Kepler (Streaming Multiprocessor Extreme) sind jeweils über eine zusätzliche Iteration gegangen. Und Streaming Multiprocessor Turing basiert auch nur auf Streaming Multiprocessor Volta, verwandt mit Streaming Multiprocessor Pascal und Streaming Multiprocessor Maxwell. Leicht geänderte Namen, gleiche Architektur unter einem Die-Shrink verpackt. Seit Tesla ist die Architektur dieselbe. Und, wie lange hat Tesla bestanden? 4 Iterationen. 8-Serie (nur GeForce Quadro- und GeForce Tesla), 9-Serie (nur GeForce Quadro- und GeForce Tesla), 100-Serie (nur GeForce Quadro- und GeForce Tesla), 200-Serie und 300-Serie. Streaming Multiprocessor ist seit Ende 2006 die grundlegende Architektur NVIDIAs, daran hat sich bis heute nicht viel geändert. Den Namen hier ein wenig frisiert und da, ansonsten nur Die-Shrink und neuer VRM, seit Fermi #1 SGRAM.

Und das tut Intel seit Einführung seiner Core-i-Serie von Ende des Jahres 2008 nicht anders. Die erste Generation basiert auf Nehalem und setzt sich in bis Sandy Bridge fort. Wobei die erste Generation nur aus Sicht der HEDT-Plattform von Imposanz ist, weil sie bereits auf das bis heute bekannte Schema von Intel setzt, nämlich die Einführung des Ring On-Chip Interconnect anbindet, ab Sandy Bridge erfolgt die Aufspaltung des Ring On-Chip Interconnect zu einer weiteren Subcore-Einheit, der System Agent, diese beiden Schnittstellen von dem QuickPath Interconnect oder dem Direct Media Interface gespeist werden, entweder durchgängig oder in sowohl als auch, der den Memory Controller Hub, dieser aber nur noch die I/O Memory Management Unit und die I/O Advanced Programmable Interrupt Controller beinhaltet, der Memory Controller ist namentlich als Integrated Memory Controller in die CPU gewandert. Bei der DT-Plattform kommt noch der Front-Side-Bus ähnliche Uncore Bus zum Einsatz, dieser den Graphics and Memory Controller Hub zur CPU anbindet, wenn keine Grafikeinheit auf der Hauptplatine vorkommt ist es der Memory Controller Hub, der DRAM hat noch einen DRAM-Bus. Die I/O Memory Management Unit ist auch hier im GMCH bzw. MCH verbaut und zuzüglich der Memory Controller. Diese beiden Plattformen haben lediglich den I/O Controller Hub gemeinsam, welcher allerdings bei der DT-Plattform als abgespeckter I/O Hub fungiert und somit die Funktion einer South Bridge übernimmt. Die bis heutig bekannte Neuerung erfolgte erst mit der Sandy-Bridge-Architektur, wie weiter oben in kurisv schon erwähnt. Diese ist bis heute fast identisch geblieben. Die einzige noch nicht erwähnte Neuerung ist der Platform Controller Hub, dieser gegenüber dem I/O Controller Hub souveräne Aufgaben zur Seite gestellt bekommen hat, darunter der I/O Advanced Programmable Interrupt Controller, die CPU ist intern um den Local Advanced Programmable Interrupt Controller erweitert worden. Anstelle dem GMCH bzw. MCH ist die namentliche PCI Host Bridge eingeführt worden. Nachdem nun die sämtlichen Aufgaben der GMCH bzw. MCH in die CPU gewandert sind, also IMC, MMU und LAPIC, fungiert die neue Einheit nur noch als Bridge/Switch, um den DRAM nativ an die CPU und den PCH anzubinden, Intels neue Strategie gegen AMDs Verfahren per HyperTransport Link. Was bis heute absolut gleichgeblieben ist, das ist die Kohärenz und Korrelation des QPI bzw. DMI mit dem DRAM, weil Intel weiterhin auf eine gemeinsame, oszillierende Schnittstelle setzt. Deswegen nimmt das Verändern des Referenztaktes Einfluss auf die gesamten Schnittstellen über den QPI hinaus, bis hin zum PCH und S-ATA, PCI-E und so weiter. Diese Auftrennung ist bis heute nicht erfolgt, jedoch hat Intel mit der Einführung von Skylake den System Agent weitgehend vom Ring On-Chip Interconnect entkoppelt, sodass das Taktsignal von PCI-E, was direkt von der CPU ausgehend gelengt, wird, USB betrifft es seit Coffee Lake auch, sich nicht mehr mit verändert und Intel hat daraufhin die Sperre nach oben hin aufheben lassen. Dieses Maßnahme hatte zur Konsequenz, dass nun plötzlich auch CPUs mit gesperrtem Multiplikator sich übertakten ließen wie eine frühere AMD-CPU mit gesperrten Multiplikator, nämlich per Referenztakt, aber dieser Maßnahme lenkte Intel bei den Mainboard-Herstellern mit einer Ausgrenzung für CPUs ohn den K- und X-Suffix ein. Will man heute noch bspw. ein Intel Core i5-6400 über seinen Referenztakt übertakten muss eine bestimmte Firmware des Mainboard-Hersteller her, diese die Hersteller inzwischen aussortiert haben. ASRock umwarb eine lange Zeit seine namentliche Hyper-BCLK-Engine. Diese Vorgehensweise hat jedoch zur Konsequenz, dass die CPU inhärente Power Control Unit deaktiviert wird. Damit sind der Delay-Locked Loop zur CPU internen Taktsignal-Steuerung fürs das Thermal-Throttling ebenso hinfäälig wie das Monitoring der Digital Thermal Sensors, wodurch die erzielte Temperatur nicht mehr nachvollzogen werden kann und das fehlende Thermal-Throttling bei erreichter, maximaler Temperatur nicht mehr drosselt und abriegelt, weil der dDLL von der PCU reguliert wird, ebenso wie die VID und die TDP-Regulierung. Wieder zum Kern der Thematik zurückkommend: Eine so richtige Entkopplung der Speicherschnittstelle von der Kommunikationsschnittelle wie man sie von AMDs seiner Baudrate "North Bridge Baseline" und seiner Burstrate "HyperTransport Link" kennt ist das allerdings keine. Diese Änderung betrifft zwar bloß den Bereich zwischen QPI und CPU, jedoch setzt in dort abgetrennten nach unten hin der Phase-Locked Loop an, dessen Oszillation in umgekehrter Richtung des QPI keinen Einfluss nimmt und der PCH verschont bleibt. Mittlerweile setzt AMD bei dem Control Fabric und dem Data Fabric ein ähnliches Verfahren um, diese jedoch auf der Entwicklung der CPU-Northbridge (CNB) und aus Steamroller stammt, diese heutig als der Infinity Fabric zu verstehen ist, ein Subcore, basierend auf System On-Chip Architecture. Ein System Platform Processor entfällt und wird ergänzt durch ebenso eine PCI Host Bridge, der Media and Communication Processor ist der Fusion Controller Hub in der inzwischen dritten Auflage, auch wenn die Revision auf 2.0 verweist. Steamroller ist sozusagen der Vorbote der neuen Zen-Architektur, zumindest abseits der CPU. AMD hat mit der Revision F2 den Data Fabric vom Control Fabric entkoppelt, zumindest die Kanäle aufgeteilt, elektrisch bleiben diese beiden Schnittstellen eine einheitliche Punkt-zu-Punkt-Verbindung.

Also man sieht schon, was sich in dem vergangenen Jahrzehnt getan hat, wohin die Reise gegangen ist. Für den Laien wirkt das alles nach Chinesisch, aber der Kenner wird schon erkannt haben, wie viel sich tatsächlich geändert hat, welche Vorteile den einszigen Nachteilen überwiegen.
 
Zurück