Intel: Probleme mit 10-nm-Fertigung kosten laut Analyst viele Jahre und Marktanteile

Beispiel 2: Streiche x86-Kompatibilität von vor 40 Jahren und nutze eine moderne, viel effizientere Methode. IPC-Steigerungen von 1000+% wären die Folge... und, dass kein aktuelles programm oder Betriebssystem laufen würde bzw. man ALLES an Software anpassen müsste. Das machst du erst wenn sonst gar nichts mehr geht.

Hast du dafür Quellen? Mir fällt gerade die Vorstellung schwer, wie Kerne mit Daten versorgt werden können (Cache-System), die 10 Mal schneller sind.
 
Die vorläufige Zukunft liegt sicher in Multichipdesigns wie bei Ryzen. Wenn man ab 5nm nicht mehr weiterkommt, packt man eben mehrere Dies auf ein Package. Und wenn das auch nicht reicht, dann steht vielleicht eine Alternative wie Graphen zur Verfügung.

Ich bin mal gespannt, ob AMD seine Chance nutzen kann. Wenn Intel 2020 mit 10nm kommt, hat AMD ca. ein Jahr lang Zeit Boden gut zu machen. 2019 dürfte diesbzgl. jedenfalls recht interessant werden.
 
Nur weils nicht mehr über Verkleinerung geht bedeutet das nicht dass es nur über mehr Kerne geht (was auch begrenzt ist da du nicht beliebig viele Kerne setzen kannst wenn der Chip nicht mehr verkleinert werden kann). Mehr kerne ist nur die günstigste Weise gewesen um die Performance zu erhöhen, denn die anderen Möglichkeiten sind sehr unschön.
Beispiel 1: Materialien nutzen die mit Taktraten von Hunderten GHz laufen können. Gibts alles (Graphen beispielsweise - gibts seit 10 Jahren schon solche Transistoren), nur wäre der finanzielle Aufwand sowas zur Serienreife zu bringen extrem hoch.
Beispiel 2: Streiche x86-Kompatibilität von vor 40 Jahren und nutze eine moderne, viel effizientere Methode. IPC-Steigerungen von 1000+% wären die Folge... und, dass kein aktuelles programm oder Betriebssystem laufen würde bzw. man ALLES an Software anpassen müsste. Das machst du erst wenn sonst gar nichts mehr geht.

1000% halte ich für übertrieben. Wegfall der X86 Kompatibilität dürfte zwar eine deutliche Steigerung bringen, aber doch nicht in diesen Sphären. Wäre dem so hätte man längst den Schritt gemacht, da bei 1000% Plus X86 Programme ganz easy über eine Emulation auf "altem" Level lauffähig wären, und somit der Übergang ziemlich fließend stattfinden würde.
 
Die vorläufige Zukunft liegt sicher in Multichipdesigns wie bei Ryzen. Wenn man ab 5nm nicht mehr weiterkommt, packt man eben mehrere Dies auf ein Package. Und wenn das auch nicht reicht, dann steht vielleicht eine Alternative wie Graphen zur Verfügung.

Ich bin mal gespannt, ob AMD seine Chance nutzen kann. Wenn Intel 2020 mit 10nm kommt, hat AMD ca. ein Jahr lang Zeit Boden gut zu machen. 2019 dürfte diesbzgl. jedenfalls recht interessant werden.

Zeit, die AMD aber auch dringend benötigt, um Intel überhaupt nenneswerte Marktanteile abnehmen zu können. Es wird aber trotzdem nichts daran ändern, das Intel weiterhin mit riesigen Abstand weiterhin den CPU Markt dominieren wird.
Denn die Vergangenheit hat ja gezeigt, das selbst wenn AMD wie im Falle des Athlon/Athlon 64 das deutlich bessere Produkt hat (der Athlon/Athlon 64 war seinerzeit den Intel P4 deutlich überlegen), trotzdem Intel gekauft wird.
Genauso wie damals, als AMD mit den HD 5850/5870 die besseren Grafikkarten gegenüber den NV GTX 470/480 hatte, die ja bekanntlich mit aller Gewalt an das Limit geprügelt wurden, um leistungsmäßig hauchdünn vor den AMD GPUs zu landen, Nvidia trotzdem weit vor AMD gelegen hatte. Da müßte bezogen auf die CPUs und Intel auf der blauen Seite schon was extrem Außergewöhnliches geschehen, damit AMD bei den Marktanteilen zu Intel aufschließen oder gar gleichziehen kann.

Das intel jetzt aufgrund der Probleme mit der 10nm Fertigung Marktanteile einbüßt, kann doch den Verbraucher nur recht sein. Das ist eben die Quittung dafür, das Intel aufgrund des enormen Vorsprungs der Meinung war, nur noch das Allernötigste zu tun. Und jetzt, wo AMD wider Erwarten geliefert hat, steht man etwas bedröppelt da. Aber egal. Mit Intel trifft es wahrlich keinen Armen.
 
Hast du dafür Quellen? Mir fällt gerade die Vorstellung schwer, wie Kerne mit Daten versorgt werden können (Cache-System), die 10 Mal schneller sind.

Wenn man sich anguckt wie ein Programm arbeitet und wie eine CPU arbeitet bezweifele ich stark das es eine IPC Steigerung von 1000% möglich ist. Ganz besonders aber bezweifel ich ein IPC Steigerung um 1000% bei gleichbleibender Chipfläche.
Es werden mehr oder weniger Komplexe Befehle mit Daten an die CPU übergeben, in noch mehr kleinere Befehle zerlegt, diese in eine effiziente Reihenfolge gebracht, die Befehle ausgeführt und der Wert zurückgegeben. Und das macht nicht nur x86 so sondern im Grunde alle. Klar kann man die IPC steigern in dem man mehr kleinere Befehle gleichzeit ausführt, aber das kostet Chipfläche. Auch kann man für bestimmte Probleme dann spezialisierte Einheiten einsetzten die da dann besonders schnell sind wie z.B die Gleitkommaeinheit (FPU) und auch das kostet Fläche auf dem Chip.

Mit einem größeren CPU Kern kann man die IPC steigern, aber auch der Verbraucht steigt an und die Herstellungskosten. Dazu Intel Apollo Lake vs Skylake beide in 14nm Verbrauch/Fläche pro Kern/Kosten/Leistung vergleichen.

Wie sollte man den bei Gleicher Prozessgröße und Chipfläche denn 11 mal mehr Befehle abarbeiten in der gleichen Zeit? Und damit meine ich jetzt so schön bundgemischte Befehle wie jetzt auch? Es gibt Architekturen die in bestimmten Bereichen eine vielfach höhere Performance erreichen als x86, aber eben nur in ihrem Gebiet. Man ließt so oft die und die Architektur ist 20mal schneller als Intel "x86 ist kackeeeeeeeeee". Und dann lässt man die mal bei anderen Benchmarks antreten und schmiert voll ab :D

Das tolle an x86 ist unter anderem das es zwar in nichts von Natur aus besonders gut ist aber auch so gut wie nirgendwo richtig schlecht und das es sich einfach um weiter Funktionen erweitern lässt ohne Rückkompatiblität zu verlieren.

Wenn jemand den Heiligen Gral des Chipdesigns gefunden hätte oder eine richtig heftige Design Idee dann wäre die schon von Intel verwurstet worden. Genau wie sie die Vorteile der später aufkommenden RISC CPUs der etwa gleich großen und komplexen Befehle zur Optimierung des Designs übernommen haben, was ich ja schon oben beschrieben. x86 als eigentliches CISC Design verhält sich intern wie ein RISC - clever Intel :D

Ein weiteres starkes Indiz dafür das es noch keine vielfach überlegende Technik gefunden wurde ist ja das es durchaus Alternativen zu x86 gibt die auf jede Kompatibilität verzichten und trotzdem nicht überall 11 mal schneller sind siehe ARM,PowerPC ...
Es gäbe einen großen Markt für ein Design für das zwar alles neuprogrammiert werden müsste aber 11 mal mehr IPC erziehlt , vielleicht nicht im PC aber in der Industrie ganz sicher


Indem der Cache halt auch deutlich schneller ist.
Guck mal wie viel Platz jetzt schon der Cache auf einem Chip einnimmt?
Ich meine der wird nicht ohne Grund in L1, L2 und L3 untertrennt? Wäre doch viel praktischer einen riesigen L1 zu machen? Aber warum sind da die Entwickler noch nicht selbst drauf gekommen?
Könnte viellleich daran liegen das der super viel Platz und Energie brauch?

Für uns geht es immer IPC und so aber man muss auch die erzielte IPC im Verhältnis zur benötigten Chipfläche sehen!
 
Zuletzt bearbeitet:
Genauso wie damals, als AMD mit den HD 5850/5870 die besseren Grafikkarten gegenüber den NV GTX 470/480 hatte, die ja bekanntlich mit aller Gewalt an das Limit geprügelt wurden, um leistungsmäßig hauchdünn vor den AMD GPUs zu landen, Nvidia trotzdem weit vor AMD gelegen hatte.

Die GTX 480 war zwischen 20 und 40% schneller, als die HD 5870 und hatte 50% mehr RAM, als das die normale HD 5870. Der entscheidende Punkt war, dass sie 9 Monate zu spät erschien, was damals eine Ewigkeit war. Außerdem gab es damals, von seiten der AMD Fanboys, einen ordentlichen Shitstrom, was lustig ist, da man sich seit der HD 7970 nichtmehr erinnern will, dass Effizienz alles ist. Dennoch hatte AMD kurzzeitig fast 80% Marktanteil, wovon sie heute leider nur noch träumen können.
 
Nur weils nicht mehr über Verkleinerung geht bedeutet das nicht dass es nur über mehr Kerne geht (was auch begrenzt ist da du nicht beliebig viele Kerne setzen kannst wenn der Chip nicht mehr verkleinert werden kann). Mehr kerne ist nur die günstigste Weise gewesen um die Performance zu erhöhen, denn die anderen Möglichkeiten sind sehr unschön.
Beispiel 1: Materialien nutzen die mit Taktraten von Hunderten GHz laufen können. Gibts alles (Graphen beispielsweise - gibts seit 10 Jahren schon solche Transistoren), nur wäre der finanzielle Aufwand sowas zur Serienreife zu bringen extrem hoch.
Beispiel 2: Streiche x86-Kompatibilität von vor 40 Jahren und nutze eine moderne, viel effizientere Methode. IPC-Steigerungen von 1000+% wären die Folge... und, dass kein aktuelles programm oder Betriebssystem laufen würde bzw. man ALLES an Software anpassen müsste. Das machst du erst wenn sonst gar nichts mehr geht.

Irgendwann wird man in den ein oder anderen sauren Apfel beißen müssen, weil es eben nicht mehr anders geht.
Ich bin z.B. sehr gespannt wohin das RISC 5 Projekt noch geht. Da wird ja auch auf ettliche Instruktionen verzichtet, so dass RISC 5 afaik auf 60 Instruktionen kommt. Im Vergleich dazu haben moderne CISC-Architekturen wie Intel's Core oder AMD's Zen mehr als 1500 Instruktionen. Und davon ist vieles, wie du schon angeschnitten hast, alter Ballast um Rückwärtskompabilität zu gewährleisten. Wenn das so kommt, dass künftig diese Altlasten wegfallen, wird sich eben die Software anpassen müssen. Aber ich sehe darin eigentlich weniger das Problem, da man im schlimmsten Fall eben neue Software programmieren muss. Wobei Linux ja mit RISC 5 läuft.
Neue Materialien werden natürlich auch irgendwann Einzug halten. Z.B. kommen CNTs bald in Form von NRAM auf den Markt (Arbeitsspeicher: NRAM-Technologie geht in die Serienfertigung - ComputerBase). Immerhin ein Anfang.
Erst mal wird man noch mit EUV weiter die Strukturen verkleinern, eben so weit bis es nicht mehr geht. Wobei das bedeutet, bis weitere Shrinks nicht mehr rentabel sind.
 
Irgendwann wird man in den ein oder anderen sauren Apfel beißen müssen, weil es eben nicht mehr anders geht.
Ich bin z.B. sehr gespannt wohin das RISC 5 Projekt noch geht. Da wird ja auch auf ettliche Instruktionen verzichtet, so dass RISC 5 afaik auf 60 Instruktionen kommt. Im Vergleich dazu haben moderne CISC-Architekturen wie Intel's Core oder AMD's Zen mehr als 1500 Instruktionen. Und davon ist vieles, wie du schon angeschnitten hast, alter Ballast um Rückwärtskompabilität zu gewährleisten. Wenn das so kommt, dass künftig diese Altlasten wegfallen, wird sich eben die Software anpassen müssen. Aber ich sehe darin eigentlich weniger das Problem, da man im schlimmsten Fall eben neue Software programmieren muss. Wobei Linux ja mit RISC 5 läuft.
Neue Materialien werden natürlich auch irgendwann Einzug halten. Z.B. kommen CNTs bald in Form von NRAM auf den Markt (Arbeitsspeicher: NRAM-Technologie geht in die Serienfertigung - ComputerBase). Immerhin ein Anfang.
Erst mal wird man noch mit EUV weiter die Strukturen verkleinern, eben so weit bis es nicht mehr geht. Wobei das bedeutet, bis weitere Shrinks nicht mehr rentabel sind.

ja aber fällt da wirklich so viel weg? Man kann irgendwelche veralteten Befehlssätze aus den neuen x86 Cpus streichen und auch die dazugehörenden diskreten Ausführungseinheiten.
Aber der Witz bei x86 ist doch das wie schon gesagt die über 1000 CISC Befehle vom Decoder zu einer Kombination mehrer RISC Befehle übersetzt werden und die Ausführungseinheiten intern RISC Befehle wie bei RISC V durchführen.
Gleichzeitig ist aber Softwareentwicklung durch viele verschiede CISC Befehle einfacher da man schon voroptimierte Muster verwenden kann anstatt selbst die beste Kombination aus den RISC Befehlen zusammen zubauen. Und gerade Software wird ja wohl nicht mehr besonders liebevoll entwickelt?

Wer von den Coder hier hat in letzter Zeit im Assembler seinen Code angeguckt und Dinge noch von Hand optimiert? :D

Und wo wir schon dabei sind ist z.B. auch wenn oft angeführt ein ARM Design wie in unseren Smartphones kein RISC Design mehr, da der Befehlssatz gewachsen ist und auch Befehle unterschiedlicher länge besitzt
 
Zuletzt bearbeitet:
Für uns geht es immer IPC und so aber man muss auch die erzielte IPC im Verhältnis zur benötigten Chipfläche sehen!

Genau das ist doch das Problem. Man hat immer Größenordnungen von einer CPU im Kopf wie groß eine Chipfläche ungefähr sein muss.
Wenn man so fährt wie bei Ryzen können Chips zusammengekoppelt riesig und dabei nicht komplett überteuert werden.
Die Zeiten und Verhältnisse ändern sich nunmal. Dann ist der Cache halt größer. Was solls. Eine CPU muss ja nicht immer ungefähr so groß sein wie bisher.
Neue Kühllösungen entwickeln und schon kann es so groß werden wie ein doppelter Threadripper etc.
 
Zeit, die AMD aber auch dringend benötigt, um Intel überhaupt nenneswerte Marktanteile abnehmen zu können. Es wird aber trotzdem nichts daran ändern, das Intel weiterhin mit riesigen Abstand weiterhin den CPU Markt dominieren wird.
Denn die Vergangenheit hat ja gezeigt, das selbst wenn AMD wie im Falle des Athlon/Athlon 64 das deutlich bessere Produkt hat (der Athlon/Athlon 64 war seinerzeit den Intel P4 deutlich überlegen), trotzdem Intel gekauft wird.
Genauso wie damals, als AMD mit den HD 5850/5870 die besseren Grafikkarten gegenüber den NV GTX 470/480 hatte, die ja bekanntlich mit aller Gewalt an das Limit geprügelt wurden, um leistungsmäßig hauchdünn vor den AMD GPUs zu landen, Nvidia trotzdem weit vor AMD gelegen hatte. Da müßte bezogen auf die CPUs und Intel auf der blauen Seite schon was extrem Außergewöhnliches geschehen, damit AMD bei den Marktanteilen zu Intel aufschließen oder gar gleichziehen kann.

Das intel jetzt aufgrund der Probleme mit der 10nm Fertigung Marktanteile einbüßt, kann doch den Verbraucher nur recht sein. Das ist eben die Quittung dafür, das Intel aufgrund des enormen Vorsprungs der Meinung war, nur noch das Allernötigste zu tun. Und jetzt, wo AMD wider Erwarten geliefert hat, steht man etwas bedröppelt da. Aber egal. Mit Intel trifft es wahrlich keinen Armen.

Die Kunden im professionellen Bereich sind es ja eigentlich, die Geld einbringen. Da würden mich mal Zahlen interessieren. Man liest ja auch hier öfter, dass Unternehmen bei Intel bleiben. Und das obwohl Epyc und Threadripper von der Leistung mindestens ebenbürtig sind. Der enorme Preisvorteil scheint da nicht Grund genug für einen Wechsel zu sein.
 
Die Kunden im professionellen Bereich sind es ja eigentlich, die Geld einbringen. Da würden mich mal Zahlen interessieren. Man liest ja auch hier öfter, dass Unternehmen bei Intel bleiben. Und das obwohl Epyc und Threadripper von der Leistung mindestens ebenbürtig sind. Der enorme Preisvorteil scheint da nicht Grund genug für einen Wechsel zu sein.

Der Mensch ist ein Gewohnheitstier.
 
Wollt Ihr mir jetzt weismachen, dass dieser Riesenkonzern sich völlig überrumpeln lässt von einem Konkurrenten, welcher früher mal im Auftrag eben dieses Konzernes CPUs für selbigen gefertigt hat?
Ich kann mir wirklich nicht vorstellen, dass Intel keine Fallback-Lösung im Bereich Entwicklung hat(te). Es ist für mich wirklich schwer nachvollziehbar, wie ein so mächtiges Unternehmen sich von einer neuen CPU-Generation so derart unterkriegen lässt. Probleme im eigenen 10nm-Prozess? Na dann mal ran an die Eier, Intel!
AMD hat mit Bulldozer einen mindestens ebenso harten Fehlgriff ins Klo gelandet, nur ist AMD um kA. wie viel <<KLEINER>> als Intel! Wie kann so etwas sein?
Ich versteh's nicht! :huh:
 
Große Konzerne sind teilweise sehr schwerfällig, von den einzelnen Instanzen, dazu kann es durchaus sein, dass sich wichtige Abteilungen nicht grün sind!

Lisa Su hat AMD neu aufgestellt und eine schlagkräftige Truppe formiert, die momentan an einem Strang ziehen, bei Intel und seiner Größe ist das wesentlich schwieriger!
Ich hoffe ja noch das Jim Keller entnervt aufgibt!
Dann gehe mit einer Kiste Champagner feiern!
Ich wünsche Intel alles erdenklich Schlechte!
 
Wollt Ihr mir jetzt weismachen, dass dieser Riesenkonzern sich völlig überrumpeln lässt von einem Konkurrenten, welcher früher mal im Auftrag eben dieses Konzernes CPUs für selbigen gefertigt hat?
Ich kann mir wirklich nicht vorstellen, dass Intel keine Fallback-Lösung im Bereich Entwicklung hat(te). Es ist für mich wirklich schwer nachvollziehbar, wie ein so mächtiges Unternehmen sich von einer neuen CPU-Generation so derart unterkriegen lässt. Probleme im eigenen 10nm-Prozess? Na dann mal ran an die Eier, Intel!
AMD hat mit Bulldozer einen mindestens ebenso harten Fehlgriff ins Klo gelandet, nur ist AMD um kA. wie viel <<KLEINER>> als Intel! Wie kann so etwas sein?
Ich versteh's nicht! :huh:

Intel hatte halt auch in letzter Zeit neben kein Glück auch noch zusätzlich Pech, dass Ryzen nicht nur an Core I xxxx herankommt sondern die Architektur auch noch Stellenweise blöd aussehen lässt hat bei Intel vermutlich niemand erwartet. Bei ihrem nächsten Tick (oder Tock?) läuft es offenbar auch nicht wie gewünscht. Im Moment haben sie eine Recht alte Architektur die sich gegen Ryzen (immerhin deutlich Jünger) zwar noch ganz gut schlägt allerdings auch schlicht zu teuer ist. Entweder kann oder will Intel nicht an der Preisschraube drehen. Die 1. große Frage ist halt ob Ryzen 2 die Skylakes endgültig deklassiert Preislich und Leistungsmäßig, die 2. ist wie lange 10nm noch dauert was es mehr kann und kostet. Bankrott gehen die sicher nicht die Aktien würde ich gerade auch nicht halten wollen aber gerne bald günstiger kaufen.
 
Ich gehe davon aus: Bis Intel mit einer, von der Pieke auf, neu entwickelten Architektur um die Ecke kommt hat ARM längst den Desktop erobert.
Traurig, dass Intel mittlerweile auf den Dieselgate-Schmäh zurückgreift. Intel rips up microcode security fix license that banned benchmarking • The Register

Die ARM Designs werden aber auch kaum weiterentwickelt, da tut sich nur in der Oberklasse etwas. Das meiste Leistungplus kommt nur durch die Shrinks, also mehr Takt. Aber ja ARM kann langfristig X86 ablösen, zumindenst im Desktop Office Bereich könnte ich mir das in naher Zukunft vorstellen.
 
Die Strukturverkleinerung bei CPUs habe ich bisher als Abfallprodukt der Militärtechnik angesehen,weil exakt die selben Strukturgrössen zuerst bei militärisch verwendeten Bolometer Chips zu finden sind und dann mit einigen zeitlichen Abstand man diese in der CPU Fertigung wiederfindet.
Wenns nicht so wäre ist es ein riesengrosser Zufall über viele Jahre.
Anders als im Bolometerbereich (Anwendervorteil,Auflösung) liegt der Vorteil der Strukturverkleinerung eher bei der Gewinnmarge der CPU Produzenten .

Wenn Intel den 10nm Prozess nicht kann,dann sollen die das einfach sein lassen.In meinem Gehäuse habe ich Platz genug und bin darauf nicht angewiesen.
 
Zuletzt bearbeitet:
Wenns nicht so wäre ist es ein riesengrosser Zufall über viele Jahre..

Oder verschiedene Bereiche, die die gleiche Forschung betreiben und völlig unzufällig unabhängig voneinander auf Basis der gleichen Ausgangsdaten zu den gleichen als optimal anzusehenden Ergebnissen kommen. :schief:

Da schreibt keiner voneinander ab und das eine basiert auch nicht auf dem anderen. Es kommen nur viele unabhängige Forschungsgruppen die die gleiche technische und theoretische Ausgangsbasis haben kurioserweise zu den gleichen Schlussfolgerungen. TSMC hat auch nicht bei Intel spioniert oder andersherum, trotzdem sind die (realen) Struktuerbreiten von Intel-10nm und TSMC-7nm quasi gleich.
 
Zurück