News Intel-Chef mit Kampfansage an AMD: Moore's Law soll übertroffen werden

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel-Chef mit Kampfansage an AMD: Moore's Law soll übertroffen werden

Bei der Alder-Lake-Vorstellung sprach Intel-Chef Pat Gelsinger auch über die Ziele für die kommenden zehn Jahre. Demnach soll das bekannte Moore's Law aufrechterhalten und sogar übertroffen werden - damit setzt man AMD unter Druck.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel-Chef mit Kampfansage an AMD: Moore's Law soll übertroffen werden
 
Ein Klassiker, der mir immer in den Sinn kommt, wenn jemand von Intel etwas über Moore's Law sag:

Nichts desto trotz freue ich mich natürlich darüber, dass Intel unter Gelsinger anscheinend in die Vollen gehen wird. Sicherlich wird die nächsten Jahre zumindest weniger Potential am Wegesrand liegenbleiben als bislang...
 
Ist der Koduri-Wahnsinn übertragbar?
Halli Galli aber auch.
Kaum schafft man nach 10 Jahren endlich mal eine zweistellige IPC Verbesserung, schon will man quasi die Physik brechen können und nicht länger einhaltbare "Regeln" sogar auf den Kopf stellen können?
Dabei wurde uns die letzten 10 Jahre ständig vorgejammert, dass die Fertigung vollständig ausgereizt sei und man ab ca. 5nm nur noch kleine Brötchen backen könnte und andere Freigungsmethoden erforscht werden müssten, um überhaupt noch weiter shrinken zu können.
Bla bla blub.
Entweder oder.
Ein Unternehmen, was gerade 5 Jahre desaströse Entwicklung beim Thema Fertigung hinter sich hat oder zu lassen scheint, sollte den Mund bloß nicht zu voll nehmen, das kann ganz schnell nach hinten los gehen.
Erst liefern, dann lobpreisen!
 
Kaum schafft man nach 10 Jahren endlich mal eine zweistellige IPC Verbesserung, schon will man quasi die Physik brechen können und nicht länger einhaltbare "Regeln" sogar auf den Kopf stellen können?
Tatsächlich hat AMD auch nach Summit Ridge ähnlich offensive Aussagen gebracht --- die bezogen sich natürlich auf Architektur und IPC, aber immerhin.

Generell gab es jenseits von Intel in den letzten Jahren auch keine große Stagnation. Allerdings war gerade der 10nm-Prozess einer, der schon nicht gerade mit bescheidenen Vorstellungen ins Rennen ging und dann im Verlauf einen immer größeren Sprung darstellen sollte. Von daher sind deine Warnungen womöglich nicht unangebracht.
 
Hat man da AMD mit TSMC verwechselt?
Meinst du mich, Gelsinger oder den geschätzten PCGH-Chefredakteur? (oder wer auch sonst für die Überschrift verantwortlich war)
Falls mich: Natürlich nicht, steht doch da:
die bezogen sich natürlich auf Architektur und IPC, aber immerhin.
Oder war dir das nicht glasklar genug und ich hätte noch einmal einen "und nicht auf die Fertigungstechnologie"-Nebensatz einbauen sollen?
 
Ich hab mich schon öfter gefragt warum man nicht einfach die CPUs größer (Fläche) baut. Beispiel: x% mehr Fläche = x% mehr Leistung, oder geht das aus irgendwelchen Gründen nicht? Weiß das jemand?
 
Ich hab mich schon öfter gefragt warum man nicht einfach die CPUs größer (Fläche) baut. Beispiel: x% mehr Fläche = x% mehr Leistung, oder geht das aus irgendwelchen Gründen nicht? Weiß das jemand?
Mehr fläche und mehr Leistung bedeutet auch mehr Abwärme. Dann bräuchte mann zusätzlich einen größeren Kühler , neues Mainboard das die cpu mit 500w versorgen kann. + neues Netztteil mit 1500W. +4kW Luftkühler weil sonst das Zimmer zur Sauna wird. :P
 
Ich hab mich schon öfter gefragt warum man nicht einfach die CPUs größer (Fläche) baut. Beispiel: x% mehr Fläche = x% mehr Leistung, oder geht das aus irgendwelchen Gründen nicht? Weiß das jemand?
Fertigung ist das Problem, bei größeren Chips treten auch eher Defekte Bereiche (Transistoren) auf. Die Bereiche kannst du dann wieder nur ausgleichen, wenn du solche Sachen direkt mit zusätzlichen Sachen kompensierst.
Des Weiteren steigt der Strombedarf wesentlich mehr an, je größer der Chip ist (ist ja auch mehr drin, was Strom in Wärme verwandelt).

Des Wegen gibt es auch oft Prozessoren oder Grafikkarten die keinen Vollausbau haben, sondern wo es der selbe Chip ist mit Teildeaktivierungen oder niedrigerer Takt. Sind in der Regel irgendwelche Defekte.
Bei der Fertigung tritt das vorallem da auf, je weiter du dich beim Wafer auf den Rand hin zu bewegst.
Des Wegen ist auch seit Jahren die Wafergröße gleich geblieben, weil es extrem viel teuerer ist die Wafer mit mehr Platz zu fertigen und dabei die gleiche Güte zu erreichen.

Aus diesem Grund geht man auch immer mehr dazu über, dass man lieber viele kleine Chips baut und diese dann zusammenschaltet.

AMD scheint den Gerüchten zufolge dies ja jetzt auch bei der nächsten Grafikkartengeneration zu starten.
 
EUV Lithografie, RibbonFET, Power VIA, Foveros Packaging, Chiplets, 2/2,5/3D Stacking, also ein paar Möglichkeiten "Moore's Law" weiterhin zu erfüllen oder sogar zu übertreffen gibt es schon noch.

Was die ganzen Hater hier wieder wollen, soll der neue CEO etwa sagen "joah, mal schauen, keine Ahnung wie es weitergeht"? Lisa Su und Jensen Huang benutzen auf ihren Keynotes übrigens genau dieselben Wörter...
 
Ich hab mich schon öfter gefragt warum man nicht einfach die CPUs größer (Fläche) baut. Beispiel: x% mehr Fläche = x% mehr Leistung, oder geht das aus irgendwelchen Gründen nicht? Weiß das jemand?
Das macht aus diversen Gründen keinen Sinn:
a) Bei voll arbeitendem Silizium hat man mit einer gegebenen(m) Architektur/Prozess eine feste Abwärme (Verbrauch) pro Fläche, d. h. im besten Fall würde zwar die Leistung mit der Fläche skalieren aber ebenso auch die generierte Abwärme. (Und eine uneingeschränkte Skalierung der Leistung mit der Fläche ist zudem dennoch nicht möglich in den meisten Workloads.)
b) Es gibt ein hartes Größenlimit für die Fertigung einfacher Chips bei um die 840 mm2, was schlicht an der maximalen Belichtungsfläche der Lithographiescanner liegt. Noch größere Chips (am Stück, bspw. die Wafer-Scale-Engine als Gegenbeispiel) kann man nur mit speziellen, aufwändigen Tricks fertigen. Bei normalen Chips ist bei dieser Maximalfläche schluss, erst recht für den Massenmarkt, der weitaus kostensensitiver ist. Hinzu kommt, dass man freiwillig in dieser Größe schon nicht mehr fertigen will, weil Waferdefekte (softe wie harte) hier die Ausbeute zunehmend reduzieren. (Zudem wird sich die belichtbare Fläche mit den kommenden HighNA-Scannern zudem noch einmal halbieren in zwei, drei Jahren.)
c) Zudem ist auch die Frage welche Art von "Mehrleistung" man für einen bestimmten Markt benötigt und eine einfache "Großenskalierung", egal welcher Art, mag für bestimmte Workloads einfach keinen nennenswerte Zugewinn mehr bringen, d. h. pauschal mehr Silizium für noch mehr Leistung ist nicht immer die beste Lösung.

Bspw. der 5900X und 5950X i. V. z. 5800X sind hier ein gutes Beispiel. Letzterer stellt klar den SweetSpot im Gaming dar, während die beiden größeren und deutlich teueren Modelle bspw. im Gaming i. d. R. nur noch geringfügig mehr Leistung beizusteuern vermögen, was schlicht am Workload liegt, denn Game-Egnines können grundsätlzich nicht beliebig skalieren, bspw. so wie ein 3D-Rendering-Workload, der schon mit eines der Best Case Szenarien im Consumer-Bereich darstellt. Bereits das Videoencoding weist i. V. dazu schon deutliche Beschränkungen auf.
Entsprechend bringt es auch nichts pauschal auf einfach nur "mehr" Leistung aus zu sein, bspw. im Consumer-Markt. Man darf gespannt sein, wie die Halo-Produkte der nächsten 18 - 24 Monate aussehen werden. Von Raptor Lake wird schon gemunkelt, dass es einen 24-Kerner (8 P +16 E) geben soll und MLiD erklärte bereits, dass AMD zumindest im Labor einen 3-CCD-Zen4 evaluiert, wobei unklar ist, ob der jemals in den Markt kommen wird (gegen Meteor Lake in 2023 aber nicht unmöglich und/oder vielleicht gar erforderlich?). Die Frage ist halt, ob man diese Mehrleistung noch nennenswert wirtschaftlich fertigen und verkaufen kann im Massenmarkt, denn die Workloads wachsen dort um mehrere Größenordnungen langsamer als im industriellen Umfeld. Für ein paar Marktzyklen wird das wohl noch funktionieren, aber an einer generellen Durchsatzsteigerung wird weiterhin kein Weg vorbeiführen, d. h. mehr Leistung bei gegebener Chipfläche/Transistorzahl. MLiD erwartet bei x86 in den kommenden 3 - 5 Jahren gemäß seiner Quellen durchaus noch beträchtliche Durchsatzsteigerungen im Bereich bis zu +100 % und bspw. SMT4 könnte ein Baustein auf dem Weg dorthin sein.

*) Anmerkung: Einen 24er-Raptor Lake-S kann Intel noch vergleichsweise sehr effizient fertigen im Gegensatz zu AMD mit einem dritten CCD, denn die zusätzlichen 8 Gracemont-Kernen benötigen in etwa nur so viel Platz wie zwei große P-Kerne und bieten dennoch ein gehöriges Leistungsplus. Dennoch wird man schon spezielle Workloads brauchen, um so viele Kerne sinnvoll auslasten zu können und die meisten Consumer haben diese eben nicht (und das absehbar noch auf mehrere Jahre hin nicht).

Jedes mal einen Euro, wenn Gelsinger Quatsch labert - das Konto würde platzen.
Denkbar, nur gilt die Aussage gleichermaßen für jeden CEO, der seine Firma bewerben und die Shareholder zufriedenstellen muss, so auch bspw. uneingeschränkt für Su und Jensen.

Unterm Strich würde ich jedoch nach dem bisherigen Informationsstand annehmen, dass weniger Analysten und Fachleute, jedoch dagegen sehr viele "Fans" in den einschlägigen Foren sich in 3 - 5 Jahren durchaus verwundert umsehen werden, wie sich der Markt entwickelt haben wird.

Je größer die Fläche, desto mehr Fehler können auftreten.
Und das kann man bei einer CPU natürlich nicht gebrauchen.
Grunsätzlich kann man das in keinem Chipdesign gebrauchen, nur vermeiden lässt es sich nicht und es gibt Chip- oder gar nur Funktionsgruppen, in denen man Fertigungsfehler besser kompensieren kann als in anderen. Am Ende ist das alles eine Frage der Wirtschaftlichkeit und die reine Fertigung des eigentlichen Siliziums stellt nur einen Teil der Kosten dar, denn die Entwicklung derart hochkomplexer Designs liegt mittlerweile im neunstelligen Bereich.

Meinst du mich, Gelsinger oder den geschätzten PCGH-Chefredakteur? (oder wer auch sonst für die Überschrift verantwortlich war) [...]
Nur Aufgegriffen zum News-Titel. Der ist voraussichtlich absichtlich derart provokant und angepasst an die hiesige Klientel formuliert worden. ;-)
Konkret geht P. Gelsinger in diesem Interview quasi gar nicht auf AMD ein und hier dreht sich das meiste um Fertigungs- und Packaging-Technologien sowie um Fabs, IDM 2.0 und IFS und Strategien, wie man diese Milliardeninvestitionen im einem dynamischen Markt, in dem zudem Entscheidungen und resultierende Auswirkungen Jahre auseinanderliegen, bestmöglich managen kann.
 
Zuletzt bearbeitet:
ja Leutz, was soll er auch anders sagen. meist ist es jedoch so, wenn einer mit ner Kampfansage kommt, weis er, das er eigentlich der looser ist.
Ist wie beim Fußball, man macht ne Kampfansage, aber am ende weis man sowieso, das war nur geblubber, da man weis, die Bayern werden so oder so Meister.
So ist das hier auch.
 
Was die ganzen Hater hier wieder wollen,
Es ist ja nicht das erste mal, daß Gelsinger nicht das sagt, was er meint.

Manchmal versteht er auch einfach die Anforderungen/Aussagen seines Gegenüber nicht:
Intel-Chef Pat Gelsinger bracht es kürzlich beim Besuch auf der Automesse IAA in München auf den Punkt: "Ich baue ihnen so viele Intel-16-Nanometer-Chips wie sie wollen", sagte er. Konzipiert sind die Fahrzeuge allerdings mit Komponenten, die auf Architekturen von 45 bis 90 Nanometer basieren. Stand der Technik war dies aus Sicht der Chipbranche vor mehr als einem Jahrzehnt.

Man baut keine alten Werke

Es sei weder ökonomisch noch strategisch sinnvoll, in neue "alte" Fertigungslinien zu investieren, um der Autobranche mehr von ihren betagten Chips liefern zu können, führte der Intel-Chef weiter aus. Aus seiner Sicht wäre es hilfreicher, die Investitionen zu nutzen, um die Fahrzeug-Designs auf modernere Komponenten umzustellen.

Ganz so einfach ist das allerdings nicht. Denn es ist nur eine Seite der Geschichte, dass die Autobranche natürlich auch deshalb auf die alten Chips setzt, weil diese sehr billig zu haben sind. Auf der anderen Seite sind diese Komponenten aber auch umfassend erprobt und es ist unwahrscheinlich, dass noch gravierende, bisher unbekannte Fehler entdeckt werden. Dies ist für Chips, die in sicherheitskritischen Systemen von Autos zum Einsatz kommen, eine wichtige Voraussetzung.

Gelsinger hat nicht begriffen, das man in der Automobilbranche bei einem Crash Menschenleben riskiert im Gegensatz zum Spiele-PC.
Da tauscht man nicht ausfallsichere 90nm-Chips gegen neue, ungetestete 10nm-Chips.

Aber wenn die Gedanken ungefiltert durchs Bewußtsein direkt zum Plappermäulchen gelangen, kommt so etwas raus.
 
WOW WOW, Intel ist je recht vollmundig unterwegs. Haben sie jetzt einen Weg gefunden wie sie die Physik aushebeln können, bin gespannt was da kommt aber erwarte nicht ansatzweise das was er versprochen hat.
 
Zurück