Ich hab mich schon öfter gefragt warum man nicht einfach die CPUs größer (Fläche) baut. Beispiel: x% mehr Fläche = x% mehr Leistung, oder geht das aus irgendwelchen Gründen nicht? Weiß das jemand?
Das macht aus diversen Gründen keinen Sinn:
a) Bei voll arbeitendem Silizium hat man mit einer gegebenen(m) Architektur/Prozess eine feste Abwärme (Verbrauch) pro Fläche, d. h. im besten Fall würde zwar die Leistung mit der Fläche skalieren aber ebenso auch die generierte Abwärme. (Und eine uneingeschränkte Skalierung der Leistung mit der Fläche ist zudem dennoch nicht möglich in den meisten Workloads.)
b) Es gibt ein hartes Größenlimit für die Fertigung einfacher Chips bei um die 840 mm2, was schlicht an der maximalen Belichtungsfläche der Lithographiescanner liegt. Noch größere Chips (am Stück, bspw. die Wafer-Scale-Engine als Gegenbeispiel) kann man nur mit speziellen, aufwändigen Tricks fertigen. Bei normalen Chips ist bei dieser Maximalfläche schluss, erst recht für den Massenmarkt, der weitaus kostensensitiver ist. Hinzu kommt, dass man freiwillig in dieser Größe schon nicht mehr fertigen will, weil Waferdefekte (softe wie harte) hier die Ausbeute zunehmend reduzieren. (Zudem wird sich die belichtbare Fläche mit den kommenden HighNA-Scannern zudem noch einmal halbieren in zwei, drei Jahren.)
c) Zudem ist auch die Frage welche Art von "Mehrleistung" man für einen bestimmten Markt benötigt und eine einfache "Großenskalierung", egal welcher Art, mag für bestimmte Workloads einfach keinen nennenswerte Zugewinn mehr bringen, d. h. pauschal mehr Silizium für noch mehr Leistung ist nicht immer die beste Lösung.
Bspw. der 5900X und 5950X i. V. z. 5800X sind hier ein gutes Beispiel. Letzterer stellt klar den SweetSpot im Gaming dar, während die beiden größeren und deutlich teueren Modelle bspw. im Gaming i. d. R. nur noch geringfügig mehr Leistung beizusteuern vermögen, was schlicht am Workload liegt, denn Game-Egnines können grundsätlzich nicht beliebig skalieren, bspw. so wie ein 3D-Rendering-Workload, der schon mit eines der Best Case Szenarien im Consumer-Bereich darstellt. Bereits das Videoencoding weist i. V. dazu schon deutliche Beschränkungen auf.
Entsprechend bringt es auch nichts pauschal auf einfach nur "mehr" Leistung aus zu sein, bspw. im Consumer-Markt. Man darf gespannt sein, wie die Halo-Produkte der nächsten 18 - 24 Monate aussehen werden. Von Raptor Lake wird schon gemunkelt, dass es einen 24-Kerner (8 P +16 E) geben soll und MLiD erklärte bereits, dass AMD zumindest im Labor einen 3-CCD-Zen4 evaluiert, wobei unklar ist, ob der jemals in den Markt kommen wird (
gegen Meteor Lake in 2023 aber nicht unmöglich und/oder vielleicht gar erforderlich?). Die Frage ist halt, ob man diese Mehrleistung noch nennenswert wirtschaftlich fertigen und verkaufen kann im Massenmarkt, denn die Workloads wachsen dort um mehrere Größenordnungen langsamer als im industriellen Umfeld. Für ein paar Marktzyklen wird das wohl noch funktionieren, aber an einer generellen Durchsatzsteigerung wird weiterhin kein Weg vorbeiführen, d. h. mehr Leistung bei gegebener Chipfläche/Transistorzahl. MLiD erwartet bei x86 in den kommenden 3 - 5 Jahren gemäß seiner Quellen durchaus noch beträchtliche Durchsatzsteigerungen im Bereich bis zu +100 % und bspw. SMT4 könnte ein Baustein auf dem Weg dorthin sein.
*) Anmerkung: Einen 24er-Raptor Lake-S kann Intel noch vergleichsweise sehr effizient fertigen im Gegensatz zu AMD mit einem dritten CCD, denn die zusätzlichen 8 Gracemont-Kernen benötigen in etwa nur so viel Platz wie zwei große P-Kerne und bieten dennoch ein gehöriges Leistungsplus. Dennoch wird man schon spezielle Workloads brauchen, um so viele Kerne sinnvoll auslasten zu können und die meisten Consumer haben diese eben nicht (und das absehbar noch auf mehrere Jahre hin nicht).
Jedes mal einen Euro, wenn Gelsinger Quatsch labert - das Konto würde platzen.
Denkbar, nur gilt die Aussage gleichermaßen für jeden CEO, der seine Firma bewerben und die Shareholder zufriedenstellen muss, so auch bspw. uneingeschränkt für Su und Jensen.
Unterm Strich würde ich jedoch nach dem bisherigen Informationsstand annehmen, dass weniger Analysten und Fachleute, jedoch dagegen sehr viele "Fans" in den einschlägigen Foren sich in 3 - 5 Jahren durchaus verwundert umsehen werden, wie sich der Markt entwickelt haben wird.
Je größer die Fläche, desto mehr Fehler können auftreten.
Und das kann man bei einer CPU natürlich nicht gebrauchen.
Grunsätzlich kann man das in keinem Chipdesign gebrauchen, nur vermeiden lässt es sich nicht und es gibt Chip- oder gar nur Funktionsgruppen, in denen man Fertigungsfehler besser kompensieren kann als in anderen. Am Ende ist das alles eine Frage der Wirtschaftlichkeit und die reine Fertigung des eigentlichen Siliziums stellt nur einen Teil der Kosten dar, denn die Entwicklung derart hochkomplexer Designs liegt mittlerweile im neunstelligen Bereich.
Meinst du mich, Gelsinger oder den geschätzten PCGH-Chefredakteur? (oder wer auch sonst für die Überschrift verantwortlich war) [...]
Nur Aufgegriffen zum News-Titel. Der ist voraussichtlich absichtlich derart provokant und angepasst an die hiesige Klientel formuliert worden.
Konkret geht P. Gelsinger in diesem Interview quasi gar nicht auf AMD ein und hier dreht sich das meiste um Fertigungs- und Packaging-Technologien sowie um Fabs, IDM 2.0 und IFS und Strategien, wie man diese Milliardeninvestitionen im einem dynamischen Markt, in dem zudem Entscheidungen und resultierende Auswirkungen Jahre auseinanderliegen, bestmöglich managen kann.