AMD hat in den letzten 10 Jahren konsequent ihre Technologien entwickelt. APUs in Massenproduktion für den Konsolenmarkt, HBM Speicherintegration, Anzahl der Transistoren auf einem einzelnen Chip, Modularisierung fast aller Bestandteile um diese auf einem Die zusammenfassen zu können nach Lego-Prinzip (CPU Chiplet, I/O Chiplet, HBM RAM und GPU). CPU wurde auch überarbeitet aber nicht auf Kosten dieser Technologien, die allesamt Intel etwas abgehen zur Zeit. Lieber dauert der Umstieg von Bulldozer auf Ryzen länger, aber man hat gleich die Modularisierung mit drin und kann 14nm und 7nm Chiplets kombinieren.
Intel hat sich immer auf die "Pro-Kern" Leistung berufen und nach neuen Tricks gefahndet, dass in einem Benchmark ein altes Zweikern Spiel auf einem Vierkern mit Hyperthreading besonders gut aussieht, weil die Kerne extrem asymmetrisch Takten können. Intel hatte da viel alten Wein in neuen Schläuchen, ohne Innovation. Man wird sagen können, dass Intel mindestens 10 Jahre eine Technologie ausgeliefert hat bei der es keine nennenswerten Innovationen gab. Gleichzeitig darf man nicht vergessen welche gewaltigen Rechenzentrums Kapazitäten die letzten 10 Jahre mit sich gebracht haben und dass eigentlich nur Intel diesen Markt bedienen konnte in der geforderten Stückzahl. Auch hier sieht man den Effekt wenn ein Produkt reißenden Absatz findet, der Hersteller muss gar keine Innovationen bringen. Ein wenig kleiner, ein wenig effizienter und fertig. Es stellt sich ja nicht die Frage ob Facebook Google und Co. die alten CPUs mit den 20% schnelleren neuen dieses Jahr ersetzen, die expandieren eh immer weiter und kaufen einfach so mehr Kapazität. Office, Gaming und Laptops waren da ja fast schon Abfallprodukte. Ein Problem, das man erneut bei AMD und Nvidia sieht, wenn die teuren Karten abgespeckte High End Compute Karten sind, deren Rechenwerke nur bedingt Gamingtauglich sind.
Im Moment passiert nicht viel. AMD und Nvidia haben ein paar Grafikkarten und AMD und Intel haben beide genug Overkill CPUs am Start, so dass man in keinen Bottleneck laufen wird. Da ist wirklich keine Eile geboten 10nm Chips zu bringen, wozu auch? 20% weniger CPU Last pro Spiel? 30% statt 36% Auslastung? Ist doch witzlos. Die nächste echte Schlacht wird geschlagen sofern Google mit Stadia Erfolg hat und das Projekt in Sachen Stückzahl extrem Skalieren muss. Dann wird Google die Ausschreibung machen, nach einem Hersteller der ein gutes 250-300W Gesamtpackage aus CPU, GPU und RAM hat, das man 100 Millionen Mal in hoher Packungsdichte in Rechenzentren stellt (die wohl allesamt besser in der Nähe von Atomkraftwerken stehen). Im Prinzip eine Radeon VII mit CPU auch noch drauf wenn man so will und das in endlosen IT Schränken nebeneinander verbaut.
Da tastet sich Intel schon ran und wenn man dafür eine AMD GPU in ein Intel Package mit reinpackt, dann ist das halt so. Man muss wieder alle Technologien die im Trend sind beherrschen, nicht nur die mit der man maximal absahnt. Daher auch der neuerliche Fokus auf Grafikkarten, die ja weit mehr machen als nur die Grafik zu berechnen. Es ist lange her, dass mal ein Typ von Berechnung aufkam der dann nicht auf der Grafikkarte gelandet wäre. Lichtberechnung? Graka! Blockchain? Graka! Künstliche Intelligenz? Graka! Strömungsverhalten? Graka! Statik? Graka! Video Codierung? Graka. Es ist lange her, dass die CPU mal einen Erfolg für sich verbuchen konnte mit einer Berechnung, ohne dass eine Grafikkarte sich dieser angenommen hätte.
Grakas sind zu Frankensteins ASIC chips geworden, ohne dass die CPU etwas davon abbekommen hätte. AMD hat das wohl als erstes realisiert und Intel hat jetzt seine Phase in der keine Eile geboten ist.