Man gewinnt den Eindruck, dass der Name "3D" hier nur deshalb verwendet wird, weil die AMD *3D Prozessoren ein solcher Erfolg sind.
Hier verkennst du vollkommen den Sachverhalt bzw. lebst vielleicht in einer Blase und meinst das Maß aller Dinge sei das, was du zu Kennen und Lieben gelernt hast.
a) Intel nutzte "3D" deutlich vor AMD. Der Pilot war hier der bereits Ende 2019 vorgestellte Lakefield, der 2020 in einige Produkte wanderte. AMD folgte erst deutlich später und hier kommt noch hinzu dass AMD lediglich Cache stacked, nicht mehr.
b) Das was Intel jetzt releasen wird, ist packaging-technisch weitaus fortschrittlicher *) als bspw. ein 7800X3D oder 7950X3D. Der Interconnect ist effizienter, es wird bei Bedarf Logik auf Logik gepackt und man vermeidet zudem das Throtteling wie beim derzeitigen AMD-Design, denn die temperaturkritischsten Komponenten sitzen auf dem obersten Layer mit direktem Kontakt zum Heat Spreader.
Zu letzterem konnte man bereits auch zum Adamantine-Cache lesen (
ob der nun ein reiner GPU-Booster oder gar ein universeller L4$ wird, bleibt noch abzuwarten **), dass der bspw. unten auf dem Layer des SoC-Tiles angesiedelt ist und somit bspw. nicht so sehr die Abwärmeverteilung behindert.
*) Absehbar fertigungstechnisch auch teuerer.
Nichtdestotrotz bleibt zu berücksichtigen, dass das Intels erstes volumenträchtiges Design ist (
im Consumer-Space, Ponte Vecchio setzte dagegen schon deutlich früher Maßstäbe) und es wird absehbar noch deuliches Potential für weitere Optimierungen geben mit Arrow Lake, Luna Lake und Panther Lake, wobei letzterer überraschenderweise schon in Intel 18A für 2025 angesetzt ist. Sowohl weiterentwickelte Versionen von EMIB und Foveros stehen vor der Tür und mit PowerVia alias BSPD hat Intel per se ein Novum, auf das TSMC bspw. erst in 2026 aufschließen wird. Zudem, möglicherweise schon in Panther Lake, werden mit Rentable Units die Intel-Kerne um ein sehr interessantes, potentes Feature erweitert und mögicherweise wird auch schon gar AVX 10.2 die Transformation zu deutlich gesteigerte AVX-Leistung mitbringen ... schlussendlich sehr gute Aussichten für/bei Intel und man darf gespannt sein, was AMD dem entgegenstellen wird, so zumindest auf der architektonischen Seite, denn fertigungs- und packaging-technisch werden die als TSMC-Kunde ab 2025+ erst mal ins Hintertreffen geraten. Aber das ist erst mal Zukunftsmusik, bspw. auf dem Desktop kann man derzeit beruhigt zu Zen4/AM5 greifen ...
**) Zudem scheint sich Intel den Adamantine-Cache für Arrow Lake und darüber hinaus aufzuheben, was auch sinnvoll erscheint, denn natürlich macht ein derart differenziertes Portfolio mehr Kosten und kompliziert dieses. Arrow Lake hat eine deutlich größere, leistungsfähigere GPU, was einen Cache hier weitaus sinnvoller als im Erstlingswerk MLT erscheinen lässt und zudem wird erst Arrow Lake auch auf den Desktop kommen als NextGen-Plattform, wobei hier abzuwarten bleibt, als was/wie der Cache konzipiert ist, denn bspw. als reiner GPU-Booster, könnte der nur in als APUs vorgesehen CPUs Sinn machen und würde in Verbindung mit einer dedizierten GPU ein nutzloses Dasein fristen. Dagegen als universeller L4$ könnte der auch auf dem Desktop in bestimmten Workloads einen deutlichen Mehrwert bieten und Intel experimentierte hier mit bis zu 512 MiB, wobei eine Größe von 128 bis bestenfalls 256 MiB wohl die wahrscheinlichere Wahl sein dürfte.
(
Völlig abgedreht und zumindest technisch denkbar mit dem Tile-basierten Design wäre eine Kombination mit HBM3. Bspw. SPR/EMR bieten bis zu 64 GiB HBM3 und man kann diese CPUs optional komplett ohne DIMMs betreiben. Eine günstige Variante auf Basis eines Consumer-Designs würde wohl jedweden erweiterten Cache und DDR5 überflüssig machen, weil man dann mal eben die sechs- bis zehnfache Speicherbandbreite direkt auf dem CPU-Package hätte ... aber da Intel keine Gaming-CPUs fertigt bzw. fertigen wird, wird derartige Technologie wohl auch weiterhin eher nur den Servern und Workstations vorbehalten bleiben )
Anm.: Gelsinger hat heute das, was bisher schon als "
Adamantine"-Cache durch die Gerüchteküche huschte, bestätigt, und ebenso, dass diese Technologie erst nach MTL kommen wird: "
When you reference V-Cache [in AMD products], you're talking about a very specific technology that TSMC does with some of its customers as well. Obviously, we're doing that differently in our composition, right? And that particular type of technology isn't something that's part of Meteor Lake, but in our roadmap, you're seeing the idea of 3D silicon where we'll have cache on one die, and we'll have CPU compute on the stacked die on top of it, and obviously using EMIB that Foveros we'll be able to compose different capabilities."
Die Idee, E-Cores auf dem SoC zu haben ist... nett. Aber wie viel bringt das wohl wirklich schlussendlich und werden durch das "Schlafenlegen" des Rests der CPU gewisse Starts verlangsamt? Ich denke, dass genau deshalb diese Idee eigentlich auch nur im Mobile Bereich was ausmachen wird, wo jedes Watt was bringen kann.
Die Idee ist gar weitaus mehr als nur "nett", sondern eigentlich gar ein no brainer, denn die E-Cores sind zwar effizienter, etwas derartiges könnte für bestimmte Workloads aber noch deutlich effizienter sein und genau in diese Kerbe schlagen die LP-E-Cores, die mit dem SoC-Tile in einer Vielzahl an Workloads die Energieeffizienz auf eine neue Stufe heben werden.
Und auch bei dem "nur im Mobile-Bereich" denkst du deutlich zu kurz, es sei denn du bist der Meinung, dass der Verbrauch auf dem Desktop keine Rolle spielen darf. Die gleichen Workloads kannst du sehrwohl auch auf einem Desktop antreffen und warum sollte die CPU dabei bspw. 18 W verheizen, wenn es stattdessen auch mit 8 W gehen würde. Am Ende ist es immer nur eine Frage wie man die Hardware von der Software-Seite aus optimal nutzt und eine generell uneingeschränkte Aussage wie "E-Cores machen auf einem Desktop keinen Sinn" ist ebenso generell und grundsätzlich falsch, denn auch hier gibt es entsprechende Workloads. Dass diverse User die Kiste vielleicht nur zum Zocken anwerfen mag durchaus sein, aber Intel fertigt keine spezifischen Gaming-CPUs und wenn man nur den Consumer-Markt allgemein betrachtet finden sich schon viele Light-Workloads, die immer mal wieder für eine gewisse Zeit laufen und an den arbeitstechnischen Bereich braucht man erst gar nicht zu denken, denn da findet man die zuhauf ... und ja, natürlich gibt es hier auch einen Server oder eine Workstation, die 24/7 bei Vollauslastung läuft, aber generell ist der Markt, über den wir hier reden, sehr, sehr breit gefächert bzgl. der Workloads ...
Zu berücksichtigen ist zudem, dass Hybrid-CPUs im x86 erst seit Ende 2021 existieren, also eine vergleichsweise kurze Zeitspanne, während bspw. Arm damit schon gut ein ganzes Jahrzehnt herumhantiert und zudem auch noch den deutlich größeren Druckpunkt für eine Verwendung und optimale Adaption hatte, da diese Geräte mit diesen CPUs typischerweise extrem verbrauchssensitiv waren und sind. Die Entwicklung auf dem PC wird ebenso voranschreiten sich weiter verbreiten, verbessern und irgendwann schlicht nicht mehr wegzudenken sein.
Btw., AMD baut seine E-Core-Variante jetzt schon in einige ihrer APUs ein *), das nur mal am Rande angemerkt. AMD hat hier zwar noch einen einfachen und R&D-günstigeren Weg gewählt und keine umfangreich neu entwickelte Kernarchitektur entwickelt, jedoch kann man davon ausgehen, dass AMD zu einem späteren Zeitpunkt die Designs ebenso weiter architektonisch differenzieren wird.
Genaugenommen hat Intel aber auch einen ähnlich effizienten Anzatz für sich gewählt, denn deren E-Cores wurde ebensowenig von Grund auf neu entwickelt sondern gingen aus der Atom-Entwicklung hervor. Auch hier war es nur natürlich eine bestehende Basis weiter zu optimieren und mit den LP-E-Cores geht man noch einen Schritt weiter, indem man die gleiche Architektur **) hier abweichend in einem deutlich effizienteren Prozess fertigt, der, ohne unnötige Kosten für ein weiter architektonisch optimiertes Design zu verpulvern, dennoch noch einmal mehr Effizienz für leichtgewichtige Workloads herauskitzelt.
*) Genaugenommen hast du jetzt schon bei den größeren Consumer-V-Cache-CPUs ein Hybrid-Design und brauchst, wie bei Intel, spezifische Scheduler-Anpassungen um die CPU sinnvoll zu nutzen, da die stacked Dies sich deutlich anders verhalten als ihre non-stacked Geschwister.
**) Meteor Lake nutzt die neue Crestmont-Architektur für die E-Cores, also im Compute Tile als auch im SoC-Tile, in letzterem wird jedoch ein mehr auf Effizienz ausgerichteter Prozess verwendet und das PDK entsprechend anders angewendet, sodass diese beiden LP-E-Cores ihre maximale Effizienz bei noch niedrigeren Lastzuständen haben, die es aber auch regelmäßig in Consumer-Produkten gibt.
Zudem zu beachten ist, dass bspw. die beiden LP-E-Cores, die Media Engine und die NPU/VPU alle auf dem SoC-Tile liegen ... das ist zweifellos kein Zufall, sondern da steckt absehbar weitreichende, vorausschauende Planung dahinter.
Bezüglich dem "Schlafenlegen" und Verzögerungen, auch hier hat Intel weitere Arbeit investiert und optimiert den Thread Director/das Hardware Guided Scheduling mit ML um die Kernsteuerung/-nutzung zu optimieren, was übrigens noch einmal relevante Power Savings bieten können soll. Einfach mal abwarten, aber am Ende ist der Hybrid-Zug gerade erst mal so langsam angefahren ...