News Panther Lake: Intel möchte Speichercontroller und Compute-Die zusammenlegen, um die Latenz zu verringen

PCGH-Redaktion

Kommentar-System
Teammitglied
Es gibt neue Gerüchte zur 2025er-Generation von Intel-CPUs. Bei den unter dem Codenamen Panther Lake zusammengefassten Mobile-CPUs könnten Speichercontroller und Compute-Die zusammengelegt werden.

Was sagt die PCGH-X-Community zu Panther Lake: Intel möchte Speichercontroller und Compute-Die zusammenlegen, um die Latenz zu verringen

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Die Latenzen sind derzeit Intels Hauptproblem würde ich sagen, von daher adressiert man zumindest aus meiner Sicht die korrekte Stelle. Sowohl Meteor Lake als auch Arrow Lake haben da Ihren Pferdefuß.
 
Ich befürchte, dass dieser Schritt weniger bringt als Intel sich erhofft und das wiederum sieht für mich eher nach Strohhalm aus denn nach Plan.
 
Das ist einfach nur die Korrektur einer grundlegenden Fehlentwicklung - auf die falsche Art und Weise natürlich.

Intel hat mit MTL und ARL nicht vollständig umgesetzt, was der Sinn einer chipletbasierten Architektur ist, nämlich Ausbeute (yield), Nodeoptimierung und Mehrfachverwendung. Intel ist bei Ausbeute + Node stehen geblieben. Das bringt zwar bessere yields und optimalere Nodes für einzelne Komponenten, es bringt aber eben auch den Nachteil bei den Latenzen. Ohne ihre Tiles über verschiedene Produkte hinweg zu teilen, so wie AMD das macht, können sie aber auch gleich hingehen und den I/O Bereich wieder im Compute-Tile ansiedeln - denkt zumindest Intel sich.

Das hilft dann natürlich bei den Latenzen, aber wirtschaftlich ist das wieder mal nicht. Da wären sie sogar noch besser beraten, wieder komplett monolithisch zu arbeiten, weil auch der Plan mit "wir tauschen dann einfach einzelne Tiles wie die GPU aus" hat ja nicht funktioniert, weil die neue GPU-Tile nicht rechtzeitig fertig wurde.
 
Ich befürchte, dass dieser Schritt weniger bringt als Intel sich erhofft und das wiederum sieht für mich eher nach Strohhalm aus denn nach Plan.
Ja
Wobei es hier weniger um Tempo geht, als um Effizienz: Panther Lake ist eine Mobil-GPU, Nachfolger von Lunar Lake.
Wenn hier "Datenleitungen" und Kommunikation eingespart wird, bringt das wenig Tempo aber in dem Bereich viel Effizienz.
Wie auch immer Intel das auf Dauer angehen möchte. Am schnellsten und Effizientesten wär sowieso ein Monolith und nicht eine CPU die zwischen ihren gefühlt 100 Tiles Daten hin-und verschiebt. So technisch spannend das auch klingt, dass Intel aktuell 5 (?) Tiles verwendet für Arrow, man sieht, dass der monolithische, ausgelutschte Vorgänger teils schneller ist und auch der Effizienzsprung weniger groß ausfällt als gewünscht.
Es wär sogar richtig spannend wie ein reiner 8 oder 16 Kerne Monolith (in 18A) Performer würde, aber sehen werden wir das nicht so schnell, wenn überhaupt: mit dem MCM/Tile Ansatz gewinnt man halt viel Flexibilität hinzu: man nimmt aus dem Baukasten was Grad fertig ist und muss nicht mehrere Entwicklungen bis zum Schluss aufeinander abstimmen und testen.
weil auch der Plan mit "wir tauschen dann einfach einzelne Tiles wie die GPU aus" hat ja nicht funktioniert, weil die neue GPU-Tile nicht rechtzeitig fertig wurde.
Welcher GPU Tile sollte das denn sein, Battlemage ist längst fertig, Celestial geht gerade in Testproduktion bzw. dürfte es in den Laboren schon Chips geben weil schon Linux Code zum Texten existiert

Aber ja, genau das wär halt das Problem beim Monolithen: wenn dann ein Teil auch verzögern sollte, verzögert sich alles, weshalb man da immer auf ältere Hardware setzt und bei Tiles könnte man theoretisch immer das jeweils aktuellste, fertige einsetzen (muss aber auf nix warten).
Das Problem mit den Latenzen bleibt bestehen, egal welcher Ansatz. Am Papier liest sich nämlich EMIB/Foveros deutlich überlegen, in der Praxis offenbar nicht
 
Zuletzt bearbeitet:
Das ist einfach nur die Korrektur einer grundlegenden Fehlentwicklung - auf die falsche Art und Weise natürlich.

Intel hat mit MTL und ARL nicht vollständig umgesetzt, was der Sinn einer chipletbasierten Architektur ist, nämlich Ausbeute (yield), Nodeoptimierung und Mehrfachverwendung. Intel ist bei Ausbeute + Node stehen geblieben. Das bringt zwar bessere yields und optimalere Nodes für einzelne Komponenten, es bringt aber eben auch den Nachteil bei den Latenzen. Ohne ihre Tiles über verschiedene Produkte hinweg zu teilen, so wie AMD das macht, können sie aber auch gleich hingehen und den I/O Bereich wieder im Compute-Tile ansiedeln - denkt zumindest Intel sich.

Das hilft dann natürlich bei den Latenzen, aber wirtschaftlich ist das wieder mal nicht. Da wären sie sogar noch besser beraten, wieder komplett monolithisch zu arbeiten, weil auch der Plan mit "wir tauschen dann einfach einzelne Tiles wie die GPU aus" hat ja nicht funktioniert, weil die neue GPU-Tile nicht rechtzeitig fertig wurde.

Mehrfachverwendung rentiert sich nur bis zu einer gewissen Stückzahl. Als AMD kurz vor der Pleite stand und um jedes Prozent Marktanteil kämpfen musste (ohne sich eines Sieges sicher sein zu können), waren Chiplets der einzige Weg, um Mindeststückzahlen garantieren zu können. Aber mittlerweile produziert AMD sogar mehr verschiedene Chips um die gleichen Marktbereiche zu bedienen, die Intels letztes (nahezu) Tile-freies Line-Up adressierte. Intel wiederum hatte dieses Mindeststückzahlen-Dilemma nie. Die haben zeitweilig für den Desktop-Bereich, den AMD mit immer exakt einem Zeppelin in unterschiedlichem Deaktivierungsgrad bediente, drei verschiedene Coffee-Lake-Chips gefertigt und zum Beispiel SPR-XCC besteht aus zwei verschiedenen Tiles, die aber exakt die gleichen Funktionseinheiten enthalten. Die Grundüberlegung ist ganz einfach: Wenn man für die nötigen Stückzahlen sowieso zwei Produktionslinien parallel betreiben muss, dann kann man diese auch leicht unterschiedliche Varianten fertigen lassen, wenn das technische oder produktpolitische Vorteile bringt. Das Design solcher Abwandlungen ist innerhalb eines Baukastens wenig mehr als Copy & Paste.

Die GPU-Tile gleichzeitig mit dem CPU-Tile zu wechseln wäre übrigens ein klarer Widerspruch zu der von dir angestrebten Flexibilität; die Erwartungen eines ARL-R mit genau dieser Änderung zumindest in Mobile dagegen wäre eine Bestätigung. ;-)

Ja
Wobei es hier weniger um Tempo geht, als um Effizienz: Panther Lake ist eine Mobil-GPU, Nachfolger von Lunar Lake.
Wenn hier "Datenleitungen" und Kommunikation eingespart wird, bringt das wenig Tempo aber in dem Bereich viel Effizienz.

Nicht zu vergessen auch: Als mutmaßliches Mobile-only-Design wird PTL vermutlich nur wenige Kerne haben, also klein ausfallen, und für alle Chipteile eine möglichst effiziente Fertigung nutzen wollen. Damit verlieren auch die Tile-Vorteile "Yield" und "billigere Nodes" an Bedeutung.

Ich hätte trotzdem eher erwartet/gehofft, dass Intel endlich Adamantine rausholte und dann vielleicht noch etwas Lakefield eingekreuzt: IMC nicht zurück in den Compute-Tile, sondern I/O zusammen mit einem L4 oder [zusätzlichem] L3 in den Base-Tile.
 
Ich hätte trotzdem eher erwartet/gehofft, dass Intel endlich Adamantine rausholte und dann vielleicht noch etwas Lakefield eingekreuzt: IMC nicht zurück in den Compute-Tile, sondern I/O zusammen mit einem L4 oder [zusätzlichem] L3 in den Base-Tile.
Wenn Intel tatsächlich bei den Spielerherzen landen möchte hätten sie mehrere Möglichkeiten. Adamantine oder eben tatsächlich einen 8 bzw. 16 Kern Monolithen in 18A. Vielleicht kommt das dann ja, wenn genug High-NA Scanner da sind und der Prozess gereift ist.

18A wird am Beginn wohl wahrscheinlich auch deshalb nur in kleinen Chips und geringen Taktraten eingesetzt, weil man eben noch lernt und erst spätere Designs (Nova Lake) mehr Takt rausschlagen
 
In Anbetracht von Intels Foundry-Track-Record halte ich mich mit Spekulationen über so lange Zeiträume zurück.
14 nm erst mit einem Jahr Verspätung für Desktop und Server brauchbar.
10 nm ("Intel 7") erst mit zwei Jahren Verspätung für mobile, mit dreien für Server, mit vieren für Desktop brauchbar.
7 nm ("Intel 4"/"Intel 3") erst mit einem Jahr Verspätung für Nischen-mobile, mit zweien für Server, nie für Desktop oder in der mobile-Breite brauchbar.
Erste Generation 5 nm ("20A"/"18A") komplett unbrauchbar, mobile-Markteinführung dadurch um mindestens ein Jahr, in der Breite vermutlich um zwei Jahre verspätet, Desktop-Einsatz nach aktuellen Erwartungen um mindestens zwei Jahre.

Und das ist noch die Intel-freundliche Interpretation ohne Annahme von Umbenennungen im Rahmen von "5N4Y" und mit Verspätungsrechnungen ausgehend von den Ankündigungen im Rahmen der jeweiligen Vorgänger. Wenn man davon ausgeht, dass die Zeile eigentlich schon beim Vor-Vorgänger gesteckt werden und das der ursprünglich erwartete "Lunar Lake in Intel 3" eigentlich ein Full-Node gegenüber Intel 4 bringen sollte und danach noch zwei weitere (full) Nodes bis Sommer kommenden Jahres folgen sollten, dann kommt man spielend zu Verzögerungen von über einem halben Jahrzehnt.
 
Mehrfachverwendung rentiert sich nur bis zu einer gewissen Stückzahl.

Entschuldigung, aber das macht absolut keinen Sinn. Es gibt mit Sicherheit keinen ökonomischen Deckel, ab dem sich eine Gleichteilestrategie aus Stückzahlgründen auf einmal nicht mehr lohnt. Gleichteilestrategien sind ja auch keine Erfindung der Halbleiterindustrie. Jedes Unternehmen in produzierenden Gewerben versucht, Gleichteile zu verwenden, wo es das Produkt eben hergibt.

Wo eine Gleichteilestrategie ihr Ende findet, sind grob gesagt drei Fälle:

- Ich kann das gewünschte Produkt damit nicht darstellen: Am Beispiel AMD Epyc haben daher Bergamo/Turin Dense andere Compute Chiplets als Genoa/Turin Classic, weil nur so das gewünschte Produkt (Extreme High Core Count CPU mit Fokus auf Cloud Native / TelCo / Edge) darstellbar ist. Ein Gleichteil findet trotzdem Anwendung: Der I/O-Die ist gleich.

- Die gewünschte Qualität kann nicht gewährleistet werden. Das versteht sich glaube ich von selbst.

- Das gewünschte Gleichteil erreicht eine zu niedrige Stückzahl, um wirtschaftlich genug zu sein, damit man eventuelle Nachteile in Kauf nimmt, oder die Nachteile sind zu groß. Das wäre z.B. der Grund, warum AMD bis auf wenige Ausnahmen (z.Zt. nur Dragon Range/Fire Range) im Mobile-Bereich monilithisch geblieben ist. Die Nachteile wären einfach zu groß, die Stückzahlen für eine Anpassung zu klein.

Als AMD kurz vor der Pleite stand und um jedes Prozent Marktanteil kämpfen musste (ohne sich eines Sieges sicher sein zu können), waren Chiplets der einzige Weg, um Mindeststückzahlen garantieren zu können. Aber mittlerweile produziert AMD sogar mehr verschiedene Chips um die gleichen Marktbereiche zu bedienen, die Intels letztes (nahezu) Tile-freies Line-Up adressierte.

AMD produziert im Vergleich zur Zen 2/Zen 3 Generation genau ein Chiplet mehr für Zen 4/Zen 5 Ryzen + Epyc: Die 16-Core Dense-Variante für Zen 4c/Zen 5c. Daneben stehen die Classic Compute Chiplets mit 8 Kernen, sowie ein Ryzen- und ein Epyc-I/O-Die. Das sind 4 Chiplets (OK, 5 mit dem SRAM-Chiplet für vCache-Modelle) für wieviele verschiedene Produkte? Soviele Chiplets verwendet Intel gerade für ARL alleine, ohne ein einziges davon in einem anderen Produkt zu verwenden.

Man kann ja gerne immer wieder darauf verweisen, dass AMD vor Ryzen/Epyc fast pleite war, yadda yadda - aber irgendwie sind sie es im Moment wohl doch eher nicht? Ob das vielleicht auch ein Stück an einem sehr effizienten Produktdesign liegen mag?

Intel wiederum hatte dieses Mindeststückzahlen-Dilemma nie. Die haben zeitweilig für den Desktop-Bereich, den AMD mit immer exakt einem Zeppelin in unterschiedlichem Deaktivierungsgrad bediente, drei verschiedene Coffee-Lake-Chips gefertigt und zum Beispiel SPR-XCC besteht aus zwei verschiedenen Tiles, die aber exakt die gleichen Funktionseinheiten enthalten. Die Grundüberlegung ist ganz einfach: Wenn man für die nötigen Stückzahlen sowieso zwei Produktionslinien parallel betreiben muss, dann kann man diese auch leicht unterschiedliche Varianten fertigen lassen, wenn das technische oder produktpolitische Vorteile bringt. Das Design solcher Abwandlungen ist innerhalb eines Baukastens wenig mehr als Copy & Paste.

Und wo genau ist Intel damit z.Zt. gelandet?

Und so einfach "copy/paste" scheint die ganze Geschichte ja doch nicht zu sein, wenn ich mir die Probleme bei der Weiterentwicklung von Alder Lake zu Raptor Lake anschaue. Oder Lunar Lake mit Xe2-GPU und 48TOPS NPU, Arrow Lake aber ohne?

Die GPU-Tile gleichzeitig mit dem CPU-Tile zu wechseln wäre übrigens ein klarer Widerspruch zu der von dir angestrebten Flexibilität; die Erwartungen eines ARL-R mit genau dieser Änderung zumindest in Mobile dagegen wäre eine Bestätigung. ;-)

Nein, die Flexibilität, die ich anspreche bedeutet, dass wenn ich schon auf Chiplets setze, die einzelnen, möglichst wenigen Chiplets auch in möglichst vielen Produkten gleichzeitig zum Einsatz kommen sollten. Das ist bei MTL/LL/ARL nicht der Fall. Hier stehen einzelne Tiles nebeneinander, ohne das ein Produkt sich sinnvoll mit anderen Produkten ergänzt. Das muss alles einzeln validiert werden, einzeln aufeinander abgestimmt werden und bietet damit nicht im Ansatz den Vorteil, den ich aus einer Disaggregation der Bauteile ziehen möchte, dafür aber alle Nachteile, wie man an MTL/ARL sehr schön sehen kann. MTL war bzw. ist unter anderem durch die Latenzen dermaßen gehemmt, dass Intel den Launch der S-Variante gleich ganz einstampfen musste, sich mit RLR völlig blamiert hat und erst mit ARL sein LGA1851 Produkt präsentieren kann, trotz TSMC N3B mit den bekannten Ergebnissen. Das ist genau das Gegenteil von dem, was eine erfolgreiche Chiplet-Strategie bringen soll.

Nicht zu vergessen auch: Als mutmaßliches Mobile-only-Design wird PTL vermutlich nur wenige Kerne haben, also klein ausfallen, und für alle Chipteile eine möglichst effiziente Fertigung nutzen wollen. Damit verlieren auch die Tile-Vorteile "Yield" und "billigere Nodes" an Bedeutung.

Auch das geht wieder völlig am Thema Chiplet vorbei. Erstens wollen selbstverständlich Desktop wie Mobile für den Logik-Teil eine möglichst effiziente Fertigung verwenden. Das ist doch gerade das einzige, für das ARL derzeit überhaupt gelobt wird - dass es nicht mehr auf Teufel komm raus Strom durchjagt. Für den I/O Bereich (oder z.B. auch den SRAM für vCache) nehmen AMD und Intel aber nicht nur aus Kostengründen einen alten Node aus der 7nm-Klasse, sondern weil die Node-Shrinks zu 5/3nm für diese Zwecke einfach keinen Vorteil bieten. Sie sind nicht besser, sie sind nicht sparsamer, sie sind nicht einmal sonderlich dichter, sie wären einfach nur teurer. Den I/O Bereich für Strix Point monolithisch in 4nm zu fertigen macht für AMD nur deshalb Sinn, weil die zusätzlichen Latenzen bei einem disaggregierten Design es einfach nicht wert sind.

Ich hätte trotzdem eher erwartet/gehofft, dass Intel endlich Adamantine rausholte und dann vielleicht noch etwas Lakefield eingekreuzt: IMC nicht zurück in den Compute-Tile, sondern I/O zusammen mit einem L4 oder [zusätzlichem] L3 in den Base-Tile.

Ich würde nicht damit rechnen, dass Intel z.Zt. das Geld investiert, um so ein Design umzusetzen. Träumen darf man, keine Frage, aber das sehe ich so einfach nicht.
 
Entschuldigung, aber das macht absolut keinen Sinn. Es gibt mit Sicherheit keinen ökonomischen Deckel, ab dem sich eine Gleichteilestrategie aus Stückzahlgründen auf einmal nicht mehr lohnt. Gleichteilestrategien sind ja auch keine Erfindung der Halbleiterindustrie. Jedes Unternehmen in produzierenden Gewerben versucht, Gleichteile zu verwenden, wo es das Produkt eben hergibt.

Wo eine Gleichteilestrategie ihr Ende findet, sind grob gesagt drei Fälle:

Nein. Es gibt, wie dargestellt, noch einen vierten Fall:
- Zusätzliche Stückzahlen des Gleichteils müssen mit dem gleichen Aufwand wie ein zusätzliches Un-Gleichteil gefertigt/transportiert/etc. werden, ohne in Relation zu diesen Gesamtkosten nennenswert Entwicklung einzusparen.

Außerhalb der IT mit ihren absurden Stückzahlen findest du den z.B. auch in der Autoindustrie: Befestigungsmaterialien und Kabelage werden individuell an den Bedarf angepasst und liegen teils in mehreren Dutzend Ausführungen vor – pro Fahrzeugmodell. Es wäre zwar einfacher, für jede Verbindung die gleiche Schraube und für jede Ausstattungsvariante den gleichen Kabelbaum zu verwenden. Es würde aber keinen einzigen Cent laufende Kosten einsparen, weil die größere Anzahl an Gleichteil-Schrauben und Gleichteil-Kabelbäumen nicht einfach auf der gleichen Maschine oder vom gleichen Mitarbeiter nebenbei produziert werden können, sondern weil man dafür so oder so eine zweite, parallele Produktion einrichten muss. Diese dann eine abgewandelte Variante produzieren zu lassen und so Optimierungspotenzial mitzunehmen, verursacht quasi keine Mehrkosten, ermöglicht aber umgekehrt Einsparungen im Rahmen der Optimierungen.

AMD produziert im Vergleich zur Zen 2/Zen 3 Generation genau ein Chiplet mehr für Zen 4/Zen 5 Ryzen + Epyc: Die 16-Core Dense-Variante für Zen 4c/Zen 5c. Daneben stehen die Classic Compute Chiplets mit 8 Kernen, sowie ein Ryzen- und ein Epyc-I/O-Die. Das sind 4 Chiplets (OK, 5 mit dem SRAM-Chiplet für vCache-Modelle) für wieviele verschiedene Produkte? Soviele Chiplets verwendet Intel gerade für ARL alleine, ohne ein einziges davon in einem anderen Produkt zu verwenden.

ARL zählst du als "letztes (nahezu) Tile-freies" Line-Up von Intel? Sehr interessante Sichtweise.
Ich bezog mich auf die 2023er Generation. Da sind die Entsprechungen zu AMDs 2024er Runde (die sich bei der Zahl der Chips nicht von den Vorgängern unterscheidet)
- einmal RPL
- SPR-HCC
- SPR-XCC

Macht dreimal Intel-Silizium gegen vier-/fünfmal AMD-Silizium. Wenn man es darauf anlegt, kann man SPR-XCC eben als zwei Chips zählen, weil er halt nicht monolithisch ist – ein besser geeignetes Beispiel für monolithische Designphilosophien gab es halt nicht. Ich persönlich habe ihn als Einzeldesign gezählt, weil seine Bestandteile eben funktional identisch sind, nirgends anders verwendet werden und beim SPR-Nachfolger ist es auch nur noch ein Design. Zusätzlich habe ich die beiden kleineren Ausbaustufen von RPL und ADL mitgezählt, sowie die beiden "Hawk Point"-/Phoenix-Formate und Strix Point, die AMD im Einsteiger-Desktop respektive mobile dagegen. Macht in der Summe sechs Intel "kein Tiling" Chips gegen sieben AMD "Chiplets für alles" Chips. (Achtmal AMD, wenn man den V-Cache mitzählt. Aber der adressiert überwiegend Marktpositionen, für die Intel gar nichts hat.)

Nein, die Flexibilität, die ich anspreche bedeutet, dass wenn ich schon auf Chiplets setze, die einzelnen, möglichst wenigen Chiplets auch in möglichst vielen Produkten gleichzeitig zum Einsatz kommen sollten.

Also zum Beispiel auch das ursprünglich für MTL entwickelte IGP-Tile für ARL?

Das ist bei MTL/LL/ARL nicht der Fall. Hier stehen einzelne Tiles nebeneinander, ohne das ein Produkt sich sinnvoll mit anderen Produkten ergänzt.

Siehe oben: Meinem Wissen nach nutzt ARL-S das MTL-U-Graphics Tile. Vom Mobile-SoC-Tile wird das gleiche angenommen, dazu liegen mir als Desktop-Mainboard-Redakteur aber vor der Markteinführung nur wenig Informationen vor. LNL ist tatsächlich eine eigenständige Entwicklung (für einen Marktbereich – so klein er auch sein mag – den AMD gar nicht bedient; erst recht nicht mit Chiplets), aber bei allem anderen ist sehr viel Copy & Paste dabei, obwohl MTL von einer vollen Generation auf ein einzelnes Design zusammengestrichen wurde und bei ARL auch wenig von den ursprünglichen Kombinationen verschiedener CPU- und Graphic-Tiles übriggeblieben zu sein scheint.

MTL war bzw. ist unter anderem durch die Latenzen dermaßen gehemmt, dass Intel den Launch der S-Variante gleich ganz einstampfen musste, sich mit RLR völlig blamiert hat und erst mit ARL sein LGA1851 Produkt präsentieren kann, trotz TSMC N3B mit den bekannten Ergebnissen. Das ist genau das Gegenteil von dem, was eine erfolgreiche Chiplet-Strategie bringen soll.

MTL wird in Intel 4 gefertigt und dessen Untauglichkeit für hohe Taktraten gilt allgemein als Ursache für den Verzicht auf größere Ausbaustufen. Man hat ja nicht nur die 125-W-TDP-Desktopchip gestrichen, sondern auch die Notebooks >45 W weiter mit Raptor Lake bedient, obwohl man den Stromschlucker eigentlich echt nicht in mobilen Geräten haben will, nicht einmal in den übergroßen Schleppables. Aber CPUs mit der Single-Core-Leistung von MTL halt noch weniger.

Sie sind nicht besser, sie sind nicht sparsamer, sie sind nicht einmal sonderlich dichter, sie wären einfach nur teurer

Du vergleichst Äpfelkisten mit Birnengriepschen. Strix Point wird monolithisch gefertigt, obwohl der Fokus auf der IGP liegt, die weder sonderlich latenzempfindlich ist noch zwingend mit den CPU-Kernen auf einem Chip liegen muss (vergl. Strix Halo). Aber obwohl der Standard-Zen-4-CCD ähnliche Leistung wie die Kernmischung von Strix Point erbringt, hat sich AMD in der 45-W-Klasse noch gegen dessen Einsatz entschieden, weil der Mehrverbrauch für mobile Geräte einfach ein Problem wäre. Wenn du ins Chiplet-Horn stoßen willst, musst du über Dragon Ridge reden – und über dessen Idle-Verbrauch.

LNL geht aber genau in die Gegenrichtung: Der hat, im Gegensatz zu den genannten AMD-Chips, schlicht keine Standard-DDR5-PHYs, die sich innerhalb der Standard-DDR5-Specs nicht schrumpfen oder sparsamer machen lassen würden. Der hat auch kaum PCI-E-Lanes mit dem gleichen Problem und der sitzt in Geräten, bei deren typischen Nutzung 0,5 W Einsparpotenzial an der dahinter liegenden Controller-Logik nicht "ein Witz", sondern "20+ Prozent Verbesserung im typischen Betrieb" sind. Und genau deswegen wurde bei LNL der IMC auch auf den 5-nm-Compute-Tile gepackt, obwohl der Chip insgesamt sowieso nicht mit Performance punktet und obwohl eine Verlagerung in den 10-nm-"PCH"-Tile sowohl die Fertigung für diesen Abschnitt billiger gemacht hätte, als auch die Größenverhältnisse und damit Yield-Raten der beiden CPU-Tile optimiert hätte.
 
Zurück