News Core Ultra 300 ("Panther Lake"): Intel streicht On-Die-Speicher

Der Prozess ist nur nominell besser
What?
Definition bitte, was bedeutet für dich in diesem Kontext "nominell"?

Wenn ich das interpretiere lande ich gedanklich bei der Aussage, Intel kann nix dafür, N3 ist auf dem Papier zwar besser, aber in der Realität nicht.


Sieht man ja an ARL: der kann - etwas Handtuning (siehe CB) betrieben durchaus effizienter sein als Zen 5 CPUs.
Hab ich ja auch geschrieben, nur was bringt mir eine CPU mit 70% Maximalleistung der Konkurenz?


Prozess und Architektur sind also nicht optimal aufeinander abgestimmt bei ARL
Sehe da aber die Architektur in der Verantwortung, was aber eben gerne vergessen wird, die Probleme hat AMD ja auch, wie man eben an den Effizienzkurven der c Kerne sieht.




Man siehe sich nur die Scores des M4 an, dahin wird die Reise mit AMD und Intel früher oder später auch hingehen.
Hab ich ja auch schon was zu geschrieben, der M4 ist natürlich ein beeindruckendes Stück Silizium, aber eben sehr flächig, der normale liegt wohl um die 320mm², für die Hälfte der Leistung der Konkurenz.
 
Das wäre nicht nur besser, das ist praktisch Mindestvoraussetzung für Intel.
Nachdem der 20A schon nicht vernünftig lief und man ihn überspringt bzw. bei TSMC einkauft muss 18A jetzt abliefern. Rein technisch gesehen sollte 18A deutlich besser als TSMC-3 sein (RibbonFET/GAA, BSPD). Sollte das am Ende nicht so kommen sehe ich schwarz für die Intel-eigene Fertigung.

Die wichtigere Frage ist hier eigentlich eher zu welchen Kosten intel das realisieren kann?
Wenn man sich die aktuellen Quartalszahlen anschaut, sieht man deutlich wie stark hier intel unter Druck ist.
Weil wenn intel z.B. effizienter und schneller ist, AMD sie aber beim Preis dafür deutlich unterbieten kann, ist das auch sehr problematisch.
 
Naja, glaub ehr, dass die ODMs über den Tod ihres geliebten 8 GiB Notebooks nicht erfreut waren.
Da die Verwendung CAMM2 im Ultramobile Segment wohl ehr unwahrscheinlich ist, wandert der RAM halt wieder aufs Mainboard. Macht imho für den User auch keinen Unterschied. Der muss sich beim Kauf sowieso für die RAM Größe entscheiden.
Erinnert mich daran, dass ich nächstes Jahr ein neues Notebook brauchen. Denke, aber da siehts momentan ehr nach Arrow Lake 200 HX vs. Ryzen AI 300 aus.. Irgendwas mit CAMM2 wäre nett...
 
Sind die Core Ultra 200er denn so schlecht dass man nächstes Jahr schon die 300er Serie released werden muss. :wow:
(Nich das ich ein Intel System hätte)
Oder hat Intel einfach nur Angst vor dem 9800X3D. :banane:
 
Zuletzt bearbeitet:
Bin mir nicht sicher ob das wirtschaftliche Gründe hat. Ein User hier hat ja spekuliert, dass Intel damit insgesamt eine höhere Marge hat, weil man den Speicher im Paket gleich mit verkauft.
Zumal sowas ja nicht im letzten Moment entschieden wird, das steht schon seit 2 Jahren fest

Mit der aktuellen wirtschaftlichen Lage hat es garantiert nichts zu tun, aber das heißt nicht, dass gar keine wirtschaftlichen Aspekte dahinter stehen: Durch die Integration des RAMs verkompliziert Intel den Vertrieb deutlich. Im für LNL angedachten Ultra-Mobile-Segment klappt das noch einigermaßen, weil da übergroße RAM-Mengen ebenso unüblich sind wie absolute Billigausstattung. So verdoppelt man "nur" die Zahl der zu verwaltenden SKUs. Aber eine Mainstream-Mobile-CPU hätte dieses Jahr mindestens noch 8 GiB am unteren Marktende und 64 GiB für Workstations anbieten müssen. Zusätzlich wären eigentlich 24 GiB und 48 GiB angebracht. Da wäre man dann schon bei 5-6 Speicher-SKUs je CPU-Konfiguration (die niedrigste und höchste kann man an den Marktenden jeweils streichen), die Intel produzieren und vorrätig halten müsste. Das verursacht einfach Kosten und im Gegensatz zu z.B. Apple oder Strix Halo nutzt Intel die Möglichkeiten von On-Package-DRAM nicht für mehr Datendurchsatz, sondern einfach nur um Platz einzusparen. Dafür wird außerhalb der Ultra-Mobile-Nische aber niemand so viel Aufpreis zahlen – erst recht nicht, wenn Intel sich die Marge dafür einstecken möchte, die bislang bei den System-OEMs lag.

Kann sein, würde mich aber wundern:
16 GB RAM kosten uns im Einkauf nicht Mal den Preis eines Schnitzels. Ok das Packaging, da hab ich ganz ehrlich keinen blassen Schimmer wie viel das kostet.

Packaging sollte für Intel nicht teurer sein als für jeden anderen. Im Gegenteil, die haben sogar Synergieeffekte bei der Bestückung des Packages mit der CPU und umgekehrt kann man beim Mainboard an der Qualität sparen, wenn das fordernde RAM-Interface auf das ohnehin recht hochwertige CPU-Substrat beschränkt bleibt. Wenn da nicht intern irgendwas schief läuft, sollte bei LNL also vom Sand bis zum Endkunden sogar ein Tick weniger Packagingkosten anfallen als bei RAM-Integration auf der Hauptplatine.

Was aber zusätzliche Kosten bei Intel verursacht, neben dem bereits erwähnten Handling: Die Lagerphase zwischen Ein- und Verkauf. Intel muss den RAM rechtzeitig für die Chip-Produktion in der Fab haben, statt erst wenn die CPU aufs Mainboard wandert. Das ist wenigstens ein Quartal, bei anlaufender Produktion vielleicht sogar zwei, und der RAM-Preisverfall in dieser Zeit geht zu Intels lassen. Wenn Dell im Oktober RAM kauft, dann zahlen sie nämlich Oktober-Preise dafür – egal ob der Kauf einzeln oder in Kombination mit einer CPU stattfindet. Intel hat die Chips aber im Juli oder sogar April eingekauft und im Schnitt waren sie da noch teurer.

Ja, es wurde aber nie gesagt welcher Chip/welche Ausführung. Mobil oder der kleinere Chip klingt schon plausibel.

Suggeriert wurde eigentlich, dass eine "Generation" in 20A gefertigt wird. Stand jetzt werden von fünf vorgestellten Stücken ARL-Silizium aber vier bei TSMC und kein einziges in 20A gefertigt. Jetzt sollen noch die höheren Notebook-Leistungsklassen mit einem erneuten Intel-7-Rebranding bedient werden und das MTL doch noch als Low-End-Desktop, ist auch noch nicht vom Tisch. Da bleibt wirklich, wirklich wenig übrig für den angeblich vierten Node in vier Jahren.

Ja. die GPU schätze ich wird weiterhin bei TSMC gefertigt, dazu hat Intel zu geringen Marktanteil sich das anzutun. Hätte man größeren Marktanteil würde sich das mehr auswirken...

Was hat der Marktanteil damit zu tun? In Anbetracht Intels anhaltender Probleme mit neuen Prozessen, insbesondere deren Taktbarkeit, wären in kleinen Stückzahlen gefertigte, niedrig taktende dGPUs eigentlich sogar eine Parade-Einsatzgebiet. Um ehrlich zu sein: Ich hatte seinerzeit sogar erwartet, dass diese Überlegung einer der Gründe für Intels Einstieg ins Grafikgeschäft war, denn AMD setzte sich einfach ins von Radeon und Geforce gemachte Nest.

Nach dem Umstieg auf Tiles wird Intel aber über die nächsten Jahre die höchsten Grafik-Stückzahlen überhaupt erreichen. Jeder ARL, jeder MTL, mutmaßlich jeder PTL enthält einen Intel-Grafikchip. Und bei LNL musste sich wohl auch eher die CPU nach der GPU richten denn umgekehrt. Das alles auf eigene Fabs zu holen, würde deren Auslastung deutlich verbessern, somit Marge ins Unternehmen holen und sehr, sehr locker die nötigen Stückzahlen für den Aufwand einer derartigen Umstellung zusammenbringen.
Jetzt bräuchte man nur noch einen konkurrenzfähigen Prozess...

Hier arbeitest du mit den falschen Zahlen für einen sinnvollen Vergleich. Vorweg: Aktuell gibt es nur Schätzwerte, da zwar via ASUS hochauflösende Die-Shots released wurden, die Dimensionen aber nicht offiziell bekannt gegeben wurden. Aktuell geht man bspw. für das ARL-S Compute Tile von 115 mm2 im N3(B) aus. Das Zen5-CCD in einem N4P- oder X-Node (hier streiten sich die Geister) misst dagegen 71 mm2. Intel macht hier also durchaus guten Gebrauch von dem dichter packenden Node, denn während AMD hier 8 Kerne mit 8+32 MB Cache unterbringt, implementiert hier Intel 8+16 Kerne mit 40+36 MB Cache.
Darüber hinaus ist aber auch nicht gesagt, dass Intel hier bis an die Grenzen des Möglichen gegangen ist. Bei AMDs Nutzung von TSMCs N7 konnte man das damals bei CPUs wie auch GPUs ebenso gut beobachten und erst mit späteren Produkten packte man zunehmend dichter.

8 Kerne plus vier E-Cluster sind ebenso wenig eine Verdoppelung gegenüber 8 Zen-5-Kernen wie 76 MiB gegenüber 40 MiB. Eine Kombination aus einem echten Fullnode-Vorsprung gegenüber N5/N4 sowie 62 Prozent mehr Silizium sollte aber eigentlich sogar mehr als eine Verdreifachung bringen. Selbst wenn man berücksichtig, dass TSMC die Faktor-2-Forderung (mal wieder) deutlich verfehlt, klafft da eine große Lücke die Intel in mehr Transistoren pro Kern sowie eine entspanntere Platzsituation je Transistor investiert. Normalerweise bedeutet bei guten Architekturen ersteres mehr IPC und letztere mehr Takt. Aber bei ARL?
 
Was hat der Marktanteil damit zu tun?
ich meine, dass es sich bei dem geringen Marktanteil nicht rechnet, hier das Design in einem möglicherweise fehlerbehafteten Prozess reifen zu lassen, statt auf Bekanntes bei TSMC zurückzugreifen und damit (humane) Ressourcen zu sparen bzw. bei geringem Marktanteil/geringer Stückzahl ist auch der Verlust der möglicherweise teureren Fertigung geringer. Zumal man sowieso eine fixe Waferabnahmemenge haben wird.
In Anbetracht Intels anhaltender Probleme mit neuen Prozessen, insbesondere deren Taktbarkeit, wären in kleinen Stückzahlen gefertigte, niedrig taktende dGPUs eigentlich sogar eine Parade-Einsatzgebiet. Um ehrlich zu sein: Ich hatte seinerzeit sogar erwartet, dass diese Überlegung einer der Gründe für Intels Einstieg ins Grafikgeschäft war, denn AMD setzte sich einfach ins von Radeon und Geforce gemachte Nest.
ja, das würde ja auch Sinn ergeben, aber eben erst wenn die Prozesse laufen und man wieder vorne dabei ist.
Sehe ich auch als einzige Möglichkeit Nvidia und AMD wirklich zu schlagen: im besseren Prozess.
Aber: auch ohne Probleme mit der Fertigung ist Intel schon über 1 Jahr nach der Zeitplanung (bei Alchemist waren es sogar noch mehr...). ALso lieber auf was zurückgreifen was man kennt.
Auf interne Prozesse (18A oder 14 A dann) wird man bei größeren Marktanteilen, Stückzahlen und Gewinnspannen immer noch zurückgreifen können.

EIn 18A Prozess der vielleicht mit Glück nächstes Jahr halbwegs zufriedenstellend läuft ist ja schon Risiko genug. Man stelle sich vor er läuft nicht...
Nicht umsonst ist Panther für Mobile angesetzt, taktbar ist das Ding nicht.
Und damit wäre ein Celestial auch nicht konkurrenzfähig zu Nvidia/AMD... ok als Compute Tile vielleicht. Aber auch nur dann wenn man rechtzeitig die Probleme in den Griff kriegt

Ich gehe außerdem davon aus, dass es Kosten spart, wenn man den Chip nur für einen Prozess designed, vor allem wegen der erwartbar eher geringen Abnahme der dedizierten Chips,.,...

Aber am Liebsten wäre mir: ich irre mich, Intel bringt Celestial in 18A und es wird ein Hit!
 
Zuletzt bearbeitet:
Zurück