News Intel Core Ultra: Meteor Lake soll der erste 3D-Hybrid-Prozessor werden

Naja, gibt es da wirklich noch Unterschiede? Das letzte mal, als man bei Intel eine Extraarchitektur für Mobile genutzt hat, hat sich am Ende rausgestellt, dass die der Desktopvariante auch in allen Belangen außer der Heizleistung überlegen war.

Es wird keine Meteor Lake Desktop CPUs geben. Für den Desktop kommt der Raptor Lake Refresh, bis nächstes Jahr dann Arrow Lake kommen soll.
 
Es wird keine Meteor Lake Desktop CPUs geben. Für den Desktop kommt der Raptor Lake Refresh, bis nächstes Jahr dann Arrow Lake kommen soll.
Tja, bleibt nur noch die Frage warum. Gibt ja die Theorie, dass einfach nicht genug in dem Prozess hergestellt werden konnte und man deshalb keine Desktop-Serie aufgelegt hat. Nun soll Arrow Lake aber schon nächstes Jahr den nächstbesseren nutzen. Ich finde jetzt aber irgendwie nichts dazu, ob Arrow Lake auf Raptor Lake oder Meteor Lake aufbaut oder doch was ganz neues wird, was ja immerhin zum Neustart der Nomenklatur passen würde, was aber natürlich überhaupt nichts heißen muss.
 
Tja, bleibt nur noch die Frage warum. Gibt ja die Theorie, dass einfach nicht genug in dem Prozess hergestellt werden konnte und man deshalb keine Desktop-Serie aufgelegt hat. Nun soll Arrow Lake aber schon nächstes Jahr den nächstbesseren nutzen. Ich finde jetzt aber irgendwie nichts dazu, ob Arrow Lake auf Raptor Lake oder Meteor Lake aufbaut oder doch was ganz neues wird, was ja immerhin zum Neustart der Nomenklatur passen würde, was aber natürlich überhaupt nichts heißen muss.

Warum Meteor Lake nicht für den Desktop kommt werden wir nie 100%ig wissen. Das Foveros Packaging gibt es noch nicht lange, das Design an sich scheint von Anfang an für Mobile optimiert worden zu sein, vielleicht kann man nicht genügend Stückzahlen herstellen für einen Desktop Release (das TSMC Kontingent wird ja auch begrenzt sein), alles mögliche Gründe.
 
Tja, bleibt nur noch die Frage warum
Am wahrscheinlichsten ist, weil die MTL Fertigung das Taktziel nicht erreicht hat und daher, da es keine IPC Steigerung gibt ,die Desktopperformance nicht erzielt - ähnlich wie bei der 10nm Fertigung damals. Du kannst ja keine 14000er bringen die langsamer als sie 13000er sind.

MTL kann bisher offenbar keine 6 Ghz wie Raptorlake. Deswegen bringt man ihn im effizienteren Betriebspunkt im Mobilsegment und muss im desktop nen unsäglichen Refresh bringen. Da wirds erst mit Arrowlake wieder interessant.
 
Nein ich meinte Leistung pro Takt. Und bitte nicht zum drölfhundertsten mal die IPC-Definitions-Diskussion vom Zaun brechen (mir tuts grade schon Leid dass ich die Abkürzung benutzt habe, ich sollte es besser wissen eigentlich). ;-)
 
Nein ich meinte Leistung pro Takt. Und bitte nicht zum drölfhundertsten mal die IPC-Definitions-Diskussion vom Zaun brechen (mir tuts grade schon Leid dass ich die Abkürzung benutzt habe, ich sollte es besser wissen eigentlich). ;-)
War mein Fehler, ich habe iwrgendwie das ", da es" überlesen, was aber wohl auch ", dass es" heißen sollte.
 
MTL kann bisher offenbar keine 6 Ghz wie Raptorlake. Deswegen bringt man ihn im effizienteren Betriebspunkt im Mobilsegment und muss im desktop nen unsäglichen Refresh bringen. Da wirds erst mit Arrowlake wieder interessant.
Vermutlich hat man recht früh gemerkt, dass das Kosten-Nutzen Verhältnis zu groß ist.
Zwar ist die Fertigung Neu, aber iwie ja auch schon wieder am "sterben", weil man nächstes Jahr schon auf 20A/18A wechseln will. Denke da wolle man nicht viel Geld investieren, die notwendige Optimierung zu erreichen, wenn es höchstens für eine Generation was bringt.

Heutzutage ist die Frage ja auch wie viel Geld sich überhaupt noch mit Desktop CPU's machen lässt im Vergleich zu Mobil, schließlich laufen NUC usw ja auch mit Mobile Chips und ich glaube es gibt ja auch immer weniger Tower-PC's.
Des Weiteren ist momentan die Konkurrenz zu groß mit AMD und da hat man wohl gedacht, dass der Refresh wenig kostet und die PR trotzdem etwas verkaufen kann.
 
Zwar ist die Fertigung Neu, aber iwie ja auch schon wieder am "sterben", weil man nächstes Jahr schon auf 20A/18A wechseln will.
Das ist aber eigentlich jede Fertigung! ein, vieleicht zwei Generationen laufen über den gleichen Prozess. Bei Intel gab es mit 14nm eine unrühmliche Ausnahme, wo glaube ich am Ende 5 Generationen drüber liefen.
 
Das ist aber eigentlich jede Fertigung! ein, vieleicht zwei Generationen laufen über den gleichen Prozess. Bei Intel gab es mit 14nm eine unrühmliche Ausnahme, wo glaube ich am Ende 5 Generationen drüber liefen.
Ja an sich geb ich dir recht, aber ich denke hier ist der Unterschied, dass 20A nochmal ein richtiger Nodesprung ist, der schon nächstes Jahr fertig sein soll.
Denke der Unterschied hier ist Generation vs. Produkt Jahr.
Ende 2020 kam auch N5 von TSMC zum Einsatz in iPhones und es hat bis 2022 gedauert bis Zen4 es genutzt hat mit wahrscheinlich entsprechender Optimierungszeit, die man hier dann theoretisch einfach nicht hat und nicht haben will.
 
Ja an sich geb ich dir recht, aber ich denke hier ist der Unterschied, dass 20A nochmal ein richtiger Nodesprung ist, der schon nächstes Jahr fertig sein soll.
Denke der Unterschied hier ist Generation vs. Produkt Jahr.
Ende 2020 kam auch N5 von TSMC zum Einsatz in iPhones und es hat bis 2022 gedauert bis Zen4 es genutzt hat mit wahrscheinlich entsprechender Optimierungszeit, die man hier dann theoretisch einfach nicht hat und nicht haben will.
Glaube ein typisches JEIN.

Intel fertigt mit den Nodes in aller Regel nur CPUs und Desktop CPUs haben dann doch etwas höhere Anforderungen an einen Node, weshalb eigentlich immer schon die mobilen Chips einfacher zu produzieren waren. Intel wird mit 20A (sofern man im Plan bleibt) wahrscheinlich nach Jahren wieder einen überlegenen Prozess im Rennen haben, mit 14nm (eher vergleichbar mit TSMC 10nm) war man so lange im Rennen, musste sich aber schon gegen TSMC 7nm wehren und nun läuft man mit einem 7nm Prozess gegen TSMCs 5nm Prozess. Mit 20A wird man bei einem 2nm Verfahren liegen und vermutlich gegen 3nm TSMC laufen.
Die Prozesse werden allesamt eine ähnliche Qualität haben, wenn sie in der ersten Gen laufen, denke einfach, dass Intel die Probleme immer noch nicht im Griff hat. Man sieht ja aktuell sehr gut, dass bspw. ein 13900K in CP2077 die gleiche Effizienz aufweist, wie ein 9900K, ein Node sollte aber gerade diese Effizienz immer verbessern, mehr Leistung bei gleicher Power, oder weniger Power bei gleicher Leistung.

Dies hat Intel bisher nicht geschafft, obwohl Intel7 ja auch die dritte oder vierte Anpassung des Prozesses war. daher bin ich sehr vorsichtig, was Intel mit 20A liefern wird. In der Theorie müsste man bereits heute, vieleicht 10% hinter AMD liegen (Effizienz), die Realität sagt aber es sind mehr als 100%.
 
ah ok dann habe ich mir das also nicht eingebildet.Dachte schon hm irgendwas stimmt da nicht.Wusste ja wie sich da die 9000 Generation sich da so verhält.Ich hatte es ja ausprobiert gehabt was passiert wenn man der CPU wie dem core i9 13900k den hohen Allcore Takt weg nimmt und diese CPU bei 4 ghz Taktet,so wie es ja auch die 9000 Generation bei Intel taktet,wobei es ja auch welche davon gibt die ebenfalls über einen hohen Allcore Takt verfügen.Aber nicht der 9980xe,der dümpelt so bei 4 ghz herum.
Am ende war also der 13900k so schnell wie diese CPU gewesen.Trotz der Vorteile die diese CPU theoretisch eigentlich hätte.Doch die Realität sieht halt anders aus.So kam Intel also nicht wirklich voran.Klar wollte ja auch nur wissen wie weit die CPU kommt.Ich war schon Entäuscht gewesen.Und klar lebt die CPU von Allcore Takt aber ab einen bestimmten Takt da steigt eben der Stromverbrauch drastisch an.
Ist ja auch bei AMD so.Da ist der 7950x bei 4,8 ghz auf 142 Watt aber sobald dann da 5,1 ghz anliegt,werden es aufeinmal 200 Watt.
Genau so verhält es sich ja auch bei Intel.Ich weis nur nicht ab welchen Allcore Takt das der Fall ist.Bei 4 ghz brauchte der 13900k jedenfalls so 125 Watt aber die Rohleistung ist unterirdisch.Und warum weil meine Anwendung auf den fehlenden Takt sehr allergisch drauf reagiert.Es ist nur eine Anwendung das so drastisch drauf reagiert.
Also ich weis zwischen 5,7 ghz Allcore Takt auf 4 ghz ist wirklich sehr viel Takt unterschied.Von 350 Watt auf 125 Watt herunter gesenkt.
Achja der Core i9 9980xe den hatte ich selbst gehabt.Der Allcore takt war bei mir auf 3,8 ghz auf 140 Watt gewesen.
Eines muss man dennoch lassen,zwar ist die Leistung nicht besser geworden aber der Stromverbrauch ist minimal geringer geworden.Weil 125 Watt trotz 4 ghz ,wäre echt ein guter Wert.Leider wird sowas durch den sehr hohen Takt wieder kaputt gemacht.Ab welchen Takt geschieht sowas wo die Leistung nicht mehr mit steigt,sondern nur noch der Stromverbrauch massiv ansteigt.Welche von euch wissen das bestimmt oder?
 
[...] Denke da [Intel 4] wolle man nicht viel Geld investieren, die notwendige Optimierung zu erreichen, wenn es höchstens für eine Generation was bringt. [...]
Intel 4 ist grundlegend nur als Entwicklungszwischenschritt hin zu Intel 3 ausgelegt. Daher versenkt man hier natürlich nicht unnötig Ressourcen, sondern wendet diese auf den nächsten und tatsächlich wichtigen Entwicklungsschritt Intel 3 an. Dennoch spricht aber nichts dagegen auch Intel 4 bereits zur Amortisierung zu nutzen, da dieses technologisch bereits eine deutlich Weiterentwicklung darstellt.
Darüber hinaus kommt aber auch hinzu, dass ein komplett neuer Node niemals derart ausgereift auf dem Markt kommt, sodass er in allen Aspekten mit dem alten, über Jahre hinweg hochgradig optimierten Vorgänger mithalten kann. Das liegt schlicht in der Natur der Sache. Kein wirtschaftlich arbeitendes Unternehmen hat ein Interesse daran ein grundlegend funktionierendes, gutes Produkt zurückzuhalten und noch weitere 2 Jahre durch die R&D-Abteilungen zu jagen um dann ein "quasi perfektes" Produkt auf den Markt zu bringen. Das ist im Endeffekt schlicht unwirtschaftlich.

Darüber hinaus, das Spiel wird sich Ende 2024 erneut wiederholen, denn Intel 20A ist abermals nur ein Zwischenentwicklungsschritt hin zu Intel 18A. Dennoch wird auch bereits Intel 20A einen deutlichen Mehrwert für den Konsumenten bieten, sodass das ein Win-Win für Intel und den Konsumenten ist.

Bei AMD dagegen ist die Sache etwas anders gelagert, da die nicht die Ressourcen haben um sich mit bspw. Apple auf einen Preiskampf um den modernsten Node einzulassen und sieht man es sich genau an, sind sie grundsätzlich stärker kostenlimitiert aufgrund ihrer deutlich geringeren Absatzzahlen, sodass es für sie keinen Sinn ergab bspw. TSMCs 5 nm schon mit Zen3 zu verwenden, obwohl dieser Prozess schon seit dem 1HJ20 in der HVM war. Die verfügbaren Kontingente waren zu knapp bemessen und vor allem war der Node zu der Zeit auch viel zu teuer für AMD. Entsprechend musste man als Endkunde auf Produkte halt bis ins 2HJ22 warten, während zu dem Zeitpunkt bei TSMC schon längst 4 nm aktuell waren und 3 nm kurz vor der Tür standen.
Am Ende spielt eine derartige Betrachtung aus Sicht des Konsumenten aber auch keine Rolle, denn rein prozesstechnisch, wenn auch ein derartiges AMD-Produkt "derart spät" in den Markt eingeführt wurde, nutzt(e) Zen4 dennoch den modernsten Fertigungsprozess im x86-Markt, d. h. Was-wäre-wenn- und Aber-es-existiert-doch-Spielchen sind unsinnig, wenn es keinen Hersteller gibt, der diese alternativen Möglichkeiten nutzt und entsprechende Konkurrenzprodukte in den Markt bringt.

Und am Ende könnte man alles auch auf die einfache, plakative Formel eindampfen: Es zählt was hinten rauskommt, vollkommen egal wie bspw. Intel seinen Prozess einordnet oder ihn benennt oder ob sie diesen möglicherweise schon bspw. zwei, drei Quartale später durch einen besseren Nachfolgeprozess ersetzen.
 
Mich würde ein Vergleich zwischen dem neuen INTEL "Cache" Mobil Prozessor und der AMD Cache Mobil CPU interessieren.


 
Zuletzt bearbeitet von einem Moderator:
Zurück