News 18A-Fertigung: Intel-CEO sieht klare Vorteile gegenüber TSMCs 2-nm-Prozess

Bedeutet das dann, dass im zweiten Halbjahr die neuen Desktop Prozessoren (Herbst/Winter) dann schon in 18A kommen? Das wäre ja ein massiver Sprung für Intel und man hätte nach 12900/13900/14900 endlich wieder Fortschritt.

Gerade da AMD wohl max in 3nm fertigen können wird bei TSMC. Hoffentlich läuft es dann bei AMD nicht so wie gegen Nvidia, als diese von Samsung zu TSMC gewechselt sind. Das war der Punkt wo AMD wieder ein gutes Stück abgerutscht ist.

edit: Panther Lake mit 18A Technik wohl eher 2025, wenn ich Google vertrauen kann
Nein, der Desktop kommt in 2HJ24 bei Intel für das Compute-Tile auf Basis von TSMCs N3, ist aber tatsächlich ein beträchtlicher Sprung, da es hier von einem 7nm-Äquivalent (Intel 7) direkt runter auf 3nm geht. *)
AMD geht nur auf 4nm runter, was Kosten- und Kapazitätsgründe hat. Denkbar wäre jedoch dass das Zen5c-CCD möglicherweise in 3nm gefertigt werden wird, wobei gesichert ist das nicht, denn auch in der aktuellen Gen fertigt AMD das regulär in 5nm wie auch das normale Zen4-CCD (und nicht etwa in 4nm). **)

*) Intel 4 und Intel 3 werden im Consumer-Desktop-Segment übersprungen. Und bei den mobilen ARL's kommt gar Intel 20A mit PowerVia (BPDN) zum Einsatz. Ob es tatsächlich schon um den Jahreswechsel herum CPUs in 18A geben wird ist aktuell unklar. Einzig das ultramobile Lunar Lake-Design könnte ein Kandidat dafür sein, jedoch wäre das dann wohl eine Fertigung, die noch in der Risk Production beginnen würde, nicht ausgeschlossen, aber auch Lunar Lake könnte immer noch ein 20A-Produklt sein.
Letzten Endes verhält es sich mit Intel 20A zu 18A wie mit Intel 4 zu 3, ersteres ist nur die Einführung und erste Iteration, der eingentlich umfänglich genutzte Node wird jeweils das spätere Produkt sein, dass dann bspw. auch Foundry Kunden zur Verfügung gestellt wird.

**) Sollte also das Zen5c-CCD nicht in 3nm gefertigt werden, wird es in 2024 bzgl. regulärer Consumer-CPUs nur 4nm-Produkte von AMD geben. Die kritischen 3nm werden sie nur für professionelle Produkte nutzen und vermutlich für eine oder zwei ausgewählte APUs.
Ebenso bleibt AMD bei GPUs auf 4nm, während nVidia hinunter auf 3nm geht und damit einen Full-Node-Sprung macht. Wobei das bei AMD in der RDNA4-Gen nun nicht mehr so relevant ist, da man das HighEnd-Design ja anscheinend aufgekündigt hat und hier per se nicht mehr vor 4Q25 konkurrieren kann, falls der "Korrekturschritt" nicht gar als regulärer Bestandteil von RDNA5 kommen wird und damit gar erst in 2026.

***) Darüber hinaus ist aber noch unklar, ob AMD überhautp das Zen5c-CCD in Consumer-Desktop-Designs verwenden wird. Denkbar wäre dies durchaus um auf effiziente Art einen 24-Kerner zur Verfügung stellen zu können.


Anmerkung: Weiter in der Zukunft tut sich bei Intel in den letzten Jahren grundlegend viel und die haben so viele Eisen im Feuer, dass es da ausgehend von der frühen Gerüchteküche noch viele Änderungen geben kann. Panther Lake könnte sich am Ende bspw. zu einem reinen Mobile-Produkt wandeln und der nächste, komplett neue Desktop könnte erst Nova Lake werden, dann vielleicht direkt mit dem nächsten architektonischen Sprung a la Rentable Units sowie vollem AVX10.2-Support.


Intels Fertigungsroadmap besser bekannt als die Street of brocken Dreams.
Eigentlich nicht so wirklich. Bis mitte des letzten Jahrzehnts war deren Fertigung das Maß aller Dinge. Ihre 10nm haben sie ordentlich rausgehauen und weil das so lange dauerte, konnte man aber auch nicht eine einfache Korrektur anstreben, weil man schon zu viel Zeit verloren hatte *) und man musste gleich den übernächsten Node angehen.
Aktuell ist sich die Industrie relativ einig, dass Intel auf einem guten Weg ist und mit 18A mindestens einen Gleichstand zur Fertiungsspritze erreicht haben wird (die pessimistische Sichtweise). Möglicherweise werden sie jedoch gar die Führung übernehmen, da sie mit 18A früher rauskommen als TSMC mit ihrem N2 und letzterem fehlt dann immer noch BPDN, das TSMC gar erst ein weiteres Jahr später mit der nächsten N2-Iteration nachreichen wird.

Insofern wird das Duell ab dem 2HJ24 durchaus interessant werden, da wesentliche Vorteil des AMD-Design der Verwendung der moderneren Fertigung zuzuschreiben sind, die nun zunehmend entfallen wird.
Insgesamt gesehen hat Intel der 14nm-Faux pas jedoch sehr viel gekostet, wobei aus Konsumentensicht war deren zwischenzeitliches Scheitern schlicht ein Glücksfall, denn andernfalls hätte es ein Comback von AMD, wie man es die letzten 5 Jahre erlebt hat, zweifellos nicht gegeben.

Schlussendlich muss man sich jedoch auch die Frage stellen, welche Prio der HighEnd-Desktop bei denen überhaupt noch hat, zumal der Konsumentenmarkt keinen Bedarf für bspw. einen 64-Kerner hat. Für AMD war das Segment der Enabler um überhaupt wieder ins Geschäft zurückzukommen und auch aktuell ist AMD noch auf dieses Segment angewiesen, Intels Marktanteile und -verhältnisse sehen jedoch gänzlich anders aus und hier spielen das Datacenter, professionelle Produkte, AI und mobile Produkte eine größere Rolle. Hier muss man wohl oder übel damit rechnen, dass die sich in Zukunft für dieses vergleichsweise kleine Segment nicht mehr über Gebühr lang machen werden, wer weiß ...

Weitergesponne spielt das aber auch keine so große Rolle, da die 2024er-Produkte von beiden Herstellern erneut eine signifikante Weiterentwickung darstellen werden und sich, wenn man bereit ist das nötige Kleingeld dafür auszugeben, bereits dann schon so weit vom Konsolenmarkt entfernt haben, dass der Spielemarkt nur sehr langsam bis gar nicht mehr nachziehen wird, weil insgesamt betrachtet nur vergleichsweise wenig PC-only und wohlmöglich gar am Rande des technisch Machbaren entwickelt wird.
 
Zuletzt bearbeitet:
auch wenn alles stimmen würde was der Typ sagt würde ich trotzdem AMD nehmen da die platformen +4jahre untersützt werden. AM4 schon 7 jahre unterstützung
 
Sehr interessant, ich hoffe daß diese Vorteile auch bedeuten, daß sich CPUs bald wieder etwas besser kühlen lassen. Ist ja der Wahnsinn, wie heiß und stromhungrig besonders Intel-CPUs geworden sind bei hoher Auslastung.
Nein, denn genau das ist auch gewünscht.
Es wird eine bessere Auslastung erzielt, wodurch die Performance steigt.
Bzw wenn genug Spielraum in Sachen Temperatur es sind, taktet die CPU auch höher.
Ob sie bei 70 oder 90 Grad läuft macht keinen Unterschied, aber der Takt ist dann dementsprechend höher.

Früher musste man wenn man eine gute Kühlung hatte selber nachhelfen ( Overclocking), heute können die das Potenzial schon viel besser von selbst ausnutzen.

Es gibt keine Grund, dass die Hersteller die CPU so einstellen, dass sie nur bis 60 Grad hoch taktet.


Wenn man eine schlechten kühler hat, dann schafft sie halt keine 6Ghz sondern throttled auf zb 5.4.

Vor ein paar Jahren haben die CPUs mit Wasserkühlung nicht Mal die 5ghz geschafft.

Wenn man keine gute Kühlung hat, bringt es halt auch nichts, sich einen i7 oder i9 zu holen xD
 
Vielleicht ist Pat erstmal still bis sie ein Produkt haben. Vollmundige Versprechen gabs in den letzten Jahren genug - eingehalten wurden die Wenigsten.

Ob es Arrow Lake 2024 überhaupt noch schafft ist ein großes Fragezeichen - und wenn AMD hier mit Zen 5 abliefert kriegt man in dem Sektor wie auch im Server-Bereich erstmal ein weiteres halbes Jahr die Prügel seines Lebens bevor man dann überhaupt was neueres liefern kann und von BSPD ist da noch keine Rede.

CEOs sollten jedesmal wenn sie was groß ankündigen und nicht exakt einhalten können den Arsch mit dem Rohrstock versohlt kriegen wie in Singapur. :-D
 
denn andernfalls hätte es ein Comback von AMD, wie man es die letzten 5 Jahre erlebt hat, zweifellos nicht gegeben.
Intelesante Ansicht nur m.M.n leider nicht sehr objektiv. Hätte es Intel bei der Effizenz etwas länger im Rennen gehalten ja höchst wahrscheinlich. An dem ganzen Rest des besseren Architektur Konzepts der aktuellen Cpus von AMD und dem daraus resultierenden besseren gesamt Ergebniss gegenüber Intels Cpus hätte es bis dato aber ansonsten nichts geändert. Da wie wir ja wissen Intel ausser den zusätzlichen E-Kernen ansonsten in den letzten Jahren nichts wirklich gravierend griffiges an der Architektur veändert hat.
Kauf dir mal ne HighEnd Intel CPU, dann wirst du die Welt mit anderen Augen sehen.
Damit wären wir dann bei Server Cpus und da liegen zugunsten der aktuellen AMD Cpus leider fast Welten dazwischen. Was deine Aussage noch unsinniger erscheinen lässt wie sie es ansonsten sowieso schon ist.
 
Zuletzt bearbeitet:
Bedeutet das dann, dass im zweiten Halbjahr die neuen Desktop Prozessoren (Herbst/Winter) dann schon in 18A kommen? Das wäre ja ein massiver Sprung für Intel und man hätte nach 12900/13900/14900 endlich wieder Fortschritt.

Gerade da AMD wohl max in 3nm fertigen können wird bei TSMC. Hoffentlich läuft es dann bei AMD nicht so wie gegen Nvidia, als diese von Samsung zu TSMC gewechselt sind. Das war der Punkt wo AMD wieder ein gutes Stück abgerutscht ist.

edit: Panther Lake mit 18A Technik wohl eher 2025, wenn ich Google vertrauen kann
Rechne mal eher mit 2026/27 für 18A. Falls überhaupt. Also was Desktop betrifft.
 
Bedeutet das dann, dass im zweiten Halbjahr die neuen Desktop Prozessoren (Herbst/Winter) dann schon in 18A kommen? Das wäre ja ein massiver Sprung für Intel und man hätte nach 12900/13900/14900 endlich wieder Fortschritt.
nein die Massenproduktion wird langsam hochgefahren.
Produkte frühestens 6-9 Monate später
In welchem Paralleluniversum lebst du?
Wie komme ich dorthin? :ugly:
er ist im Business für Elektroheizungen
 
Weil die auch beim Zocken doppelt so viel verbrauchen wie der 7800X3D. Selbst der 7950X3D verbraucht weniger.
Ja, der 7800X3D ist auch nur ein 8-Kerner. Natürlich verbraucht dieser weniger!.Die meisten Tests werden ja in 720p oder evtl. FHD gemacht. Sicher ist das für die Leistungsbeurteilung einer CPU sinnvoll, spiegelt aber die CPU-Last im Alltag nicht wieder. Viele dürften bereits in WQHD und höher zocken und Framelimiter / G-Sync / Freesync und ähnliches einsetzen. Da ist die CPU-Last deutlich geringer als in den künstlich herbeigeführten CPU-Limitierten Szenarien, die du draußen kaum finden wirst.

Und ja, die Ryzen sind effizienter und nein, in den Alltagsszenarien ist Intel nicht so weit weg wie es hier im Forum immer wieder versucht wird, von einzelnen zu suggerieren.
 
in den Alltagsszenarien ist Intel nicht so weit weg wie es hier im Forum immer wieder versucht wird, von einzelnen zu suggerieren.
Da ich nicht weiß was du denkst kann ich nicht sicher sagen ob du falsch liegst oder nicht ;P

Aber auch wenn der Absolute Watt verbrauch in Spielen mit Frame Limiter geringer ist, sieht es doch so aus ob Intel noch fast das doppelte nimmt.

Ja wenn das dann nur grob 30-60 Watt mehr sind ist das nicht so viel wie in den 720p Tests.

Ob einem das zuviel ist muss aber halt jeder für sich selbst entscheiden.


Edit. wobei ich grad merke ich beziehe mich auf ein video zwischen dem 13600k und 7800x3d
 
Zurück