News Arrow Lake-S: Erneuter Intel-Leak soll Höhe des Performanceplus bestätigen [Gerücht]

Es ist natürlich viel interessanter wie Taktraten und Effizienz der teile aussehen wenn nur Teillast anliegt
Viel interessanter würde ich gar nicht sagen, auch durchaus interessant. Hier hat Intel ja definitiv noch Vorteile, da man keinen SoC hat der dauerhaft Strom braucht.

Ich hab es schonmal woanders gesagt, ich glaube ich fände es richtig gut, einen SoC mit 2 E Cores oder ZenXc Cores zu bauen, wo im Teillastbereich einfach nur das SoC läuft!

weil nach oben hin der Verbrauch oft exponential steigt und dann kanns sein, dass man 5% mehr Leistung bei gleichem Verbrauch hat, weil der alte Prozess schon optimiert ist, der neue noch nicht und bei oberen Taktraten gleich viel oder gar mehr (erste 10nm Chips) verbrädt - der Trugschluss wäre "der Prozess ist schlecht",
Es kann der Prozess sein, aber oftmals ist es viel interessanter wie die Architektur ausgelegt ist, Netburst bspw. war damals auf Takt ausgelegt und konnte in jedem Prozess sehr hoch takten. (Die Probleme fingen ja erst bei über 3Ghz an, was damals aber schon enorm war, AMD ist mit 2,2Ghz rumgedümpelt).

Kann also durchaus sein, dass Arrow Lake einfach nicht für hohe Taktraten ausgelegt ist, dann kannst du da Energie reinpumpen wie du willst, die Grenze wird einfach weit unten sein.

Andersherum hat Intel ja mit dem 10nm Fiasko bewiesen, dass es eben auch der Prozess sein kann, denn in 14nm++++++++ gingen die Chips ja ganz gut.


Was mich so ein wenig wundert, hier wird an vielen Stellen so getan als wenn +5% SC und +15% MC ein Erfolg wäre. Sehe ich das so verkehrt, dass dies nach dem 10nm Fiasko der größte Intel Rückschlag seit langem ist? Wir reden hier von fast 2 vollen Nodes Unterschied und Intel kann eine Leistungssteigerung bieten (ja klar, Gerücht) die man mit einem Refresh (also maximal ein besseres Stepping) hinbekommt und das soll auch nur im Ansatz gut sein?

Sorry, aber am Ende ist alles unter 50% Mehrleistung im MC für eine Firma wie Intel extrem erschreckend schwach. Wir reden zwar vom Desktop, aber wenn AMD wollen würde, packen die in den Desktop nicht 16 Kerne, nein dann hauen die 32 Kerne auf den Tisch.
Am Ende ist alles unter 30% SC genauso schwach, wir reden von fast 2 Nodes, jeder Node sollte 15% Leistung bringen, also ohne Architekturverbesserung sind 30% ein MUSS!

Klar, nicht immer wird alles perfekt laufen, aber wir reden dann jetzt über die 7. Generation in der von "nicht alles perfekt" bis zu "funktioniert gar nicht" alles dabei war. Dagegen schaut es bei AMD irgendwie so aus, als wenn jede Generation den logischen Schritt geht, mal werden die Kerne erhöht, dann die IPC, dann der Takt und die Efiizienz. Zen5 werden auch schon wieder 15 bis 30% mehr IPC zugeschrieben, selbst wenn wie befürchtet der Takt darunter leiden muss, wird man auch da an der Effizienz drehen und eben wieder einen logischen Schritt gehen, ohne das alles perfekt läuft, aber irgendwie sieht das alles nach einem Plan aus, während Intel planlos hinterherläuft.
 
@sandworm
Du kannst nicht eine neue Fertigung (plus neue Architektur) mit einer alten dahingehend vergleichen und extrapolieren. Lies die letzten beiden Posts von Rollora in dem Thread, er hats etzwas ausführlicher geschrieben.

Der Sweetspot wird sich sehr wahrscheinlich recht stark verlagern. Klar, die aktuelle Gen ist MEILENWEIT von ihrem Sweetspot weg, deswegen brauchts sehr viel mehr Power um sehr wenig Performance zu generieren "obenrum". Diese Betriebspunkte werden aber bei der ersten 20A Generation völlig andere sein wie bei intel-7 auf Steroiden.

Da wirds eher drauf ankommen wie viel Gas Intel schon gleich am Anfang geben muss um mit AMD zu konkurrieren. Sprich ist intel-20A so gut und/oder ZEN5 so schlecht dass man effizient(er) antreten kann oder ists andersrum und man muss gleich schon die letzten 200 möglichen MHz raustreten wie bei Raptorlake und dessen Refresh.
Wie @Pu244 oben schon sagt, die Betriebspunkte von Arrowlake stehen heute ja noch gar nicht fest, dafür ists viel zu früh. Die "177W PL2" Option ist ja nur eine von vielen die wohl in der Diskussion ist.
Na ja, das ist mir schon klar das man das nicht einfach so extrapolieren kann und sich der Sweetspot bei Arrow lake in Kombination mit 20A verschieben wird. wollte dazu davor eigentlich zuerst noch etwas schreiben habe es dann aber gelassen, aber hast nicht du behauptet das man am Ende ohne Probleme 20+% schneller wird wenn man einfach wieder 250W reinpumpt?
So wie ich das sehe, dürfte sich der Sweetspot wohl analog dem 7950X auf die 125W verschieben womit man bei PL2 177W bereits am oberen Ende angelangt ist und sich die Kurve ab da extrem abflacht.
Es würde also gar nichts nützen noch mehr Energie reinzuballern.
Die Konsequenz davon wäre, dass man mit einer +15% Multi-Core Performance bereits am oberen Ende der Fahnenstange angelangt ist und sich keine so großen Leistungssteigerungen mehr erzielen lassen, wie dies noch beim 13900K der Fall war. Bei single core sind die +5% unabhängig davon sowieso bereits das Ende der Fahnenstange.


1697394622449.png

1697394697660.png
 
Ich hab es schonmal woanders gesagt, ich glaube ich fände es richtig gut, einen SoC mit 2 E Cores oder ZenXc Cores zu bauen, wo im Teillastbereich einfach nur das SoC läuft!
Siehe Meteor Lake, da ist das so vorgesehen im Zentralen SoC.
Es kann der Prozess sein, aber oftmals ist es viel interessanter wie die Architektur ausgelegt ist, Netburst bspw. war damals auf Takt ausgelegt und konnte in jedem Prozess sehr hoch takten. (Die Probleme fingen ja erst bei über 3Ghz an, was damals aber schon enorm war, AMD ist mit 2,2Ghz rumgedümpelt).
ja das stimmt. Ich erinnere mich auch, dass Intel verzweifelt die Taktrate hochgetrieben hat bei gleichzeitig teilweise sinkender IPC weil man die Pipeline verlängern musste
Kann also durchaus sein, dass Arrow Lake einfach nicht für hohe Taktraten ausgelegt ist, dann kannst du da Energie reinpumpen wie du willst, die Grenze wird einfach weit unten sein.
die Architektur von Arrow Lake ist aber dieselbe wie schon die Gens davor. Es hängt hier tatsächlich am Prozess und der Umsetzung.
Andersherum hat Intel ja mit dem 10nm Fiasko bewiesen, dass es eben auch der Prozess sein kann, denn in 14nm++++++++ gingen die Chips ja ganz gut.
Man hat schon vor einigen Jahren gesagt (damals hießen die Prozesse in der Roadmap noch 10nm, 7nm 5nm und es gab dann jeweils ein + und ein ++ davon), dass die erste Gen des neuen Prozesses immer langsamer (Schaltzeiten) sein wird, als die vorige. Die letzten 14nm Prozessoren waren halt deshalb so gut, weil Arhcitektur und PRozess schon sehr gut aufeinander abgestimmt waren.
Ähnliches gibts ja auch im GPU Sektor, die ersten GPUs in einem neuen Prozess werden oft als "pipe cleaner" bezeichnet, erst die GPUs die den Prozess richtig ausnutzen (weil die Entwickler ihn nun kennen) werden oft richtig gut.
Kepler vs Maxwell etwa, beide 28nm
Was mich so ein wenig wundert, hier wird an vielen Stellen so getan als wenn +5% SC und +15% MC ein Erfolg wäre. Sehe ich das so verkehrt, dass dies nach dem 10nm Fiasko der größte Intel Rückschlag seit langem ist? Wir reden hier von fast 2 vollen Nodes Unterschied und Intel kann eine Leistungssteigerung bieten (ja klar, Gerücht) die man mit einem Refresh (also maximal ein besseres Stepping) hinbekommt und das soll auch nur im Ansatz gut sein?
ich sehe nicht, dass irgendjemand das als besonders gut verkauft. Es ist halt der erwartbare Rahmen bei kleinen Optimierungen, mehr Cache und neuer Prozess. +20% wären interessant, aber 5% ist "normal"
Hier aber nochmal: was erwarten die Leute, es ist quasi derselbe Chip in neuer Fertigung. Der Vorteil wird nicht mehr Leistung sein, sondern mehr Effizienz.
Sorry, aber am Ende ist alles unter 50% Mehrleistung im MC für eine Firma wie Intel extrem erschreckend schwach. Wir reden zwar vom Desktop, aber wenn AMD wollen würde, packen die in den Desktop nicht 16 Kerne, nein dann hauen die 32 Kerne auf den Tisch.
Am Ende ist alles unter 30% SC genauso schwach, wir reden von fast 2 Nodes, jeder Node sollte 15% Leistung bringen, also ohne Architekturverbesserung sind 30% ein MUSS!
äh nein, da vermischst du was. Ein Node allein macht ja nix schneller.
Ein neuer Node erlaubt etwa: mehr Transistoren/höhere Transistordichte, mehr Takt oder bei gleichen Werten (Transistormenge, Takt) geringere Leistungsaufnahme.
20A wird der allererste GAA+Backside Power Delivery Prozess sein, er wird wohl eher konservativ ausgelegt und daher wird er eher geringfügige Verbesserungen mit sich bringen.
Ebenso vorsichtig ist man eben auch bei der Architektur: man bringt eben eine gut bekannte (Sunny Cove Weiterentwicklung), statt eine die doppelt so viele Transistoren frisst und voll breit ist.
Das kommt erst bei Intel, man löst sich ja erst von dem Denken, dass für eine Architektur ein ganz bestimmter Prozess vorgesehen ist.
Jetzt muss man erstmal Erfahrung sammeln in 20A/18A um dann zu sehen, ob die wirklich ihre Vorhersagen erfüllen, erst dann kann man beginnen die wesentlich breitere Architektur darin fertig zu designen und zu produzieren.

Bei Grafikkarten ist das ja was ganz anderes: aha es gibt einen neuen Prozess der 40% höhere Dichte erlaubt bei gleichem Verbrauch? Dann verbau ich 40% mehr Hardwareeinheiten (Shader, ROPs usw). Bei CPUs bringt das ja nichts: du kannst in 20A sicher doppelt so viele Transistoren pro Fläche verbauen wie in Intel 7, aber ohne die passende Architektur wären das "nur" mehr Kerne - und davon profitiert außer im Server/Workstationbereich fast niemand.
Sollte inverses Multithreading endlich realität werden, oder andere Spiele-Engines endlich auch den Ansatz von Id Tech 7 verwenden, so könnten wir endlich auch mit mehr Kernen was anfangen.

Ironisch vielleicht: das was wir in Arrow Lake als Architektur der P Kerne bekommen, war schon vor 10 Jahren so geplant (kann man auf altne Folien auch noch so finden):
2016: 10nm Cannon Lake (bekannte Architektur im neuen Prozess)
2017: Ice Lake (Sunny Cove) neue Architektur bzw starke überarbeitung im bekannten Prozess
2018: Tiger Lake: bekannte Architektur im neuen Prozess (7nm, heute "intel 3"
2019: XYZ Lake überarbeitete Architektur in 7nm
2020: XYZ+ Lake in 5nm (heute als 20A/18A bekannt)

Wir kriegen Ende 2024 halt immer noch das, was Intel schon vor 10 Jahren gepant und wenn man so will "in der Schublade" hatte.
Die hat halt geklemmt ;)
Allein schon Meteor Lake: die ersten Testchips sind schon seit 2021 fertig, in den Markt kommt er Ende 2023, einfach weil mit dem Prozess teilweise viel neues probiert, aber auch weil man viel vorsichtiger geworden ist.

Klar, nicht immer wird alles perfekt laufen, aber wir reden dann jetzt über die 7. Generation in der von "nicht alles perfekt" bis zu "funktioniert gar nicht" alles dabei war. Dagegen schaut es bei AMD irgendwie so aus, als wenn jede Generation den logischen Schritt geht, mal werden die Kerne erhöht, dann die IPC, dann der Takt und die Efiizienz. Zen5 werden auch schon wieder 15 bis 30% mehr IPC zugeschrieben, selbst wenn wie befürchtet der Takt darunter leiden muss, wird man auch da an der Effizienz drehen und eben wieder einen logischen Schritt gehen, ohne das alles perfekt läuft, aber irgendwie sieht das alles nach einem Plan aus, während Intel planlos hinterherläuft.
Intel und AMD verfolgen hier einen ganz anderen Ansatz, wobei Intel nach und nach mehr in AMDs Richtung schwänkt.

Bei Intel ist bei der Planung einer Architektur früher klar gewesen: es wird ein ganz bestimmter Prozess und dessen Parameter sind auch bekannt. Alles wird perfekt aufeinander abgestimmt. Die Architektur auf den Prozess, gewisse Parameter am Prozess an die Architektur angepasst, auch die Software etc. Das ganze wird still vor sich hin entwickelt bis beides gemeinsam "reif" ist.
Dabei ist halt zu verstehen, dass Intel die Prozesse auf der einen Seite entwickelt und die Architekturen von ganz anderen Leuten. Das läuft parallel, aber dennoch ist es sehr verzahnt. - zumindest war das bislang lange so. Jetzt ist man viel flexibler.
Wenngleich nicht so wie AMD, schließlich muss Intel schon lange vorher planen den Prozess/die Fabs voll auszunutzen sonst wird das unwirtschaftlich.

Bei AMD ist das anders, weil sie keine eigenen Fabs mehr haben:
Sehr vereinfacht: man entwickelt in einem gewissen Rhytmus eine Architektur und wenn sich diese Entwicklung dem Ende nähert schaut man bei TSMC und Co was die so anbieten an Fertigungs und Packagingverfahren. Und dann plant man im jeweils aktuellsten Prozess, danach folgen wirtschaftliche Gedanken wie: wie groß wird der Chip im Verfahren, wieviele Wafer bestellt man, welche Yields, was kostet uns das, wie müssen wir die Produkte positionieren usw usf.
Es ist quasi - auch wieder völlig vereinfacht - ein wenig "von der Stange". Man geht mit einer Architektur durch und "bedient" sich an den parallel bei TSMC und Co entwickelten Prozessen.
Ein ähnliches Verfahren ja auch AMD intern: man arbeitet ja an verschiedenen Dingen und das jeweils zuletzt fertig gestellte stöpselt man zu einer neuen CPU/APU zusammen, in einer Konfiguration wie sie der Kunde wünscht.
 
Ein Node allein macht ja nix schneller.
Zumindest die Werbeangaben lassen das immer verlauten, x% schneller und/oder x% weniger Verbrauch bei gleicher Leistung.

Es ist quasi - auch wieder völlig vereinfacht - ein wenig "von der Stange"
Komisch, seit Jahren wird vom Vorteil der eigenen Fertigung geredet, so wie du es verstehst und beschreibst, ist die eigene Fertigung dann aber eher nachteilig. So lange es auf beiden Seiten gut läuft ist alles in Ordnung, aber wenn die Fertigung nicht läuft, kann die andere Seite liefern was sie will. Hört sich für mich eher problematisch an. Allerdings weiß ich natürlich, dass man eben auf Grund der lange Zeit überlegenen Fertigung auch seit Core2 Zeiten keine Konkurenz mehr hatte, da man immer mind. einen Node Vorsprung hatte und dieser ja meist sogar besser war, also eher 1,5 Nodes!
 
Zumindest die Werbeangaben lassen das immer verlauten, x% schneller und/oder x% weniger Verbrauch bei gleicher Leistung.
ja aber das ist ja nur mal das "Material", das das ganze theoretisch kann.
"Schneller" ist beim Prozess gemeint die Schaltzeiten (in dem Fall dann die Taktrate).
Verbrauch bei gleichem Aufbau/Taktrate usw.
Aber das sind halt theoretische Maximalwerte, was auch immer dann draus gemacht wird ist eine andere Frage.
Komisch, seit Jahren wird vom Vorteil der eigenen Fertigung geredet, so wie du es verstehst und beschreibst, ist die eigene Fertigung dann aber eher nachteilig. So lange es auf beiden Seiten gut läuft ist alles in Ordnung, aber wenn die Fertigung nicht läuft, kann die andere Seite liefern was sie will.
Naja es gibt natürlich Vorteile:
a) man ist nicht von anderen abhängig
b) man kann viel näher "close to metal" optimieren
c) es ist bei den richtigen Parametern deutlich günstiger
d) man kann eben bei technologischer Überlegenheit auch dadurch einen Vorteil haben
e) man könnte theoretisch fremdfertigen und zusätzlich Geld verdienen (was Intel seit Jahren verzweifelt mit ihrem Foundry 2.0 Programm versuchen)
Hört sich für mich eher problematisch an. Allerdings weiß ich natürlich, dass man eben auf Grund der lange Zeit überlegenen Fertigung auch seit Core2 Zeiten keine Konkurenz mehr hatte, da man immer mind. einen Node Vorsprung hatte und dieser ja meist sogar besser war, also eher 1,5 Nodes!
jep eben, siehe Punkt d)
Im Moment hat AMD halt diesen Punkt inne. Und Apple etwa auch.
 
aber 5% ist "normal"
In welcher Generation hatten wir den 5% SC Plus?

Wenn ich Zen hernehme,
Geekbench SingleCoreScore

Zen 1 = 1253 Pts = 100%
Zen 2 = 1684 Pts = 134,39 %
Zen 3 = 2276 Pts = 181,64 %
Zen 4 = 3031 Pts = 241,89 %

Auch wenn ich jetzt nicht immer den Zuwachs genommen habe, sondern den Zen 1 als Basis herhalten musste, sieht man doch recht simpel, die Zuwächse liegen allesamt im zweistelligen Bereich und das nichtmal knapp im zweistelligen Bereich. Für Zen 5 wird der erwartete Schritt sicherlich geringer ausfallen, dennoch sollte man die IPC massiv steigern (wie den Gerüchten entnommen werden kann) können und am Takt vieleicht nur "etwas" verlieren, wird es auch da recht schnell wieder deutlich zweistellig. 5% sind dann einfach ein Witz!
Naja es gibt natürlich Vorteile:
a) man ist nicht von anderen abhängig
b) man kann viel näher "close to metal" optimieren
c) es ist bei den richtigen Parametern deutlich günstiger
d) man kann eben bei technologischer Überlegenheit auch dadurch einen Vorteil haben
e) man könnte theoretisch fremdfertigen und zusätzlich Geld verdienen (was Intel seit Jahren verzweifelt mit ihrem Foundry 2.0 Programm versuchen)
Die will ich gar nicht in Abrede stellen.

a) kann man eben auch andersherum sehen
b) zweifelsfrei
c) halte ich für ein Gerücht (die Forschung die bspw. TSMC sich zahlen lässt, muss Intel vorfinanzieren; während AMD diese am Ende pro Stück bezahlt; in meinen Augen kein genereller Vorteil, sondern am Ende eben ein zweiter Unternehmenszweig, mit allen Risiken und Chancen)
d)siehe c), eben ein zweiter Unternehmensstrang mit allen Chancen, aber eben auch den Risiken
e) siehe c), ein zweiter Unternehmensstrang

Das große Problem sehe ich einfach, dass man sich unter Punkt a) nicht abhängig von anderen macht, was aktuell ja genau andersherum ist. Man hat sich am Ende in Abhängigkeit von der eigenen Fertigung gebracht und während Nvidia und AMD den Partner dann einfach wechseln können (wenn es nicht läuft), muss Intel alleine auf Grund der Kosten eben fast schon zwangsweise die eigene Fertigung nutzen. Dazu kommt, dass man die Prozesse ja recht früh buchen muss und der Markt Intel damit zu einem gewissen Teil verschlossen bleibt.
 
Zuletzt bearbeitet:
Ja gut ,die frage bleibt wo Intel am meisten die Leistung herholt.Wenn man so eingeschränkte Anwendung hat wie ich sie habe,dann spielt das wo Intel diese herholt schon eine sehr hohe Rolle.
Wenn nun also Intel nur in AVX 512 und mehr L3 Cache die Mehrleistung reinpumpt,dann sehe ich da 0 % mehr IPC Steigerung weil von AVX 512 meine Anwendung 0 davon Profitiert.Das habe ich bei wem direkt ausprobiert.Und Zen 4 kann ebenso AVX 512 schon gut profitieren.Also bei Intel und AMD es getestet.Das Ergebnis blieb gleich.Warum auch immer.
Und das mehr an L3 Cache sah ich ebenso null mehr Mehrleistung.Ausprobiert hatte ich das ebenso.Bin auf der Suche nach immer mehr Mulicore Leistung.Aber irgendwie kommt die nicht mehr so an.
Und mehr L2 Cache hat Intel gegenüber AMD ja eh schon.Hoffe die IPC Steigerung kommt also nicht nur durch den mehr an Cache sondern von anderen Bereichen auch.Will ja richtige Steigerung sehen und nicht nur auf der Stelle treten.
Nun Intel wird da schon noch mehr machen,wäre sonst zu wenig wo Intel die Stellschrauben noch dran drehen würde.
Hoffe nur das reicht aus um was zu merken.Der Verlust durch HT und den geringeren Takt werde ich sehr stark zu spüren bekommen.Meine Anwendung reagiert da drauf Allergisch.Also hoffe ich das es dann Intel sehr stark an der IPC drehen wird,weil weniger Leistung will ich auf keinen fall haben.Vielleicht schafft es ja Intel pro Takt mehr Leistung heraus zu holen.Also sprich pro 100 mhz Takt gleich so und so viel mehrleistung gegenüber der vorherigen Generation.So das dann Intels CPU mit rund 4-4,5 Ghz Takt so viel Leistung schaffen als ob die CPU bei 6 ghz Takt unterwegs wäre.
Dann wäre zumindest die Leistung gleich.
Die Intel CPUS mied ich nur bisher wegen dem höheren Stromverbrauch.Wenn Intel das Problem lösen würde,dann wäre Intel auch wieder ne Option.Ansonsten steht ja auch AMD nach wie vor auf der Nummer eins.Weil ich halt auf Leistung auch mit nur 142 Watt drauf stehe.Wenig Stromverbrauch bei sehr guter Leistung ist mein Fokus.

Intel hat es also selbst in der Hand.Mal sehen ob es Intel auch die Chance ergreifen wird und die Oems besser in den Griff bekommt,das die nicht einfach noch mehr Spannung drauf ballern wie sie es ja bisher so getan hatten.AMD scheint ja die Oems also die Mainbaord Hersteller besser in den Griff bekommen zu haben als es Intel bisher geschafft hatte.
 
in auf der Suche nach immer mehr Mulicore Leistung.
Nennt sich Threadripper bei AMD und Xeon bei Intel!

Also hoffe ich das es dann Intel sehr stark an der IPC drehen wird
Nahezu ausgeschlossen, so wie ich das verstehe ist der Ansatz der gleiche wie in aktuellen CPUs und die Architektur findet kaum Änderungen. Der L2 wird etwas bringen, beim Rest würde ich daher eher auf "Stillstand" tippen. Wenn Intel nur 4,5Ghz erreichen würde (was ich nicht glaube), gehe ich davon aus, dass man signifikant langsamer ist als beim aktuellen Refresh, man wird wieder in den Bereich 5,5Ghz rein müssen, sind dann rund 10% weniger Takt und wenn man das mit einem IPC Gain rausholt, wäre ich schon fast positiv überascht.
 
In welcher Generation hatten wir den 5% SC Plus?

Wenn ich Zen hernehme,
Geekbench SingleCoreScore

Zen 1 = 1253 Pts = 100%
Zen 2 = 1684 Pts = 134,39 %
Zen 3 = 2276 Pts = 181,64 %
Zen 4 = 3031 Pts = 241,89 %

Auch wenn ich jetzt nicht immer den Zuwachs genommen habe, sondern den Zen 1 als Basis herhalten musste, sieht man doch recht simpel, die Zuwächse liegen allesamt im zweistelligen Bereich und das nichtmal knapp im zweistelligen Bereich. Für Zen 5 wird der erwartete Schritt sicherlich geringer ausfallen, dennoch sollte man die IPC massiv steigern (wie den Gerüchten entnommen werden kann) können und am Takt vieleicht nur "etwas" verlieren, wird es auch da recht schnell wieder deutlich zweistellig. 5% sind dann einfach ein Witz!
aber du vergleichst hier 4 verschiedene Architekturen, während es bei Intel die SELBE Architektur ist. Auch wenn die das eine neue Gen nennen, es ist dieselbe Architektur wie Alder/Raptor Lake. Ja sogar wie wie die Rocket Lake Kerne, mit dem Unterschied, dass es bei Rocket Lake ausschließlich P Kerne gab.

Daneben ist AMDs Zen Architkeutr 2017 ja brandneu gewesen, da kann man vergleichsweise viel optimieren und rausholen, während Intels Core-Architektur doch zwar immer wieder überarbeitet wurde, aber eher "sanft" statt "komplett".
Am Beginn waren da auch die IPC Sprünge größer. Da müsste man etwa die IPC von den
i7 aus 2009 vergleichen mit Sandy Bridge, Haswell etc.
und dann noch die Taktrate miteinbeziehen.
Wir sind jetzt 2015 bis 2021 mit DERSELBEN Architektur (Skylake) gefahren, lediglich die Kernanzahl hat sich verändert
Seit 2001 haben wir dieselbe Architektur der P Kerne. Es ist einfach keine Veränderung zu erwarten was die Leistung betrifft, lediglich die Effizienz wird gewaltig steigen.

Die will ich gar nicht in Abrede stellen.

a) kann man eben auch andersherum sehen
ja eh. Ich mein so wie Intel es gemacht hat ist man halt vom eigenen Prozessfortschritt abhängig.
So wie man es JETZT macht (man benutzt auch TSMC zusätzlich) ist man tatsächlich von nichts mehr abhängig, aber natürlich: das wird ja Jahre vorher festgelegt, wenn ein Prozess also am Ende entgegen der Erwartung "hinkt" hilft das ad hoc nicht.
b) zweifelsfrei
c) halte ich für ein Gerücht (die Forschung die bspw. TSMC sich zahlen lässt, muss Intel vorfinanzieren; während AMD diese am Ende pro Stück bezahlt; in meinen Augen kein genereller Vorteil, sondern am Ende eben ein zweiter Unternehmenszweig, mit allen Risiken und Chancen)
weshalb ich schrieb "unter den richtigen Parametern".
Forschung und Entwicklung für die Prozesse wird exorbitant teurer, aber bis vor kurzem war Intels lösung klar günstiger für sie:
die F&E hat noch nicht so viel gekostet, man hatte genug Marktabdeckung um das "bisschen" zu decken und ab dann ist jeder selbst hergestellte Prozessor wesentlich günstiger.
Intel kontrolliert vom Sand bis zum Chip fast alles selbst, während AMD das fertige Produkt bestellt.
Zählt man also die F&E ab, ist das ein massiver Kostenvorteil für Intel.
Zählt mans mit hinein, muss man auf den "Break Even" Punkt achten. Der war bei Intels Marktanteil von 80% früher schnell erreicht, jetzt ist das aber anders: man hat Marktanteile verloren UND die Forschung wird enorm teuer gerade.
Aber: wenn Intel der Meinung wäre es zahlt sich nicht aus, könnte man immer noch bei TSMC bestellen.
 
Zuletzt bearbeitet:
Ok verstehe,habe mich da wohl missverständlich ausgedrückt.Meinte nicht immer noch mehr Kerne,sondern generell die Mulitcore Leistung ,also bezogen auf das Mainstream.Mit immer mehr Multicore Leistung ist klar Threadripper und Xeon.Aber es kommt ja auch auf die Verbesserung an sich an.Kerne bei CPU können mehr werden,nur die Mehrleistung ist nicht immer durch immer mehr Kerne zu erreichen.Kommt halt drauf an welche Kerne immer mehr werden und wie diese auf die Anwendung wirken.
Und nur L2 ist ein wenig Arg wenig.Dann halt auf den Nachfolger warten.Bis dahin ist ja Zen 5 schon drausen und es kloppft mehr Zen 6 an die Türe.
Aber es wird immer schwerer da mehr herauszuholen.Um schneller als Zen 5 und Zen 6 zu sein müsste Intel sich mehr anstrengen.Das wird nicht leicht werden.
Mal sehen wie viel an mehrleistung wirklich ankommen wird.
Wenn ich nun abwarten würde bis es die doppelte Leistung zu einem Ryzen 9 5950x erreichen würde,müsste ich noch viel länger warten.Ob das mein System mit macht weitere 10-15 Jahre zu warten,da habe ich so meine Zweifel.
Die Spünge sind halt nicht mehr so hoch und selbst bei AMD steigen die mehrleistung nicht mehr so rasant an.
Klar heißt es immer man soll erst dann wenn man es wirklich braucht kaufen,anonsten braucht man die Leistung nicht.
Wenn ich aber schreiben würde,man wartet bis man die mehrleistung auch wirklich erreicht hat,weil man mit der aktuellen mehrleistung unzufrieden ist,ist das gewiss ja wieder was anderes.
 
ja, aber das ist schon länger klar, weil Arrow Lake dieselbe Architektur verwendet wie Meteor Lake (mit mehr Cache halt). Und MT-L Architektur basiert auf der von Rapid Lake, die auf Alder Lake basiert. Dessen Performance-Kerne kommen aus "Rocket Lake". Eine Architektur die wiederum früher mal als "Tiger Lake" bekannt war. Und Tiger lake ist nur der Shrink (+ Cache) von "Ice Lake".

Weder ist Tiger Lake eine Architektur noch ein Shrink von Ice Lake (beides sind 10-nm-CPUs) noch entsprechen die Golden-Cove-Kerne von Alder Lake der Willow-Cove-Architektur von ersterem. (Von Raptor Lake zu Meteor Lake soll es ebenfalls deutliche Änderungen geben, aber das muss ich mir bis Redaktionsschluss noch reinziehen.)

Ironisch vielleicht: das was wir in Arrow Lake als Architektur der P Kerne bekommen, war schon vor 10 Jahren so geplant (kann man auf altne Folien auch noch so finden):
2016: 10nm Cannon Lake (bekannte Architektur im neuen Prozess)
2017: Ice Lake (Sunny Cove) neue Architektur bzw starke überarbeitung im bekannten Prozess
2018: Tiger Lake: bekannte Architektur im neuen Prozess (7nm, heute "intel 3"
2019: XYZ Lake überarbeitete Architektur in 7nm
2020: XYZ+ Lake in 5nm (heute als 20A/18A bekannt)

Die Folie würde mich mal interessieren, wenn du einen Link hast. Sie müsste ähnlich legendär wie AMDs "10 GHz Bulldozer"-Ankündigung werden. :-) (Die ich mir leider nicht gespeichert habe. :-()
Bislang sind mir aber nicht einmal offizielle Folien bekannt, die überhaupt bis Cannon Lake gereicht hätten. Bevor Pat übernommen hat, gab es so gut wie nie Aussagen von Intel selbst, die mehr als ein Jahr in die Zukunft reichten und Intels Tick-Tock-Schemata enden allesamt mit Skylake beziehungsweise lassen den Namen des Nachfolgers ebenso offen, wie dessen Erscheinungsjahr – 2015, als Skylake erschien war bereits sehr klar, dass Intel das versprochene 2-Jahres-Ziel nie würde halten können und man hat sich konsequent vor entsprechenden Ankündigungen gedrückt. Cannon Lake wurde zum Skylake-Launch bereits eher für 2017 erwartet (Paper-Launch ggf. knapp vorher) und Ice Lake definitiv erst 2018. Von Tiger Lake war noch gar keine Rede, da er mutmaßlich nachträglich eingeschoben wurde und dann circa 2019 erstmals in den Gerüchten auftauchte, direkt als 10-nm-Projekt.
 
Zuletzt bearbeitet:
aber du vergleichst hier 4 verschiedene Architekturen, während es bei Intel die SELBE Architektur ist
Egal was ich vergleiche, mal abgesehen davon, dass Intels Änderungen sicherlich auch weitreichend genug sind (ein Blick in den IPC Gain reicht ja schon). Es geht darum was released wird und wann. Alle zwei Jahre kommt eine Gen und 5% für eine solche Gen ist enttäuschend

weshalb ich schrieb "unter den richtigen Parametern".
Ja, mit den Parametern hat AMD früher auch gerechnet, klappte nur nicht so gut

Im Ernst, die eigene Fertigung war nun mehr als 10 Jahre ein Segen, es lief vieles gut und man konnte GF/TSMC und Samsung auf Abstand halten. Aktuell ist diese eben ein Fluch weil TSMC den Lauf hat, den Intel vorher hatte und vieles richtig läuft.

Aber ich zweifele ob Intel einfach alle CPUs bei TSMC belichten lassen könnte, denn man wird die Fertigung behalten wollen und müsste dann die Forschung auf viel viel weniger Silizium verteilen. So ging es am Ende ja GF.
 
Ja genau dann braucht nur Intel die selben Probleme zu haben wie Globalfoundies,einfach nicht die Menge an Chips auf die Strecke zu bringen.ALso nen Engpass und limitiert durch die Fertigung und schon sinken die Verkaufenzahlen.Man will zwar mehr Herstellen,kann es aber nicht.Und dann ist die Frage ob es sich dann noch lohnen würde.Und flexible ist Intel mit der Fertigung auch nicht.Und ob man dann von sich lohnen sprechen kann,ist ne andere Frage.
Aber wenn das Intel sowas machen würde,würde der Markt noch limitierter.Weil durch das Abspalten ist halt die Frage ob die ohne Intel weiter kommen würden.Und es nicht so ist,das sie dann einfach auf dem Aktuellen Stand aus bleiben würden.Dann würden sie noch weiter abgehängt.Bei Samsung ist ne gute Frage wie es mit denen weiter gehen würd.
Auf jedenfall limitiert ja eh schon alles .Aber gut wie es mit Intel in der hinsicht weiter gehen wird,das wird sich zeigen und ob das alles was auf dem Papier und in der Therroie so kommen wird,auch ne andere Frage.Ich glaube es jedenfalls erst wenn ein Nutzbare CPU mit der Fertiung und so zur Verwendung bereit steht um man sie auch einbauen kann.
 
Weder ist Tiger Lake eine Architektur
nein, aber früher war sie als Tiger Lake deklariert, bevor man den Cores eigene Namen gab
noch ein Shrink von Ice Lake (beides sind 10-nm-CPUs)
auch hier: als shrink geplant, wurde dann hakt verworfen, wenngleich man diskutieren kann ob 10+ auf 10++ ein Shrink ist, die Dichte hat sich erhöht
noch entsprechen die Golden-Cove-Kerne von Alder Lake der Willow-Cove-Architektur von ersterem.
Ja ein bisschen Cache da oder dirt, mag sein, im Prinzip ist es die gleiche Architektur, außer wir sind spitzfindig und sagen Skylake und alle Desktopableger bis Rocket Lake sibd "nicht dieselbe Architektur"
(Von Raptor Lake zu Meteor Lake soll es ebenfalls deutliche Änderungen geben, aber das muss ich mir bis Redaktionsschluss noch reinziehen.)
dann hat Intel hier die CB Kollegen also belogen, die extra nachgefragt haben? soso. Nur ums zu verdeutlichen: ich spreche rein von der Architektur der P cores
Die Folie würde mich mal interessieren, wenn du einen Link hast.
bin grad am Handy, aber wenn du qlte Tick/Tock Folien suchst findest du sie bis Tiger Lake
Sie müsste ähnlich legendär wie AMDs "10 GHz Bulldozer"-Ankündigung werden. :-) (Die ich mir leider nicht gespeichert habe. :-()
davon jör uch zum ersten Mal, klingt spannend, dachte es gab nur 10 GHZ P4 Folien bzw Aussagen
Bislang sind mir aber nicht einmal offizielle Folien bekannt, die überhaupt bis Cannon Lake gereicht hätten. Bevor Pat übernommen hat, gab es so gut wie nie Aussagen von Intel selbst, die mehr als ein Jahr in die Zukunft reichten und Intels Tick-Tock-Schemata enden allesamt mit Skylake beziehungsweise lassen den Namen des Nachfolgers ebenso offen, wie dessen Erscheinungsjahr
interessant... ich seh es sehr deutlich vor mir, na da werd ich morgen mal suchen sofern ich Internet hab im Flugzeug
– 2015, als Skylake erschien war bereits sehr klar, dass Intel das versprochene 2-Jahres-Ziel nie würde halten können und man sich konsequent vor entsprechenden Ankündigungen gedrückt. Cannon Lake wurde zum Skylake-Launch bereits eher für 2017 erwartet (Paper-Launch ggf. knapp vorher) und Ice Lake definitiv erst 2018. Von Tiger Lake war noch gar keine Rede, da er mutmaßlich nachträglich eingeschoben wurde und dann circa 2019 erstmals in den Gerüchten auftauchte, direkt als 10-nm-Projekt.
ich hab das so in Erinnerung, dass Tiger Lake schon für Intels 7nm Prozess vorgesehen war, allerdings kann es sein, dass ich grad alte Gerüchte und Folien vermische
Egal was ich vergleiche, mal abgesehen davon, dass Intels Änderungen sicherlich auch weitreichend genug sind (ein Blick in den IPC Gain reicht ja schon). Es geht darum was released wird und wann. Alle zwei Jahre kommt eine Gen und 5% für eine solche Gen ist enttäuschend
ja wie gesagt: wenn man nicht viel qn der Architektur ändert, wird man leider keine großen Sprünge machen. AND macht das aktuell besser. Intel zwischen i7 Nahalem und i7 Skylake auch
Ja, mit den Parametern hat AMD früher auch gerechnet, klappte nur nicht so gut
wie erklärt: lag am Marktanteil/Umsatz, dass AMD die Forschung und Fabs nicht halten konnte im Vergleich zum 10x größeren Intel
Im Ernst, die eigene Fertigung war nun mehr als 10 Jahre ein Segen, es lief vieles gut und man konnte GF/TSMC und Samsung auf Abstand halten. Aktuell ist diese eben ein Fluch weil TSMC den Lauf hat, den Intel vorher hatte und vieles richtig läuft.
ja eh. Und wenn es sich qls wahr erweist ist grad bei TSMC 3nm der Wurm drin und Intel zieht wieder nach
Aber ich zweifele ob Intel einfach alle CPUs bei TSMC belichten lassen könnte, denn man wird die Fertigung behalten wollen und müsste dann die Forschung auf viel viel weniger Silizium verteilen. So ging es am Ende ja GF.
jep, das ist genau das Problem
 
Zuletzt bearbeitet:
ja wie gesagt: wenn man nicht viel qn der Architektur ändert, wird man leider keine großen Sprünge machen. AND macht das aktuell besser. Intel zwischen i7 Nahalem und i7 Skylake auch
wobei auch Intel deutlich größere Sprünge gemacht hat,

13900k = 2962 Pts
12900k = 2595 Pts
11900k = 2351 Pts
10900k = 1747 Pts
9900k = 1654 Pts

Das sind auch immerhin 80% über 5 Generationen, also im Schnitt deutlich zweistellig. Das AMD mit Zen und einer komplett neuen Arch mehr "Spielraum" hat ist mir klar, aber die 5% für Arrow Lake sind einfach viel zu wenig. Wie gesagt, ich verstehe durchaus warum das so ist, aber wie man so schön sagt, "wayne interessierts" warum, viel wichtiger sind die harten Fakten und da scheint Arrow Lake am Ende eine vollständige Luftpumpe zu werden und Intel wird aller voraussicht nach von AMD überrannt werden (die dazu vermutlich in einem günstigeren Prozess fertigen).
 
wobei auch Intel deutlich größere Sprünge gemacht hat,

13900k = 2962 Pts
12900k = 2595 Pts
11900k = 2351 Pts
10900k = 1747 Pts
9900k = 1654 Pts

Das sind auch immerhin 80% über 5 Generationen, also im Schnitt deutlich zweistellig. Das AMD mit Zen und einer komplett neuen Arch mehr "Spielraum" hat ist mir klar, aber die 5% für Arrow Lake sind einfach viel zu wenig. Wie gesagt, ich verstehe durchaus warum das so ist, aber wie man so schön sagt, "wayne interessierts" warum, viel wichtiger sind die harten Fakten und da scheint Arrow Lake am Ende eine vollständige Luftpumpe zu werden und Intel wird aller voraussicht nach von AMD überrannt werden (die dazu vermutlich in einem günstigeren Prozess fertigen).
ich bin über ARL noch nicht ganz im Bilde ob man mehr Cache bringt (Gerüchte sagen teilw ja bei L1/2 und manche reden von L4 Cache Modellen), aber es sind bislang nur Gerüchte. Wenn am Cache gearbeitet wird, kann schon auch mehr als 5% rausschauen, je nach Takt.
Ich würd halt nicht davon ausgehen, dass der Takt steigt
 
Was meint ihr wo wird der 8800X3D in puncto gaming performance und Effizienz am Ende landen?
Wird er überhaupt eine Chance gegen Arrow Lake haben?

Anhang anzeigen 1440373
Wie meinen ?
AMD ist jetzt schon on paar was Leistung angeht und Effizients technisch vorne.
Also so ein 8800x wird ca auf der Spiele Leistung eines 7800x3d sein (vermutung).
Bedeutet der 8800x3d legt nochmals 15 % drauf.
Also ich sage das geht aus wie immer 15900k = 8800x3d was leistung angeht (spiele)
und dann wieder 8800x3d > 15900k was Effizients angeht. Da wird sich glaube ich nichts ändern.
 
nein, aber früher war sie als Tiger Lake deklariert, bevor man den Cores eigene Namen gab

auch hier: als shrink geplant, wurde dann hakt verworfen, wenngleich man diskutieren kann ob 10+ auf 10++ ein Shrink ist, die Dichte hat sich erhöht

Ja ein bisschen Cache da oder dirt, mag sein, im Prinzip ist es die gleiche Architektur, außer wir sind spitzfindig und sagen Skylake und alle Desktopableger bis Rocket Lake sibd "nicht dieselbe Architektur"

dann hat Intel hier die CB Kollegen also belogen, die extra nachgefragt haben? soso. Nur ums zu verdeutlichen: ich spreche rein von der Architektur der P cores

bin grad am Handy, aber wenn du qlte Tick/Tock Folien suchst findest du sie bis Tiger Lake

davon jör uch zum ersten Mal, klingt spannend, dachte es gab nur 10 GHZ P4 Folien bzw Aussagen

interessant... ich seh es sehr deutlich vor mir, na da werd ich morgen mal suchen sofern ich Internet hab im Flugzeug

ich hab das so in Erinnerung, dass Tiger Lake schon für Intels 7nm Prozess vorgesehen war, allerdings kann es sein, dass ich grad alte Gerüchte und Folien vermische

- Die Architekturen hatten spättestens ab Cannon Lake eigene Codename. Nun dauerte es ewig, bis von Cannon Lake irgendwas rauskam, weswegen "Palm Cove" vor 2017 kaum jemandem ein Begriff war. Aber von Tiger-Lake-Innereien wusste man allgemein erst wesentlich später etwas. Meiner Erinnerung nach wurde der einige Zeit lang als "Willow Cove + neue IGP für mobile" gehandelt.

- Schon 10 nm+ war in der alten Tick-Tock-Roadmap, auf die du dich bei deinen Zeitangaben stützt, überhaupt nicht vorgesehen, von 10 nm++ ganz zu schweigen. Tiger Lake hätte da nie als Shrink gezählt und im folgenden P/A/O-Schema war er immer O. Oder eher O+/O²/Ohnowestillgotno7.

- Cache, µOp-Cache, TLBs. Decoder, Backend-Puffer und Load um 50 Prozent ausgebaut; ALUs und Adress um 25 Prozent; Scheduler, Ausführungsports um 20 Prozent – ich weiß nicht, was wo du die Grenze zu "im Prinzip die gleiche Architektur" ziehst, aber wären für dich auch Summit Ridge und Raphael die gleiche CPU?

- Wie gesagt: Ich habe noch 150 MiB Präsentationen vor mir. Die erste Slide verspricht eine "new p-core architecture", aber das Redwood-Cove-Blockdiagramm sieht aus, wie von Golden Cove kopiert. Mal sehen. Vielleicht auch eine Frage des Bezugspunkts – es sieht aus wie eine Kopie des Golden-Cove-Vollausbaus. SPR-Niveau wäre aus Enduser-Sicht schon ein Schritt gegenüber ADL/RPL.

- Tiger-Lake-Folien: Ich hätte nicht gesagt, dass ich nichts finde, wenn ich nicht vergeblich gesucht hätte. ;-) Selbst die ältesten Tiger-Lake-Gerüchte in Textform sind schon PAO, dementsprechend auch 10 nm und nicht Tick Tock, offizielle Folien folgten lange später. Das älteste, was ich finden konnte, was eine 2016er Gerüchte-Auswertung von guru3d. Damals wusste man noch nichts von Sunny Cove, sortierte Tiger Lake relativ zu Ice Lake aber bereits wie Kaby Lake zu Skylake ein, also als Willow-Cove-Rebrand ganz ohne Neuerungen.

- AMD-Folien: AMD hatte Bulldozer erstmals als Konter zu Intels 10-GHz-Vision öffentlich erwähnt. Ich war damals reiner Leser und kenne keine Hintergründe, tippe aber mal auf einen reinen Marketing-Stunt nach dem Motto "sehr her, wir arbeiten auch an was geilem!". Und dazu gehörte natürlich auch ein "10+ GHz"-Versprechen. Aber man muss in einer sehr frühen Entwicklungsphase gewesen sein und hat dann in den folgenden 6-7-8 Jahren auf die Erfolge und Fehler Intels reagiert respektive Techniken aus der parallel/als Lückenbüßer nötigen K8-Weiterentwicklung übernommen:
Netburst => Bulldozer
"10 GHz" => !10 GHz!
Hyperthreading => Modulbauweise
Multicore => Module + Phenom-Crossbar
auch IMC => MOAR CACHE!

Das große Problem AMDs war halt, dass sie damals viel zu klein für parallele Architekturentwicklungen waren. Nachdem es offensichtlich wurde, dass schon für 150-W-, geschweigen denn für die geplanten 300-W-CPUs gar kein Markt existiert, wechselte Intel nicht nur auf Multicore, sondern auch auf die Core-Architektur. AMD dagegen musste mit der eigentlich für kleine, hochtaktende CPUs gedachten Architektur weitermachen und hat daraus nicht-zu-große Prozessoren mit besonders vielen Kernen geformt. Das diese Kerne eigentlich für was anderes konzipiert wurden, hat man ja an den Bulldozer-Taktrekorden noch sehen können. Aber das Gesamtpaket "FX" wurde für einen ganz anderen Markt zurechtgebogen als ursprünglich angedacht war – das man hat man den CPUs genauso angemerkt, wie ein paar Jahre zuvor der letzten Netburst-Generation. Nur hatten die halt das Glück, nach 6 Monaten im "brauchbar, aber unterlegen"-Zustand von Core-basierten Prozessoren abgelöst zu werden, während Bulldozer 6 Jahre ausharren musste und dabei von "kann man über den Preis noch ganz gut verkaufen"- auf "wurde das im Museum geklaut?"-Status absackte.
 
sondern auch auf die Core-Architektur.
war das damals eine parallele Entwicklung. Hab irgendwie im Kopf, dass das grundlegende Design vom Pentium Pro oder so abstammt und man diese dann eben zur Core Arch weiterentwickelte.
während Bulldozer 6 Jahre ausharren musste und dabei von "kann man über den Preis noch ganz gut verkaufen"- auf "wurde das im Museum geklaut?"-Status absackte.
so schlimm war Bulldozer aber doch gar nicht. Soweit ich mich erinnere war ein im einem vergleichbaren Prozess gefertigter Bulldozer gar nicht so schlecht gegen die Intelsche Konkurenz. Problem war in meiner Erinnerung hauptsächlich, dass man in der Fertigung teils zwei Strukturen zurücklag. Das Problem hatte man ja auch zu Beginn von Zen noch nicht ad acta gelegt, weshalb man ja auch mit Zen 1 noch relativ weit zurücklag, hier war die Modulbauweise dann eben hilfreich, da man 8 Kerne verbauen konnte und so die Konkurenz, die im Mainstream noch mit 4 Kernen agierte unter Druck setzen konnte. Man nutzte damals zwar namentlich einen identischen Prozess, aber soweit ich mich erinnere war Intels 14nm Prozess (gerade in der Version +++++++++++) dem TSMCschen Prozess deutlich voraus und ging eher in Richtung 10nm TSMC. Erst mit TSMCs 7nm Prozess und dem Zen2 Chip konnte Intel dann ja richtig vorgeführt werden, eben weil man auf einmal einen Vorsprung in der Fertigung hatte.
 
Zuletzt bearbeitet:
Bulldozer wurde in Szenarien, die für seinen Zielmarkt typisch waren, teils vom eigenen Vorgänger geschlagen, so schlecht war der. Euro-für-Euro konnte er mit einigen Intels konkurrieren, aber das war es auch – und, wie von mir geschrieben, es war nichts geplantes. Von der Konstruktion und dem Aufwand her war Bulldozer ein High-End- bis Enthusiast-Design, aber AMD musste es in der Mittel- und schließlich Einsteigerklasse verkloppen (was die Mainboard-Hersteller vor echte Probleme stellte). Daran wären sie beinah zugrunde gegangen: Zwar bringen CPUs auch zu Ramschpreisen immer noch ein paar Euro ein, weil sie in der Produktion trotz allem relativ günstig sind. Aber hauptsächlich müssen sie ihre extrem teure Entwicklung refinanzieren beziehungsweise das Geld für die Vorbereitung der (Nach-)Nachfolger reinbringen. Das konnte Bulldozer nicht; er hätte eigentlich 100-300 Euro weiter oben antreten sollen/müssen. AMD hat damals viel Glück gehabt, dass ATI erst mit HD3000/4000/5000ern einen Kracher nach dem anderen landete respektive Nvidia mit sowas wie Thermi antrat. Aber trotzdem musste man (nachdem die Fabs wegen der Phenom-1- und der HD2900-Pleite schon weg waren), alles an Firmeneigentum verkaufen, dass nur irgendwie loszuschlagen war, und jede Menge gute Entwickler ziehen lassen, um überhaupt bis zur Fertigstellung von Zen im Geschäft zu bleiben.

Bezüglich Core-Architektur:
Es gibt eine relativ durchgehende Entwicklungslinie von der P6-Architektur (Pentium Pro/II/III) über den Pentium M und den Core Solo/Duo zu den Core 2 Duo und Core 2 Quad, die 2006 den Desktopmarkt aufgemischt haben. Aber da ist auch viel Technik vom Pentium 4M eingeflossen (vom Cache nach draußen ist der Pentium M näher mit diesem denn mit dem PIII verwandt) und es gab einige große Entwicklungsschübe, bei denen letztlich jedes Element mal geändert oder ausgetauscht wurde. "Abstammung" ist somit nicht ganz verkehrt, erweckt aber einen falschen Eindruck. Der Core 2 hat mit einem Pentium Pro (etwas) weniger gemeinsam, als ein Phenom II mit dem Ur-Athlon.

Aber das war letztlich auch der entscheidende Punkt: Intel wusste, dass die tatsächlich komplett eigenständige Netburst-Linie für embedded- und ultra-mobile-Zwecke unbrauchbar sein würde. Der Pentium III war für diese Märkte ein besserer Ausgangspunkt (halber Stromverbrauch gegenüber zeitgenössischen Athlons, aber das hat damals keinen Gamer interessiert), vor allem aber wurde er dafür weiterentwickelt. So hatte Intel eine komplette zweite, topaktuelle Entwicklungslinie bereitliegen, als Effizienz auf einmal auch im Desktop gefordert wurde. Ähnliches erleben wir heute wieder: Die E-Cores gehen in direkter Linie auf die zweite Atom-Architekturgeneration zurück. Eigentlich für kleine, billige Netbooks konzipiert, retten sie Intel den Arsch in einer Situation, in der kleine, billige Zusatzkerne die unzureichende Multi-Thread-Skalierung der eigentlichen Desktop-Entwicklungslinie kaschieren können. Man muss sich nur mal vor Augen halten, dass Intel heute trotz vier Jahren respektive 1,5 Nodes Fertigungsrückstand weiterhin im Rennen bleibt. Der "zweite Platz von zwei" ist zwar keine Glanzleistung, aber man stelle sich mal vor, AMD hätte umgekehrt mit einem übertakteten 1800X gegen den 12600K antreten müssen.
 
Zurück