News Zen-5-Flaggschiff Ryzen 9 9950X getestet: Ergebnisse werfen Fragen auf

Nun ja,ich sehe es gut wenn es dann mit Zen 6 16 Kerne als Monotolith also ein Chip bringen,dann Profitiere ich auch davon.
Keine hohen Latenzen durch den Aufbau mehr und weniger Temperatur ,sowie auch geringere Idle Stromverbrauch.
Sollte das so kommen und dann mit 32 Kernen im Mainstream,dann müsste ich erst mal schauen,wie sich dann die Leistung Entwickelt.Wenn sich es heraus stellt,das der Gewinn sehr gering ist,dann bleibe ich auch in Zukunft bei 16 Kernen.Da bin ich auf der sichereren Seite dann.
 
Die einzige Frage die sich mir aufwirft ist, wieso AMD nicht gegen diese leaks vorgeht und die leaker mal hart abstraft!?
Warum sollte AMD dies tun? Die Leute reden drüber (wenn auch meist nur in einschlägigen Foren). Das Produkt ist/bleibt im Gespräch. Ist ergo kostenlose Werbung für das (kommende) Produkt.

Daher noch einmal: warum sollte eine Firma derlei tun...:ka:

Gruß
 
Weil es ein NDA Bruch ist?

Sonst könnten ja einfach alle die im Vorfeld eine CPU zum testen bekommen schon weit vorher Benchmarks Posten, eventuell fehlt aber noch ein Treiber, ein BIOS Update, oder oder oder.

Noch besser einfach gar kein NDA unterschreiben, dann gibt es aber auch keine Samples mehr.
 
Weil es ein NDA Bruch ist?

Sonst könnten ja einfach alle die im Vorfeld eine CPU zum testen bekommen schon weit vorher Benchmarks Posten, eventuell fehlt aber noch ein Treiber, ein BIOS Update, oder oder oder.

Noch besser einfach gar kein NDA unterschreiben, dann gibt es aber auch keine Samples mehr.
NDAs gerade in diesem Kontext sind zwar üblich aber wirklich harte Konsequenzen braucht man kaum fürchten.
GN hatte ja mal einen Anwalt zu dem Thema und da war wenn ich das noch richtig im Kopf habe auch die Rede dass man erstmal einen Schaden nachweisen muss und die Anwaltskosten dafür meist viel zu hoch sind als dass es sich in einem solchen Fall lohnen könne.
Das schlimmste was passiert, ist dass man keine Samples mehr bekommt.
 
Die Rechtslage / Rechtsprechung in Amerika ist aber eine andere als in DE / in der EU.

Scheint aber eh niemanden zu stören, also weiter machen.
 
Weil es ein NDA Bruch ist?

Sonst könnten ja einfach alle die im Vorfeld eine CPU zum testen bekommen schon weit vorher Benchmarks Posten, eventuell fehlt aber noch ein Treiber, ein BIOS Update, oder oder oder.

Noch besser einfach gar kein NDA unterschreiben, dann gibt es aber auch keine Samples mehr.
Das Problem ist ein rechtliches: du kannst manche Daten nicht immer zurückverfolgen. Ein "Leaker" hats halt von den Spatzen vom Dach gehört, und schon hat AMD aber keine Chance.
Postet PCGH aber etwas, das sie im Rahmen des Testens erfahren haben und sind quasi die Originalquelle, ohne auf jemand anderes verweisen zu können, dann haben sie ein Problem, dann haben sie ihr NDA gebrochen.
Postet es ein Twitterer/Xler oder wie auch immer die sich jetzt nennen, ohne, dass er ein NDA unterschrieben hat wirds nochmal schwieriger etc.

Das ist ja auch der Grund, warum PCGH das NDA nie bricht, aber sie dürfen natürlich diverse Tweets wiedergeben die etwas beinhalten, das sie auch schon im Test (der noch unter Verschluss ist) festgestellt haben. Schließlich wissen sie ja dann schon, ob es wahr ist oder nicht. Manchmal postet man aber doch kurz vor Fall des NDAs noch wilde anderslautende Gerüchte. Entweder um Klicks zu erzeugen oder den Schein zu wahren, dass nicht alle Gerüchte auf PCGH mit internen Daten abgeglichen sind... man kann das kurz vor größeren Hardware-Releases hier immer gut beobachten und mit etwas Geschick auch einordnen
 
aktuell kann man Intels Top-Modelle nicht wirklich empfehlen, AMDs sehr wohl
Wenn man die Topmodelle aus einer vernünftigen Betrachtung entfernt, nein. AMD bietet nahezu die selbe Leistung, je nach Bereich mit absurden Effizienzvorteilen.
gescheitert ist es nicht, auch AMD setzt drauf, nur mit anderem Ansatz
Naja, AMDs Ansatz ist es Chipfläche zu sparen, ohne eine eigene Architektur zu entwickeln. Halte ich für ökonomischer als zwei Architekturen weitgehend parallel zu bearbeiten.


Erstens ist Intel längst MCM
Unrecht hast du nicht, aber es ist eben schwierig diese Aussage so zu treffen, da Intel CPUs derzeit nicht im MCM Design produziert und es auch nicht könnte. AMD hat einfach den Vorteil in einem recht großzügigen Rahmen CCDs aneinander zu Reihen und eine Arch quasi beliebig zu skalieren. Intel kann dies nicht und Gerüchte dazu habe ich bisher auch nicht gesehen.

Es ist etwas anderes Cache etc. auszulagern, als CPU Kerne.
Wir testen ja gerne Effizienz unter Last, aber wenn uns Effizienz wichtig ist, muss man sich gerade im Serverbereich auch Verbrauch im Niedriglast-Bereich ansehen. Dort ist AMD eben aktuell ausbaufähig.
Naja, der Niedriglastbereich ist rein prozentual betrachtet halt einfach irrelevant. Lass ein AMD System 23 Stunden am Tag idlen mit 100W und 1 Stund bei 400W laufen. Sind rechnerisch 2,7 kwH, Intel braucht 50W mal 22 Stunden und 2 Stunden 400W, sind 2,1kwH, bereits bei 2 bis 3 Stunden Last am Tag dreht es sich. Server die weniger als 2 Stunden Last haben, sind wohl eher selten. Davon ab, glaube ich, dass das o. g. Verhältnis insgesamt nicht passt. AMD verbraucht im Desktop ca. 12-15W im Idle, Intel kommt auf 5-6W (zumindest bei Alder Lake war das mal so in der Range); den Rest braucht dann auch das System drumherum.
32 Kerner Monolith ist dann auch kein Problem mehr
Wenn man E-Cores nimmt sicherlich nicht, aber sobald man in Richtung P-Cores geht, oder die E-Cores weiter aufbläht wird da schwieriger. Was du hier in meinen Augen verschweigst, dass die Yield Rate in immer feineren Prozessen nunmal immer schlechter wird, soll heißen, ein Chip in der gleichen Belichtungsgröße also bspw. 400mm² (Sapphire Rapids mit 32 Kernen ist so groß) wird in der Regel in 10nm eine viel höhere Yieldrate haben, denn die gleiche Größe (also ebenfalls 400mm²) in dann 18A. Insofern stimme ich deiner Aussage nicht zu, dass es locker 32 Kerner gibt, zumindest mit der Einschränkung P-Cores.
Das eine ist ein Prozess, das eine ist eine Philosophie der Architektur. Das darfst du nicht durcheinanderwerfen.
BigLITTLE wird in irgendeiner Form bleiben
Glaube ich ehrlicherweise nicht dran!
Im x86 Bereich gehe ich zwar davon aus, dass es mittelfristig zwei Arten geben wird, wobei ich die AMD Variante bevorzuge, volles Featureset, gleiche Architektur und nur "optimierte" Belichtung mit geringeren Taktraten. Gerade im Serverbereich sehe ich diese Art als riesigen Gewinn. Dort werden eh keine hohen Taktraten gefahren, dafür eben sehr viele Kerne.

Im Desktop machen 32 Kerne eh keinen Sinn im Moment und für anderes/Server hatte man eh mehr Kerne, auch in 14nm.
Im Moment ist das richtig, denn baut Intel (und wird nur dadurch in den Ranglisten so weit oben geführt) 24 Kerne ein. Im Serverbereich sind mehr Kerne durchaus möglich, auch mit 14nm; allerdings auch mit Nachteilen gegenüber geringeren Kernzahlen. Man sagt immer, dass Monolithen den Vorteil der InterCoreLatenzen haben, was zwar grds. richtig ist, was aber eben verschweigt, dass Intel auch keine Lösung dafür hat, trotz monolithischer Fertigung haben sie bedingt durch die Verknüpfung der vielen Kerne auch keine problemlose Lösung des ganzen und mit geringeren, aber immer noch deutlich negativen Auswirkungen zu kämpfen.

Ich glaube jeder hier weiß, dass die Skalierung der Kernzahlen mit einem Monolithen begrenzt ist und nur am Rand etwas mit der Belichtungsgröße zu tun hat. Problem sind die Verbindungen unter den Kernen und AMDs Lösung ist hier nicht schlecht, Nachteile sind zwar vorhanden, aber eben für viele Workloads eher irrelevant. Dazu kommt dann eben die durch die Belichtungsgröße von nur 80mm² je CCD extrem gute YieldRate und Nutzbarkeit der Wafer.

Man hat aber auch schon seit 10 Jahren oder länger EMIB, Foveros und Co in Entwicklung und in Produkten, aber es ist manchmal tatsächlich kostengünstiger und besser einen Monolithen zu fertigen.
Ja die Techniken sind seit Jahren in der Entwicklung, Versprechnungen wurden gemacht, einzig wirklich gut ist es bisher nicht! EMIB wird meines Wissens nach bei Sapphire Rapids genutzt, überzeugen können die eben auch nicht.
Nun ja,ich sehe es gut wenn es dann mit Zen 6 16 Kerne als Monotolith also ein Chip bringen,dann Profitiere ich auch davon.
AMD wird keinen Monolithen bringen, die CCDs nur auf 16 Kerne aufbohren und damit dann tatsächlich die größten Nachteile der heutigen 16 Kerner beseitigen. Aber auch heute ist ein 8 Kerner AMD kein wirklicher Monolith.
 
Naja, AMDs Ansatz ist es Chipfläche zu sparen, ohne eine eigene Architektur zu entwickeln. Halte ich für ökonomischer als zwei Architekturen weitgehend parallel zu bearbeiten.
Es macht für verschiedene Einsatzzwecke durchaus sinn verschiedene Architekturen zu haben.
Unrecht hast du nicht, aber es ist eben schwierig diese Aussage so zu treffen, da Intel CPUs derzeit nicht im MCM Design produziert und es auch nicht könnte. AMD hat einfach den Vorteil in einem recht großzügigen Rahmen CCDs aneinander zu Reihen und eine Arch quasi beliebig zu skalieren. Intel kann dies nicht und Gerüchte dazu habe ich bisher auch nicht gesehen.
Sapphire Rapids, Meteor Lake, Lunar Lake, Arrow Lake...
sind alles MCM Designs
Es ist etwas anderes Cache etc. auszulagern, als CPU Kerne.
Wie gesagt, auch das macht Intel schon lange
Naja, der Niedriglastbereich ist rein prozentual betrachtet halt einfach irrelevant. Lass ein AMD System 23 Stunden am Tag idlen mit 100W und 1 Stund bei 400W laufen. Sind rechnerisch 2,7 kwH, Intel braucht 50W mal 22 Stunden und 2 Stunden 400W, sind 2,1kwH, bereits bei 2 bis 3 Stunden Last am Tag dreht es sich. Server die weniger als 2 Stunden Last haben, sind wohl eher selten. Davon ab, glaube ich, dass das o. g. Verhältnis insgesamt nicht passt. AMD verbraucht im Desktop ca. 12-15W im Idle, Intel kommt auf 5-6W (zumindest bei Alder Lake war das mal so in der Range); den Rest braucht dann auch das System drumherum.
Das ist hier eigentlich ein ganz anderes Thema, von daher schwierig. Je nach Szenario. In unserem Fall liegt meist niedrige Last an, wenn überhaupt nur ganz kurz (Race to idle).
Seltenst sind Server CPU meist am Limit.
Im Desktop habe ich im Moment keine zahlen, aber die Schätzung kommt mir grad zu niedrig vor
Wenn man E-Cores nimmt sicherlich nicht, aber sobald man in Richtung P-Cores geht, oder die E-Cores weiter aufbläht wird da schwieriger.
Schwieriger ja, aber nicht unmöglich. Intel bietet Many-Core CPUs schon lange an und du kannst ja auch schauen was sie in Zukunft so releasen werden. Da kommen knapp 300-E-Core CPUs von Intel usw, aber natürlich kannst du auch 64 Kern P Cores verbauen etc.
Was du hier in meinen Augen verschweigst, dass die Yield Rate in immer feineren Prozessen nunmal immer schlechter wird
das stimmt so pauschal leider nicht. Dazu findet man auch genug Folien von Intel die das belegen (und die natürlich letzten Endes sich auch in den Quartalszahlen wiederspiegeln).
Am Beginn hat jeder Prozess natürlich eine schlechtere Yieldrate als ein ausgereifter Vorgänger, aber letzten Endes landen sie alle bei den gewünschten 90%. Schon allein weil man eben Chips oft größer anlegt und schon beim Design mögliche Fehler miteinberechnet. Darum hat AMD etwa ein 8 Core CCD, das bei Bedarf eben mit defekten, dann deaktivierten Cores antritt. Macht Intel und NV nicht anders
, soll heißen, ein Chip in der gleichen Belichtungsgröße also bspw. 400mm² (Sapphire Rapids mit 32 Kernen ist so groß) wird in der Regel in 10nm eine viel höhere Yieldrate haben, denn die gleiche Größe (also ebenfalls 400mm²) in dann 18A.
Nur am Anfang. Wafer sind teuer, Intel brachte in der Vergangenheit CPUs erst dann, wenn die Yieldrate über 80% lag und die wurde im Laufe des Lebens der CPU auf über 90 gehoben durch verbesserungen am Prozess und am Stepping
Insofern stimme ich deiner Aussage nicht zu, dass es locker 32 Kerner gibt, zumindest mit der Einschränkung P-Cores.
verbaut man nicht allzuviel Schnickschnack ist ein 32 Kerner in 18A je nach Architektur nicht besonders groß.
Glaube ich ehrlicherweise nicht dran!
Im x86 Bereich gehe ich zwar davon aus, dass es mittelfristig zwei Arten geben wird, wobei ich die AMD Variante bevorzuge, volles Featureset, gleiche Architektur und nur "optimierte" Belichtung mit geringeren Taktraten.
Bis auf AVX 512 bietet Intel auch das volle Featureset, eventuell in Zukunft mit APX/AVX10 auch wieder ein erweiteretes AVX512 Featureset
Gerade im Serverbereich sehe ich diese Art als riesigen Gewinn. Dort werden eh keine hohen Taktraten gefahren, dafür eben sehr viele Kerne.
Gerade dort zahlt sich für Intel aus, dass man beides anbieten kann
Im Moment ist das richtig
Ich hätte es näher definieren sollen: bis auf Highend/Workstation macht es keinen Sinn.
, denn baut Intel (und wird nur dadurch in den Ranglisten so weit oben geführt) 24 Kerne ein. Im Serverbereich sind mehr Kerne durchaus möglich, auch mit 14nm; allerdings auch mit Nachteilen gegenüber geringeren Kernzahlen. Man sagt immer, dass Monolithen den Vorteil der InterCoreLatenzen haben, was zwar grds. richtig ist, was aber eben verschweigt, dass Intel auch keine Lösung dafür hat, trotz monolithischer Fertigung haben sie bedingt durch die Verknüpfung der vielen Kerne auch keine problemlose Lösung des ganzen und mit geringeren, aber immer noch deutlich negativen Auswirkungen zu kämpfen.
jeder Ansatz hat vor- und Nachteile. Die Probleme die Intel hat, hat ja auch AMD, nur über größere Distanzen, weshalb "Infinty Fabric" ja auch sehr durstig ist.

Ja die Techniken sind seit Jahren in der Entwicklung, Versprechnungen wurden gemacht, einzig wirklich gut ist es bisher nicht! EMIB wird meines Wissens nach bei Sapphire Rapids genutzt, überzeugen können die eben auch nicht.
Sapphire Rapids mag jetzt kein perfektes Beispiel sein, dennoch zeigt es etwa, dass im Idle und Niedriglast die Verlustleistung überschaubar bleibt, was ja auch eines der Ziele war.
Emerald Rapids macht das sogar schon viel besser:
"At idle, even with the most cores and the most cache, the 5th Gen Intel Xeon Platinum 8558U CPU package was showing around 67W versus the Xeon Gold 6414U. Adding 50% more cores, 20% more TDP, and 200MB of L3 cache actually reduced the power consumption at idle by about 17%."
Ende des Jahres möchte man hier übrigens mit dem in Intel 3 gefertigten Granit Rapids (P Cores) und Sierra Forest (E Cores) anschließend.
Das wär das erste Mal seit langem, dass Intel einen annähernd gleich modernen Prozess wie AMD verwendet (Intel 3 statt bislang in Emerald Rapids Intel 7 bzw Intel 10nm, vs AMDs bislang TSMC N5)). Hauptsächlich erwarten würde ich hier übrigens nur weniger Verbrauch, nicht mehr Leistung. Die "Cores" die Intel verwendet sind die, die man auch aus Meteor Lake kennt - die sind aber gleich schnell wie schon die Golden/Raptor Coves Kerne (bekannt aus Arrow/Raptor Lake). Interessant wirds wohl erst, wenn Intel hier die neuesten P und E Cores verwendet, in Kombination mit einem ausgereiften 18A Prozess.
Nachdem man nun sehr weit hinten war, was Performance/Watt betrifft im Serversegment, will man in den nächsten 2-3 Jahren deutlich aufholen
AMD wird keinen Monolithen bringen
dort wo es notwendig ist, tut man das nach wie vor (Mobile).
Könnte man einen großen Monolithen ohne weiteres bauen, würde man auch das tun. Aber das ist halt komplex und teuer.
Aber die Diskussion um MCM vs Monolith ist nun schon viele Jahre alt und ermüdend. Hat beides Vor- und Nachteile
 
Zuletzt bearbeitet:
Wie gesagt, auch das macht Intel schon lange
Meines Wissens nach macht Intel dies aktuell nur bei Sapphire Rapids in den XCC / MAX Modellen, dass wirklich mehrere CPU Tiles vorhanden sind. In allen anderen Fällen sind alle CPU Kerne in einem Tile und es kommen dann halt Cachestufen oder iGPU Tiles zusammen. Der (NICHT)Erfolg von Sapphire Rapids zeigt aber, dass Intels Ansatz hier noch schlechter ist als AMDs Lösung.


Gerade dort zahlt sich für Intel aus, dass man beides anbieten kann
Gerade dort will aber niemand die in der Funktion beschnittenen E-Cores haben, weshalb (Vermutung meinerseits) man diese ja jetzt entsprechend aufwertet und mit Funktionen der P-Cores austattet. Gerade im Serverbereich ist AMDs C Lösung in meinen Augen viel vielversprechender, da eben auch AVX bspw. in allen Varianten unterstützt wird, SMT vorhanden ist und und und.
Für Intel zahlt es sich aktuell nur aus, da man nur so überhaupt zumindest im CoreCount noch halbwegs bei der Musik bleiben kann.

Bis auf AVX 512 bietet Intel auch das volle Featureset, eventuell in Zukunft mit APX/AVX10 auch wieder ein erweiteretes AVX512 Featureset

Zum einen fehlt HTT/SMT in den E-Cores, zum anderen sieht man ja, dass AMD seit Alder Lake die E-Cores immer weiter aufwertet und auch der relative Platzbedarf enorm ansteigt. (meine gelesen zu haben, dass erwartet wird, dass die neuen E-Cores ca. 2 mal so viel Platz in Relation zu den P-Cores benötigen wie bei Alder Lake). Warum wohl?

At idle, even with the most cores and the most cache, the 5th Gen Intel Xeon Platinum 8558U CPU package was showing around 67W versus the Xeon Gold 6414U. Adding 50% more cores, 20% more TDP, and 200MB of L3 cache actually reduced the power consumption at idle by about 17%
Der 8558U hat eine Idle Aufnahme von 67W, unser EPYC 7302 zieht bei geringer Last (ganz in den Idle bekomme ich ihn nicht, sind noch ein paar im Büro) 55W; also vermutlich ohne Last irgendwas um die 40-50W.

Nachdem man nun sehr weit hinten war, was Performance/Watt betrifft im Serversegment, will man in den nächsten 2-3 Jahren deutlich aufholen
Wollte man auch schon die letzten drei Jahre.

dort wo es notwendig ist, tut man das nach wie vor (Mobile).
Sorry, ab der oberen Mittelklasse im Desktop.

Aber die Diskussion um MCM vs Monolith ist nun schon viele Jahre alt und ermüdend. Hat beides Vor- und Nachteile
Ja, seit den AMD 64 X2 CPUs und dem Zusammenkleben von Intel. Damals war MCM definitv ein Nachteil, nur wird dieser zusehends geringer, da die Interconnect Verbindungen immer besser und besser werden und die Nutzbarkeit von mehreren Kernen immer besser. MCM (sage ich schon seit damals) ist und bleibt die Zukunft; alle Hersteller werden zunehmend auf MCM setzen und damit meine ich nicht, dass auslagern von Cache, igpu, SoC oder sonstwas, sondern ich rede von CPU Tiles / CCDs die eine gewisse Anzahl an Kernen bereitstellen (ja, diese Kernanzahl wird sicher auch noch steigen; aber eben nicht analog zur Kernanzahl je CPU. Wir sehen jetzt seit 2017 (und eigentlich ja schon vorher), dass Intel als absolut führender Prozessbeaufragter es nicht in den Griff bekommt und es liegt nicht an einem Prozess, sondern einfach daran, dass der Prozess zu klein wird und damit zu fehleranfällig. Es geht, aber eben nicht in einer wirtschaftlich sinnvollen Weise. Wenn ich hinterher pro Wafer nur noch 5 intakte Chips habe, weißt du auch wieviel so eine CPU kosten würde.
 
Meines Wissens nach macht Intel dies aktuell nur bei Sapphire Rapids in den XCC / MAX Modellen, dass wirklich mehrere CPU Tiles vorhanden sind. In allen anderen Fällen sind alle CPU Kerne in einem Tile
nein, Meteor Lake hat etwa auch CPUs in anderen Tiles. Außerdem ist das recht irrelevant, weil MCM nicht heißt "CPUs sind auf verschiedenen Tiles", es heißt schlicht Multi-Chip-Module.
Der (NICHT)Erfolg von Sapphire Rapids zeigt aber, dass Intels Ansatz hier noch schlechter ist als AMDs Lösung.
Das hat sehr wenig mit MCM zu tun. Eher, dass Sapphire in einem alten Prozess, einer alten Architektur und Jahre verzögert und dennoch unausgereift rauskam, während AMD püntklich geliefert hat.
Gerade dort will aber niemand die in der Funktion beschnittenen E-Cores haben, weshalb (Vermutung meinerseits) man diese ja jetzt entsprechend aufwertet und mit Funktionen der P-Cores austattet. Gerade im Serverbereich ist AMDs C Lösung in meinen Augen viel vielversprechender, da eben auch AVX bspw. in allen Varianten unterstützt wird, SMT vorhanden ist und und und.
AMD bietet halt reduzierte P Kerne an, Intel entwickelt spezielle E-Kerne. Beides hat vor und nachteile. Volle AVX Unterstützung hat keiner von beiden, gibt da wie dort Instruktionen die jemand nicht hat
Für Intel zahlt es sich aktuell nur aus, da man nur so überhaupt zumindest im CoreCount noch halbwegs bei der Musik bleiben kann.
Ach ich hatte schon vor vielen Jahren Xeon Phi in der Hand, viele Cores anbieten kann man schon lange.
Die Frage ist sowieso wohin der (x86) Servermarkt gehen wird.

Zum einen fehlt HTT/SMT in den E-Cores, zum anderen sieht man ja, dass AMD seit Alder Lake die E-Cores immer weiter aufwertet
ich finde deine Perspektive etwas einseitig. Du schreibst bei Intel ja auch, dass sie die Cores erweitern, also entwickeln wohl beide ihre E-Corese weiter. Was genau möchtest du jetzt eigentlich sagen?
und auch der relative Platzbedarf enorm ansteigt. (meine gelesen zu haben, dass erwartet wird, dass die neuen E-Cores ca. 2 mal so viel Platz in Relation zu den P-Cores benötigen wie bei Alder Lake). Warum wohl?
weil sie mehr Cache haben und man mehr IPC will, neue Prozesse zur Verfügung stehen etc z.B. und du meinst die E-Cores zu den E-Cores
Alles normale Entwicklungen die du sowohl bei Intel als auch bei AMD hast, bei Intel sind sie aufgrund des 14nm/10nm Kurses eben sehr lange nicht geschehen, geplant waren sie immer.
Wollte man auch schon die letzten drei Jahre.
und zeigt auch klar in die Richtung. Saphire Rapids- Emerald Rapids: deutlicher Fortschritt, Granite wird auch wieder ein Fortschritt sein.
Aktuelle Serverprodukte haben halt ein Fertigungsverfahren mit TSMCs N7 vergleichbar ist, da ist noch ein langer Weg hin zu einer modernen Aufstellung, aber, dass man nach Jahren des Stillstandes die letzten 2 Jahre was released hat ist schon mal ein Anfang. Es steht und fällt bei Intel halt weiterhin mit der Produktion.
Also verstehe ich deine Aussage nicht
Sorry, ab der oberen Mittelklasse im Desktop.
? Ab der oberen Mitteklasse im Desktop verbaut AMD monolithen?
Ja, seit den AMD 64 X2 CPUs und dem Zusammenkleben von Intel.
AMD Phenom (nativer 4 Kern) vs Intel Core 2 Quad (2x2) ja, und der Nachteil war damals überschaubar, man hing halt an einem lahmen BUS, aber Intel war dennoch schneller/effizienter und hat schon damals gesagt man gehe aufgrund der Vorteile wieder auf monolithen zurück bis es sich nicht mehr auszahlt
nicht an einem Prozess, sondern einfach daran, dass der Prozess zu klein wird und damit zu fehleranfällig.
wenn du einfach ignorierst was man so schreibt, dann brauchen wir nicht weiterdiskutieren. Du findest die Yieldzahlen der Prozesse durchaus auch online und nein, daran liegt es nicht, man kann in 5nm genauso wie in 14nm eine Yieldrate von 90% erreichen bei halbwegs vernünftigen Chipgrößen und Spezifikationen

BOTTOM LINE:
bevor wir uns hier in die Haare kriegen, was definitiv nicht in meinem Interesse liegt:

Was CPUs betrifft: Im Moment liegen die 2 Hersteller was Leistung pro P Kern und Takt betrifft nahe beisammen, allerdings hat AMD seit 2019 (Zen 2) einen Prozess im Einsatz den Intel in ähnlicher Form aktuell für seine CPUs nutzt. Jap, so groß ist theoretisch der Vorsprung. Intel muss also noch viel aufholen und das wird auch noch dauern. Arrow Lake wird näher kommen, vor NovaLake erwarte ich aber nicht, dass man auch mal vorangehen kann (und was Nova Lake genau ist, weiß man noch nicht). Es steht und fällt aber mit der Fertigung: bessere Fertigung ermöglicht breitere Designs bzw. mehr Transistoren bei weniger Verbrauch - ergo bessere Architekturen.

Was den Prozess betrifft wird Intel aufholen - und das auch müssen.
Allein schon weil die Schritte immer kleiner werden und auch wenn TSMC weiterhin einen zeitlichen 2 Jahre -Vorsprung behält wird diese Zahl immer weniger Bedeutend. Vor einigen Jahren hieß 2 Jahre ein Full Node mit fast doppelter Transistordichte usw.
Das ist heute alles nicht mehr so und in 2 Jahren hat TSMC wahrscheinlich N2 bereit für Apple, aber vielleicht noch nicht für andere. Die Pläne von TSMC sind ja auch offen kommuniziert, ändern sich aber auch immer mal wieder. TSMC hatte soweit ja auch Probleme N3 hinzubekommen. Das sind halt jetzt Probleme die holen TSMC ein, die hatte vorher eben auch Intel.
Intel wird auch deshalb aufholen, weil man schon jetzt GAA Massenfertigungs-Erfahrung sammelt und die ersten High-NA Scanner exklusiv hat

Falls Intel also an seinen Zeitplänen halbwegs festhalten kann und Nova Lake tatsächlich in 14A gefertigt wird wie 3dcenter vermutet, dann wäre das das erste Mal seit dann fast 10 Jahren, dass ich Intel wieder gleichauf/vorne sehe. Vorher ist es klar AMD
 
Zuletzt bearbeitet:
Die Rechtslage / Rechtsprechung in Amerika ist aber eine andere als in DE / in der EU.

Scheint aber eh niemanden zu stören, also weiter machen.
Das stimmt zwar in Teilen aber auch hier müssen die Firmen viel Geld investieren und werden da kaum hohe Schadensersatzsummen erhalten, sofern der Täter überhaupt ermittelbar ist. Das bringt relativ wenig da dort auch keine kritischen Informationen veröffentlicht werden. Da ist es dann einfacher keine Samples mehr zu versenden.
Wir sehen jetzt seit 2017 (und eigentlich ja schon vorher), dass Intel als absolut führender Prozessbeaufragter es nicht in den Griff bekommt und es liegt nicht an einem Prozess, sondern einfach daran, dass der Prozess zu klein wird und damit zu fehleranfällig. Es geht, aber eben nicht in einer wirtschaftlich sinnvollen Weise. Wenn ich hinterher pro Wafer nur noch 5 intakte Chips habe, weißt du auch wieviel so eine CPU kosten würde.
Nicht wirklich. Intel hatte 2017 ein gewaltiges Problem: DUV war am Ende der Machbarkeit EUV noch nicht Marktreif. Während also Intel sich mit DUV die Zähne ausgebissen hatte haben die Konkurrenten direkt EUV für einzelne Schichten eingesetzt. Intel ist anfangs somit an einer technischen Hürde später aufgrund des festhalten alles mit DUV zu erreichen gescheitert. Das bedeutet aber nicht dass man mit immer kleineren Prozessen auch immer kleinere Yieldraten erwarten wird. Das wäre spätestens in 1-2 Gens nicht mehr finanzierbar.
 
Zurück