Intel: In fünf Jahren mit Nanowire- statt FinFET-Transistoren

Ja ich bezog mich auf die Leistumg pro Kern.

Man steckt aber in gewissem Sinne fest. Sowohl Intel als such AMD holen die Leistungssteigerungen hauptsächlich über höhere Kernanzahlen. Und das ist für manche Tasks super, für sndere völlig irrelevant. Zual Amdahl ja schon aufgezeigt hat, dass die Erhöhung der Kernzahl immer kleinere Leistungssteigerungen bringt und auch immer aufwändiger wird

Dann hast du wie schon gesagt, natürlich Recht. Sehe ich genau so, die ganz großen Steigerungen pro Kern sind owhl vorbei und schon in den letzten 10 Jahren nicht mehr wirklich möglich. Selbst in den Zeiten davor, als SingleCore CPUs noch das einzige auf dem Markt waren hat man schon gesehen, dass man die Leistung in Teilbereichen zwar massiv steigern konnte, die Overall Leistung aber schon deutlich geringer Wuchs. In den Zeiten zu AMDs Hammer z.B. war es ja so, dass man die Leistung zwar schon gut steigern konnte, aber eben nur in einzelnen Bereichen, vor allem durch entsprechende Erweiterungen des Befehlssatzes. Hier wird es in Zukunft sicherlich immer mehr und mehr in Richtung der Softwareentwickler gehen, die die verfügbare parallele Leistung besser abrufen müssen. Viele Bereiche profitieren aktuell wenig bis gar nicht von der neuen Kernzahl. Aber alles wird sich eben nicht paralellisieren lassen, so dass die ProKern Leistung immer ein entscheidender Faktor sein wir

Ich bin mal wirklich gespannt, wie sich die Kernzahl und vor allem auch der mögliche Takt mit 5nm (7nm Intel) nochmal entwickeln wird, oder ob Nanowire (oder TSMCs Alternative) hier nochmal eine deutliche Steigerung bringen können. Glauben tue ich zwar nicht dran, ich denke eher, dass die Taktraten nur noch sehr sehr langsam steigen werden und wenn wir in 5 Jahren die 6Ghz überschreiten wäre ich tatsächlich schon positiv überrascht. The next big thing wird in meinen Augen erst bei der Einführung neuer Materialien, wie z.B. den Graphen, kommen. Dann aber hoffentlich mit aller Gewalt und hoffentlich auch bezahlbar für den Normalo.
 
Das irgendwann Graphen kommen ist wohl klar.Allerdings nicht jede Software wird da einen Nutzen davon tragen.Denn die Software muss ja für Graphen ebenfalls angepasst werden. Wenn man so wie ich ne Software hat,die nicht mehr wirklich weiter entwickelt wird,dann würde ich z.b nicht von Graphen Profitieren.
Ich habe auch verglichen ,also die Threadripper CPUs haben mehr Transistoren als die beste Ryzen CPU. Als ich das testen durfte,hatte ich mir wunder was erwartet gehabt.Da bemerkte ich also das die vielen Kerne als auch die vielen Transistoren wohl nur noch sehr wenig was gebracht hatten.Auch haben die Threadripper mehr Cache bei L1 und L3.
Also wenn das viel ausgemacht hätte,dann würde ich das ja merken. Darum warte ich ja auch das es mehr IPC und auch Takt kommt.Es scheint also mehr wohl leider nix zu bringen. Ich teste bei jemanden auch noch den Xeon W3175x,erwarte allerdings keine Wunder.Denn warum sollte es dann ausgerechnet mit dieser CPU besser sein,wenn es schon bei den 24 und 32 Kernigen Threadripper nicht so gut aussieht.Denn auch Intel kann halt nicht zaubern.
Darum begrüße ich diesen Schritt.Denn wenn es in der Richtung mal voran geht,dann werde auch ich davon Profitieren.
Denn wenn ich schon keinen Vorteil bei der Anzahl der Kernen habe,dann wenigstens woanders.
Wenn ich bedenke,bei meinem Workflow schlägt ein AMD 16 Kerner einen 18 Kerner von Intel.Hier scheinen wohl wengier Kerne mehr zu bringen.Weiter runter bringt mir nur Leistungseinbusen.
Es sei denn die 8 und 10 Kerner werden so stark Optimiert und revolutioniert,das es dann die mehrkerner weg fegt.Also nen 8 Kerner mit HT bzw SMT mit 8 ghz,wird wohl jeden 16 Kerner davon Rocken ,also überrumpeln.Da nehme ich dann auch gerne weniger Kerne,wenn das so massiv gesteigert werden könnte.Aber das werden wir ja schon noch sehen.
 
Das irgendwann Graphen kommen ist wohl klar.Allerdings nicht jede Software wird da einen Nutzen davon tragen.Denn die Software muss ja für Graphen ebenfalls angepasst werden. Wenn man so wie ich ne Software hat,die nicht mehr wirklich weiter entwickelt wird,dann würde ich z.b nicht von Graphen Profitieren.
???
Ich meine ich bin kein Fachmann in dem Gebiet, aber meines Wissens nach würde sich die Prouessorarchitektur durch die Verwendung von Graphen nicht ändern. Damit dürfte auch die Software keine speziellen Programmierungen brauchen. Es handelt sich lediglich um das Material aus welchem die Transistoren gebacken werden. Durch die Verwendung des Graphen erhofft man sich (schon nachgewiesen), den Stromverbrauch massiv zu reduzieren. Hab dazu mal eine Abhandlung gelesen, wo der elektrische Widerstand um das tausendfache gesenkt werden konnte (ich weiß nicht ob dies schon bezogen war auf Halbleitertechnik?). Aber das zeigt erstmal ganz gut das Potenzial von Graphen. Wenn die Verlustleistung (was wir ja oft mit Verbrauch gleichstellen) sinkt, dann ist eben durch bspw. Erhöhung der Spannung der alte Zustand wieder herzustellen. So könnte es sein, dass hier exorbitante Sprünge im Takt möglich sind, noch dazu haben Graphen meines Wissens nach auch eine wesentlich stärkere Wärmeleitfähigkeit, was es dann sogar noch einfacher machen würde viel Wärme abzugeben. Alles in allem könnten Graphen nie dagewesene Sprünge in der Leistung bringen, wenn sie denn technisch eines Tages in der Lage sind, das ganze großindustriell zu produzieren und daraus Milliarden bis Billionen Transistoren zusammenzupacken.
 
Das irgendwann Graphen kommen ist wohl klar.Allerdings nicht jede Software wird da einen Nutzen davon tragen.Denn die Software muss ja für Graphen ebenfalls angepasst werden. Wenn man so wie ich ne Software hat,die nicht mehr wirklich weiter entwickelt wird,dann würde ich z.b nicht von Graphen Profitieren.

Ich glaube du verwechselt Graphen mit Quantencomputern. Diese mache tatsächlich nur bei bestimmten Aufgaben Sinn und werden vermutlich nie herkömmliche Computer ersetzen können (auch rein aufwandstechnisch dürfte da wohl zumindest in absehbarer Zeit keine Lösung kommen, die man sich daheim hinstellen könnte oder gar als Laptop mit sich rumschleifen).

Graphen wären dagegen ja "nur" ein neuer Fertigungsprozess bzw Materialumstellung. Damit funktionieren die Prozessoren genauso weiter wie sie es mit Silizium aktuell tun. Nur eben kleiner und höher getaktet.

Ob, bis diese, vielleicht in den 2030er Jahren, kommen, der aktuell vorherrschende x86 Befehlssatz dann noch die heutige Bedeutung hat bzw diese die Nutznießer wären muss man dann abwarten.
Vielleicht ist bis dahin ARM, RISC-V oder was völlig anderes der Platzhirsch - sehen wir dann. Aktuell gräbt ARM ja schon ganz ordentlich (Top-500 Liste, Apple, Mobile Rechner...) und ist zumindest stückzahltechnisch vermutlich schon weit vorne. Ich bin da sehr gespannt!
 
???
Ich meine ich bin kein Fachmann in dem Gebiet, aber meines Wissens nach würde sich die Prouessorarchitektur durch die Verwendung von Graphen nicht ändern. Damit dürfte auch die Software keine speziellen Programmierungen brauchen. Es handelt sich lediglich um das Material aus welchem die Transistoren gebacken werden. Durch die Verwendung des Graphen erhofft man sich (schon nachgewiesen), den Stromverbrauch massiv zu reduzieren. Hab dazu mal eine Abhandlung gelesen, wo der elektrische Widerstand um das tausendfache gesenkt werden konnte (ich weiß nicht ob dies schon bezogen war auf Halbleitertechnik?). Aber das zeigt erstmal ganz gut das Potenzial von Graphen. Wenn die Verlustleistung (was wir ja oft mit Verbrauch gleichstellen) sinkt, dann ist eben durch bspw. Erhöhung der Spannung der alte Zustand wieder herzustellen. So könnte es sein, dass hier exorbitante Sprünge im Takt möglich sind, noch dazu haben Graphen meines Wissens nach auch eine wesentlich stärkere Wärmeleitfähigkeit, was es dann sogar noch einfacher machen würde viel Wärme abzugeben. Alles in allem könnten Graphen nie dagewesene Sprünge in der Leistung bringen, wenn sie denn technisch eines Tages in der Lage sind, das ganze großindustriell zu produzieren und daraus Milliarden bis Billionen Transistoren zusammenzupacken.

So ist auch mein Wissensstand, ja. Alles richtig. Natürlich muss eine bestehende Architektur im Detail auch immer etwas an den Prozess angepasst werden (etwa für Taktbarkeit und um Hotspots zu vermeiden), aber wie du sagst dürfte Graphen eher der Taktbarkeit dienen und da gibt es diesbezüglich ja altes, wenig überraschendes Wissen aus den 90ern (und davor): mehr Takt bei gleicher Architektur = mehr Leistung (bei ALLEN Anwendungen). Drum hab ich ja blöd gekuckt, als ich mir den 166er MMX gekauft hab, wenig später war man aber schon bei 300 MHZ und keines der Spiele lief mehr ordentlich. Da war ein CPU Upgrade alle 2-3 Jahre einfach vonnöten. Heute völlig utopisch: kauf ich eine CPU um 500 Euro wie damals, hab ich Jahrelang meine Ruhe. Wie mein Beispiel etwas weiter vorne ja zeigt: sogar ein ganzes Jahrzehnt.
 
Das irgendwann Graphen kommen ist wohl klar.Allerdings nicht jede Software wird da einen Nutzen davon tragen.Denn die Software [...]

Zwei, drei Anmerkungen, da du hier einiges durcheinanderwerfen zu scheinst:

a) Für die (Anwendungs)Software ist die Mikroarchitektur einer CPU relevant, jedoch nicht die Art und Weise wie diese auf der Ebene des Siliziums realisiert wird. Vielleicht traf Zappaesk mit seiner Vermutung ja ins Schwarze, dass du dich mit Quantencomputern vertan hast? Wenn ja, die sind ein komplett anderes Thema (auch zeitlich gesehen ;-)) und für in heutiger Software verwendete Algorithmen auch gar nicht geeignet.

b) Threadripper und Ryzen teilen sich das Compute-Chiplet, das man auch als Zen2-Chiplet bezeichnet (den 7 nm-Teil der aktuellen AMD-CPUs) und dementsprechend stellen die größeren CPU-Ausbaustufen vereinfacht betrachtet auch schliche Vielfache der kleineren Chips dar (den IOD hier mal ignorierend). Zu berücksichtigen ist lediglich, dass bspw. ein 24-Kern-TR-3960X seine Kerne nicht über drei, sondern über vier Chiplets realisiert und jeweils einen Kern pro CCX deaktiviert (bei zwei CCX pro Chiplet/CCD), was die Verwendung nicht ganz einwandfreier Chiplets erlaubt und für AMD die Fertigungskosten reduziert. Ein weiterer Nebeneffekt dieses Vorgehens ist, dass i. d. R. der weniger fertigungsfehleranfällige L3 vollständig erhalten bleiben kann, sodass hier 4 x 32 = 128 MiB L3 den 24 Kernen zur Verfügung stehen. Dagegen der L1 (und L2) ist bei Zen2 immer gleich groß, schlicht weil der direkt am Kern hängt und es nur ein einziges Zen2-Chiplet-Design gibt. (Am Rande: Renoir ist ein komplett eigenständiges und davon unabhängiges Desing.)

c) Wenn du überraschend wenig Leistungszugewinne auf einem TR beobachtet hast, dann hast du möglicherweise zu einer schlecht parallelisierenden Software gegriffen? Zieht man hier exemplarisch Cinebench R20 für eine relativ gut parallelisierende MT-Software heran, so errreicht ein 3700X mit 8 Kernen um die 4850 Punkte, dagegen ein 3960X mit 24 Kernen erreicht hier rund 13800 Punkte, d. h. von der theoretisch zu erwartenden Leistungssteigerung um 3,0-fach (24 ggü. 8 Kerne bei in etwa vergleichbarem Takt) wird hier real ein Faktor von etwa 2,85-fach erreicht, was einen sehr guten Wert darstellt.

d) Welche "Wunder" erwartest du von einem alten W-3175X? Das ist ein 28 Kern-Skylake aus 2018. Wenn du schon einen 24 Kern-TR getestet hast, kannst du dir den Test mit dieser Intel-CPU ersparen.
Der einzige Punkt, in dem dich der W-3175X überraschen könnte, wäre, wenn die von dir hauptsächlich verwendete Software einen großen Anteil an AVX-512-Code verwendet und wenn diese Software im Idealfall auch noch auf zwei FMA-Einheiten hin kompiliert wäre, denn dann könnte der Xeon gar schneller als ein 3970X rechnen.
 
Zwei, drei Anmerkungen, da du hier einiges durcheinanderwerfen zu scheinst:

a) Für die (Anwendungs)Software ist die Mikroarchitektur einer CPU relevant, jedoch nicht die Art und Weise wie diese auf der Ebene des Siliziums realisiert wird. Vielleicht traf Zappaesk mit seiner Vermutung ja ins Schwarze, dass du dich mit Quantencomputern vertan hast? Wenn ja, die sind ein komplett anderes Thema (auch zeitlich gesehen ;-)) und für in heutiger Software verwendete Algorithmen auch gar nicht geeignet.

b) Threadripper und Ryzen teilen sich das Compute-Chiplet, das man auch als Zen2-Chiplet bezeichnet (den 7 nm-Teil der aktuellen AMD-CPUs) und dementsprechend stellen die größeren CPU-Ausbaustufen vereinfacht betrachtet auch schliche Vielfache der kleineren Chips dar (den IOD hier mal ignorierend). Zu berücksichtigen ist lediglich, dass bspw. ein 24-Kern-TR-3960X seine Kerne nicht über drei, sondern über vier Chiplets realisiert und jeweils einen Kern pro CCX deaktiviert (bei zwei CCX pro Chiplet/CCD), was die Verwendung nicht ganz einwandfreier Chiplets erlaubt und für AMD die Fertigungskosten reduziert. Ein weiterer Nebeneffekt dieses Vorgehens ist, dass i. d. R. der weniger fertigungsfehleranfällige L3 vollständig erhalten bleiben kann, sodass hier 4 x 32 = 128 MiB L3 den 24 Kernen zur Verfügung stehen. Dagegen der L1 (und L2) ist bei Zen2 immer gleich groß, schlicht weil der direkt am Kern hängt und es nur ein einziges Zen2-Chiplet-Design gibt. (Am Rande: Renoir ist ein komplett eigenständiges und davon unabhängiges Desing.)

c) Wenn du überraschend wenig Leistungszugewinne auf einem TR beobachtet hast, dann hast du möglicherweise zu einer schlecht parallelisierenden Software gegriffen? Zieht man hier exemplarisch Cinebench R20 für eine relativ gut parallelisierende MT-Software heran, so errreicht ein 3700X mit 8 Kernen um die 4850 Punkte, dagegen ein 3960X mit 24 Kernen erreicht hier rund 13800 Punkte, d. h. von der theoretisch zu erwartenden Leistungssteigerung um 3,0-fach (24 ggü. 8 Kerne bei in etwa vergleichbarem Takt) wird hier real ein Faktor von etwa 2,85-fach erreicht, was einen sehr guten Wert darstellt.

d) Welche "Wunder" erwartest du von einem alten W-3175X? Das ist ein 28 Kern-Skylake aus 2018. Wenn du schon einen 24 Kern-TR getestet hast, kannst du dir den Test mit dieser Intel-CPU ersparen.
Der einzige Punkt, in dem dich der W-3175X überraschen könnte, wäre, wenn die von dir hauptsächlich verwendete Software einen großen Anteil an AVX-512-Code verwendet und wenn diese Software im Idealfall auch noch auf zwei FMA-Einheiten hin kompiliert wäre, denn dann könnte der Xeon gar schneller als ein 3970X rechnen.

Ja ich scheine wirklich Quanten mit Graphen verwechselt zu haben.Warum weil ich mich da nicht so wirklich auskenne.Aber gut,ist ja nicht schlimm.

Verstehe,dann ist Ryzen 3950x mit nur 2 Chiplets und die Threadripper mit 4 CHiplets verbunden,was die Leistung etwas ausbremst.
Das würde das ganze wohl gut erklären.Warum weshalb es so ist.

das mit dem 3175x da bin ich neugierig was der so bei mir bewirken würde.Ich selbst will keunen kaufen,weil da für mich der Preis einfach zu hoch wäre.Darum habe ich einem schon ein Teil an Geld gegeben,um mich das system testen zu lassen.Dieser hatte mir auch das 3970x system gebaut,mich testen lassen und dann wieder zurück gesendet.Dafür wurde bischen Geld für den Aufwand gezahlt.
Ich erwarte mir zwar keine banhbrechenden Leistungssunterschiede,weil ich bei allen in der Software ohne AVX verwendet hatte.Das wird auch beim Xeon der fall sein.Und woher soll ich wissen ob die Software auf zwei FMA Einheiten hhin kompiliert worden ist oder nicht.Die Software heißt Xmedia Recode.Die Software ist inzwischen 2 Jahre alt,in der Version.Zudem verwende ich nur H264,wo ja der Codec schon uralt ist.Dazu auch noch niedrigen settings.
Ich weis somit nicht ob der Xenon dann einen Vorteil dann noch hat oder überhaupt nicht mehr.
Auch getestet hatte ich den Threadriper 3970x auch durch abschalten der 4 Kerne,ein 28 Kerner simuliert.Der war dann auf dem Nivieo auf den 2990wx dann gewesen war.Das nenne ich ja mal Effizienz Steigerung.Weil weniger Kerne die selbe Leistung gebracht hatten.Der 3960x hat immernoch weniger Leistung gehabt als der Simulierte 28 Kerner.Mehr kann ich zurzeit nicht beurteilen.Wollte halt wissen ob es dann die Leistung die selbe ist,oder ob Intel sich da bei sowas sich abheben kann.
Wenn der die selbe leistung erreicht,dann sollte auch der Xeon 3175x mit simulierten 24 Kernen ja mit dem 3960x gleichziehen.Auch werde ich den dann mit maximal 4 ghz betreiben beim testen.Denn mehr Takt würde nur die CPU zu heiß werden und dadurch die CPU drosseln und somit die Leistung bzw das Ergebnis verfälschen.Und genau das will ich ja nicht ,also auf maximal 4 ghz begrenzen.
 
Ja, da muss man aber auch Einwenden das sie davor nicht wirklich was zu bieten hatten und von quasi SandyBridge-Leistung daher kamen.
(FX war in der Hinsicht nicht mal wirklich besser als Phenom)




Sehr wahrscheinlich sogar. Aber es ist auch ein 2ter inkrementeller Schritt geplant. Die nano-Drähte sind der schwere Schritt - das ganze 3D gestapelt in der Größe überhaupt zu schaffen. Der inkrementelle Schritt ist dann die kleinen Drähte auf breitere Bahnen zu erweitern - was dann die Leistung deutlich steigern wird - aber der Schritt kommt eben erst nachdem die Herstellung der dünnen Drähte für die Massenproduktion verwendbar ist.
Es verschiebt halt die Durchschaltkurve - bringt das mehr Leistung? Kommt drauf an wie man es sieht - für ein sonst identisches Design können die Bauteile etwas kleiner und effizienter werden, damit kann man dann mehr Kerne, mehr Cache oder sonstiges machen.



Dafür kann es viele andere gründe geben. Ein Programm mit hohen Datendurchsatz, viele OS-Zugriffe, starke Datenabhängigkeit oder hohe Intercore-Datenströme - die letzten 2 waren bei Threadripper besonders Fatal. Und das ist eines der Probleme wenn man Cinebench mit echten Renderprogrammen verwechselt: Cinebench ist darauf ausgelegt so gut wie möglich die theoretische Maximalleistung zu erreichen. Sehr kleine Datenmengen, wenige dafür gut vorhersehbare Sprünge, Komplexität so gering das es in den L1 passt und keine Datenabhängigkeiten. Bei Anwendungen kann das auch deutlich anders aussehen - die Berechnung von GlobalIllumination hast meist fast keine Abhängigkeiten, seismische Datenauswertung dagegen oft sehr starke.
Aber ja - hier wird man kaum jemanden finden der privat sowas macht.

1.) Das ist auch ein bischen hart, so schlecht wie AMD dann immer gemacht wurde waren sie nunmal auch nicht. Man sollte hier nicht vergessen, dass AMD eigentlich immer einen Nachteil in der Fertigung hatte und so auch ein wenig gegen Windmühlen gekämpft hat, dennoch war es ja nun auch nicht so, dass Intel seit Sandy Bridge die Leistungen massiv nach oben steigern konnte. Wenn man sich dann heute einen 6700k anschaut, der im Consumerbereich vor Ryzen das Maß der Dinge war, dann hat AMD auch hier die Leistung durchaus mehr als verdoppeln könnnen (gerade in Cinebench etc.)

2.) So sehe ich das grds. auch, interessant wird halt sein, wie teuer (bzw. wie sich die Yieldraten verhalten) dieses Verfahren dann wird. Denn ich kann mir auch sehr gut vorstellen, dass man den gesparten Platz am Ende recht teuer bezahlen wird müssen und der vermeintliche Vorteil somit eher ein Nachteil wird. Aber der Verbrauch wird sinken, wieder eine Möglichkeit, wenn auch nur gering an der Taktschraube spielen zu können. Aber auch der zweite inkrementelle Schritt sieht mir jetzt nicht so aus, als wenn er wahnsinnige Performancevorteile bringen wird. Rein optisch betrachtet wird auch der Vorteil in Summe dann vieleicht 15% ausmachen, was sicherlich seine Berechtigung hat, aber in meinen Augen eine Evolutionsstufe ist und keinerlei Revolution.
Ich sehe bei Intel derzeit viel eher das Problem in der Roadmap, die ersten Samples von RocketLake sind getestet und einen wirklichen Zuwachs konnte man bisher nicht feststellen, bleibt ja auch 14nm. Mit Alder Lake will man dann ja das bigLittle Prinzip einführen und bleibt auch dann auf 8 schnellen Kernen sitzen. Damit wird man sicherlich einiges an Effizienz gewinnen, gerade auch weil endlich 10nm kommen sollen. Ob man aber wirklich in der Spitzenleistung zulegen kann bleibt für mich äußerst fragwürdig. AMD wird aller Voraussicht nach mit 5nm kontern und ich würde mich schon sehr wundern wenn 16 Kerne (schnelle Kerne) dort im Desktop auf einmal nicht mehr kommen, ich gehe sogar von bis zu 32 Kernen aus. Da wird man dann auch die Frage stellen müssen, welches Konzept aufgeht. AMD mit maximaler Leistung, oder Intel mit hoher SingleCore Leistung, wahrscheinlich auch dann noch einer sehr hohen Spieleleistung und wahrscheinlich einem phänomenalen Verbrauch im Alltag (habs schon irgendwo geschrieben, 90% der Zeit idlet so ein Rechner nunmal rum).
Wirklich gespannt bin ich auf Intel im Server/Workstationbereich, mit bigLittle brauchen sie da nicht zu kommen, da ist maximale Leistung gefragt und derzeit ist AMD dort wirklich sehr weit vorne, daran wird Rocket Lake (dank 14nm) nichts ändern können und Alder Lake? Ich weiß es nicht.
 
1.) Das ist auch ein bischen hart, so schlecht [...]

"so schlecht" waren sie zweifelsfrei nicht, aber auch nicht konkurrenzfähig und selbst bei den ersten Ryzen's kam AMD nicht umhin mehr Kerne für weniger Geld anzubieten (was keine "Nettigkeit" o. ä. war, sondern eine marktstrategische Notwendigkeit), weil das Design mit Intels Architektur noch nich mithalten konnte. Bereits mit dem 8700K konnte Intel den ersten Ryzen-Launch sehr gut kontern mit Blick auf Mainstream-Workloads (und bspw. Naples war trotz schöner Zahlen auf dem Papier weitestgehend uninteressant, da er nur in einigen Spezialfällen punkten konnte und im allgemeinen leistungstechnisch unterlag, sodass am Ende nur der Preis bliebt, jedoch auch die klar unausgereiftere Plattform). Der Durchbruch erfolgte erst Mitte 2019 mit der Veröffentlichung von Zen2 und dafür hatte AMD am Ende rund 7 Jahre gebraucht. (Btw. Ryzen konnte seine Performance ggü. dem 2 Jahre älteren 6700K nicht "mehr als verdoppeln", konkret nicht einmal ansatzweise: 1800X: ~ 3550 / 378 Punkte, 6700K: ~ 2070 / 418 Punkte, d. h. im MT +71 %, im ST -10 %.)

Rocket Lake ermöglich derzeit keine wirklichen Einschätzungsmöglichkeiten. Hierbei handelt es sich lediglich um ein Engineering Sample, das anfänglich mit Bugs versetzt ist und mit deutlich niedrigerem Takt läuft. Für eine halbwegs sinnvolle Vorabschätzung bräuchte man hier mindestens so etwas wie ein Qualification Sample. Und darüber hinaus kann man davon ausgehen, dass derartige, sehr frühe Leaks unmittelbar direkt von den Herstellern stammen und gezielt eingesetzt werden um dann und wann ein Lebenszeichen und etwas Futter für die Presse zu liefern. Die werden sich sehr genau überlegen, welche Werte sie da im Vorfeld durchsichern lassen und das könnten auch mal durchaus konservative Werte sein. Derzeit kann man da nicht wirklich was sagen. Fest steht lediglich, dass die CPU mit einer Beschränkung auf 8 Kerne nicht mit AMDs 12- und 16-Kernern konkurrieren wird, aber das ist für den Großteil des Marktes eh nicht relevant. Bezüglich Mainstream-Workloads würde ich vermuten, dass AMD sich diesmal mit Zen3 etwas weiter von Intel absetzen können wird (was ihnen mit Zen2 dagegen nicht wirklich gelang trotz 7nm). Darüber hinaus würde ich jedoch ebenso davon ausgehen, dass sie Intel auch dieses mal wieder nicht weit abgeschlagen hinter sich lassen können, wenn man Vermutungen anstellen darf bzgl. dem zusätzlich betriebenen Aufwand durch den Backport der neueren Architektur auf den alten 14nm-Node und plattformtechnisch wird diese zudem ebenfalls die wesentlichen Lücken schließen.
Dennoch dürfte die AMD-Plattform weiterhin die attraktivere bleiben, selbst wenn man sich nur einige "Sicherheiten" offen halten will. Bei einem RKL-Board mit dem 8-Kerner ist das Ende erreicht. Bei einem halbswegs aktuellen Ryzen-Board ist man mit dieser Generation zwar auch am Ende angekommen, aber wenn aktuell vorerst absehbar 8 Kerne reichen (wie ein 4700X/4800X), dann hätte man zumindest noch Ende 2021 bzw. in 2022 die Möglichkeit einen 4900X oder 4950X einzustecken und könnte noch einmal für ein ordentliches Leistungsplus sorgen auf der alten Plattform. Ob man das will, ist natürlich eine andere Frage, denn zu der Zeit werden DDR5, Zen4 und Alder Lake aktuell sein (PCIe5 im Consumer-Segment wohl eher nicht), aber man kann sich damit zumindest seine Optionen offenhalten.

Dass AMD im Consumer-Segment in nächster Zeit über 16 Kerne hinausgeht ist wenig wahrscheinlich (wenn auch nicht vollkommen ausgeschlossen). Konkret wird AMD mit wachsender Etablierung im Markt die Preis anziehen, um die Marge zu erhöhen; das erklärte man schon im letzten Jahr den Investoren und nichts anderes kann man von einer AG erwarten. Mit bspw. 24 oder 32 Kernen würde AMD schlicht Geld auf der Straße liegen lassen. Für Consumer werden derartig hochkernige CPUs auch in 2022 weitestgehend irrelevant sein; auf einer HEDT-Plattform könnte AMD hier weitaus sinnvoller wirtschaften.
Beispielsweise Intel bot seinen ersten echten 8-Kerner "fürs Volk" auf seiner HEDT-Plattform bereits 3 Jahre vor AMD an, aber das Produkt war nicht umsonst dort platziert und hochpreisig, schlicht weil der Markt und Bedarf nur extrem klein war.
Mit Zen3 wird es, u. a. aufgrund der weiterhin verwendeten 7 nm, zweifelsfrei kein Kern-Update im Consumer-Segment geben, aber selbst mit 5 nm würde ich aktuell keine echte oder signifikante *) Erhöhung erwarten, schlicht weil die Workloads fehlen und weil AMD hier Geld verschenken würde.

*) Zu berücksichten bleibt natürlich immer dass AMD nicht nur produkttechnisch entscheidet, sondern auch vertriebstechnisch so etwas wie Halo-Produkte braucht, um weitere Marktanteile zu gewinnen (nichts anderes war bereits der aktuelle 16-Kerner). Vielleicht wird man der Meinung sein, dass man Ende 2021 bzw. 2022 einen medienwirksamen "Knall" braucht und erhöht auf 24 Kerne am oberen Ende der Consumer-Plattform, aber selbst darauf würde ich nicht wetten und eine derartige CPU wird dann noch mehr ein Nischendasein führen. (Für einige Videotranskodierer, Renderer, etc. wäre das ein Glücksfall, aber für bspw. 500 € wird es so eine CPU zweifelsfrei nicht geben und den breiten Mainstream wird ein so hochpreisiges Produkt erneut wenig bis gar nicht interessieren.)

Intel Server sind Cooper Lake (14nm+++), Ice Lake (10nm++), Sapphire Rapids (10nm+++) und Granite Rapids (7nm+, wenn es nach Plan geht). Rocket Lake und Alder Lake haben mit der Server-Architektur nichts zu tun. Bereits in 2022/23 könnte Intel mit Granite Rapids fertigungstechnisch auf Augenhöhe kontern; dann kann man erstmals einen 1:1-Vergleich anstellen gegen Zen4/Epyc (in TSMCs N5P) und kann sich architektonische und designtechnische Entscheidungen im Detail ansehen.
Eine offene Frage ist bspw., ob Granite Rapids ggf. ein MCM-Design wird. Sapphire Rapids scheint noch weiterhin ein monolithisches Design zu sein.
 
Zurück