• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel zur CES 2021: Benchmarks mit Core i9-11900K und Teaser zu Alder Lake

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel zur CES 2021: Benchmarks mit Core i9-11900K und Teaser zu Alder Lake

Intel hat es sich im Rahmen der CES nicht nehmen lassen, das künftige Desktop-Topmodell Core i9-11900K anzukündigen. In den gezeigten Benchmarks lässt Intel den neuen Achtkerner gegen AMDs Ryzen 9 5900X antreten. Darüber hinaus gibt es einen ersten Teaser zu Alder Lake, Intels 10-nm-Generation, die noch dieses Jahr auf den Markt kommen soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel zur CES 2021: Benchmarks mit Core i9-11900K und Teaser zu Alder Lake
 
D

DAU_0815

Guest
Wieso vergleichen diese Deppen es nicht einfach mit einem i7-10700K? Damit könnte man dann etwas anfangen. So ist es doch nur wieder absurdes Vergleichen, vermutlich mit AMD aus Standardtakt und nur einem RAM Riegel. Markgeting Humbug...
 

x-dragon

Komplett-PC-Käufer(in)
...So ist es doch nur wieder absurdes Vergleichen, vermutlich mit AMD aus Standardtakt und nur einem RAM Riegel. Marketing Humbug...
Ganz so schlimm scheint es nicht zu sein:
Processor: 11th Gen Intel® Core™ i9-11900K processor (RKL-S) PL1=125W TDP, 8C16T,
Motherboard: MSI Z490 GODLIKE. MCE disabled, Bios Version: EC70I6,
Memory: 32 GB (4x8) DDR4-3200 DDR4 SDRAM,
Storage: Samsung 970 Evo Plus 1TB,
Display Resolution: 1920x1080,
OS: Microsoft Windows 10 Pro 20H2,
Graphics card: EVGA RTX 3080 XC3, Graphics driver: 460.79
Versus
Processor: AMD Ryzen™ 9 5900X processor PL1=105W TDP, 12C24T,
Motherboard: Production Asus Crosshair VIII Formula X570, Bios Version: 2702,
Memory: 32 GB (4x8) DDR4-3200 DDR4 SDRAM,
Storage: Samsung 970 Evo Plus 1TB,
Display Resolution: 1920x1080,
OS: Microsoft Windows 10 Pro 20H2,
Graphics card: EVGA RTX 3080 XC3, Graphics driver: 460.79.

Testing by Intel as of December 21, 2020

Allerdings schon seltsam, das laut deren Webseite nur Metro Exodus gegen den 5900X getestet wurde, ansonsten waren es hauptsächlich mobile-CPUs.
 

Mephisto_xD

BIOS-Overclocker(in)
Letztlich wird der Preis die Kaufbarkeit dieser CPU entscheiden.

Preislich auf Augenhöhe mit einem 5800X oder gar 5600X wäre die CPU Top. Leicht bessere ST-Leistung, vermutlich ähnlich gute MT-Leistung, ähnlich starke Plattform. Der einzige Nachteil wäre ein etwas höherer Stromverbrauch, aber auch Zen schluckt unter Last ganz ordentlich.

Da Intel die CPU aber mit einem 5900X vergleicht, schwant mir übles. Denn im Vergleich zu dem dürfte der 11900K in MT-Benchmarks deutlich hinten sein. Man würde sich also bestenfalls homöopathische ST-Leistungszuwächse mit mehr Leistungsaufnahme und deutlich schlechterer MT-Performance erkaufen.
 

HardlineAMD

Freizeitschrauber(in)
Traue keinem Balkendiagramm eines Herstellers. Da ist es egal ob AMD, Intel oder nVidia.
Die 5,3 Ghz hält er sicherlich nur kurzzeitig auf einigen Kernen.
 

Averey

PC-Selbstbauer(in)
Traue keinem Balkendiagramm eines Herstellers. Da ist es egal ob AMD, Intel oder nVidia.
Die 5,3 Ghz hält er sicherlich nur kurzzeitig auf einigen Kernen.
In der Info steht ja, dass er im Single-Core 5.3 GHz taktet und auf All-Core dann mit 4.8 GHz.
Ne gescheite Kühlung und der wird sich locker auf 5.1-5.2 GHz anheben lassen, aber ist ja auch mit den älteren i9/i7-Cores möglich bis 5 GHz, die 10e Gen kann da noch höher gehen, trotzdem eine Verbesserung von Takt also zusammen mit besserem IMC und PCIe 4.0 Unterstützung. Ist schon beachtlich was für Reserven in der Architektur zu finden sind.

Wenn sie mit dem 8-Kerner in Spielen gar einen AMD 5900X schlägt, dann passt doch alles und Intel hat die Gaming-Krone zurück. Wird preislich auch unter dem 5900X liegen, denke ich.

8-Kerne sind momentan eh der Sweetspot, dazu auch noch wenn sie wieder leistungsfähiger sind als die der Konkurrenz, und der Bedarf wird noch groß sein. Die Mehrzahl der Anwender da draußen ist ja noch nicht mal auf Hexacores umgestiegen, auch wenn es jetzt Spiele gibt die bis 8-Kerne skalieren (darüber hinaus lohnt es sich nicht mehr), so kann man wunderbar auch noch mit einem Sechskerner spielen, 8-Kerner haben laut Steam Survey die wenigsten noch.

Wer sich also ein gutes Gaming System mit aktuellen PCIe Features bauen will, dem liefert Intel eine durchaus interessante Option, bin mal auf die Preise gespannt (für Intel wäre besser, sie würden die CPU günstiger anbieten als AMD den 5800X) und auf die i7 und i5.
 

SFT-GSG

Software-Overclocker(in)
8 Kerne...mehr wollen Sie nicht oder können Sie schlicht nicht. Schade, wieder ein Sprung in Richtung Zukunft verpasst. In Anwendungen wird Intel so auf dauer keinen Blumentopf gewinnen. Oder Produziert man neuerdings nur für den "Gaming" markt? Ist ja gut und schön das Intel noch vom Guten Ruf leben kann, auf dauert geht das aber nicht.


Was kostet? Kann man handeln? Was ist letzte preis!? Habe 5 kinder mach mal billiger!!!
liest sich wie die Standardfrage an mich in Ebay Kleinanzeigen. Antwort in Reihenfolge: Für dich mehr! Nein. Das doppelte. Selber schuld du Fruchtzwerg. ;)
 

ToZo1

Freizeitschrauber(in)
2%-5% mehr leistung obwohl die tests Intel macht. Aha!
Und selbst wenn es +10% wären ... interessieren doch nicht die Bohne. Schon garnicht, wenn man dafür neben einer sicher nicht billigen neuen CPU noch ein teures Mutterbrett mit anschaffen muß.
Ich werde erst wieder neugierig, wenn AMD oder Intel ne neudesignte CPU mit +50% SingleCore-Rechenleistung im Vergleich zu meinem i9-9900KS anschleppen. Alles andere ist imo Stillstand bzw. Feintuning.
 

simosh

Freizeitschrauber(in)
Alles Peanuts mit den Benchmarks. Also im Sinne positiv für uns Konsumenten, es dreht sich nur noch um Preis und Verfügbarkeit, eigentlich schon seit der Ryzen 3000er Gen und vielleicht haben wir die Situation auch noch die nächsten 2-3 Gens (bzw wenn alle komplett auf DDR 5 wechseln werden die Karten vllt neu gemischt).
Ohne Pandemie hätten wir im Frühsommer zB nen SalesBattle zwischen 5600x und dem Intel Äquivalent mit Preisen wie zuletzt beim 3600 gehabt (160€+ Gamekeys). Bruh.
 

derneuemann

BIOS-Overclocker(in)
Und selbst wenn es +10% wären ... interessieren doch nicht die Bohne. Schon garnicht, wenn man dafür neben einer sicher nicht billigen neuen CPU noch ein teures Mutterbrett mit anschaffen muß.
Ich werde erst wieder neugierig, wenn AMD oder Intel ne neudesignte CPU mit +50% SingleCore-Rechenleistung im Vergleich zu meinem i9-9900KS anschleppen. Alles andere ist imo Stillstand bzw. Feintuning.
50%? Das ist ja schon ein Quantensprung ;)

Ich persönlich finde +20% gegenüber einem 10900k schon beachtlich, wenn es denn stimmen sollte.
Der Preis muss es richten.
Ich befürchte das Intel auf die Idee kommt, wenn man im Gaming schneller ist, den Preis beim 5900X anzusiedeln, was ich für einen 8 Kerner zu viel finde, auch wenn der im Gaming schneller ist, aber beim arbeiten langsamer.

Was ich im Artikel nicht verstanden habe, warum Intel in 1080p besser darstehen sollte? Der Intel soll in jedem Bench schneller gewesen sein, da stört ein beginnendes GPU Limit dabei, die Leistung genau wieder zu geben. Denn der Intel könnte ja in 720p ja noch mehr als 8% schneller sein. So ist es ja immer gewesen, bei den CPU Tests.
 

BigYundol

Software-Overclocker(in)
Hat man den Kompressor schon gefunden? xD

Mal schauen, wie konkurrenzfähig die neue Intel-Gen dann in real world so ist.
 

IronAngel

BIOS-Overclocker(in)
Schön das es ein
Da Intel die CPU aber mit einem 5900X vergleicht, schwant mir übles. Denn im Vergleich zu dem dürfte der 11900K in MT-Benchmarks deutlich hinten sein. Man würde sich also bestenfalls homöopathische ST-Leistungszuwächse mit mehr Leistungsaufnahme und deutlich schlechterer MT-Performance erkaufen.
Schwer zu sagen, ich würde eher sagen der 11900k sollte in etwas so schnell wie ein 10900k in MT Anwendungen sein. Das wäre ja bei einen Preis von 400 - 500 Euro nicht schlecht.

Ich bin auf Tests gespannt.:)
 

Palmdale

BIOS-Overclocker(in)
Über Sinn und Unsinn entscheidet vorrangig der aufgerufene Preis - nen solider 8 Kerner mit sehr hohen Taktraten bügelt fürs Gaming wohl noch länger alles weg.

Interessant könnte allerdings tatsächlich AlderLake werden, nur weiß ich dann nicht wie genau Windows dann mit den Threads der kleinen und großen Kerne umgehen kann und wird. Was im Smartphone funktioniert, muss bei den Redmondern net auch funktionieren.
 

gerX7a

BIOS-Overclocker(in)
[... ]Interessant könnte allerdings tatsächlich AlderLake werden, nur weiß ich dann nicht wie genau Windows dann mit den Threads der kleinen und großen Kerne umgehen kann und wird. Was im Smartphone funktioniert, muss bei den Redmondern net auch funktionieren.
Das dürfte für Microsoft kein allzu großes Problem sein, denn damit müssen die sich schon seit längerem auf Windows on ARM auseinandersetzen und mit Lakefield hatten sie bereits Pilothardware.
Bei ADL ist lediglich zu unterscheiden, ob Stromsparen angesagt ist oder nicht, denn die ISA ist komplett unified, d. h. es spielt (nach bisherigem Kenntnisstand) ansonsten keine Rolle ob ein Thread auf Golden Cove oder Gracemont läuft. Läuft ein hochauslastender Gaming-Prozess, sollten zuerst erstgenannte belegt werden.
Je nachdem wie gut der Fertigungsprozess weiteroptimiert *) werden kann/konnte und wie weit das Powerbudget reichen wird, könnten optional gar dann zusätzlich weitere Threads auf die Gracemont-Cores gelegt werden, d. h. im best case können alle 16 Kerne parallel genutzt werden. Bereits in Lakefield konnten alle fünf Kerne parallel arbeiten. **) Intel hat das später lediglich im fertigen Produkt unterlassen, weil das im 5 - 7 W Bereich dann doch etwas zu knapp war mit diesem ersten Versuch.

*) In Verbindung mit ADL sprechen sie bzgl. der Prozessoptimierungen zumindest erneut von "schnelleren Transistoren", was darauf hindeutet, dass man ggü. 10 nm SuperFin voraussichtlich erneut den Takt etwas anheben können wird, d. h. man hätte auch grob vergleichbare Taktbarkeit zu 14nm und dann die beträchtlichen IPC-Gains. (Details bleiben jedoch vorerst abzuwarten - ich schätze vor Oktober wird die Plattform nicht kommen.)

**) Ob das aber tatsächlich zielführend ist, ist eine andere Frage, denn wenn Intel die IPC tatsächlich siginifikant steigern kann ggü. TGL, dann wären für Mainstream-Workloads die acht großen Kerne wohl vollkommen ausreichend und die meisten GameEngines werden bis dahin eh (zumindest gemittelt) nicht nennenswert mehr Bedarf haben. Schlussendlich wird man einfach mal abwarten müssen, ADL erscheint zumindest insgesamt interessanter zu sein als RKL, aber das ist auch keine nennenswert beachtenswerte Aussage, denn Zen4 ist zweifellos ebenso auch gleichermaßen deutlich interessanter als Zen3. ;-)
 
Zuletzt bearbeitet:

BigBoymann

Software-Overclocker(in)
Insgesamt bin ich etwas enttäuscht, auch wenn ich es so erwartet hatte. @ger7xa: du hattest ja vermutet, dass man gegen den 5800X antreten wird, die Benchmarkvergleiche lassen hier wieder etwas anderes vermuten, man möchte gegen den 5900X antreten, was in Spielen auch gut klappt, was in Anwendungen aber eben nicht passen wird. Insofern gehe ich von einem Preis über 500 EUR für den 11900k aus und damit wird es dann in meinen Augen keine Kaufempfehlung geben können.

Die hier gezeigten Benchmarks performen schon bei Comet Lake gegenüber Ryzen optimal,in Total War liegt Comet Lake nur 4% hinter dem 5800X, und ich meine auch bei den anderen Games war Comet Lake schon eher nah dran, es handelt sich hier (verständlicherweise) um Best Case Szenarien, die noch dazu im GPU Limit getestet werden. Daher befürchte ich sogar, dass man "nur" ein Patt erreichen wird und nicht vorne wegmaschieren wird.
Wenn jetzt der Preis in der Region eines 5900X liegen wird (wovon ich ausgehe; UVP natürlich), dann wird die Luft für Intel dünn und ich kann nicht sagen, dass ich dies irgendjemandem empfehlen würde. Man bekommt zwar die gleiche Gamingleistung, aber eben 50% weniger MC Leistung, was mir dann zuviel des guten ist. Intel müsste sich im Gaming schon deutlich absetzen und alles unter 5% wird dazu führen, dass sie auch in diesem Bereich, also nur für Gaming, die Empfehlung verlieren werden.

@Alder Lake:

Ich hab diese Diskussion nun schon einige Male geführt und ich kann nachwievor im Desktop keinen wirklichen Vorteil erkennen. Im Desktop geht es eben nicht darum ein Watt mehr oder weniger zu sparen, eine CPU im Idle ohne Last verbraucht schon so wenig, dass die Ersparniss viel zu gering ist um es wert zu sein. Die Effizienz in Teillast wird auch nicht im gewünschten oder erwarteten Maße steigen, dazu sind heutige CPUs schon viel zu weit entwickelt und takten automatisch in den Bereich der Sweetspots und senken Spannungen um den Verbrauch auch im Teillast Bereich gering zu halten. Atom Kerne sind zwar nochmals effizienter, aber der Unterschied ist so marginal (man muss hier ja neben dem reinen Verbrauch auch die verlängerte Laufzeit berücksichtigen), dass ich nicht glaube, dass man am Ende der Teststeckdose signifikante Unterschiede wird ausmachen können.
Mit der Technik an sich hat Intel sich dann aber auch entschieden, den High Performance Sektor im Desktop kampflos aufzugeben, es wird schlicht keine Antwort auf 12 oder 16 Kerne geben und AMD wird im Bereich 500 EUR ziemlich alleine da stehen, was ich absolut nicht als gut empfinde.Für uns wird das ein Schlag ins Gesicht werden, denn man wird quasi keine Entwicklung sehen.
Schwer zu sagen, ich würde eher sagen der 11900k sollte in etwas so schnell wie ein 10900k in MT Anwendungen sein. Das wäre ja bei einen Preis von 400 - 500 Euro nicht schlecht.
Hat Intel nicht schon gesagt, dass der 8 Kerner eher langsamer ist als der 10 Kerner. Hab da was von 5-7% im Kopf?
 

elmobank

Software-Overclocker(in)
Hat man den Kompressor schon gefunden? xD

Mal schauen, wie konkurrenzfähig die neue Intel-Gen dann in real world so ist.

Den Kompressor hat der 8auer schon mal angeteasert xD

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ne Spaß bei Seite, 8 Kerne sind schön, aber die mutmaßliche Mehrleistung wird jetzt nicht über Spielbarkeit oder nicht entscheiden. Dazu kommt noch die Ankündigung, dass die neue Generation im Herbst 2021 mit einem neuen Sockel kommen soll.

Aber der Vorteil ist, man kann sich frei entscheiden, was man haben möchte, nur Preis und Verfügbarkeit (und evtl. Effizienz bei einigen) werden dann der Ausschlaggebende Punkt sein.

@pcgh
Ich bin dann mal sehr gespannt auf die Tests.
 

PCGH_Torsten

Redaktion
Teammitglied
Ganz so schlimm scheint es nicht zu sein:


Allerdings schon seltsam, das laut deren Webseite nur Metro Exodus gegen den 5900X getestet wurde, ansonsten waren es hauptsächlich mobile-CPUs.

Rocket Lake wurde nur angekündigt, Tiger Lake H35 dagegen gelauncht. Entsprechend stand letzterer im Mittelpunkt der Präsentation. (Und vielleicht auch weil niemand mit "wir haben 20 Prozent weniger Kerne, 3 Prozent weniger Takt und 19 Prozent mehr Leistung pro Takt und Kern, das ist mega viel schneller" auf die Bühne wollte. :-D)


Letztlich wird der Preis die Kaufbarkeit dieser CPU entscheiden.

Preislich auf Augenhöhe mit einem 5800X oder gar 5600X wäre die CPU Top. Leicht bessere ST-Leistung, vermutlich ähnlich gute MT-Leistung, ähnlich starke Plattform. Der einzige Nachteil wäre ein etwas höherer Stromverbrauch, aber auch Zen schluckt unter Last ganz ordentlich.

Da Intel die CPU aber mit einem 5900X vergleicht, schwant mir übles. Denn im Vergleich zu dem dürfte der 11900K in MT-Benchmarks deutlich hinten sein. Man würde sich also bestenfalls homöopathische ST-Leistungszuwächse mit mehr Leistungsaufnahme und deutlich schlechterer MT-Performance erkaufen.

Intel hat Rocket Lake bereits im Vorfeld als "best CPU for Gaming" angekündigt und nie irgendeinen Wert auf MT-Performance gelegt. Da kann man nur verlieren. Der Bezug zum 5900X statt dem in Spielen fast gleich schnellen und als Vergleichsobjekt technisch naheliegenderen 5800X lässt aber befürchten, dass Intel mal wieder keinen Bedarf für Preisanpassungen sieht. :-(


8 Kerne...mehr wollen Sie nicht oder können Sie schlicht nicht. Schade, wieder ein Sprung in Richtung Zukunft verpasst. In Anwendungen wird Intel so auf dauer keinen Blumentopf gewinnen. Oder Produziert man neuerdings nur für den "Gaming" markt? Ist ja gut und schön das Intel noch vom Guten Ruf leben kann, auf dauert geht das aber nicht.

"Gaming" ist das offizielle Program, ja. Hinter den Kulissen dürfte die Beschränkung natürlich andere Gründe haben – Intels Ring-Bus skaliert gut bis sechs, ganz gut bis acht und mäßig bis zehn Kerne. Alles darüber hat Intel bislang tunlichst vermieden und entweder multiple Ringbusse oder seit Skylake X Mesh-Architekturen verwendet. Beides hätte einen deutlich größeren Entwicklungsaufwand für Rocket Lake bedeutet. Aber selbiger ist von vorneherein nur als Lückenfüller gedacht gewesen, der keine unnötigen Kosten verursachen durfte. Deswegen gibt es RKL nicht nur nicht mit mehr als acht Kernen, sondern es gibt ihn aller Voraussicht nach auch nicht mit weniger als sechs. Das ganze Produkt ist maßgeschneidert um die Konkurrenz-Lücke am oberen Desktop-Massenmarkt zu schließen. 12- und 16-Kerner dagegen wären reine Prestige-Produkte, die kaum Stückzahlen und somit auch nur wenig Gewinn bringen. Dafür extra zu entwickeln lohnt sich, erst recht bei der kurzen Marktpräsenz, für Intel einfach nicht. Im professionellen Markt, wo diese Leistung eher nachgefragt wird, dürften Cascade-Lake-Abverkauf (Refresh kommt wohl doch nicht mehr?) und kleine Ice Lake SP die Lücke füllen, sodass Intel wirklich nur eine Handvoll Desktop-Enthusiasten im Regen stehen bzw. kampflos zu AMD ziehen lässt.
 

Bonja_Banana

PC-Selbstbauer(in)
Sieht soweit ganz gut aus alles, ich glaube ich werde meinen 10850k gegen dein 11900k ersetzen wenn er drausen ist. Preislich auf Niveau des 5900X wäre okay für mich. Aber ich befürchte das die Verfügbarkeit das Problem wird und die CPU teuer und schlecht verfügbar sein wird.
 

gerX7a

BIOS-Overclocker(in)
Insgesamt bin ich etwas enttäuscht, auch wenn ich es so erwartet hatte. @ger7xa: du hattest ja vermutet, dass man gegen den 5800X antreten wird, die Benchmarkvergleiche lassen hier wieder etwas anderes vermuten, man möchte gegen den 5900X antreten, was in Spielen auch gut klappt, was in Anwendungen aber eben nicht passen wird. Insofern gehe ich von einem Preis über 500 EUR für den 11900k aus und damit wird es dann in meinen Augen keine Kaufempfehlung geben können.

Die hier gezeigten Benchmarks performen schon bei Comet Lake gegenüber Ryzen optimal,in Total War liegt Comet Lake nur 4% hinter dem 5800X, und ich meine auch bei den anderen Games war Comet Lake schon eher nah dran, es handelt sich hier (verständlicherweise) um Best Case Szenarien, die noch dazu im GPU Limit getestet werden. Daher befürchte ich sogar, dass man "nur" ein Patt erreichen wird und nicht vorne wegmaschieren wird.
Wenn jetzt der Preis in der Region eines 5900X liegen wird (wovon ich ausgehe; UVP natürlich), dann wird die Luft für Intel dünn und ich kann nicht sagen, dass ich dies irgendjemandem empfehlen würde. Man bekommt zwar die gleiche Gamingleistung, aber eben 50% weniger MC Leistung, was mir dann zuviel des guten ist. Intel müsste sich im Gaming schon deutlich absetzen und alles unter 5% wird dazu führen, dass sie auch in diesem Bereich, also nur für Gaming, die Empfehlung verlieren werden.

@Alder Lake:

Ich hab diese Diskussion nun schon einige Male geführt und ich kann nachwievor im Desktop keinen wirklichen Vorteil erkennen. Im Desktop geht es eben nicht darum ein Watt mehr oder weniger zu sparen, eine CPU im Idle ohne Last verbraucht schon so wenig, dass die Ersparniss viel zu gering ist um es wert zu sein. Die Effizienz in Teillast wird auch nicht im gewünschten oder erwarteten Maße steigen, dazu sind heutige CPUs schon viel zu weit entwickelt und takten automatisch in den Bereich der Sweetspots und senken Spannungen um den Verbrauch auch im Teillast Bereich gering zu halten. Atom Kerne sind zwar nochmals effizienter, aber der Unterschied ist so marginal (man muss hier ja neben dem reinen Verbrauch auch die verlängerte Laufzeit berücksichtigen), dass ich nicht glaube, dass man am Ende der Teststeckdose signifikante Unterschiede wird ausmachen können.
Mit der Technik an sich hat Intel sich dann aber auch entschieden, den High Performance Sektor im Desktop kampflos aufzugeben, es wird schlicht keine Antwort auf 12 oder 16 Kerne geben und AMD wird im Bereich 500 EUR ziemlich alleine da stehen, was ich absolut nicht als gut empfinde.Für uns wird das ein Schlag ins Gesicht werden, denn man wird quasi keine Entwicklung sehen.

Hat Intel nicht schon gesagt, dass der 8 Kerner eher langsamer ist als der 10 Kerner. Hab da was von 5-7% im Kopf?
In einem Mainstream-Workload wie Gaming gibt es derzeit im Mittel keinen großen Unterschied zwischen einem 5800X und 5900X, d. h. da kann sich Intel natürlich den für sie vorteilhafteren Vergleich aussuchen und gegen das teuere Produkt der Konkurrenz mit der höheren Kernzahl vergleichen.
Fasst man die typischen Workloads jedoch nur geringfügig weiter, ist der einzig sinnvolle Konkurrent selbstredend nach wie vor nur der 5800X, denn 8 gg. 12 Kerne ist immer ein schiefer Vergleich.
Wie genau Intel den im Retailmarkt positionieren wird, ist aktuell schwierig einzuschätzen, da der Retailmarkt bei Intel eine Sonderstellung einnimmt, dann in Corona-Zeiten mit den Lieferproblemen und dann noch bzgl. der Fragestellung, wie nötig Intel in diesem Segment mittlerweile Umsätze hat. Ignoriere ich die allgemeine Situation und schaue nur auf MSRP und gehe ich davon aus, dass sich die Bedeutung des Retailmarktes für Intel nicht geändert hat, würde ich annehmen: 5800X = 449 US$, 5900X = 549 US$, d. h. deren Topmodell wird sich irgendwo zwischen diesen beiden Konkurrenzpreisen bewegen. Da Intel immer noch der Marktführer ist und immer noch nicht am Hungertuch nagt, würde ich eher auf die obere Hälfte tippen, denn Preisdumping haben sie anscheinend weiterhin nicht nötig, zumal sie den Großteil ihrer Umsätze mit den OEMs machen.

Bezüglich der Benchmarks: Das war ja nur eine kleine Auswahl und dann auch noch handselektiert. In finalen Tests würde ich hier (zumindest bzgl. Gaming) ein ausgeglichenes Bild erwarten, mal Plus, mal Minus. Ich würde zumindest nicht erwarten, dass RKL ggü. Zen3 die eindeutig bessere Gaming-Plattform darstellt, genaugenommen empfannd ich den Gedanken einer vollständig gleichwertigen Gaming-Plattform i. V. z. Zen3 eigentlich eher als den unwahrscheinlicheren Best Case, möglicherweise ist es Intel aber noch ein weiteres Mal gelungen mit der alten 14nm-Fertigung erfolgreich gegenzuhalten, was durchaus beachtlich wäre.
Letzten Endes ist das aber auch kein wirklicher Streitpunkt, denn wo RKL am Ende punktgenau landen würde, konnte keiner exakt vorhersagen. Einzig dieses vorauseilende "Totgerede" (bzgl. der Bedeutung im Mainstream) war absehbar völliger Unsinn, denn wenn Intel einen aufwändigen Backport in 14nm umsetzen würde, konnte man sich an drei Fingern ausrechnen, dass die sich davon auch einen gewissen, konkurrenzfähigen Leistungszugewinn versprechen würden. (Und ebenso unsinnig waren (jedoch deutlich seltener geäußerte) Bemerkungen der Art, dass RKL Zen3 "zerstören" würde.)
Letzten Endes ist er leistungstechnisch genau da gelandet, wo bspw. ich ihn bzgl. dem Mainstream erwartet habe und ob der im Mittel tatsächlich leicht im Minus, auf Augenhöhe oder gar leicht im Plus liegen wird, werden erst noch unabhängige Tests zeigen müssen. Da er preislich vermutlich zwischen der Konkurrenz liegen wird, wird er sich den Vergleich mit einem 5800X und 5900X gefallen lassen müssen und daher wird man am Ende möglicherweise auch zwei leicht unterschiedliche Bewertungen haben. P/L-technisch wird (wenig überraschend) AMD sicherlich besser dastehen, schlicht weil AMD es muss, da der Retailmarkt (bisher) für AMD das primäre Geschäftsfeld ist. AMD will seine Marktanteile weiter ausbauen, d. h. die müssen auch weiterhin preislich das attraktivere Angebot bieten und ihre Ambitionen bzgl. einer höheren Marge sorgfältig austarieren gegen weiterhin zu steigernde Umsätze und Marktanteile. In gewisser Weise kam AMD Intel mit ihrer Preiserhöhung im Retailmarkt schon gar ein wenig entgegen, denn die pauschalen +50 US$ verhindern, dass Intel zu deutlichen Preisnachlässen gezwungen wird, wenn sie überhaupt noch was im Retailmarkt absetzen wollen.

Alder Lake: Es will dich ja auch keiner bekehren und es zwingt dich ja auch keiner einen "Vorteil" (für dich) darin zu sehen. Das ändert aber nichts daran, dass der Marktführer ein derartiges Produkt bringt, unabhängig davon, ob du es für sinnvoll erachtest oder nicht. ;-) (Mal ganz abgesehen davon, dass es in einem Dokument auch 8+0+1 Varianten gab, d. h. Versionen mit ausschließlich Golden Cove-Kernen, wobei abzuwarten bleibt, ob die auch tatsächlich erscheinen werden, denn das würde die Produktpalette deutlich verkomplizieren.)
Sinnvoll wird die Technik so oder so sein, insbesondere, wenn man die Gracemont-Kerne noch ein weiteres Mal optimierne konnte, denn der weitaus größere Teil der verkauften CPUs wird sein Dasein als Office-PCs fristen, die einen beträchlichen Teil ihrer Zeit im Niedriglastbereich verbringen werden und wenn man den Verbrauch da weiter senken kann, schlägt sich das in Summe sehrwohl deutlich nieder.
Letzten Endes kann man verschiedene Motivationen hinter diesem Hybrid-Aufbau sehen:

a) Drohende Energie/Verbrauchsauflagen und/oder aber auch Imagepflege. Grundsätzlich ist nichts Schlechtes an einer Verbeauchsoptimierung.
b) Ein zugeständnis an den 10nm-Prozess der zwar grob vergleichbar mit TSMCs 7nm ist, aber bspw. voraussichtlich bzgl. der Effizienz diesem dennoch weiterhin etwas hinterher rennt, d. h. etwas wie bspw. 16 große Kerne wären nicht gleichwertig realisierbar?
c) Für den Mainstream spielen mehr als 8 Kerne auch für die nächste Zeit absehbar keine Rolle. So weiß man nicht, ob Intel möglicherweise Core X wieder aufleben lassen will, bspw. auf Basis von Sapphire Rapids SP? (Auf Basis von Ice Lake SP in 10nm SuperFin halte ich dagegen eher für ausgeschlossen, da der Prozess noch keinen ausreichend hohen Takt bieten können wird, der für ein Consumer/HEDT-Produkt erforderlich wäre, zumal man sich selbstredend mit etwas wie einem 5900/5950X vergleichen lassen muss.)
d) Vielleicht braucht man die Hybrid Technology grundlegend sowie entsprechende Erfahrungswerte und Synergieeffekte, sodass man hier die Technik auch in Form echter Produkte reifen lassen und weiterentwickeln will/muss? Auch ist die Frage, wie man den Softwaremarkt zu einer entsprechenden Unterstützung führen kann und das wird bspw. weitaus schwieriger sein, wenn man nur ein einzelnes, esoterisches Sonderprodukt auf Basis der Hybrid Technology anbieten wird.

Am Energiebedarf muss Intel mit ihrer x86-Architektur so oder so optimieren, denn das ist einer der wesentlichen Knackpunkte, die x86 in bspw. dem Ultra-Portable-Bereich immer noch zweite Wahl sein lassen.
Am Ende würde ich vermuten, dass gleich mehrere der oben genannten Aspekte eine Rolle spiele und möglicherweise tragen auch gar gleich alle vier (in unterschiedlicher Gewichtung) zu der Entscheidung bei, Alder Lake in der Art und Weise zu konstruieren (wobei ich nicht implizieren will, dass die oben genannten vier Punkte die einzig denkbaren sind).

Dein "kampflos aufgeben"-Schluss dürfte dagegen deutlich verfrüht sein, denn wie gesgt kennt man Intels Pläne nicht in Gänze. Eine derartige Aussage könnte man (vorläufig) nur treffen, wenn man mit Sicherheit wüsste, dass es bspw. von Alder Lake und Meteor Lake nur maixmal 8 Kerne im Mainstream geben wird und dass es keine Core X/HEDT-CPUs mehr geben wird. Am Ende hindert Intel jedoch auch nichts daran bspw. noch einen 12-Kern-ADL nachzureichen, wenn sie es denn für sinnvoll erachten und insbesondere letzteres ist der für Intel maßgebliche Punkt. Wenn ein Segment keinen relevanten Beitrag zum Umsatz beisteuert, ist es auch durchaus legitim das abzusägen. Bei AMD ist das dagegen was anderes, denn die hängen derzeit am Retailmarkt und besonders an den Gamern/Enthusiasts und benötigen solche Halo-Produkte.
Intel wird bspw. seine Workstation-Linie so oder so fortführen, d. h. hier wird es auch entsprechend hochkernige CPUs geben, die vermutlich weiterhin von den Xeon-Dies abstammen werden. Ob die es nun für sinnvoll erachten auch zeitnah ein Core X/HEDT-Update zu bringen, wird man abwarten müssen. Sehe ich mir jedoch an, wie sich der Markt entwickelt (und vorrangig welchen Beschränkungen er unterliegt) und versuche ich zu spekulieren, welche Bedeutung dieser sehr spezielle Markt für Intel hat, dann würde ich eher auch zu dem Schluss kommen, dass die es sich problemlos leisten können hochkernige CPUs für Consumer vorerst links liegen zu lassen. Letzten Endes ist das für Consumer ja nur insofern ein Problem, als dass AMD diesen kleinen Markt dann vorerst alleine bestimmt, was natürlich auch einen negativen Effekt auf deren Preisgestaltung haben wird, jedoch wird der vorerst absehbar nicht übermäßig hoch ausfallen, da sie nicht mal eben kurzfristig von Hü auf Hott wechseln können. (Die AMD-Fanbase scheint mir in Gänze eher sehr nachsichtig und gutwillig-vergesslich zu sein, aber gewisse Grenzen werden sie in einem gewissen zeitlichen Rahmen dennoch nicht überschreiten können, sodass man hier keine Preisexplosion befürchten muss und d. h. dann für diese kleine Klientel, dass halt vorerst nur AMD für diese infrage kommt; ist doch ok, der Markt wird bedient)
 

Rollora

Kokü-Junkie (m/w)
Mich würde an Alder Lake vor allem interessieren: 10nm vs 14nm++ und Golden Cove IPC vs der IPC von Rocket Lake. Das hybride Konzept ist nicht meins, ich warte auf 16 volle Kerne von Intel (vermutlich dann in 7nm "Meteor Lake") vs AMDs Ryzen 4 (5nm) oder 5 (?? nm) und kauf mir dann den Sieger. Zur Zeit tut sich endlich mal wieder was im CPU Bereich, aber der Aufrüstdruck wird bei mir erst mit den reinen Next Gen Crossplattformspielen da sein.
 

BigBoymann

Software-Overclocker(in)
Letzten Endes kann man verschiedene Motivationen hinter diesem Hybrid-Aufbau sehen:

a) Drohende Energie/Verbrauchsauflagen und/oder aber auch Imagepflege. Grundsätzlich ist nichts Schlechtes an einer Verbeauchsoptimierung.
b) Ein zugeständnis an den 10nm-Prozess der zwar grob vergleichbar mit TSMCs 7nm ist, aber bspw. voraussichtlich bzgl. der Effizienz diesem dennoch weiterhin etwas hinterher rennt, d. h. etwas wie bspw. 16 große Kerne wären nicht gleichwertig realisierbar?
c) Für den Mainstream spielen mehr als 8 Kerne auch für die nächste Zeit absehbar keine Rolle. So weiß man nicht, ob Intel möglicherweise Core X wieder aufleben lassen will, bspw. auf Basis von Sapphire Rapids SP? (Auf Basis von Ice Lake SP in 10nm SuperFin halte ich dagegen eher für ausgeschlossen, da der Prozess noch keinen ausreichend hohen Takt bieten können wird, der für ein Consumer/HEDT-Produkt erforderlich wäre, zumal man sich selbstredend mit etwas wie einem 5900/5950X vergleichen lassen muss.)
d) Vielleicht braucht man die Hybrid Technology grundlegend sowie entsprechende Erfahrungswerte und Synergieeffekte, sodass man hier die Technik auch in Form echter Produkte reifen lassen und weiterentwickeln will/muss? Auch ist die Frage, wie man den Softwaremarkt zu einer entsprechenden Unterstützung führen kann und das wird bspw. weitaus schwieriger sein, wenn man nur ein einzelnes, esoterisches Sonderprodukt auf Basis der Hybrid Technology anbieten wird.
Die Motivation hinter diesem Konstrukt ist für mich durchaus deutlich zu erweitern.

zu a) Ich sehe auch gar keine Probleme in einer Verbrauchsoptimierung, da mißverstehst du mich wirklich falsch. Aber ähnlich wie bei elendigen anderen Diskussionen dieser Art (Elektroautos (ich fahre sogar eines), Atomkraft, etc.) wird hier schnell 1+1 zusammengezählt und scharf geschossen. Es wird aber der gesamte Kontext außer Acht gelassen, Die CPU macht nur einen marginalen Teil der Gesamtenergieaufnahme aus, dazu sind heutige CPUs ohne Last bereits dermaßen effizient, dass man hier selbst bei Ersparnissen von 50% nur wenige Watt sparen kann und ich glaube nicht, dass die Ersparnisse derart hoch liegen werden. Letzen Endes werden wir hier von 1-2 W Differenz im Idle reden, im Teillastbereich wird es kaum mehr sein, klar wird die Leistungsaufnahme niedriger sein, dafür dauert der Workload etwas länger. Ja man wird was sparen, aber die Auswirkungen werden bei Gesamtbetrachtung marginal sein. Da wäre es vermutlich tausendmal sinnvoller einen ECO Chipsatz zu entwickeln, da hier vermutlich mehr verbraucht wird als bei der CPU.

zu b) Ging man nicht dauerhaft davon aus, dass Intels 10nm sogar deutlich besser als TSMCs 7nm sein sollen? Ich meine die Aussage war immer, dass Intels 10nm mal mind. die Qualität von TSMCs 7nm+ mit EUV haben wird? Insofern she eich in der Aussage derzeit einen Widerspruch.

zu c) Hier kommt es wie so oft auf die Definition des Mainstreams an?
Gaming ist für mich kein Mainstream und dies ist eigentlich der einzige Bereich wo man von mehr als 8 Kernen kaum profitiert. In allen anderen Bereichen sind 8 Kerne ebenfalls schon too much, da könnte man evtl. einen reinen 8 Kern Atom anbieten (womit ich Office meine) oder man profitiert schon sehr stark von der Mehrleistung, womit man bspw. die doch immer stetig steigende Zahl an Youtubern meine, die eben Videos rendern und dies mittlerweile sogar in 8K tun. Wie gesagt, eine Definition des Mainstream.
Aber ich sehe auch 8 Kerne für den Mainstream als wirklich ausreichend an, so ist es ja nicht. Mir erschließt sich dann letztlich nicht der Teil mit den 8 schwachen Kernen, im mobilen Bereich ist das schon sinnvoll, aber auch hier fraglich ob nicht auch 2 starke Kerne ausreichen würden?

Ob die X Plattform wiederauflebt? Kann sein und wäre dringend nötig um zumindest die Lücke im High Performance Sektor (womit ich nicht den Profisektor meine) zu schließen, wobei es hier fraglich ist, ob man eine Plattform für einen so kleinen Teil an Nutzern belebt? Bei AMD ist dies ja nunmal Teil des "Mainstream" Produktes und 16 Kerne haben letzlich den gleichen Die wie 6 Kern CPUs, im Threadripperbereich müsste man sich bei Intel dann aber auch ins Eingemachte setzen, denn 64 Kerne zu toppen halte ich mit der derzeitigen Technik für unmöglich. Lasse mich gerne eines besseren belehren.

zu d) Klar muss es immer einen Vorreiter geben und klar sehe ich das ganze Prinzip nicht als absolut verkehrt an, allerdings sehe ich die Positionierung dessen als äußerst fragwürdig. Man versucht mit Comet Lake und nun Rocket Lake mit aller Macht dran zu bleiben und mit Alder Lake gibt man den Bereich kampflos auf, selbst eine X Plattform würde ja nicht in diesem Bereich kämpfen. Bis hin zum Gaming wird man konkurenfähig sein, da bin ich mir sicher. Aber darüber hinaus gibt man einen in meinen Augen gar nicht so unbeutenden Markt auf, auch wenn er nicht unbedingt umsatzträchtig sein mag (hab da keine Zahlen für), so halte ich ihn für marketingträchtig, denn letzlich wird AMD immer sagen können, dass sie die mit Abstand stärkste CPU auf dem Markt für Consumer haben.

Ansonsten will ich AMD hier gar nicht loben, oder Intel niedermachen. Ich halte Alder Lake für einen Fehler, insbesondere was dessen Positionierung am Markt angeht. In einer Zeit wo Intel es ohnehin schwer hat, glaube ich, dass die Implemantation dieses Konstruktes ein Fail werden kann, keinesfalls ein Muss. Aber wir haben schon bei den ersten Zen Reihen gesehen, dass neue Techniken oftmals problematisch werden, sei es nur der dummer Windows Sheduler, der die Threads falsch zuordnet und schon hast du ein absolutes Desaster am Markt. Man stelle sich nur mal vor, die ersten Gamingbenches laufen plötzlich auf den Atomkernen und man erreicht lächerliche Werte und braucht Workarounds usw um die wahre Performance auf die Straße zu bringen. In der aktuellen Phase denke ich, dass das schon ein herber Genickschlag sein könnte. Vor 5 Jahren hätte das sicherlich anders ausgesehen, da AMD ja selbst mit der Vorgängergeneration selten auch nur mithalten konnte und der Abstand stets riesig war. Da hätte es nicht mehr als ein Raunen gegeben, heute wäre der Aufschrei schon enorm.
 

gerX7a

BIOS-Overclocker(in)
Die Motivation hinter diesem Konstrukt ist für mich durchaus deutlich zu erweitern.

zu a) Ich sehe auch gar keine Probleme in einer Verbrauchsoptimierung [...]
Grundsätzlich war das (trotz der Länge) auch nicht als Diplomarbeit gedacht sondern das waren vier Punkte auf der Haben-Seite, die mir ohne groß nachzudenken einfielen und ich selbst schrieb ja bereits, dass diese Punkte (und entsprechend auch deren Aufschlüsselung) keinen Anspruch auf Vollständigkeit erheben. ;-)

Zu "deinem" a):
Wenn ich dich "falsch missverstehe", dann scheine ich dich letzten Endes doch richtig zu verstehen, oder? ;-) Scherz beiseite, das war auch kein Vorwurf, sondern schlicht ein Punkt der die eingeschlagene Richtung untersützt. In welcher Gewichtung der nun schlussendlich dazu beiträgt, kann nur Intel selbst beantworten, vielleicht sind die anderen Punkte gar deutlich wichtiger? Schlussendlich wird Intel das Thema Energieeffizienz aber ganz Allgemein per se auf der Roadmap haben, denn gerade das ist ein Punkt, mit dem ARM-basierte Designs in die x86-Domäne einzubrechen versuchen (abseits davon, dass die vorerst natürlich auch zwangsweise günstiger angeboten werden müssen) und das ist der Punkt, der zu einem wesentlichen Teil verhindert, dass x86 sich in den Ultra-Portable-Bereich ausdehnt.

Deine nachfolgende Argumentation erschließt sich mir jedoch nicht, denn wenn ich das mal salopp zusammenfasse, unterstellst du hier Verantwortlichen (Intel, IT-Verantwortlichen?), dass die nicht imstande sind das "Gesamtbild" zu sehen und deshalb macht es auch keinen Sinn an einer Einzelkomponente wie der CPU zu optimieren? (Der Vergleich mit dem E-Auto ist in einer ersten Betrachtungsweise vielleicht naheliegend (und deiner impliziten E-Auto-Kritik stimme ich zu, denn hier wird vielfach zu stark vereinfacht in der Gesamtbilanz), jedoch aus ebenso leicht nachvollziehbaren Gründen nicht wirklich übertragbar auf die CPU.)
Darüber hinaus, wer sagt, dass Intel nicht auch an seinen Chipsätzen arbeitet? Gerade in Verbindung mit ADL wäre das anzunehmen und bzgl. der Plattformeffizienz steht Intel jetzt schon besser da als AMD mit AM4, was jedoch kein Grund ist es dabei zu belassen. Ich wäre zumindest nicht überrascht bzw. fände es nur konsequent, wenn der ADL-Chipsatz auch etwas effizienter als sein Vorgänger ausfällt.

Zu b):
Eine derartige Aussage wäre mir neu. Lediglich bzgl. der Logikdichte ist Intel's P1274 mit TMSCs N7(P) vergleichbar, aber selbst hier ist aktuell zu vermuten, dass Intel mit einer gemittelt leicht niedrigeren Dichte implementiert als bspw. AMD seine Zen2/3-CPUs. Absolute Aussagen dazu kann man jedoch nicht wirklich treffen, da Intel sich hier seit etwa 2 Jahren sehr zugeknöpft bzgl. Fertigungsdetails zeigt. Beispielsweise veröffentlicht man schon seit längerem keine Transistorzahlen mehr zu den CPUs. Da Intel in der Vergangenheit jedoch immer mit deutlich weniger Transistoren auskam als AMD, kann man annehmen, dass Intel's real implementierte Logikdichte voraussichtlich etwas geringer sein wird.
Bezüglich der elektischen Eigenschaften ist es jedoch gar offensichtlich dass deren aktuelle 10nm (also 10nm+ bei Ice Lake U/Y und "jetzt" 10nm SuperFin == 10nm++ bei Tiger Lake und Ice Lake SP) weniger effizient sind als TSMCs N7, denn andernfalls würde ein 4-Kern-TGL relativ zu Renoir anders dastehen. Da scheinen keine Welten dazwischenzuliegen, aber TSMCs Prozess scheint hier aktuell (noch) im Vorteil zu sein.
Wie sich das mit 10nm Enhanced SuperFin (10nm+++) im 2HJ21 darstellen wird, bleibt abzuwarten und hier weiß ich nicht wirklich einzuschätzen, wie hoch die Wahrscheinlichkeit ist, dass Intel es noch ein weiteres Mal gelingt einen deratigen Sprung wie mit dem SuperFin zu realisieren. Ob sich hier auch die Effizienz verbessert, bleibt abzuwarten aber in 4Q21 kann man dann mit ADL vergleichen und zum Jahreswechsel/Anfang ja dann möglicherweise auch mit Sapphire Rapids SP.
Möglich erscheinen mir hier beide Richtungen: Entweder man kommt nun mit deutlich mehr Aufwand da hin, wo man eigentlicht schon gemäß dem ursprünglichen Prozessdesign landen wollte oder aber man hat sich grundlegend verzettelt und wird den Prozess niemals vollständig konkurrenzfähig hinbekommen, weil einige initiale Definitionen dies nun nicht mehr zulassen oder aber sich nicht mehr wirtschaftlich erreichen lassen, sodass man von extremen Aufwendungen absieht und dann zu 7nm übergeht? Hier wird man einfach abwarten müssen. (Für ADL wird die zusätzliche Iteration im Consumer-Sgment aber voraussichtlich ausreichen.)

Zu c):
Selbstredend ist die Definition maßgeblich, aber dann würde ich das Pferd mal exemplarisch von hinten aufzäumen: Nicht-Mainstream sind Videoencoding/tanscoding/schnitt, 3D-Rendering und technisch-wissenschaftliche Anwendungen, usw. und die profitieren vielfach von einer hohen Kernzahl. Das typische Office-Gedöns, Surfen, Streaming, Skypen, etc. dagegen kommt auch mit weitaus weniger Kernen aus und Gaming ist gerade so auf der Grenzfläche unterwegs und da es von Millionen Brügern alleine in diesem Land betrieben wird, würde ich das schon weitaus eher als Mainstream bezeichnen als das ewig herbeizitierte Cinebench. ;-) Und für die breite Masse dürfte im Mittel PC-Gaming gar den Workload darstellen, der die Hardware am stärksten auslastet (wohlgemerkt im Mittel über die gesamte Basis betrachtet) und von dem weiß man ebenso, dass die Kernausnutzung/auslastung beschränkt ist, weil sich GameEngines in den letzten Jahren nicht wirklich um eine Steigerung bemühen mussten und auch jetzt wird eine Transformation hin zu mehr Kernen nur langsam voran gehen und die neue Konsolengeneration setzt mit langsamen acht Zen2-Kernen auch schon wieder für die nächsten Jahre ein hartes Limit.
Im 3D-Rendering kann ich jeden Kern gebrauchen und auch wenn ich die ein oder andere Applikation aus dem Büro nutze, aber damit wende ich Workloads an, die im Markt insgesamt nur vergleichsweise selten genutzt werden und daher wohl eher nicht als "Mainstream" bezeichnet werden können. Entsprechend dürfte Intel mit 8 Kernen auch zukünftig weiterhin gut aufgestellt sein und bei ADL besteht immer noch die Möglichkeit, dass gar auch alle Kerne parallel genutzt werden können. Hier wird man abwarten müssen.

Zur Core X/HEDT scheinst du dir selbst zu widersprechen. Wie du schon selbst geschrieben hast ist das nur ein kleiner Markt *) und hier stellt sich die Frage ob der aktuell übermäßige Aufwendungen rechtfertigt, um da mit einer schwächeren Fertigung konkurrieren zu wollen. Intel scheint das aktuell wohl nicht so zu sehen und dementsprechend gibt es auch kein Update, was ich für leicht nachvollziehbar halte, denn aktuell scheint das kein lohnenswertes Unterfangen zu sein.
Vielleicht kann man auf Basis des Sapphire Rapids HCC ein Update erwarten, aber selbst hier wäre ich nicht übermäßig überrascht, wenn Core X so schnell nicht wiederbelebt werden wird. Möglicherweise wird hier aber auch nichts mehr wiederbelebt und mit ihren 7nm folgen dann vielleicht auch regulär 16-Kerner im Consumer-Plattform, vielleicht auf Basis von Meteor Lake? - Wohlgemerkt "auf der Consumer-Plattform", denn zum Mainstream wird ein derartiges Produkt durch seine bloße Verfügbarkeit nicht, ebensowenig wie ein 3950X oder 5950X. ;-)

*) Übrigens auch für AMD mit 16 und 12 Kernen. Letztere sind aufgrund des Preises gerade so an der Grenzfläche unterwegs und können vielfach Enthusiasten zu ein paar Euro mehr Ausgaben bewegen, jedoch verkauft ein Retailer wie MF, der überwiegend Nerds und computeraffine Nutzer anzieht, dennoch weitaus mehr Sechs- und Achtkerner und auf den Absatz eines 16-Kerners braucht man da bzgl. der Marktrelevanz schon gar nicht mehr zu schauen. Für AMD dürfte dessen Wert als Halo-Produkt vermutlich weitaus höher einzuschätzen sein.

Zu d):
Ich verstehe dein "kampflos aufgeben" nicht, insbesondere da du noch CML und RKL anführst, die nicht über 10 Kerne hinausgehen und im absoluten HighEnd per se nicht konkurrieren. Und ADL rangiert in exakt der gleiche Riege und wird absehbar gar mehr Leistung bieten, denn einen 10-Kern-CML wird ADL vermutlich schon mit seinen 8 Kernen in jedweder Hinsicht überbieten können (können dann noch die 8 Gracemont-Kernen hinzugenommen werden, gar deutlich). Absehbar kann man in Ermangelung an Details zu AMDs zukünftigen Produkten (was ist ein möglicher Zen3+?) auch davon ausgehen, dass ADL die mit Abstand bessere Mainstream/Gaming-Plattform darstellen wird als Zen3 und das voraussichtlich auch selbst schon mit günstigem DDR4, da die IPC anscheinend noch ein weiteres Mal deutlich gesteigert wurde. Im Umkehrschluss heißt das zudem, dass man sich bei AMD für das 2HJ21 auf einen Zen3+ mit ein paar signifikaten Verbesserungen freuen darf und möglicherweise wird es gar auch schon DDR5 bei AMD geben, vielleicht weil man AM5 schon mit Zen3+ einführt? Wer weiß. *)
(Mit den aktuellen Mitteln dagegen macht ein Core X-Update derzeit bei denen keinen Sinn, weder technisch noch wirtschaftlich und dementsprechend tun sie gut daran das schlicht sein zu lassen.)

*) Wenn Zen4 im Consumer-Segment nicht zeitnah Anfang des nächsten Jahres folgt, wird AMD für das 2Hj21 nicht um ein größeres Update herum kommen, denn ansonsten würde man in ein vermarktungstechnisches Loch fallen. Einen minor Refresh könnte sich AMD nur dann leisten. Ist Zen4 erst ab bspw. Mitte 2022 (oder gar später) für Consumer vorgesehen, darf man deutlich mehr für den vermeintlichen Refresh und die Plattform in diesem Jahr erwarten.

Meine abschließende Meinung:
ADL wir sicherlich kein Fehler sondern sogar ein ausgesprochener Erfolg für Intel werden (insbesondere relativ gesehen), weil es erstmals deren modernste Architektur (sowohl der Consumer- als auch Server-Markt wurden bisher mit der alten Skylake-Architektur bedient, jedoch ist man dann bereits drei Genrationen weiter) in derem besten Prozess (wenn sie nochmals signifikante Steigerungen realisieren können) im Markt geben wird und das Design ist grundsätzlich vielversprechend. Intel ist nicht umsonst der Marktführer und dürfte hier wohl durchaus wissen, wie man so etwas über die Ziellinie bringt (inkl. der Softwareseite, wobei die eigenltich relativ unkritisch ist, da man hier eine über alle Kerne einheitliche ISA verwendet, sodass nur zwischem großen und kleinen/effzienteren Kernen unterschieden werden muss). Zudem sollte man berücksichtigen, dass Intel sich so etwas nicht im kleinen Kämmerlein ausdenkt, sondern hier in regem Kontakt und in Abstimmung mit der Industrie steht. Für den Mainstream werden selbst in 2022 absehbar 8+8 Kerne absoluter Overkill sein und dementsprechend wird so etwas weiterhin eine Ethusiast-CPU bleiben.
Und schlussendlich bleibt abzuwarten, wo sich ein 8+8 ADL leistungstechnisch faktisch einsortiert, denn im best case könnte der selbst mit einem 5900X konkurrieren oder diesen gar übertreffen und nur weil es vorerst kein Pendant von Intel für den 16-Kerner gibt, der eine reine Nische bedient, heißt das noch lange nicht, dass die hier marktstrategisch einen Fehler begehen.
 
Zuletzt bearbeitet:

seahawk

Volt-Modder(in)
ADL 8+8 könnte einen 5900X oder sogar 5950X in Spielen besiegen und würde halt in Cinebench deutlich dahinter liegen. Sind die Atomkerne Termontcores ala Japsperlake sind die auch gar nicht mal so lahm.
 

gerX7a

BIOS-Overclocker(in)
Konkret sind es gar Gracemont-Kerne, also eine komplett neue Atom-Generation, die nun auch AVX2 vollständig unterstützt (und nicht nur SSE).
In Spielen würde ich annehmen, dass die 8 Golden Cove-Kerne bereits einen 5900X aufgrund der IPC-Steigerungen grundsätzlich schlagen werden; ein 5950X dürfte auch fallen, sofern nicht ein extem gut skalierender Titel zum Vergleich herangezogen wird.
Ob die Atom-Kerne, die auf Effizienz ausgelegt sind und daher nicht ganz so hoch takten werden, es zu zweit jedoch mit einem SMT-fähigen Zen3-Kern mit hohem Takt aufnehmen können, bleibt abzuwarten, d. h. aktuell kann man noch nicht gesichert sagen, dass ein 8+8 ADL einen 5900X grundsätzlich leistungstechnisch erreichen oder gar übertreffen wird. Das Design hat aber zumindest das Potential in dessen Leistungsklasse mitzuspielen, d. h. Intel steigert so oder so grundsätzlich die von ihnen im Mainstream angebotene Leistung (auch wenn das Topmodell preislich sicherlich weiterhin eher Enthusiasten vorbehalten bleiben wird, jedoch anders ist es bspw. beim 5900X ja auch nicht).
 

mannefix

Software-Overclocker(in)
Alder Kaffee würde ich sagen. Aber geschickt gemacht. Ich lasse die 2 Kerne weg, jage das Ding hoch und liege vor AMD...im Single Thread. Das ist ok, wenn man auf dem Trockenen schwimmt.

Alder, Lake wird hoffentlich etwas tiefsinniger. Ende 2021. Neuer Sockel zeigt ja schon, dass man im Augenblick sich nicht groß verändert...IPC von ca.20 Prozent wäre trotzdem sehr gut.
Alder Lake dann bitte mit USB 4. Auf den ganzen Quatsch mit USB 3.1, 3.2 2x2 etc. kann ich verzichten.
Ich finde, im Augenblick ist der Sweetspot bei 12 Kernen. 8 jetzt zum zocken. 4 zusätzliche für die Zukunft und für einige Anwendungen.

Fazit: Alder, warte auf Alder Lake :-) Ende 2021
 

PCGH_Torsten

Redaktion
Teammitglied
@gerX7a: Mit Effizienzvergleichen zwischen TGL und Renoir würde ich warte, bis H45 da ist. (Und dann gleich noch eine Woche länger auf Cezanne.) Aktuell ist das aufgrund der Unterschiede bei Cache, Kernen und IGP ein Duell, dessen Ergebnis durch das Setting vorgegeben wird. In der 15-W-Klasse gewinnt TGL ganz klar, weil Renoir viel zu groß ist, um soweit unten noch zu skalieren. Bei 35 W dagegen fehlen TGL einfach die Transistoren und an den Grenzen der eigenen Taktbarkeit kann er einen Effizienbereich gegen einen zur Hälfte idlenden Renoir nur verlieren. Das maskiert alle kleineren Unterschiede zwischen 10 nm++ und 7nm.
 

gerX7a

BIOS-Overclocker(in)
Das könnte durchaus hinkommen, leider fehlen mir hier zumeist wirklich vergleichbare Tests, da es irgendwie immer schief ist und selbst bei der gleichen Quelle, wenn man unterschiedlich ausgestattete Serien des gleichen Herstellers in die Hände bekommt, mit einem zeitlichen Versatz nicht selten anders getestet und ausgewiesen wird, was recht "ärgerlich" ist. Zumal ich bspw. auch hier und da beobachtete, dass die AMD-Designs, wenn sie auch mit einer offiziellen 15 W-CPU bestückt waren, im Realverbrauch zumeist bspw. auch eher herstellerseitig in Richtung 20 W konfiguriert waren., etc.

Mit den 8-Kern-TGL's hat man sicherlich eine etwas bessere Vergleichsmöglichkeit und kann dann versuchen bspw. gegen einen Ryzen 9 4900H zu vergleichen und später auch gegen einen neueren 59**HX, wobei man aber auch hier weiterhin den Energieverbrauch oder den Takt halbwegs fixieren müsste und zudem Unterschiede im Thermal Design der jeweiligen Plattform einrechnen muss. Interessant wird das aber alle Mal, weil es erstmals einen halbwegs brauchbaren Vergleich ermöglicht zwischen Intel und der "Kombination" AMD+TSMC 7nm.
Mit Blick auf ADL bleibt dann noch die Frage, in wie weit Intel ihr Enhanced SuperFin (10nm+++) weiteroptimieren konnte. Wenn man nicht schon wieder 400 W-Server präsentieren will ;-) sollte hier schon was gehen, denn in Verbindung mit Sapphire Rapids SP scheint wieder ein Dual-Die-MCM im Rennen zu sein a la Cascade Lake AP, das mit zusammen bis zu 72 Kernen gehandelt wird. Was es konkret werden wird, wird sich wohl zum Jahresende hin abzeichnen. Möglicherweise wird man ALD jedoch schon früher benchmarken können, denn hier gehe ich vorerst durchaus davon aus, dass Intel tatsächlich Hardware zum Weihnachtsgeschäft im Markt haben will (und voraussichtlich nicht nur in homöopathischen Dosen).

*) Bei den 8-Kernern kann man für Prozessvergleiche aber vielleicht auch auf HomeServer/NUCs hoffen. Vielleicht wird es ja bspw. eine Serie von HP geben, die auf beide CPU-Hersteller in der gleichen Geräteserie zurückgreift und dann kann man das ganze Mobile-Szenario außen vor lassen und das Setup so möglicherweise vergleichbarer gestalten und tatsächlich mal rein auf die Kombination Architektur+Fertigung schauen. ;-)
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Wenn der ""Gaming""-Wahn im Laptop-Markt weiter anhält, kann man möglicherweise auch einfach die Package-Power limitieren und die Kühllösungen auf 10 Sone aufdrehen, ähnlich wie man es bei GPU-vergleichen macht wo letztlich auch die Karte immer eine spezifische Umgebung vorgibt. Aber: Erstmal Muster haben, dann weitersehen.
 
Oben Unten