Alder Lake-S: Intel-Leak bestätigt TDP bis 125 Watt für mutmaßliches Spitzenmodell

Okay, habe in dem Fall auch nur gefragt, weil die CPUs immer wieder gerne mit den big.LITTLE-ARMs in Smartphones/Tablets verglichen werden und dort arbeiten eben entweder oder die starken oder schwachen Kerne.
Die Aussage zu ARM ist in dieser allgemeinen Form grundsätzlich falsch.

ARM hat hier über die Zeit unterschiedliche Mechanismen implementiert. Das was du skizzierst, ist deren früheste, gut ein Jahrzehnt alte big.LITTLE-Implementation, die sogenannte Cluster-Migration, bei der kleine und große Kerne in zwei Cluster (zu max. 4 Kernen) zusammengefasst wurden und je nach Lastszenario wurde der Cluster mit den kleinen, effizienten Kernen oder der Cluster mit den großen Kernen genutzt. Das ist aber, wie gesagt, das älteste und ineffizienteste Konzept.

Wenig später kam die CPU-Migration (auch als In-Kernel-Switcher bezeichnet) als Alternative hinzu, bei der jeweils ein großer Kern mit einem kleinen Kern gepaart/zusammengefasst wurde (was es erforderlich machte, in einem SoC die gleiche Zahl an kleinen und großen Kernen zu implementieren). In einer 2x4-CPU bspw. sieht das OS damit effektiv nur vier Kerne und schaltet im Hochlastszenario innerhalb der einzelnen Paarungen auf den großen Kern um und bei Bedarf wieder zurück auf den kleinen Kern. Bereits diese frühe Erweiterung erlaubte einen Mischbetrieb kleiner und großer Kerne.

Und bereits etwa 2013 stellte man das Global Task Scheduling vor, bei dem der Scheduler jeden einzelnen Kern sieht und diesen separat ansteuern kann und komplexe Heuristiken für den optimalen Betrieb des SoCs verwendet. So schreibt AMR in seiner Dokumentation zu GTS:
  • The system can have different numbers of big and LITTLE cores.
  • Any number of cores can be active at any one time. When peak performance is required the system can deploy all cores.
Beispielsweise unter anderem Samsung's Exynos 5410 und Exynos 5420 (Galaxy S4 und Note 3) verwendeten GTS, Apple's A11 und bspw. der Snapdragon 810. Details zu einzelnen SoCs und Geräten sind jedoch nur schwer in einer erschöpfenden Übersicht zusammenzustellen, da das Low-Level-Implementationsdetails sind, für deren Ausweisung es gemeinhin keinen Bedarf gibt, d. h. die Informationen findet man kaum irgendwo.

In 2017 stellte ARM dann mit DynamIQ die aktuellste Weiterentwicklung ihres big.LITTLE-Konzepts vor (die Arbeiten hieran begannen bereits in 2013), die noch deutlich mehr Flexibilität brachte:
  • CPUs/Kerne können nun flexibel und beliebig einem Cluster zugeordnet werden (max. 8 CPUs/Kerne pro Cluster (vormals max. 4); max. 32 Cluster), d. h. hier können auch problemlos große und kleine Kerne gemischt werden.
  • Innerhalb eines Clusters können die Kerne in bis zu 8 unterschiedliche Spannungs/Frequenz-Domänen gruppiert werden.
  • Zudem läuft jeder Kern grundsätzlich in seiner eigenen Power Domäne unnd kann individuell abgeschaltet werden.
Letzten Endes kann, wenn es der SoC-Entwickler für sinnvoll erachtet, jede einzelne CPU/Kern mit eigener Spannung und Frequenz betrieben werden und auch die großen Kerne können bei Bedarf mit deutlich niedrigeren Frequenzen betrieben werden.
Bis zu maximaler Flexibilität wird man das Konzept in der Praxis jedoch nicht durchexerzieren, denn jede Spannungs/Frequenz-Domäne benötigt ihren eigenen Voltage-Regulator auf dem Die, was Kosten und Komplexität erhöht, sodass man voraussichtlich Möglichkeiten zur Domänen-Gruppierungen von zwei bis vier CPUs/Kernen in realen SoCs antreffen wird.
Beispielsweise auf so kleinen Designs wie Smartphone-SoCs kann man daher bereits die 8 Kerne (bspw. 4 kleine und 4 große) eines SoCs in einer einfachen Variante bereits alle in einen einzigen Cluster stecken und diese dort beliebig in Spannungs/Frequenz-Domänen gruppieren, so bspw. als 1+7, 2+6, 3+5 oder 4+4.

Also ganz im Ernst... :schief: Ist mir klar, dass das nicht ernsthaft etwas mit CMT oder HT(SMT) zu tun hat. Den Vergleich habe ich nur angebracht, weil die Kerne eben vermutlich deutlich schwächer sind und dementsprechend eben auch kein so großer Leistungs-Zugewinn mit ihnen möglich ist.
Eigentlich gehen die aktuellen Gerüchte genau in die entgegengesetzte Richtung und unterstellen der neuen Gracemont-Architektur einen deutlich gesteigerten Durchsatz (AVX/2 dagegen ist bereits bestätigt). Und mit Blick auf Office-Workloads stellt sich die Frage grundsätzlich eher weniger und erst recht nicht, wenn man dann auch noch acht Gracemont-Kerne zur Verfügung hat.
Erst im Hochlastszenario wird das ein Thema so bspw. im 3D-Rendering (oder bspw. Gaming). Aber hierzu gab es ja bereits kürzlich Leaks, die insgesamt betrachtet bis zu 200 % MT-Leistung in Aussicht stellen, d. h. die Gracemont-Kerne können gar nicht so langsam sein. *)
Natürlich wird man am Ende abwarten müssen, in welchen Szenarien die 200 % tatsächlich erzielt werden, denn das trifft zweifellos nicht für alle Workloads zu (ist ja grundsätzlich so, wenn man marketingtechnisch einen komplexen Sachverhalt auf eine einzige Zahl einzudampfen versucht und bspw. bei Zen ja auch nicht anders), aber offensichtlich werden sowohl Golden Cove als auch Gracemont beide (erneut) einen größeren Entwicklungsschritt darstellen. Das kombiniert mit einer nochmals optimierten 10nm-Iteration klingt durchaus vielversprechend.

*) Und die Gracemont-Kerne werden voraussichtlich ebenso absehbar vergleichsweise hoch takten können, denn mit bspw. etwas wie angenommenen 4,5 GHz AllCore-Takt auf den Golden Cove-Kernen und nur bspw. 3,0 GHz-AllCore-Takt auf den Gracemont-Kernen würde man voraussichtlich nicht in Richtung 200 % MT-Leisttung kommen, weil dann entweder die GC-Kerne viel zu leistungsfähig sein müssten oder aber umgekehrt die GM-Kerne eine geradezu überirdische IPC haben müssten.
 
Zuletzt bearbeitet:
hast Recht, das die immer wissen was kommen wird vom anderen. Aber ich wollte bei meiner Aussage nur klarstellen das AMD und Intel nicht besser sind und wir einen Konter von AMD sehen werden den ADL kommt. Ich bezweifel das sich das AMD nehmen lassen wird. Ich hoffe ja das die Preise dann wieder fallen werden und die nicht mehr die Mondpreise zahlen müssen.

PS: Wer zahle denn diese Grakapreise zur Zeit? Das ist ja, Mist, wenn man eine RX 6900 haben möchte. Ich werde wohl bis zur RX 9900 warten müssen.
 
PS: Wer zahle denn diese Grakapreise zur Zeit?
Ausreichend viele Leute dass die Preise nicht fallen und die Verfügbarkeit der Karten nicht steigt. ;-)
Anfangs könnte es auch Kinderkrankheiten geben.
Da hab ich auch nochn bisschen Angst vor. Verschiedene Kerne gabs in dem Segment noch nie und entsprechend ist kein Kernel darauf vorbereitet. Bis das Konzept wirklich so funktioniert wie angedacht könnte es einige unschöne Startruckler geben. Wenn da der Scheduler etwas verwirrt ist haste Frametimes aus der Hölle.
 
Bezüglich dem Scheduling und möglichen Problemen dürfte man dem Ganzen wohl recht entspannt entgegen sehen können:
  • Zum einen ist das bereits Intels zweites Design dieser Art; den Piloten hatte man bereits mit Lakefield (2019).
  • Mit Lakefield hatte auch Micrsoft seinen ersten Test auf der x86-Plattform.
  • Ein derartiges Layout ist für Microsoft aber grundsätzlich nicht neu, wenn man auf Windows on ARM schaut.
  • Dazu kann man hier mit einer deutlich weiterentwickelten Version rechnen, so sowohl auf Seiten von Intel in der HW als auch bei Microsoft in der SW und bspw. die geleakte Slide spricht von "hardware-guided scheduling", d. h. der OS-Scheduler scheint nicht komplett auf sich alleine gestellt zu sein.
  • Und von einer überhasteten Einführung kann man auch nicht ausgehen, da die Sampling Phase bereits min. seit Ende Oktober 2020 läuft, d. h. bereits seit dem Zeitpunkt ist funktionierendes Silizium im Umlauf.
  • Und selbstredend kann man Probleme nicht kategorisch ausschließen, jedoch wenn der Marktführer seine gesamte Consumer-Produktpalette umstellt hat das deutlich mehr Gewicht, sodass man hier von einer schnellen Problemlösung ausgehen kann.
Interessant wird, was es am Ende bringen wird, so bspw. in Bezug auf Leistung und Effizienz. Und langfristig wird ebenso interessant sein, ob Intel den eingeschlagenen Weg fortsetzen wird, mit Raptor Lake und Meteor Lake. Ich würde vermuten ja, denn immer leistungsfähigere, große, full-blown Kerne werden zunehmend ineffizienter für die extrem breit gefächterte Spanne an Consumer-Workloads.
 
PS: Wer zahle denn diese Grakapreise zur Zeit?

Das eine sind die Miner und das andere sind Leute, die nicht (so) preissensitiv sind. Es gibt eben Leute, die zahlen über 10.000€ für ein Auto, da ist es dann nicht so unvernünftig, für sein Hobby etwas mehr hinzulegen (auch wenn die 200 bis 1500€ Aufpreis mehr als nur echt heftig sind).
 
denn immer leistungsfähigere, große, full-blown Kerne werden zunehmend ineffizienter für die extrem breit gefächterte Spanne an Consumer-Workloads.
Nur, wenn man deren Betriebsparameter so wählen muss dass die breite Masse es nicht abstraft.

Stell dir mal vor, eine "full blown" CPU wie der dickste Ryzen oder Rocketlake würden bei Workload, der nur kleinere Teillasten erzeugt hingehen und die Kerne nur auf 3 GHz bei <1V Spannung betreiben. Die CPU könnte die allermeisten Alltagsdinge mit ner Handvoll Watt Verbrauch im Schongang erledigen und ohne mit der Stoppuhr da zu sitzen würde niemand den Unterschied zu "MUSS-5-GHZ-BOOSTEN!!!!" bemerken.

Nur hätte das zur Folge, dass in der Computerbild der (eine) Balken dieser CPU kürzer würde. Kürzer als der der Konkurrenz und kürzer als der des eigenen Vorgängers. Denn eine ausreichend differenzierte Betrachtung solcher Dinge findet abseits von Spezialforen wie unserem und Nerdplattformen wie PCGH, HWL, CB usw. nicht statt.
Und den Pseudo-Shitstorm der großen unwissenden Masse will keiner der Hersteller mitmachen.

Es ist ja nicht so, dass aktuelle CPUs nicht auch irre effizient betrieben werden können. Nur macht sowas kein Hersteller weil man in Standardtests entsprechend schlechter dasteht und nur ein sehr kleiner Bruchteil der Bevölkerung ausreichend Kenntnisse über die Technik hat um zu erkennen was daran so toll ist bzw. warum man dadurch keinen wirklichen Nachteil hat. Der Effekt obiger Herangehensweise wäre eher, dass Tausende Threads aus dem Boden schießen die "CPU defekt! Geht im Windows nur mit 3 GHz!!11eins" lauten. :ka:
 
Zuletzt bearbeitet:
Stell dir mal vor, eine "full blown" CPU wie der dickste Ryzen oder Rocketlake würden bei Workload, der nur kleinere Teillasten erzeugt hingehen und die Kerne nur auf 3 GHz bei <1V Spannung betreiben. Die CPU könnte die allermeisten Alltagsdinge mit ner Handvoll Watt Verbrauch im Schongang erledigen und ohne mit der Stoppuhr da zu sitzen würde niemand den Unterschied zu "MUSS-5-GHZ-BOOSTEN!!!!" bemerken.
Das ist allerdings auch eine zweischneidige Angelegenheit.

Die meisten Lasten liegen auch nur kurz an, weshalb es sinnvoll sein kann, benötigte Kerne für einen Moment hochzutakten, um den Arbeitschritt möglichst schnell abzuschließen und wieder heruntertakten zu können. Sicherlich würde der Benutzer nicht merken, ob die Aufgabe mit 5 Ghz in 300 ms oder mit 3 Ghz in 500 ms erledigt wird, aber das wirkt sich halt auch nicht zwingend negativ auf die durchschnittliche Leistungsaufnahme aus. Entscheidend ist dafür eher, wie sensibel die CPU hoch- oder heruntertaktet.

Wenn natürlich jede hastige Mausbewegung dazu führt, dass maximal Dampf gemacht wird, hat man ein Problem.
 
Wenn natürlich jede hastige Mausbewegung dazu führt, dass maximal Dampf gemacht wird, hat man ein Problem.
Genau das ist aber die aktuell gängige Einstellung... Die Bewegung muss nicht mal hastig sein.

Bei AMD sind es 142. 8 Kerne mit HT + 8 kleine Kerne mit 125 Watt TDP sind dann sicherlich nicht schlimm.

Bitte wie üblich nicht durcheinanderwerfen.

Die TDP bei AMDs großen CPUs ist 105W. Der Maximalverbrauch im Boost 142W (dauerhaft).
Die TDP bei Intels großen CPUs ist 125W. Der Maximalverbrauch im Boost 250W (56 Sekunden lang).

Bei üblicher höherer Teillast wie CPU-lastigen Spielen bewegen sich beide bei groben 70-100W.
 
Zuletzt bearbeitet:
Die TDP bei Intels großen CPUs ist 125W. Der Maximalverbrauch im Boost 250W (56 Sekunden lang).

Wobei die 56 sec auch nur offiziell sind und sich die CPU auch dauerhaft mehr gönnen kann, wenn es der Boardhersteller vorsieht. Für Zocker, die sich ein Z Mainboard kaufen, ist die TDP sowieso nur eine pro forma Angabe.
 
Nur, wenn man deren Betriebsparameter so wählen muss dass die breite Masse es nicht abstraft.

Stell dir mal vor, eine "full blown" CPU wie der dickste Ryzen oder Rocketlake würden bei Workload, der nur kleinere Teillasten erzeugt hingehen und die Kerne nur auf 3 GHz bei <1V Spannung betreiben. Die CPU könnte die allermeisten Alltagsdinge mit ner Handvoll Watt Verbrauch im Schongang erledigen und ohne mit der Stoppuhr da zu sitzen würde niemand den Unterschied zu "MUSS-5-GHZ-BOOSTEN!!!!" bemerken.

Nur hätte das zur Folge, dass in der Computerbild der (eine) Balken dieser CPU kürzer würde. Kürzer als der der Konkurrenz und kürzer als der des eigenen Vorgängers. Denn eine ausreichend differenzierte Betrachtung solcher Dinge findet abseits von Spezialforen wie unserem und Nerdplattformen wie PCGH, HWL, CB usw. nicht statt.
Und den Pseudo-Shitstorm der großen unwissenden Masse will keiner der Hersteller mitmachen.

Es ist ja nicht so, dass aktuelle CPUs nicht auch irre effizient betrieben werden können. Nur macht sowas kein Hersteller weil man in Standardtests entsprechend schlechter dasteht und nur ein sehr kleiner Bruchteil der Bevölkerung ausreichend Kenntnisse über die Technik hat um zu erkennen was daran so toll ist bzw. warum man dadurch keinen wirklichen Nachteil hat. Der Effekt obiger Herangehensweise wäre eher, dass Tausende Threads aus dem Boden schießen die "CPU defekt! Geht im Windows nur mit 3 GHz!!11eins" lauten. :ka:
Da unterliegt du einem Denkfehler. Sinn und Zweck einer derart angepassten Architektur ist bei einem gegebenen Workload und Lastszenario energieeffizienter zu sein. Das hat nichts damit zu tun, dass man grundsätzlich auch einzelne große Kerne komplett abschalten oder bspw. mit niedrigerem Takt und damit auch niedrigeren Spannungen betreiben kann.
Und genau aus diesem Grund gibt es bspw. auch in der ARM-Welt hochspezialisierte kleine Kerne, die mit deutlich kürzerer In-order-Pipeline und einem deutlich einfacheren Aufbau deutlich effizienter unterwegs sind als ihre größeren, komplexeren Geschwister. Denn wäre dem nicht so, würde es kein big.LITTLE und jetzt DynamIQ geben in der ARM-Welt, sondern die SoCs hätten alle nur einen einzigen Kerntyp und man würde bei Bedarf schlicht Kerne stilllegen und andere wiederum deutlich heruntertakten. Ganz offensichtlich geht die Rechnung jedoch nicht auf, sprich ein solches Vorgehen wäre immer noch nicht so effizient wie das aktuell praktizierte, mit unterschiedlichen Kerntypen die ihren Sweetspot an unterschiedlichen Stellen liegen haben und sich damit für unterschiedliche Szenarien mal mehr und mal weniger gut eigenen. Du kannst dir an zwei Fingern ausrechnen, dass die Entwickler sich diese Komplexität und zusätzlichen Entwicklungskosten bei aktuellen Designs gerne ersparen würden und einfach nur Abschalten und Frequenzen reduzieren würden, wenn das effizienter wäre, ist es aber offensichtlich nicht und dementsprechend betreibt man diesen immensen Aufwand.

Die Frage, die ich mir hier stelle ist, in wie weit Intel hier bei/mit Gracemont eine weitere Optimierung anstrebt, u. a. um insbesondere im LowPower-Bereich besser mit ARM konkurrieren zu können. (Der Desktop wäre dann quasi so nebenbei der Nutznießer, denn hier gibt es auch mehr als genügend Idel- und Idle-nahe Lastzustände und oftmals über lange Zeiträume.)
 
Zuletzt bearbeitet:
Sinn und Zweck einer derart angepassten Architektur ist bei einem gegebenen Workload und Lastszenario energieeffizienter zu sein.
Das hab ich nie bezweifelt. Natürlich ist das Konzept wenns gut gemacht ist energieeffizienter.

Ich behaupte nur, dass man auch mit "altmodischen" CPUs wesentlich effizienter unterwegs sein könnte wenn man nur wollte. Nur will der Hersteller das nicht weils beim entschuldigung dummen Kunden blöd ankommt.

Und je nachdem in welchem Bereich wir uns bewegen ist dann der Unterschied nicht mehr groß. Denn das BigLittle-Prinzip hat umso mehr Vorteile je geringer die geforderte Last ist. Sobald man ein bisschen was fordert wäre ein effizient eingestellter "Big"-Kernkomplex nicht mehr ineffizienter. Nur befinden sich die allermeisten Rechner die allermeiste Zeit im Idle (oder nur knapp darüber) - und da bringts halt was.

Ich weiß man wird immer gleich für die Vergleiche verprügelt aber es is halt son bisschen wie bei hochgezüchteten Autos. Die Leute kucken auf die PS-Zahlen, lesen 300 als Beispiel und denken wow geil schnell. Dabei erreicht die Kiste die 300PS nur im obersten Grenzbereich und 99% der Zeit fährt der Normalo halt keine Rennen oder düst auf der AB wie ein irrer über 200 - und nutzt von den 300PS vielleicht im Mittel 30. Auch da gibts viel effizientere Wege aber die Leute wollen halt das 300PS-Schild kaufen bis man sie zwingt - das BigLittle ist dann die Hybridkarre. 300PS aufm Schild aber kann trotzdem effizient(er) knapp über Idle. :haha:
 
Zuletzt bearbeitet:
Das hab ich nie bezweifelt. Natürlich ist das Konzept wenns gut gemacht ist energieeffizienter. [...]
Dann stellt sich aber die Frage ... warum nur eine halbgare Lösung anstreben, wenn es auch besser geht?
Insofern, ändert sich m. M. n. nichts an meinem Argument: Typische Consumer-Workloads haben eine derart extreme Spannweite von 98 % der Betriebszeit im Idle bis zu 98 % dauerhafte Volllast und nicht selten gar noch mit Bedarf für erweiterte Instruktionssätze ... das ist nichts, was man universell mit einer Architektur über die gesammte Spannweite effizient abbilden können wird.
Legt man das Desing auf maximale Effizienz aus, wird einem die Leistung fehlen, im Worst Case schon weit vor einem Hochlastszenario,
legt man das Design auf maximale Leistung aus, wird es mit abnehmender Last zunehmende ineffizienter,
und legt man das Design auf die "goldene Mitte" hin aus, ist es im Niedriglastbereich weniger effizient und im Hochlastbereich längst nicht so performant, wie man es gerne hätte.

Insofern finde ich den Ansatz gut und finde es spannend zu beobachten, wie sich das über die Jahre entwickeln wird (nicht als implizite Unterstellung gemeint, dass du das wohlmöglich genau anders herum siehst und vielleicht blöd findest ;-)). Ein Kernproblem dabei ist ja auch, dass man da viel drüber theoretisieren kann, aber wenn man das mal nicht in konkrete Produkte überführt, zur Marktreife bringt und einführt und sich entwickeln lässt und im Zuge dessen auch die anderen Marktteilnehmer involviert, wird das immer nur graue Theorie bleiben, deren volles Potential man möglicherweise auch nie ganz absehen können wird.

*) Zu Lakefield gibt es bspw. einen Graphen, der die relative Performance der beiden Kerntypen dem Verbrauch gegenüberstellt und bei etwa 52 % der Sunny Cove-Performance scheint der Wendepunkt zu sein. Oberhalb dieser relativen Performance steigt der Verbrauch des Tremont-Kerns deutlich an und überschreitet den Verbrauch des SC-Kerns schnell und sehr deutlich, bis er dann bei etwa 65 % sein Maximum erreicht. Unterhalb der etwa 52 %igen Performance dagegen arbeitet der Tremont-Kern durchgehend effizienter als der SC-Kern.
Und dahingehend halt auch der letzte Absatz in meinem vorigen Post, ob Intel es hier gar noch mit Gracemont gelingt dieses Unterschreiten der Kurve (des in dem Falle dann Golden Cove-Kerns), sprich die Effizienz noch weiter zu verbessern?

Wie schon zuvor bemerkt wurde: Manche Consumer, bspw. Gamer, werden davon wenig merken und denen wird das auch möglicherweise reichlich egal sein (nicht jedoch die zusätzliche Leistung, die die bis zu 8 Gracemont-Kerne zusätzlich beisteuern können, bzw. die Last, die diese Kerne von den großen Golden Cove-Kernen fernhalten können), jedoch im Mobile-Bereich dürfte man das schon deutlich spüren und selbst bei den Abermillionen Office-PCs (und in ähnlicher Art genutzten PCs) dürfte sich das in Summe signifikant bemerkbar machen.
Intel wird hier vermutlich immer noch ein leichtes Fertigungshandicap haben, da ich (vorerst) nicht davon ausgehe, dass sie mit ihren 10nm Enhanced SuperFin mit dem optimierten N7 vollends gleichziehen können werden und wenn doch, dann steht möglicherweise bei AMD auch ein Wechsel auf den N6 an, aber so oder so ist es ein interessanter und begrüßenswerter Schritt, insbesondere, da dem Markt dadurch ja auch nichts verloren geht, denn wer damit nichts anfangen kann und will, wird bei AMD weiterhin "herkömmliche" CPUs finden und selbst bei Intel scheint die Hybrid Technology vorerst auf dem Desktop auch nur eine Option zu sein, da es wohl auch Designs ohne Gracemont-Kerne geben wird. *) Insofern ist es auch gut, das Intel den Weg beschreitet, denn AMD hat für so etwas derzeit schlicht keine Ressourcen und andere Ziele und insofern wird man hier beobachten können, ob so etwas gewinnbringend auf x86 adaptiert werden kann, vielleicht nicht direkt mit einem eindeutigen Ergebnis bei Alder Laker, aber vielleicht werden die Vorteile/Zugewinne dann ja mit Raptor Lake und Meteor Lake größer weiter zunehmen ... wer weiß ...

*) Ob die X+0 Modelle tatsächlich eigene Dies ohne Gracemont-Kerne sein werden oder ob die Kerne hier nur abgeschaltet werden, ist noch unklar. Intel hätte mit seinem Fertigungsvolumen durchaus die Möglichkeit auch dedizierte Dies zu entwickeln, die Frage ist nur, ob Intel dafür einen nennenswerten Markt sieht.
Jedenfalls soll es bspw. auch angeblich so etwas wie eine ADL-S mit nur 8 großen Golden Cove-Kernen geben. Ein Enthusiast, der sich für Intel entscheiden würde, würde dann vermutlich aber dennoch einen 8+8 bevorzugen, weil der absehbar deutlich mehr Leistung bieten wird. ;-)
 
Zuletzt bearbeitet:
Zurück