Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

Im Geekbench ist ein Eintrag zu einer Alder Lake-S-CPU aufgetaucht. Mit dieser Generation will Intel leistungsstarke und energieeffiziente Kerne verbinden, wobei offenbar nur die leistungsstarken Kerne SMT unterstützen sollen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht
 
Mmh ob das was wird mit großen und kleinen Kernen?

Wer böse denkt, könnte meinen hier ist Intels Bulldozer :ugly: im Anmarsch

Oder es wird die Rettung für Intel, gewissermaßen der nächste Core2 oder Core i.

Bei Komplett PC Herstellern, die sich der EU Energiesparrichtline unterwerfen müssen und bei Laptops, werden sie wohl offene Türen einrennen. ich vermute mal, Alder Lake könnte das sein, was sich Apple gewünscht hat, Intel konnte allerdings nicht liefern.

Hier haben jahrelang diverse Leute geunkt, Intel sollte etwas neues machen und hier ist es.
 
Naja ... ich sehe zwar durchaus einen nutzen in diesem Konzept, aber nur dann wenn alle Kerne gleichzeitig laufen können und so z.B. das BS selbst auf den "kleinen" läuft inkl aller Hintergrundprozesse und ein Game dann die 8 "Großen" für sich alleine hat. Damit gäbe es kein Geruckel mehr weil ein Hintergrundprozess meint jetzt unbedingt irgendeinen Scheiß machen zu müßen ....

ANsonsten hat das ganze beim PC meiner Meinung nach null Sinn, auch die Aktuellen Prozzis sind sehr effiziert wenn die Leistung sie nur wenig Leistung (ohne einen vollständig ausgelasteten Kern) liefern müßen, für "Arbeitsrechner" macht es also wohl einen unterschied von wenigen Watt ob da auf kleine Kerne umgeschaltet werden kann oder nicht, wenn überhaupt eine ersparniss da ist ... dazu müßen die einmzelnen Kerne auch abgeschaltet werden können und nicht im Leerlauf trotzdem Strom verbraten.
 
Oder es wird die Rettung für Intel, gewissermaßen der nächste Core2 oder Core i.

Bei Komplett PC Herstellern, die sich der EU Energiesparrichtline unterwerfen müssen und bei Laptops, werden sie wohl offene Türen einrennen. ich vermute mal, Alder Lake könnte das sein, was sich Apple gewünscht hat, Intel konnte allerdings nicht liefern.

Hier haben jahrelang diverse Leute geunkt, Intel sollte etwas neues machen und hier ist es.
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Systembuilder werden halt vermehrt kleine CPU's und midrange Grafikkarten verbauen. Ich kann mir auch vorstellen das CPU potenten IGP in Zukunft mehr verbaut werden.
 
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Systembuilder werden halt vermehrt kleine CPU's und midrange Grafikkarten verbauen. Ich kann mir auch vorstellen das CPU potenten IGP in Zukunft mehr verbaut werden.
Das tun sie doch schon, oder siehst du in der Mehrzahl der Fertig-PCs Highend- CPUs und GPUs?
Davon abgesehen beherrschen moderne CPUs und Betriebssysteme ja allerhand Stromsparmechanismen. Es ist ja nicht so, dass eine CPU heute ständig mit Maximaltakt läuft.
 
Im Desktopmarkt ist das mit den kleinen Kernen halt ziemlich nutzlos!
Mal an einem aktuelle Atom gearbeitet? Für die meisten üblichen Desktopanwendungen (Office, Video-Streaming, Internet) reichen die kleinen Kerne locker. Das Konzept macht für mich sehr viel Sinn wenn man die leistungshungrige Anwendung auf die starken Kerne packen kann und den Rest auf den lahmen laufen lässt. Selbst bei Gaming dürften dieses 8+8 Konzept kaum hinter einem echten 16Core liegen.
 
Was soll das bitte am Desktop bringen?
Ausgesprochen viel wie schon geschrieben wurde, du aber nicht verstehst. Windows Hintergrunddienste, Office&Co. benötigen kaum Leistung, das ist alles mit modernen Atomkernen abzudecken.

Der PC ist halt zum Arbeiten gedacht, Spielen ist da nur sekundär. Und da gibt es meistens einen Hauptthread und ein paar Nebenthreads welche mal mehr, mal weniger Last fordern. Und selbst da können, wenn Windows das gut verteilt, die Atomkerne effizient sein.
 
Mal an einem aktuelle Atom gearbeitet? Für die meisten üblichen Desktopanwendungen (Office, Video-Streaming, Internet) reichen die kleinen Kerne locker.
Wir haben hier im Haus sogar noch einen 10 Jahre alten Atom D525 (ASUS BB S1-AT5NM10E Mini-PC mit Nvidia Ion-Grafik), der mit seinen 2 Kernen und 4 Threads ebenfalls noch als HTPC und Surfmaschine taugt. Wenn auch mit einigen Abstrichen in Form von häufigeren Gedenksekunden, sowie nicht ganz ruckelfreier Wiedergabe von HD-Videos im Browser, wesegen er nur noch zum surfen, ebay usw. genutzt wird.

Deutlich besser läuft da schon unser HTPC mit einem Asrock J3160M (Celeron J3160, 4 Kerne 4 Threads, aus 2016), wo die CPU auch nur eine TDP von 6 Watt hat.

Den 3930K takte ich mit maximal 2,2-2,4GHz (statt 4GHz) ebenfalls im "normalen Desktop-Betrieb" (Surfen, Streaming usw) runter.

So lange ich als User in das "Load-Balancing" der unterschiedlichen Kerne eingreifen, und so zb. die "starken" Kerne auch temporär komplett deaktivieren kann, begrüße ich CPUs mit zusätzlichen sparsamen Kernen. :top:
 
Was soll das bitte am Desktop bringen?
Stromsparen im quasi Leerlauf?

Selbst Zocker-PCs laufen ja nicht permanent unter Vollast, sondern verbringen den Großteil ihrer Zeit damit den Browser, Office, und noch ein paar Hintergrundtasks auszuführen.Dafür braucht es aber natürlich keine AVX512 fähigen Superkerne, ein kleiner, stromsparender Atomkern würde es genauso tun. Wenn man dann Power braucht, kann man den großen Bruder immer noch aus dem Tiefschlaf wecken.

Ist natürlich für Mobilgeräte aufgrund von Akkulaufzeit für den Nutzer deutlich interessanter, aber ich finde es gut, dass die Technik auch auf den Desktop kommt.
 
Das mit der Energiesparrichtlinie kann Intel, AMD und Nvidia leicht umgehen. CPUs auf z.B. mit 65W verkauft, der Kunde legt dann im BIOS den "Schalter" um....der Hersteller kann ja nix dafür wenn sie CPU außerhalb der Spezifikation betrieben wird.....

Können sie nicht. Entscheidend ist der Verbrauch im Stand By und im Leerlauf. Da bringen die kleinen Kerne von Alderlake wohl die entscheidenden Watt. Die EU Energiesparrichtline ist sowieso nur für Komplett PCs relevant und läßt Selbstbauer außen vor.
Was soll das bitte am Desktop bringen?

Komplett PCs und die EU Energiesparrichtline, das ist ein sehr wichtiger Markt.
 
Stromsparen im quasi Leerlauf?

Selbst Zocker-PCs laufen ja nicht permanent unter Vollast, sondern verbringen den Großteil ihrer Zeit damit den Browser, Office, und noch ein paar Hintergrundtasks auszuführen.Dafür braucht es aber natürlich keine AVX512 fähigen Superkerne, ein kleiner, stromsparender Atomkern würde es genauso tun. Wenn man dann Power braucht, kann man den großen Bruder immer noch aus dem Tiefschlaf wecken.

Ist natürlich für Mobilgeräte aufgrund von Akkulaufzeit für den Nutzer deutlich interessanter, aber ich finde es gut, dass die Technik auch auf den Desktop kommt.
Für mich bleibt die Frage nach dem Vorteil?

Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken. Da könnte man analog zum ClockTuner den besten Kern raussuchen. Die 8 langsamen Kerne braucht es dafür nicht. Diese werden in der Entwicklung, der Produktion und dem Preis !ehr kosten, als das sie einsparen.

Was braucht eine heutige CPU im Idle?

Ein gesamtes System @Stock zieht bei mir gemessene 42W (ohne Monitor, aber mit Peripherie (Maus, Headset, etc.). Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können. Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein. Mit vernünftiger Softwareoptimierung ala ClockTuner wird da mehr möglich sein (also weniger) . Werde mir für das neue System Mal ein Messgerät besorgen und protokollieren.

P.S.
Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt
 
ANsonsten hat das ganze beim PC meiner Meinung nach null Sinn, auch die Aktuellen Prozzis sind sehr effiziert wenn die Leistung sie nur wenig Leistung (ohne einen vollständig ausgelasteten Kern) liefern müßen, für "Arbeitsrechner" macht es also wohl einen unterschied von wenigen Watt ob da auf kleine Kerne umgeschaltet werden kann oder nicht, wenn überhaupt eine ersparniss da ist ... dazu müßen die einmzelnen Kerne auch abgeschaltet werden können und nicht im Leerlauf trotzdem Strom verbraten.
So ist es, vor allem sind es dann die Leutz, die vom geilen Stromsparen reden und ne 3080 oder eine 3090 kaufen und dann 10~12 Std am Tag am PC sitzen und am zocken sind. Let´s Go Strom sparen :ugly:
 
Für mich bleibt die Frage nach dem Vorteil?

Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken. Da könnte man analog zum ClockTuner den besten Kern raussuchen. Die 8 langsamen Kerne braucht es dafür nicht. Diese werden in der Entwicklung, der Produktion und dem Preis !ehr kosten, als das sie einsparen.

Was braucht eine heutige CPU im Idle?
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.
Ein gesamtes System @Stock zieht bei mir gemessene 42W (ohne Monitor, aber mit Peripherie (Maus, Headset, etc.). Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können. Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein. Mit vernünftiger Softwareoptimierung ala ClockTuner wird da mehr möglich sein (also weniger) . Werde mir für das neue System Mal ein Messgerät besorgen und protokollieren.

P.S.
Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt
Das ist nicht für Bastler relevant, sondern für Komplettbürorechner der Marke Dell, Lenovo & Co. Das sind diese schwarzen Kisten, die weder RGB Beleuchtung noch turbinenartige Belüftungsmethoden haben, dafür aber nicht 42 W im Leerlauch mit Peripherie ziehen, sondern <15W . Selbst wenn man die fehlende Grafikkarte herausrechnet, ist das schon heute deutlich weniger als dein Bastelsystem - und offenbar sieht Intel andere Optimierungsmöglichkeiten als ausgeschöpft, und springt nun ebenfalls auf den bigLittle Zug auf.
 
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.
Lies doch bitte mal was ich geschrieben hab:klatsch:
 
Sinnvoller wäre es doch bei einem 8Kerner 7 Kerne komplett abschalten zu können und zum Energiesparen die Spannung beim verbleibenden Kern zu senken.

Dreimal darfst du raten, was heute schon gemacht wird.

Wenn das ganze vernünftig organisiert werden würde, also CPU und undervolten, RAM undervolten, Graka undervolten, wird man das ganze bereits heute auf knappe 30W regulieren können.

Auch das wird alles gemacht, komplett im Hintergrund.

Davon nimmt sich die CPU aber nur einen kleinen Teil, denke um 10-15 W werden es heutzutage sein.

Es ist sogar noch weniger, aber auch Kleinvieh macht Mist.

Vor allem werden sich die ganze Freaks ja auf die tolle BigLittle Technik stürzen und einen Z Chipsatz dazu holen, was ja aus energietechnischer Sicht mal gar keinen Sinn ergibt, dazu dann noch maximal ein 80+ Bronze 1500W Chinaböller und vierundzwanzig Lüfter. Womit das System dann im Idle 120W frisst, 80W die Lüfter, 20W der Rest und 20W Netzteilverlustleistung, weil das ganze System nicht passt

Die Freaks interessieren nicht. Zum Glück, denn sonst wäre der Gaming PC, wie wir ihn kennen, bald verboten.

Ich erinnere mich, als durch eine Fehlinterpretation der EU Energiesparrichtline der Eindruck aufkam, große Grakas, wie die HD 7970, würden bald verboten werden. Da hat es aber echt nach Revolution gerochen, der Sturm auf Brüssel war fast schon spürbar (blöd, wenn man dann erfahren muß, dass das Parlament in Straßburg tagt).

Zum Glück hat sich alles als nicht so schlimm herausgestellt. Das ganze betraf nur Fertig PCs und PCs mit extremen Grakas, CPUs mit 5+ Kernen, 16GB RAM und 1000W Netzteilen, waren von dem Verbot nicht betroffen,

So ist es, vor allem sind es dann die Leutz, die vom geilen Stromsparen reden und ne 3080 oder eine 3090 kaufen und dann 10~12 Std am Tag am PC sitzen und am zocken sind. Let´s Go Strom sparen :ugly:

Die Leutz, die das machen, interessieren (zum Glück) nicht. Es geht um die vielen hundertmillionen Büro und Multimedia PCs, da wird es dann eben interessant. Ein Blick über den Tellerrand kann auch ganz gut tun.
Lies doch bitte mal was ich geschrieben hab:klatsch:

Von dir hat er auch nicht geredet.
 
Sorry Leute, aber ihr scheint da etwas falsch zu verstehen.

BigLittle ist im Ansatz eine gute Sache und für Notebook Chips halte ich auch jedes gesparte Watt für wichtig. Jetzt kommt aber das gaaaaanz große Aber, Alder-Lake ist für welchen Markt? Richtig für den Desktopmarkt und hier sind 1 oder 2 W Unterschied in meinen Augen völlig irrelevant.

Die grüne Welt ist ja absolut sinnvoll und ich wehre mich nicht dagegen, auch wenn ich der Überzeugung bin, dass zu 99% mit dem Titel Bio, Umwelt etc. einfach nur Geld gemacht wird und andere Sachen meist nicht schlimmer/besser sind für die Umwelt, aber ja, Ausnahmen bestätigen die Regeln. Um hier nur mal ein Beispiel zu nennen, eine Photovoltaikanlage wird (wurde) in Deutschland extrem und massiv gefördert, was hat man davon? Einen Wirkungsgrad von lächerlichen 30-40%, bei Herstellungskosten (CO²) die erst in 10 Jahren amortisiert werden, stattdessen hätte man die solare Warmwasserwärmung fördern müssen, unser hauseigener Energieverbrauch (Heizung, Warmwasser) ist um ca. 45% gesunken, 4 Monate lang ist der gesamte Warmwasserverbrauch über die Solaranlage abgedeckt, dazu wird Warmwasser mittels einfacher aber intelligenter Installation sowohl für die Waschmaschine, als auch den Geschirrspüler genutzt, 60° Wäsche verbraucht 0,3 kwH, statt 4kwH.

Aber ich schweife ab, auch wenn dieser Gedanke für mich zielführend ist, wenn ich dem Joulemeter vertrauen kann, verbraucht mein i7-8550U im Idle keine 3W. Das gesamte System, inkl. 13" LED Monitor verbraucht im gleichen Zeitpunkt (im Ausgeglichenen Zustand) ca. 30W. Das bedeutet die CPU der 8.Generation verbraucht rund 1/10 des Idleverbrauchs der gesamten Hardware. Wo kann man jetzt Energie sinnvoll sparen?

Wenn ich das ganze mal auf den Desktopmarkt umlege, dann wird das dort ähnlich, wenn nicht schlimmer aussehen. Die Monitore werden zu 99% im Büoralltag nach Preis gekauft, Energiesparmodi werden ohnehin alle deaktiviert, nerven ja nur. Ich kann mich noch gut daran erinnern, als ich die Zwangssperre (Lockscreen) eingerichtet habe und alle nach 5Min ohne Eingabe zur Eingabe des PW aufgefordert worden. Ich hab mich durchgesetzt, aber von allen neuen Mitarbeitern wird dies noch innerhalb der ersten 8 Stunden Arbeit bemängelt, als wenn es ein Bug ist! Nein, es ist ein Feature! Im Büroalltag, dafür soll es ja sein, wenn ich es verstanden habe, gibt es ungefähr 100 andere Dinge rund um den PC, die mit billigsten Mitteln, massiv Energie sparen können, Monitore, Drucker, etc. bieten soviel mehr Einsparpotenzial als alles andere.

Bleiben wir beim PC, auch hier gibt es neben der CPU viel mehr Verbraucher, der Mainboardchipsatz meines Systems benötigt rund 12W, damit also viermal soviel im Idle wie die CPU. Warum ist das so? Wahrscheinlich weil die Chipsätze bisher nicht hochspezialisiert sind und die neuesten Fertigungsverfahren bleiben den CPUs vorbehalten, obwohl so ein MB Chip wahrscheinlich schon problemlos bei 5nm gefertigt werden könnte, da diese bei weitem nicht so komples sind. Deaktivierbare Features, Slots, USB Ports, etc. würden wohl eine höhere Ersparniss ausmachen, als alle LittleCores dies könnten. Wir reden hier von Vebrauchseinsparungen unterhalb von 5W! Diese gesamte Dikussion wird absolut lächerlich, wenn man das mal auf ein ganzes Jahr hochrechnet! ECO ist eine tolle Sache, aber man muss es eben sinnvoll machen und nicht wie hier irgendwelche Pseudogeschichten entwerfen.

Alder Lake, soweit gehe ich, wird den aktuellen Abstand von AMD noch vergrößern, mit Zen 4 wird man RocketLake schlagen und Alder Lake wird maximal einen einstelligen Zuwachs erhalten können. Man wird mit Alder Lake, mit 8 Big / 8 kleinen und 8 virtuellen Kernen maximal im Bereich eines kommenden 6800X antreten können. Wenn Intel Glück hat, wird AMD bei 16 Kernen hängen bleiben, aber ich halte nachwievor einen 32 Kerner nicht für ausgeschlossen. AMD wird Alder Lake in jedem Fall pulverisieren, da braucht man kein Hellseher zu sein, einfach weil Intel den falschen Weg eingeschlagen hat! Alder Lake wäre eine super geile Sache im mobilen Bereich gewesen, wobei fraglich ist, ob wir hier diese Power brauchen, ein Atom reicht doch heute schon für fast alles aus und Cloud Computing wird immer interessanter. Im Desktopmarkt wird Alder Lake floppen, ich würde fast Itanium als Vergleich heranziehen, auch wenn das Desaster so groß nicht werden wird, da OEMs und der dumme Nutzer ja heutzutage quasi alles von Intel kaufen.
Offenbar lohnt sich das durchaus, die unten gescholtene bigLITTLE Technik ist immerhin in praktisch allen Smartphones Standard, und die M1 Macbooks haben mit einem Prozessor dieser Technik gerade neue Maßstäbe für die Laufzeiten von Ultralight Notebooks gesetzt.

Das ist nicht für Bastler relevant, sondern für Komplettbürorechner der Marke Dell, Lenovo & Co. Das sind diese schwarzen Kisten, die weder RGB Beleuchtung noch turbinenartige Belüftungsmethoden haben, dafür aber nicht 42 W im Leerlauch mit Peripherie ziehen, sondern <15W . Selbst wenn man die fehlende Grafikkarte herausrechnet, ist das schon heute deutlich weniger als dein Bastelsystem - und offenbar sieht Intel andere Optimierungsmöglichkeiten als ausgeschöpft, und springt nun ebenfalls auf den bigLittle Zug auf.
Die oft gelobte M1 der MacBooks ist eine Bankrotterklärung, die angebliche Leistungsgleichheit ist Augenwischerei, ich verweise hier mal netterweise auf den Bericht von Igor! SingleCore ist bei ARM nicht SingleCore, soviel vorab. Dazu wird ARM den Einstieg ohne vernünftige x86 Emulierung nicht schaffen, das wird ARM aber gar nicht als Ziel haben. Mal sehen, was andere Entwickler hierzu beitragen.

Hast du mal einen Komplettbürorechner auseinander geschraubt?

Lüfter ist immer enthalten, dazu ist die verbaute Hardware in solchen Teilen der ganz große Schrott. Netzteil ist zumeist ohne 80+ Zertifizierung, nicht weil diese Geld kostet, sondern weil die Netzteile diese nicht schaffen würden. Dazu muss man nicht immer auf den Intelzug aufspringen, aktuell haben die mehr schlechte als gute Entscheidungen getroffen, weshalb man diese Entscheidungen vieleicht doch mal kritisch hinterfragen sollte. Jede CPU wird natürlich gedrosselt, aber es handelt sich hierbei um generelle Werte und nicht indivduelle Werte. Daher würde ich als viel wichtigere Maßnahme ein Softwaretool, ähnlich zum Clocktuner durchlaufen lassen und ECO Werte ansetzen. 0,1V weniger Spannung, wird bereits mehr Strom sparen als die 8 Little Kerne dies können.
 
Zuletzt bearbeitet:
Zurück