• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Alder Lake-S: CPU mit 16 Kernen und 24 Threads im Geekbench aufgetaucht

Mephisto_xD

BIOS-Overclocker(in)
Das mit den 14nm stimmt natürlich, trotzdem hätte Intel in diesem Node und mit Mesh mehr als zehn Kerne in den Mainstream bringen können, muss ja nicht eine Heizplatte werden wo man den Takt hochdreht, auch in 14nm laufen Intelprozessoren eigentlich recht effizient wenn nicht so hoch getaktet. Die Größe des Dies zählt auch nicht, muss ja keine iGPU dabei sein.

Vielmehr scheint dasMesh einfach nicht gut dafür geeignet zu sein. Und deswegen wird Alder Lake imho auch nicht mit dem Mesh kommen. Ich bin mir ziemlich sicher dass es genau so kommt wie von mir vermutet, einfach ein Ringbus mit 10 Teilnehmer und 8+8 Kerne.
Im Mainstream ist individuelle Leistung pro Kern immer noch viel wichtiger als 8+ Kerne auf einem Die. Wer viele Kerne haben will, muss sich im Serverbereich umgucken, da gibt es genau das was du willst: Viele Kerne, wenig Takt, Mesh-Interconnect. Und obwohl diese Serverchips keine iGPU haben, sind die Dies gigantisch.

Und am Ende sind die Dinger im Alltag in den allermeisten Fällen langsamer als ihre hochgetakten kleinen Geschwister.

Man könnte fast meinen, dass Intel durchaus grob eine Ahnung vom PC-Markt hat...
 

Gerry1984

Software-Overclocker(in)
Im Mainstream ist individuelle Leistung pro Kern immer noch viel wichtiger als 8+ Kerne auf einem Die. Wer viele Kerne haben will, muss sich im Serverbereich umgucken, da gibt es genau das was du willst: Viele Kerne, wenig Takt, Mesh-Interconnect. Und obwohl diese Serverchips keine iGPU haben, sind die Dies gigantisch.

Und am Ende sind die Dinger im Alltag in den allermeisten Fällen langsamer als ihre hochgetakten kleinen Geschwister.

Man könnte fast meinen, dass Intel durchaus grob eine Ahnung vom PC-Markt hat...

Wer sagt dass ich das will? Ich meine ja dass es so mit diesem Mesh und vielen Kernen nicht so funktioniert dass es im Desktop Sinn macht. Die Latenzen sind wohl das Problem. AMD kann, unabhängig vom besseren Node, viele Kerne bringen und die durschnittlichen Latenzen auf einem Niveau halten. Intel hat ab zehn Kerne aufwärts probleme mit der Skalierung, früher mit dem doppelten Ringbus, jetzt Mesh. Bei AMD fängt es da erst an dank dem IF interessant zu werden. Guck dir an wie die Server-Derivate namens Threadripper am Desktop abgehen, das skaliert mit der Kernanzahl über den Faktor des besseres Fertigungsprozesses hinaus deutlich besser als Intel Server/HEDT. Und selbst reine Mainstream Prozessoren mit 12 oder 16 Kernen sind allein von der Architektur her schon im Vorteil gegenüber was Intel bieten kann.

Natürlich hat Intel Ahnung vom PC-Markt, hat ja jahrelang aufgrund der Schwäche von AMD eine Marktmacht aufgebaut. Wird jetzt aber langsam zum Dino, der die neue Dynamik offenbar nicht mitgehen kann.
 

Casurin

BIOS-Overclocker(in)
Deswegen kommt ja auch ein sparsamer und extrem geeigneter 32 Atomkerner? Ach halt stimmt ja gar nicht. Oder kennst du nur einen einzigen der einen Atomrechner zum rendern nutzt?
Danke das du so schön meinen Post mit deinem Stuss noch belegst. Beim Rendern werden - eben weil es eine simple Aufgabe ist - GPUs verwendet, oder spezialisierte Hardware - aber ich hab ja auch genau deshalb die Idioten angesprochen die ständig Rendering als Grund für CPU-Entscheidung anbringen (obwohl sie davon dann keine Ahnung haben).
Btw - die 24Kerner Atoms scheinen da in der Industrie eben doch sehr beliebt zu sein.
 

BigBoymann

Software-Overclocker(in)
Danke das du so schön meinen Post mit deinem Stuss noch belegst. Beim Rendern werden - eben weil es eine simple Aufgabe ist - GPUs verwendet, oder spezialisierte Hardware - aber ich hab ja auch genau deshalb die Idioten angesprochen die ständig Rendering als Grund für CPU-Entscheidung anbringen (obwohl sie davon dann keine Ahnung haben).
Btw - die 24Kerner Atoms scheinen da in der Industrie eben doch sehr beliebt zu sein.
Sag Mal, hast du irgend ein Problem?

Du hast doch mit Rendering als Spezialanwendungen für einfache Atomkerne angefangen?

Aber auch für deinen jetzigen Vorschlag hab ich eine Lösung, einen 2Kerner Atom und eine Grafikkarte. Brauchst halt auch kein bigLittle. Aber auch du dir Mal genug Gründe für Desktop bigLittle aus, kannst dir gerne einen holen. Mein Mitleid hast du auf jeden Fall.
 

gerX7a

Software-Overclocker(in)
Wer sagt dass ich das will? Ich meine ja dass es so mit diesem Mesh und vielen Kernen nicht so funktioniert dass es im Desktop Sinn macht. Die Latenzen sind wohl das Problem. AMD kann, unabhängig vom besseren Node, viele Kerne bringen und die durschnittlichen Latenzen auf einem Niveau halten. Intel hat ab zehn Kerne aufwärts probleme mit der Skalierung [...]
Die Aussage ist so gemäß AnandTech nicht korrekt. Soband es bei AMD über den IF geht, kommen beträchtliche Latenzen hinzu, was auch nicht verwundern sollte, schlicht weil man den Chip verlässt.
Auf dem 5950X liegen Inter-CCD-Core-2-Core-Latenzen bei gemittelt 15 - 19 ns, sobald es auf das andere CCD geht, liegen die Latenzen bei 78 - 85 ns.
Bei einem 28-Kerner Cascade Lake SP in Form des Platinum 8280 dagegen liegen die Latenzen mit dem Mesh recht stabil bei 43 - 49 ns, egal von welchem zu welchem Core, d. h. der Meshbus leistet also recht ordentliche Arbeit, insbesondere, wenn man bedenkt, dass hier die weitaus höhere Kernzahl miteinander kommunizieren muss.
Und bei Epyc/Rome, so konkret dem 7742, wird es im Mittel gar noch langsamer. Hier kommunizieren nur die unmittelbar in einem CCX liegenden vier Kerne mit um die 23 ns miteinander. Alles andere auf der Server-CPU benötigt im Mittel zwischen 101 - 139 ns, wobei die höchsten Zeiten voraussichtlich in der Art zustande kommen, wenn die jeweiligen CCDs am weitesten auseinanderliegen bzgl. der Anbindung am sIOD und die besten Zeiten nahe der 100 ns, wenn es auf das gleiche CCD zurück nur auf das andere CCX geht.
Das IF-Design hilft bei der CPU-Skalierung, selbstredend kostet es aber Latenzen und kann natürlicherweise nicht mit einem monolithischen Konstrukt mithalten.

Es wird interessant zu sehen sein, was Intel's EMIB hier ermöglicht, wobei unklar ist, ob das zeitnah bei entsprechenden CPUs zum Einsatz kommt. Ice Lake SP ist weiterhin ein monolithisches Design und bei Sapphire Rapids SP (Ende 2021) wäre es denkbar, dass hier zwei komplette Dies analog Cascade Lake AP auf einem Package zusammengefasst werden, jedoch ist unklar womit die verbunden werden. (Aktuell gibt es 72-Kerner in der Gerüchteküche, d. h. 2 x 36-Core-Dies.)

*) Der 10900K (CML) verhält sich recht ähnlich zu Zen. der Großteil der Kerne kann untereinander im Bereich von 17 - 21 ns miteinander über den Ringbus kommunizieren. Offensichtlich wurde die Architektur jedoch nicht von Grund auf neugestaltet für dieses Design, denn zu zwei bestimmten Kernen auf dem Die kann die Latenz auf bis zu 23 ns ansteigen. Für einen mäßig optimierten Ringbus dennoch passabel, denn Zen2 schneidet hier im Mittel deutlich schlechter ab und bei Zen3 wird es ebenso deutlich langsamer, wenn der CCD zu verlassen ist, was aber nun aufgrund des unified CCDs (= CCX) nun seltener vorkommt.
 
Zuletzt bearbeitet:

Jobsti84

Software-Overclocker(in)
Weil's am Anfang dauernd um Energiesparen im Desktop/Idle ging....
Was nützt es, wenn die CPU 6 statt 16W frisst, wenn der Rest einfach noch massig Power frisst
und dann das Netzteil im Idle-Lastbereich nicht effizient arbeitet?

Ich mein, mein Office Ryzen Rechner zieht knapp 35W im Idle aus der Dose (inkl. hungriger RX550) mit überdimensioniertem Billignetzteil,
sagen wird mal im idle 80% Effi, dann wollen die Komponenten zusammen 28W (vielleicht hab ich mich grad verrechnet, egal), ob das nun 28W oder 18W sind, macht den Kohl doch nicht fett,
wenn muss der ganze Rechner perfekt abgestimmt sein, gerade bei den geringen Lasten braucht
man dann das perfekte, aber leider teure und sehr knapp dimensionierte Netzteil,
soll noch Luft nach oben sein (GPU Erweiterung) geht die Effi auch wieder runter.
dazu kommen noch Lüfter, etwaige optische laufwerke (im office hat man das noch, ja) und Speichergerätschaften,
auch Tastatur und Maus fressen bissel was.

Gerade in dem Lastbereich merkt man sogar Ram runtertakten recht deutlich, aber will man das?
Klar, jedes Watt weniger ist schön, aber irgendwann ist auch mal Schluss nach unten hin,
oder eben nicht mehr sinnvoll, gerade falls es Performance kostet.
Interessanter hingegen finde ich die durchschnittliche Last im office- und Browserbetrieb,
leider wird sowas aber nur sehr selten ermittelt. (ich bin da im Schnitt bei 40-45W wenn ich effektiv mit arbeite)

Im Bereich Mobilgeräte, wie Laptops, schaut das dann natürlich wieder sinnvoller aus, da kommt's auf jedes Watt weniger an.
 
Zuletzt bearbeitet:

latiose88

Freizeitschrauber(in)
Alder Lake ist ebenfalls für den mobilen Markt.
Abgesehen davon schadet es auch für den Desktop Markt absolut nicht, kaum jemand benötigt 16 Kerner.
Die 8+8 entsprechen scheinbar ungefähr 12 "richtigen" Kernen, bis die für die typischen Desktop und Gaming Anwendungen nicht mehr genügen vergeht eine sehr lange Zeit und sparsamer und effizienter in den meisten Situationen als ein richtiger 16 Kerner wird die CPU wohl auch sein.
Hier wird es auch sicherlich um mehr als 1 oder 2 Watt gehen.
Nein das stimmt nicht,ich bin so einer der 16 Kerne braucht.Nun ja,also ich profitiere zumindest,wenn auch nicht mit nur 1 Software alleine.Würde es sich auf 1 Anwendung alleine beschränken dann hättest du recht.ALso nicht so wie ich einfach die selbe Anwendung 2 x Starten und dann wirklich in richtung alle 16 Kerne mit SMT voll auslasten und so.

Würde allerdings es möglich sein,die kleine Kerne mit den Großen Kerne gleichzeitig auslastbar zu sein,dann könnte das schon sehr interessant werden.Was passiert eigentlich wenn man die großen Cores sämtliche AVX Funtkion wegnehmen würde.Wären es dann auch auf dem Niveu von Atom Kerne.Würde mich mal interessieren ob es dann so ist.Denn für mich wäre es interessant.Ich der wohl garkeine AVX Funktion verwendet.Das ist für mich nur unnötiger ballast,der ebenso mit Strom verbraucht.Wäre das nicht,wäre bei mir wohl auch dann noch mehr an strom gespart.Habe ja auch einen Bildschirm der nur maximal 15 Watt an strom verbraucht,weil ich auch die Helligkeit auf 50-60 % gestellt hatte und der Monitor schon bei 100 % Helligkeit sparsamer ist. Ein X470 mainbaord ist beim stromverbrauch auch sparsamer als ein x570 Mainbaord.
Wenn man da halt eben nicht alles braucht,kann man eben auch ein schlankeres Mainbaord verwenden.Dazu noch SSD anstatt HDD,kein Laufwerk einbauen,weil man es als externes ab und zu mal verwenden kann.EIn 80 Pus Gold Netzteil mit niedrigeren Wattzahlen um ja wirklich über 50 % zu erreichen.Eine GPU ist geplant mit nur noch 75 Watt maximal last.Ich versuche also alles um die CPU etwas am stromverbrauch auszugleichen.Denn der Fokus soll ja eben die CPU Leistung sein.Alles andere darf ruhig schwächer in der Leistung sein,weil eben halt nicht mehr so viel Leistung benötigt wird.Erhoffe mir in Zukunft noch mehr Leistung bei weniger Stromverbrauch. Die mit noch mehr Kernen,können ruhig in der Versenkung verschwinden,weil es halt eben nicht so viele Nutzer gibt die 32 und mehr Kerner benötigen.
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Ich finde, dass das der interessanteste Ansatz seit Jahren im Bereich Desktop-CPU ist. Apple hat ja kürzlich gezeigt, was möglich ist. Wenn ich bedenke, dass meine CPU im Desktop-Betrieb 20 bis 30 Watt benötigt und ein AMD noch viel mehr, frage ich mich, warum ein High-End-Tablet ungleich weniger benötigt. Im Desktop-Betrieb sollte eine CPU imo heutzutage nicht mehr als 5 Watt ziehen.

Wenn man dann für Programme mit ordentlich Leistungsanforderung noch 8 Kerne mit 16 Threads exklusiv zu Verfügung hat, sollte das fürs Erste sogar reichen. Aber es spricht ja nichts dagegen, dann mal 12C+8C mit 32T zu produzieren.

Wer sich um "echte" Kerne betrogen fühlt, sollte sich vielleicht einfach eine Workstation-CPU kaufen,
 

Don-71

PCGHX-HWbot-Member (m/w)
Ich finde, dass das der interessanteste Ansatz seit Jahren im Bereich Desktop-CPU ist. Apple hat ja kürzlich gezeigt, was möglich ist. Wenn ich bedenke, dass meine CPU im Desktop-Betrieb 20 bis 30 Watt benötigt und ein AMD noch viel mehr, frage ich mich, warum ein High-End-Tablet ungleich weniger benötigt. Im Desktop-Betrieb sollte eine CPU imo heutzutage nicht mehr als 5 Watt ziehen.

Wenn man dann für Programme mit ordentlich Leistungsanforderung noch 8 Kerne mit 16 Threads exklusiv zu Verfügung hat, sollte das fürs Erste sogar reichen. Aber es spricht ja nichts dagegen, dann mal 12C+8C mit 32T zu produzieren.

Wer sich um "echte" Kerne betrogen fühlt, sollte sich vielleicht einfach eine Workstation-CPU kaufen,
Bu huh, was ein Quatsch und schon längst widerlegt und halt glatt gelogen!
 

fotoman

Volt-Modder(in)
Bu huh, was ein Quatsch und schon längst widerlegt und halt glatt gelogen!
Wäre schön, wenn CB auch seine "offiziellen" Statistiken mal aktualisieren würde
oder in neuer
Warum schluckt da jedes der Zen2/Zen3 Systeme im Idle 5-10W mehr wie die Intel-Systeme? Ist CB so Intel-Hörig, sind die Bios-Settings bei den AMD-Boards so schlecht?

Und ja, lesen kann ich auch, "etwas spartanischer ausgestattetes B550-Mainboard benötigt im Leerlauf über zehn Watt weniger". Also muss man wohl bei AMD auf Ausstattung verzichten, wenn man vergleichbaren Idle-Verbrauch zum angeblich so verschwenderichen i9-10900K mit z490 Board haben möchte.
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Bu huh, was ein Quatsch und schon längst widerlegt und halt glatt gelogen!
Ich weiß zwar nicht, was ich dir getan habe, aber ich versuche mich trotzdem mal in einer freundlichen Antwort.

Ich habe selber kein AMD. Ich habe vor kurzem hier oder im 3DC geäußert, dass es mich wundert, wie eine High-End CPU im Jahr 2020 im Desktop (Citrix und Brwoser) noch 20 bis 30 Watt verbraten kann. Ich habe einen 9900k, der auf 5 GHz läuft. Mir hatte dann jemand mit vergleichbarer Zen2-CPU geantwortet (es war glaube ein 3700X). Der sagte, dass er bei genau den gleichen Anwendungen bei 50 Watt ist.

Was daran jetzt Quatsch und gelogen ist, weiß ich wirklich nicht. Der 4650G ist außerdem keine vergleichbare CPU. Zahlen vom 3700C/3800X bzw. von den aktuellen Zen3 wären interessant. Vielleicht hast du ja dafür auch Quellen. Wenn du sie etwas höflicher rüber bringen magst, wäre das auch etwas angenehmer. :)

Das spielt aber alles keine Rolle, weil das immer noch zu viel ist. Apple arbeitet im µW-Bereich. Der aktuelle Mac mini benötogt im Idle keine 7 Watt. Klar ist ein Gaming PC mit seinen vielen Komponenten nicht optimal vergleichbar, aber eine Leistungsaufnahme von weniger als 25 Watt im Idle würde ich für angemessen halten.
 
Zuletzt bearbeitet:

Technologie_Texter

BIOS-Overclocker(in)
Ihr müßte aber schon auch den Verbrauch der RAM-DIMMs abziehen.

Klar braucht der LPDDR bei Apple weniger Energie als UDIMMs.
Und klar sind die Spannungswandler beim Mac in diesaem Bereich effizienter, die müßen ja auch nicht für weit >100W ausgelegt werden!
 

Incredible Alk

Moderator
Teammitglied
Warum schluckt da jedes der Zen2/Zen3 Systeme im Idle 5-10W mehr wie die Intel-Systeme?
Weil der I/O Chip der Ryzen CPUs keine PStates hat und im Idle entsprechend genauso 5-10 W braucht wie unter Last. Die Kerne bzw Chiplets selbst dagegen verbrauchen im Idle fast nichts mehr (unter 1W!).
Die Messungen von CB sind völlig korrekt und haben einen bekannten technischen Grund (übrigens kommt daher auch der Lüfter auf X570 Boards, der Chipsatz ist der identische Chip wie in der CPU... auch ohne PStates... dass B550er Boards 10W weniger brauchen liegt auch genau da dran dass hier eben NICHT der Chip genutzt wird sondern ein AsMedia Derivat das PStates kann - und unter anderem deswegen auch keinen Lüfter vorgeschrieben hat) . Nicht alles ist ne Verschwörung.
 
Zuletzt bearbeitet:

Nebulus07

Software-Overclocker(in)
Weil der I/O Chip der Ryzen CPUs keine PStates hat und im Idle entsprechend genauso 5-10 W braucht wie unter Last. Die Kerne bzw Chiplets selbst dagegen verbrauchen im Idle fast nichts mehr (unter 1W!).
Die Messungen von CB sind völlig korrekt und haben einen bekannten technischen Grund (übrigens kommt daher auch der Lüfter auf X570 Boards, der Chipsatz ist der identische Chip wie in der CPU... auch ohne PStates... dass B550er Boards 10W weniger brauchen liegt auch genau da dran dass hier eben NICHT der Chip genutzt wird sondern ein AsMedia Derivat das PStates kann - und unter anderem deswegen auch keinen Lüfter vorgeschrieben hat) . Nicht alles ist ne Verschwörung.

Das ist leider nicht der Grund. Der Grund ist, AMD hat verbuggte Chips gebaut. Im IDLE bekommt der IO Chip zu wenig Spannung und verhält sich dann dementsprechend. Bemerkbar macht sich das bei den allseitsbekannten USB Disconnects von denen viele betroffen sind. MSI ist in seinem BIOS jetzt dazu übergegangen alle Stromsparmaßnahmen abzuschalten. Dadurch verbraucht ein AMD System c.a. 15W mehr als angegeben im IDLE.
Wenn ich C-States einschalte im Bios denn sinkt der Verbrauch dementsprechend um -15W. Aber dann sind die USB Ports die aus der CPU kommen nicht mehr nutzbar ohne disconnects.
Schade das die Thematik nirgens publik gemacht wird.
Alle Redaktionen haben preselected CPUs bekommen, die von diesem Bug nicht betroffen sind.
 

Incredible Alk

Moderator
Teammitglied
Wenn du die ganzen Behauptungen fundiert belegen kannst kannste damit wahrscheinlich einen kleineren Shitstorm auslösen.
Wenn du das nicht kannst ists so ne Mischung zwischen übler Nachrede und Verschwörungstheorie.

Ich tendiere zu letzterem. Klar, AMD hat nen Haufen verbuggte Chips gebaut aber niemand auf der Welt berichtet darüber, die Top-Story des Jahres will keiner haben. Und alle Testsamples waren preselected - einschließlich der kaputten CPU von Igor, da hat AMD sicherlich absichtlich gezielt ne defekte rausgegeben an nen Tester. Welch perfide Strategie.
 

latiose88

Freizeitschrauber(in)
ah das könnte also bedeutten das das Betriebystem und der Treiber erkannt hatten das nicht alle Usb Anschlüsse gehen und darum zeigt auch das Betriebsystem an das es welche nicht gehen. DIe könnten zwar schon gehen aber halt dann gedrossel ala USB 2 Nevieu.
 
Oben Unten