• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Alder Lake: Neuer Leak zum "16-Kerner" mit vielen Details

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel Alder Lake: Neuer Leak zum "16-Kerner" mit vielen Details

Intels Alder Lake-S zeigt sich als frühes Engineering Sample mit 16 unterschiedlich starken Kernen und einer TDP von 125 Watt. Einem Screenshot nach, der viele Details enthüllt, trägt es die Bezeichnung "Core 1800".

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Alder Lake: Neuer Leak zum "16-Kerner" mit vielen Details
 

CD LABS: Radon Project

Volt-Modder(in)
Als jemand, der Effizienzfragen für sehr relevant hält, kann ich nicht genug betonen, dass diese 228W PL2 keinen prinzipiellen Grund zur Sorge darstellen. Bei diesen Bursts muss es sich nicht per se um eine ineffiziente Angelegenheit handeln, sondern sie können durchaus sinnvoll für das genutzt werden, was Intel lange Race2Idle genannt hat.
Also die Idee ist, dass die CPU nur ganz kurz belastet wird und danach wieder schlafen gehen kann. Das kann sparsamer als ein kontinuierlich langsames arbeiten sein. Es setzt aber zum guten Funktionieren eine geringe Idle-Leistungsaufnahme voraus.
 

Pu244

Lötkolbengott/-göttin
Als jemand, der Effizienzfragen für sehr relevant hält, kann ich nicht genug betonen, dass diese 228W PL2 keinen prinzipiellen Grund zur Sorge darstellen. Bei diesen Bursts muss es sich nicht per se um eine ineffiziente Angelegenheit handeln, sondern sie können durchaus sinnvoll für das genutzt werden, was Intel lange Race2Idle genannt hat.
Also die Idee ist, dass die CPU nur ganz kurz belastet wird und danach wieder schlafen gehen kann. Das kann sparsamer als ein kontinuierlich langsames arbeiten sein. Es setzt aber zum guten Funktionieren eine geringe Idle-Leistungsaufnahme voraus.

Die Idee der Boardhersteller ist, dass dieses ganz kurz auf dauernd ausgeweitet wird, um so die Leistung noch um ein paar Prozent nach oben zu drücken. Wer sich ein teures Gamingboard kauft, der sollte das berücksichtigen.
 

theGucky

PC-Selbstbauer(in)
228W ja nur Spitze, z.b. wenn man ein Fenster öffnet oder Programm gerade startet. Interessanter wäre es noch zu wissen, wie lange der PL2 pause machen muss, oder ob es im 50kHz bereich auf und ab geht.
 

Shinna

Software-Overclocker(in)
228w bereitet mir zwar keine Sorgen, zeigt aber auch das zumindest in diesem Stadium Intel noch ein Stück von AMD weg ist. Deren CPU mit 16 "großen Kernen" kommt auf einen ähnlichen Wert unter Last. Die genannten Boostclocks sind auch kein Grund zum freudigen auf und ab hüpfen.

Ich frage mich ob die 8+8 Variante das "Top of the Line" Modell darstellt. Oder Intel da noch was größeres in der Pipeline hat. Denn abgesehen von Xeon für Workstations würde Intel imo damit den Markt für Highend Audio/Bild/Video Bearbeitung an AMD quasi abtreten.
 

CD LABS: Radon Project

Volt-Modder(in)
Die Idee der Boardhersteller ist, dass dieses ganz kurz auf dauernd ausgeweitet wird, um so die Leistung noch um ein paar Prozent nach oben zu drücken. Wer sich ein teures Gamingboard kauft, der sollte das berücksichtigen.
Das stimmt leider vollkommen. Für so etwas sollten die Boardhersteller in Tests auch abgestraft werden, leider sind manche Reviewer aber immer noch nicht auf den Trichter gekommen und bewerten ausgerechnet das Board mit der besten Performance als das beste Board... :(
 

Shinna

Software-Overclocker(in)
Die Hersteller versuchen halt den Konsumenten vorzugaukeln, dass das Mainboard einen Einfluß auf die CPU Performance hat. Irgendwie muss man sich ja von der Konkurrenz abheben. Und das "umgehen" der Power Limits ist da eben das einfachste Mittel der Wahl.
 

Hofnaerrchen

Freizeitschrauber(in)
Wenn sich diese Verbrauchszahlen bei Release bewahrheiten ist Alder Lake angesichts des Klimawandels trotz großer und kleiner Kerne eine Fehlkonstruktion.
 

bitsbytes

Komplett-PC-Käufer(in)
Wer möchte denn im Desktop Bereich CPUen mit unterschiedlichen Kernen ?

Ich brauche fürs Gamen und fürs Recording höchste Performance und geringste DPC Latenzen.
Das bekommt man nur durch Leistung.

Wenn ich Energie sparen wollte, dann nehme ich eine Applikation wie Prozess Lasso Pro von Bitsum, mit der ich das Energieprofil von Windows entsprechend steuern kann, anhand der Zuordnung von Applikationen auf Energieprofile. Und wenn ich als user idle bin, dann stellt sich das automatisch auf Energiesparen.
Aber ich möchte doch keine CPUen, die die Komplexität des Task Schedulens im Betriebssystem mehr und mehr verkomplizieren.

Vielleicht auf einem Laptop zum Ultimativen Energiesparen, aber selbst da wäre ich eher für Kerne gleicher Performance.

Sorry, aber ich finde es geht am Bedarf von Power Usern total vorbei.
 

BxBender

BIOS-Overclocker(in)
Intel und sein lächerliches Produktdesign.
Welcher Depp kauft wirklich mit voller Absicht einen mega stromschluckenden Prozessor mit angeblichen kleinen unnützen Stromsparkernen drin?
Das ist genauso eine Volksverarsche wie ein fetter (Hybrid)-Elektro-SUV für die Ökos zum Einkaufen in der Innenstadt.
125 Watt Einstiegsverbrauch bei etwas Last, 228 Watt bei Last, vermutlich wieder 300 Watt bei Vollast.
Wenn jemand auch nur etwas an Strom sparen möchte, kauft er sich einen Prozessor, der maximal unter Vollast 100 Watt zieht, und ansonsten bei 65/45 oder gar nur 35W "Startangebot" loslegt.
Und man achtet dann aber auch auf das Ganze drumherum, und wie man damit umgeht.
Rechner und Fernseher anstellen, essen gehen, duschen, Wäsche bügeln nebenher, das ist schlimmer als elektrische Geräte sinnvoll zu nutzen und nur bei Bedarf aktiv anzustellen.
Dann sind die letzten 5 Watt im Idle auch egal, es kommt dann nur auf die Lastszenarien drauf an.
Vor allem bei diesen Desktop-Prozessoren.
Also ich weiß echt nicht, welche Nudel im Intel-Management das so entschieden hat.
So eine Flachpfeife würde ich sofort entlassen.
Oder gibt es hier im Forum auch nur eine Person, die unbedingt einen 8 Kern Prozessor mit 8 weiteren kleinen Exemplaren auf sein Mainboard stecken möchte?
Also anstatt einem vollwertigen 12 oder gar 16 Kerner, der stattdessen fürs gleiche Geld zu haben wäre?
Kein Spieler oder Anwender würde da großartig überlegen müssen, vor allem, wenn der Stromverbrauch eh schon so immens hoch angegeben wird.
Und jeder, der unbedingt Strom sparen will, hat dann eh einen kleinen speziellen Stromspar-PC, der für jede Niedriglastanwendung völlig ausreichend ist.
Einfach nur Irrsinn. Unverständlich.
Die sollen meinetwegen einen 4+4 Kerner mit sehr niedriger Wattzahl für den Mobilbereich konstruieren und es dann aber auch dabei belassen.
Für mehr ist diese Technik einfach nicht zu gebrauchen.
Da kann man Apple sogar gut verstehen, warum die seit 2015 mit dem Gedanken gespielt haben sich selber etwas ordentliches auszudenken.
Wären die nicht so extrem teuer, so abgeschottet und inkompatibel mit 3D-Engines etc. ("wir machen unser eigens Süppchen namens Metal, damit nichts mehr läuft"), und würden die nicht nur verklebte Einwegwegwerfgeräte produzieren, dann könnte man ja fast sogar darüber nachdenken dort demnächst einzusteigen, falls ein M2 oder M3 wirklich Intel in die Hosentasche steckt.
So bin ich aber erst einmal dankbar, dass zumindest AMD noch ordentliche Ware abliefert.
 

PCGH_Torsten

Redaktion
Teammitglied
Ist eigentlich ein 16-Kerner gut zum spielen oder (noch) überflüssig?

Vorerst letzteres. AMDs 16-Kerner kriegen zwar auch Chips in besserer Qualität und haben im Vergleich zu deutlich kleineren CPUs mehr Cache zur Verfügung, sodass sie bei unzureichender Nutzung der zusätzlichen Kerne immer noch ganz vorne landen. Aber die Skalierung der meisten Spiele ist jenseits von acht Kernen meist sehr schlecht, je nach Leistung pro Kern tut sich teilweise schon jenseits von sechs Kernen nur noch wenig. Aus 100 Prozent mehr Recheneinheiten holt man vielleicht nur 10 bis 20 Prozent mehr Performance. Und das natürlich auch nur, wenn die GPU stark genug und die Grafikeinstellungen runtergedreht wird. Wenn man alles nach rechts schiebt sind einige aktuelle Spiele auch mit nagelneuen High-End-Grafikkarten selbst mit einem Quadcore nicht im CPU-Limit. "UHD reicht mir nicht"-Raff ist mal wieder dabei, seinen privaten Sechskerner zu Untertakten.

Allerdings haben Prozessoren mittlerweile recht ansehnliche Nutzungsdauern, sodass man bei einem Neukauf nicht zwingend den Ist-Zustand fokussieren muss. Ich würde nach Möglichkeit keine Kompromisse bei der pro-Kern-Leistung machen und einen 5800X einem 3900X vorziehen, aber wenn man sich einen 5900X leisten kann, stehe die Chancen gut, dass sich die Mehrinvestition gegenüber einem Achtkener durch eine längere Nutzung rentiert. (Die Alternativlösung ist natürlich, einen 5600X oder gar 3600X zu nehmen und abzuwarten, ob/wann 16-Kerner als Drop-In-Replacement billig werden.)
 

Pu244

Lötkolbengott/-göttin
Intel und sein lächerliches Produktdesign.
Welcher Depp kauft wirklich mit voller Absicht einen mega stromschluckenden Prozessor mit angeblichen kleinen unnützen Stromsparkernen drin?

Die normalen Desktop CPUs interessieren bei Intel seit 10 Jahren nichtmehr. Das sind einfach nur Laptop CPUs, die auf maximalen Takt gejagt werden, daher auch die IGP.

Wenn jemand auch nur etwas an Strom sparen möchte, kauft er sich einen Prozessor, der maximal unter Vollast 100 Watt zieht, und ansonsten bei 65/45 oder gar nur 35W "Startangebot" loslegt.

Dreimal darfst du raten, was überwiegend in den normalen Komplett PC landet. Jedenfalls keine überzüchteten K CPUs und auch keine teuren Z Mainboards.

Und man achtet dann aber auch auf das Ganze drumherum, und wie man damit umgeht.
Rechner und Fernseher anstellen, essen gehen, duschen, Wäsche bügeln nebenher, das ist schlimmer als elektrische Geräte sinnvoll zu nutzen und nur bei Bedarf aktiv anzustellen.

Der gute alte Whataboutism.

Also ich weiß echt nicht, welche Nudel im Intel-Management das so entschieden hat.
So eine Flachpfeife würde ich sofort entlassen.

Nach dem, was ich so mitbekommen habe, war es das, was Apple sich gewünscht hat. Da Intel nicht liefern könnte.

Glück für Intel, dass du nichts zu sagen hast und auch AMD geht diesen Weg.

Oder gibt es hier im Forum auch nur eine Person, die unbedingt einen 8 Kern Prozessor mit 8 weiteren kleinen Exemplaren auf sein Mainboard stecken möchte?

Was hier im Forum gekauft wird interessiert nicht. Es ist die Masse die zählt und die Masse kauft nunmal gerne Laptops, die Gamer bekommen nur den Abfall, das war schon immer so.

Also anstatt einem vollwertigen 12 oder gar 16 Kerner, der stattdessen fürs gleiche Geld zu haben wäre?

Man bekäme keinen 12 oder 16 Kerner für das gleiche Geld, da Atomkerne winzig sind. Mit Glück 10 Kerne, wenn die Atoms groß ausfallen, aber relativ sicher keine 12.

Und jeder, der unbedingt Strom sparen will, hat dann eh einen kleinen speziellen Stromspar-PC, der für jede Niedriglastanwendung völlig ausreichend ist.

Die EU Kommission und ihre Energiesparrichtline sehen das anders und auf die kommt es an.

Einfach nur Irrsinn. Unverständlich.

Es ist dir unverständlich, weil du nicht das ganze siehst.

Für mehr ist diese Technik einfach nicht zu gebrauchen.

Wie gesagt: du siehst einfach nicht das ganze Bild. Es ist ähnlich, wie bei den IGPs

Da kann man Apple sogar gut verstehen, warum die seit 2015 mit dem Gedanken gespielt haben sich selber etwas ordentliches auszudenken.

Apple hat das ganze wohl gefordert.

So bin ich aber erst einmal dankbar, dass zumindest AMD noch ordentliche Ware abliefert.

Du wirst mit Zen 5 eine sehr böse Überraschung erleben. (wobei ich mich einfach über die zusätzliche Leistung freuen würde).

Ist eigentlich ein 16-Kerner gut zum spielen oder (noch) überflüssig?

Der i9 11900K ist, mit seinen 8 Kernen, noch der offizielle PCGH Gamingking. Noch sind über 12 Kerne relativ nutzlos, was Spiele betrifft, aber das dürfte sich in den nächsten Jahren ändern.
 

Thepunisher2403

Komplett-PC-Käufer(in)
Die normalen Desktop CPUs interessieren bei Intel seit 10 Jahren nichtmehr. Das sind einfach nur Laptop CPUs, die auf maximalen Takt gejagt werden, daher auch die IGP.



Dreimal darfst du raten, was überwiegend in den normalen Komplett PC landet. Jedenfalls keine überzüchteten K CPUs und auch keine teuren Z Mainboards.



Der gute alte Whataboutism.



Nach dem, was ich so mitbekommen habe, war es das, was Apple sich gewünscht hat. Da Intel nicht liefern könnte.

Glück für Intel, dass du nichts zu sagen hast und auch AMD geht diesen Weg.



Was hier im Forum gekauft wird interessiert nicht. Es ist die Masse die zählt und die Masse kauft nunmal gerne Laptops, die Gamer bekommen nur den Abfall, das war schon immer so.



Man bekäme keinen 12 oder 16 Kerner für das gleiche Geld, da Atomkerne winzig sind. Mit Glück 10 Kerne, wenn die Atoms groß ausfallen, aber relativ sicher keine 12.



Die EU Kommission und ihre Energiesparrichtline sehen das anders und auf die kommt es an.



Es ist dir unverständlich, weil du nicht das ganze siehst.



Wie gesagt: du siehst einfach nicht das ganze Bild. Es ist ähnlich, wie bei den IGPs



Apple hat das ganze wohl gefordert.



Du wirst mit Zen 5 eine sehr böse Überraschung erleben. (wobei ich mich einfach über die zusätzliche Leistung freuen würde).



Der i9 11900K ist, mit seinen 8 Kernen, noch der offizielle PCGH Gamingking. Noch sind über 12 Kerne relativ nutzlos, was Spiele betrifft, aber das dürfte sich in den nächsten Jahren ändern.
So einen bullshit habe ich ja lange nicht mehr gelesen.

Der 11900k ist ganz sicher nicht der gamingking....in fast allen getesteten Spielen is der sogar schlechter. (Quelle computerbase, pc Welt, igorslab usw...) dazu noch der viel höhere Stromverbrauch als der 10900k der sogar 2 Kerne mehr hat

Daran sieht man schon Null Ahnung
 

Pu244

Lötkolbengott/-göttin
So einen bullshit habe ich ja lange nicht mehr gelesen.

Der 11900k ist ganz sicher nicht der gamingking....in fast allen getesteten Spielen is der sogar schlechter. (Quelle computerbase, pc Welt, igorslab usw...) dazu noch der viel höhere Stromverbrauch als der 10900k der sogar 2 Kerne mehr hat

Daran sieht man schon Null Ahnung

Tut mir leid es dir sagen zu müssen, aber du bist derjenige ohne Ahnung:

Der i9 11900K ist der Gewinner, wenn auch nicht klar. Lies das nächste mal den entsprechenden Test, bevor du rumpöbelst.
 

Mazrim_Taim

BIOS-Overclocker(in)
Tut mir leid es dir sagen zu müssen, aber du bist derjenige ohne Ahnung:

Der i9 11900K ist der Gewinner, wenn auch nicht klar. Lies das nächste mal den entsprechenden Test, bevor du rumpöbelst.
Stimmt.
Aber King ist da doch etwas zu hoch angesezt.
War der nicht ~0,3% im Durchschnitt schneller laut PCG-H?
 

theGucky

PC-Selbstbauer(in)
Ich sehe im Desktop Bereich keinen Sinn darin da einen Prozessor mit 2 unterschiedlich Starken Kernen zu nutzen. Im Notebook lass ich mir das noch eingehen, aber nur wenn sich da die Stärkeren Kerne komplett deaktivieren um Akku zu Sparen.
Was glaubst du ist derzeit das größte Problem? Wärme.... man könnte leicht der CPU mehr Strom geben und diese läuft dann schneller, aber dann kriegt man nicht mehr genug Wärme abgeführt. Und ich meine vom CPU Kern selber nach außen zum Kühler.

Beim 11th Gen war auch die Größe des DIEs ein Problem, man hatte kein Platz mehr für 10 Kerne.
Selbst ein Zen 3 ist schon an der Grenze, trotz 7nm.
AlderLake hat ja deshalb ein deutlich größeres PCB.

Persönlich kann ich die 8+8 Kerne verstehen, da sehr oft Hintergrundprogramme laufen, die immer ein paar Prozente der CPU verlangen. Ich bin gespannt ob ein Spiel deutlich besser läuft, wenn Hintergrundprogramme nicht mehr dran saugen.
 

PCTom

BIOS-Overclocker(in)
Wenn ich die Wahl zwischen 16 richtigen Kernen und 8 Kernen und 8 Atom Kernen habe, ich glaub das wird nichts Intel. Es ist ein Versuch an die Effizienz von AMD aufzuschließen aber zu welchen Preis. Schauen wir mal vielleicht macht sich ja DDR5 positiv bemerkbar, wenn verfügbar was noch in den Sternen steht.
Ich hoffe nur das AMD nicht auf den Zug aufspringt, Atom Kerne sind echt mieß, beim Zocken dürften die sicher nicht mitspielen, dazu müsste die Software auf asynchrone Leistung bei Kernen optimiert sein, eher nicht. AMD hatte auch mal eine gute Idee mit Bulldozer, was draus geworde ist wissen wir ja.
Bei Notebooks finde ich die Technik vielleicht noch interessant.

Eine Ausnahme gibt es, sollten die CPUs zu den Preisen der jetzigen Octacore verfügbar sein macht das Ganze wieder Sinn.
 
Zuletzt bearbeitet:

Blackfirehawk

Freizeitschrauber(in)
Naja.. ich denke Mal das ganze wird stehen und fallen mit Windows und wie gut es damit umgehen kann..
Aktuell ist der Windows sheduler ja nichtmals wirklich in der Lage zwischen einen echten Kern und einen HT pseudo Kern zu unterscheiden was die Zuweisung von threads angeht

Was den 16kerner zum zocken angeht. Ja ist im Moment etwas Overkill..
Ich hab meinen auch nur weil ich ihn damals günstiger (zum UVP) als einen 12 Kerner bekommen habe,dessen Verkaufspreis durch die Decke ging und ich mir dachte wenn schon soviel Geld dann direkt der große.

Andererseits ist es schon schön was man im Hintergrund noch so alles machen kann..
Und seien wir Mal ehrlich.. heute ist es Overkill.. in 2-4 Jahren werd ich vielleicht froh sein das ich ihn habe.
So ne CPU muss auch locker 4-5 Jahre halten
 

Wubziz

Komplett-PC-Aufrüster(in)
So einen bullshit habe ich ja lange nicht mehr gelesen.

Der 11900k ist ganz sicher nicht der gamingking....in fast allen getesteten Spielen is der sogar schlechter. (Quelle computerbase, pc Welt, igorslab usw...) dazu noch der viel höhere Stromverbrauch als der 10900k der sogar 2 Kerne mehr hat

Daran sieht man schon Null Ahnung
Wer führt denn da die Tabelle an...? Hm? ;)
Ich geb dir mal nen Tipp beim PCGH Link... 11900K + 6700XT > 10900K + 6900XT. (Okay, 400MHz RAM Takt unterschied ist auch vorhanden)
 

Gerwald

Freizeitschrauber(in)
Also ich hab den 3950X verbaut, aber wenn ich den selbst übertraken lasse, dann läuft er all Kern zwischen 4,0 und 4,2, je nach Programm, kommt ich so auf 145 Watt. Ok wenn man manuell übertaktet werden es vielleicht auch mehr sein.
Was jetzt aber unterschiedlich starke Kerne im Desktop bringen sollen? Bei mobilen Geräten ok. Zu mal was ich so meine bei meinen Ryzen sehe, er schaltet die Kerne die er gerade nicht braucht eh meist ab.
Jetzt gerade, hier schreiben, Musik, Dicord, Facebook Messenger. 1 hat er abgeschaltet, oft einen zweiten auch. Die anderen laufen unter 1GHZ.

Ich denke halt einen 16 Kerner im Desktop kauft auch nicht so auf lustig.
 

Rollora

Kokü-Junkie (m/w)
Die Kurzversion von Thorstens Beitrag ist Ja und Ja :)
Man kann mit 16 Kernen super Spielen, ein 16Kerner nur zum Spielen kaufen ist absolut überflüssig.
Zumindest die nächsten 3-5 Jahre, danach könnte es schon sein, dass man von mehr Threads profitiert.
Die Konsolen haben 8 Kerne, 16 Threads, aber sind halt stark optimiert, kann schon sein, dass am PC generell von einem 16-Kerner in mittlerer Zukunft ein Vorteil auch in Spielen auftritt. Aber da ists dann besser einfach in 5 Jahren nochmal kaufen, statt jetzt zu kaufen und zu hoffen, dass es sich in 5 Jahren was bringt.
Ich selbst werde mir schon 16 Kerne holen, aber weil ich neben dem Spielen auch vorhabe regelmäßig damit zu arbeiten.
Sollten dann in 5 Jahren die Spiele mehr Threads benötigen, wirds mir auch nicht unrecht sein.
Das war auch schon vor vielen Jahren der Grund, warum ich doch zum i7 statt i5 gegriffen habe und langfristig hat sich das natürlich ausgezahlt. Ich bin aber auch CPU Aufrüstfaul muss ich sagen.

Was die News angeht:
Ob es Alder Lake S gelingt, auf Ryzen 5000 aufzuschließen, wird abzuwarten sein.
Ist zu wage formuliert. Meint wahrscheinlich die Spitze und die Antwort ist: Nein. Gegen AMDs 16 Kerner wird man natürlich die Rücklichter sehen.
Aber darunter gibts ja auch jetzt gute PReis/Leistungsprodukte von Intel. Der 11400 oder so etwa.
 

Casurin

BIOS-Overclocker(in)
Mal schaun wie viel die dann wirklich kosten, was sie leisten und wie viel sie verbrauchen.
Die Angabe zu PL1/2 können so ja auch nicht wirklich stimmen, also von dem her wissen wir einfach zu wenig.
Ich finds noch immer schade das sie, anscheinend, keine CPU mit mehr kleinen Kernen rausbringen, oder eine CPU für Desktop mit dem Vollausbau der iGPu wie bei Laptop (96 vs 32 EU)

Ich frage mich ob die 8+8 Variante das "Top of the Line" Modell darstellt.
Fürs erste sieht es da nach aus.

Aktuell ist der Windows sheduler ja nichtmals wirklich in der Lage zwischen einen echten Kern und einen HT pseudo Kern zu unterscheiden was die Zuweisung von threads angeht
??? das war mal - vor so >10 Jahren - der Fall.... und sie haben den Scheduler für Zen schon mehrmals angepasst.

Wenn ich die Wahl zwischen 16 richtigen Kernen und 8 Kernen und 8 Atom Kernen habe, ich glaub das wird nichts Intel. Es ist ein Versuch an die Effizienz von AMD aufzuschließen aber zu welchen Preis.
Wenn man sich anschaut wie verdammt effizient die kleinen Kerne sind... mal ganz abgesehen davon das so ziemlich alle Spiele mit 6 Kerne schon voll bedient sind und da schon die Threads oft nur mehr leichte Hintergrundarbeiten sind die auch auf sparsameren Kernen laufen können..... was wieder mehr Leistung für die schnellen bereit stellt.

Ich hoffe nur das AMD nicht auf den Zug aufspringt, Atom Kerne sind echt mieß, beim Zocken dürften die sicher nicht mitspielen
Mieß? Ernsthaft? Es gibt ja schon genügen Benchmarks dazu, wenn du die als so mieß empfindest - hast du auch zu Zen1 gesagt es ist nutzloser Schrott oder was?

dazu müsste die Software auf asynchrone Leistung bei Kernen optimiert sein, eher nicht.
Der Satz ergibt keinen Sin..

AMD hatte auch mal eine gute Idee mit Bulldozer, was draus geworde ist wissen wir ja.
Ne, da hat AMD einfach behauptet das 1 Kern 2 wären.
 

PCTom

BIOS-Overclocker(in)
Der Satz ergibt keinen Sin..
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen
 

Pu244

Lötkolbengott/-göttin
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels tTechnik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen

Eigentlich ist die Geschichte recht einfach:

1: Alle Threads sollen so gut es geht über die Atomkerne verteilt werden.
2: Alles, was auf den Atomkernen eine CPU Last von über 95% verursacht wird in einen Core Kern verfrachtet.

Nun kann man noch experimentieren, wie scharf man es einstellt, aber das werden die bei Intel schon gemacht haben. Das BigLittle Konzept ist auf anderen Architekturen schon seit langem erprobt.
 

Shinna

Software-Overclocker(in)
Intels Problem ist einfach, dass sie über die letzten Jahre hinweg Leistung immer durch Takt=Leistungsaufnahme erkauft haben. Ich finde es schon erstaunlich, dass sie bei 8 großen und kleinen Kernen in der Summe noch bei +200w im Boost liegen. Da ist AMD bei Leistungsaufnahme pro Kern immer noch deutlich vor Intel - wenn man nur die großen Intel Kerne hier zum Vergleich nimmt.

Vom Prinzip her finde ich es schon spannend. Wenn ein Atom Kern sagen wir mal nur 5w Leistungsaufnahme unter Last hätte gäbe es da schon deutliches Potential für Stromeinsparung. Geht die Entwicklung ansonsten ungebremst weiter sind die 1kw/h nicht mehr soweit entfernt. Das wären dann bei einem Betrieb von 4h/Tag allein schon gut 40€/Monat an Stromkosten.
 

gerX7a

Software-Overclocker(in)
[...] Ich hoffe nur das AMD nicht auf den Zug aufspringt [...]
Die Hoffnung stirbt zuletzt? Neueste Leaks erklärten doch schon, dass AMD ab Zen5 ins gleiche Horn blasen wird. ;-)


Ganz abgesehen davon, dass es absurd ist zu glauben, dass hier Intel was im stillen Kämmerlein ausbrütet und das der Industrie dann vor die Füße wirft. Die sind hier hochgradig vernetzt und werden das in Abstimmung mit diversen Partnern auf den Weg gebracht haben. Lakefield war ein Pilot, Alder Lake ist nun das erste, massentaugliche Modell und man darf gespannt sein in welche Richtung sich der Zug bewegen wird. Raptor Lake wird vermutlicfh nur eine mehr oder minder kleiner Refresh werden und von Meteor Lake weiß man bereits, dass der ein Multi-Tile-Design wird, also EMIB nutzt.

Ergänzend zu dem sperrig/unglücklichen "auf asynchrone Leistung getrimmt sein". Das ist bspw. in GameEngines vollkommen normal. Hier gibt es diverse Threads, die sehr unterschiedliche Laufzeiten und Anteile an einem Frame haben und einen Physik- oder Wegfindungsthread könnte man bspw. problemlos auf einen Atom-Kern legen bzw. genau genommen könnte man schon beide auf einen einzigen Atom-Kern legen, denn die haben zusammengenommen immer noch einen relativ kleinen Anteil an der Rechenlast eines Frames in einer GameEngine.
Idealerweise ist sich eine GameEngine der unterschiedlich durchsatzstarken Threads bewusst, aber selbst im einfachsten Falle, kann der OS-Scheduler das sinnvoll steuern, indem er bspw. die acht großen Kerne freihält für die Appliaktion und die kleinen nur mit Treiber- und HG-Tasks belegt.
An erstgenanntem arbeitet man zudem offensichtlich auch schon, denn es gibt bspw. eine Kooperation zwischen Intel und IO Interactive, die ein besseres MultiThreading in die GameEngine implementieren zum Ziel hat, d. h. man ist sich hier offensichtlich sehr wohl der kritischen Punkte bewusst und geht diese an. (Mal ganz abgesehen davon, dass für Zen auch vielfach SW-seitig angepasst werden musste nachdem die Architektur im Markt war.)

Und btw., ein ADL 8+8+ wird zweifellos teuerer werden als ein jetziger Achtkerner und das auch zu recht, denn der wird leistungstechnisch auf dem Niveau eines 12-Kerners (oder gar elicht darüber) rangieren, d. h. warum sollte dir Intel hier einen Gefallen tun und was verschenken, insbesondere wo nun AMD auch so langsam anfängt die Preise anzuheben. Das ist vollkommen unlogisch. Und für überaus aggressives Pricing ist Intel nun wirklich nicht bekannt, schlicht, weil die es immer noch nicht nötig haben, d. h. eine derartige Forderung ist unsinnig.

Intels Problem ist einfach, dass sie über die letzten Jahre hinweg Leistung immer durch Takt=Leistungsaufnahme erkauft haben. Ich finde es schon erstaunlich, dass sie bei 8 großen und kleinen Kernen in der Summe noch bei +200w im Boost liegen. Da ist AMD bei Leistungsaufnahme pro Kern immer noch deutlich vor Intel - wenn man nur die großen Intel Kerne hier zum Vergleich nimmt.

Vom Prinzip her finde ich es schon spannend. Wenn ein Atom Kern sagen wir mal nur 5w Leistungsaufnahme unter Last hätte gäbe es da schon deutliches Potential für Stromeinsparung. Geht die Entwicklung ansonsten ungebremst weiter sind die 1kw/h nicht mehr soweit entfernt. Das wären dann bei einem Betrieb von 4h/Tag allein schon gut 40€/Monat an Stromkosten.
Absehbar wird auch 10nm+++ nicht ganz an TSMCs gereiften N7 herankommen, jedoch ist das auch keine Überraschung. Mit dem Prozess wird es effizenter, mehr nicht.
Wenn Tiger Lake H raus ist, kann man vielleicht mal einen ersten sinnvollen Vergleich gegen AMDs APUs im N7 anstellen und sehen was auf deren 10nm SuperFin geht und dann vielleicht extrapolieren, was mit 10nm Enhanced SuperFin möglich sein wird. Am Ende wird es aber nur darum gehen an den N7 heranzukommen, nicht ihn zu überflügeln, denn das wird Intel vermutlich nicht gelingen. Die nächste Schritte folgen dann in 2023 mit ihren eigenen 7nm bzw. optional oder alternativ mit TSMCs 5/4nm und da wird man sich dann schon auf einem vergleichbaren Level bewegen.
 
Zuletzt bearbeitet:

hanfi104

Volt-Modder(in)
Zumindest die nächsten 3-5 Jahre, danach könnte es schon sein, dass man von mehr Threads profitiert.
Die Konsolen haben 8 Kerne, 16 Threads, aber sind halt stark optimiert, kann schon sein, dass am PC generell von einem 16-Kerner in mittlerer Zukunft ein Vorteil auch in Spielen auftritt. Aber da ists dann besser einfach in 5 Jahren nochmal kaufen, statt jetzt zu kaufen und zu hoffen, dass es sich in 5 Jahren was bringt.
Ich selbst werde mir schon 16 Kerne holen, aber weil ich neben dem Spielen auch vorhabe regelmäßig damit zu arbeiten.
Sollten dann in 5 Jahren die Spiele mehr Threads benötigen, wirds mir auch nicht unrecht sein.
Das war auch schon vor vielen Jahren der Grund, warum ich doch zum i7 statt i5 gegriffen habe und langfristig hat sich das natürlich ausgezahlt. Ich bin aber auch CPU Aufrüstfaul muss ich sagen.
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Schau dir den X5660X 6/12 Gulftown an. Jeder 4/8 er dreht Kreise um den, bei 1/3 Verbrauch.

Wir haben keinen absoluten Stillstand mehr wie zwischen Bloomfield und Skylake. Von Zen auf Zen 2 gabs fast soviel Leistungssteigerung, wie in der o.g. Zeitspanne. Zen 2 auf 3 habs sogar mehr. Zen 4 scheint einen ähnlichen Kurs zu fahren (gemunkelt sind ja 20%+, wobei hier sicher auch AVX512 reinspielt)

Lieber alle 5 Jahre ein kleinen Mittelklasse, als alle 7 oder 10 Jahre Highend.
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen
Es gibt schon einfache Schritte. Normalpriorität Prozesse laufen auf den starken, low Prio auf den kleinen.
Starte ich Handbrake und konvertiere 720p Videos und stelle auf low Prio läuft der Prozess hauptsächlich auf meinem zweiten CCD ab und versucht die langsameren Kerne zu nehmen. Stelle ich auf Normal switcht er wieder auf den ersten CCD und nutzt die schnelleren Kerne.
 

gerX7a

Software-Overclocker(in)
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Vielleicht nicht so ganz, aber die grobe Richtung dürfte in etwa zutreffend sein, denn die neuen Konsolen besitzen nur 8 langsame Zen2-Kerne und die werden noch die nächsten 5 - 7 Jahre lang aktuell sein. ;-)
 

IronAngel

BIOS-Overclocker(in)
Als jemand, der Effizienzfragen für sehr relevant hält, kann ich nicht genug betonen, dass diese 228W PL2 keinen prinzipiellen Grund zur Sorge darstellen. Bei diesen Bursts muss es sich nicht per se um eine ineffiziente Angelegenheit handeln, sondern sie können durchaus sinnvoll für das genutzt werden, was Intel lange Race2Idle genannt hat.
Also die Idee ist, dass die CPU nur ganz kurz belastet wird und danach wieder schlafen gehen kann. Das kann sparsamer als ein kontinuierlich langsames arbeiten sein. Es setzt aber zum guten Funktionieren eine geringe Idle-Leistungsaufnahme voraus.
Weiß ich nicht. Wenn das PL2 Target geringer wäre, könnte der Boost auch länger laufen !
Oder gibt es hier im Forum auch nur eine Person, die unbedingt einen 8 Kern Prozessor mit 8 weiteren kleinen Exemplaren auf sein Mainboard stecken möchte?
Was ist besser als 8 Kerne ? Richtig 8 + 8 Kerne. Ob es Atom Kerne ist unrelevant, wenn diese Cores 70 % Leistung eines normalen Cores schaffen und dadurch TDP sparen, ist alles ok.

Ich würde erstmal Tests abwarten, bevor ich eine vernichtende Kritik äußere.
 

PCTom

BIOS-Overclocker(in)
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Schau dir den X5660X 6/12 Gulftown an. Jeder 4/8 er dreht Kreise um den, bei 1/3 Verbrauch.

Wir haben keinen absoluten Stillstand mehr wie zwischen Bloomfield und Skylake. Von Zen auf Zen 2 gabs fast soviel Leistungssteigerung, wie in der o.g. Zeitspanne. Zen 2 auf 3 habs sogar mehr. Zen 4 scheint einen ähnlichen Kurs zu fahren (gemunkelt sind ja 20%+, wobei hier sicher auch AVX512 reinspielt)

Lieber alle 5 Jahre ein kleinen Mittelklasse, als alle 7 oder 10 Jahre Highend.

Es gibt schon einfache Schritte. Normalpriorität Prozesse laufen auf den starken, low Prio auf den kleinen.
Starte ich Handbrake und konvertiere 720p Videos und stelle auf low Prio läuft der Prozess hauptsächlich auf meinem zweiten CCD ab und versucht die langsameren Kerne zu nehmen. Stelle ich auf Normal switcht er wieder auf den ersten CCD und nutzt die schnelleren Kerne.
Ja aber es ist wie bei den mobile Device, es gibt nur entweder oder, nicht und. Auf dem Desktopmarkt ist es mir wurscht wenn der Big 1Watt im Idle durchlässt, was will ich da noch optimieren. Im mobile Markt macht es sinn wo um jedes 0,5W gefeilscht wird wegen Akkulaufzeit.
Ich seh halt keinen Sinn darin, die Wirkung wird verpuffen. Dank Takt und Booststufen sind aktuelle kerne eh schon fein genug abgestimmt. Man sollt den Platz für die Atom Kerne anderweitig nutzen.
 

Casurin

BIOS-Overclocker(in)
Doch, es gibt einen Leistungsunterschied zwischen.....
Das ist aber nicht was du geschrieben hast. Wenn du Probleme mit der Bedeutung gewisser Worte dann schau doch lieber nach was sie bedeuten bevor du sue verwendest.

Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren.
Nope, so funktioniert das nicht. Diese Aufgabe wird vom OS übernommen - also zB Windows10 - wo auch schon für Ryzen mehrmals der Scheduler angepasst wurde.

Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war.
Das ist auch nicht der Fall. Dort war einfach die Hardware schlecht. da hat man nicht für Bulldozer optimiert sondern geschaut das man die (gewaltigen) schwächen von Bulldozer umgeht - sprich alles außer einfachen Ganzzahladditionen wurde vermieden.
 

Thepunisher2403

Komplett-PC-Käufer(in)
Tut mir leid es dir sagen zu müssen, aber du bist derjenige ohne Ahnung:

Der i9 11900K ist der Gewinner, wenn auch nicht klar. Lies das nächste mal den entsprechenden Test, bevor du rumpöbelst.
lesen und verstehen.......
ich habe quellen angegeben komisch das dort der 11900k der klare verlierer ist XDD
aber was weiß ich schon...
die anderen Seiten müssen daher ja auch keine Ahnung haben...
Aber ja glaub nur weiter deiner Fantasiewelt....
 

Bärenmarke

Software-Overclocker(in)
Nach dem, was ich so mitbekommen habe, war es das, was Apple sich gewünscht hat. Da Intel nicht liefern könnte.

Glück für Intel, dass du nichts zu sagen hast und auch AMD geht diesen Weg.

Nö tut AMD eben nicht, dazu gab es letztes Jahr ein ausführliches Interview, dass sie das im Desktop nicht für den richtigen Weg halten, es sich aber mal anschauen.
Und da Zen5 vermutlich auch schon länger in der Planung ist, wird das auch eher nicht kommen mit Zen5.
Aber schauen wir mal was intel an Performance liefern wird in der Realität.
 

Mahoy

Volt-Modder(in)
Ich sehe im Desktop Bereich keinen Sinn darin da einen Prozessor mit 2 unterschiedlich Starken Kernen zu nutzen. Im Notebook lass ich mir das noch eingehen, aber nur wenn sich da die Stärkeren Kerne komplett deaktivieren um Akku zu Sparen.
Zumal man im Desktop-Segment bei Bedarf einfach ins BIOS geht und die Taktraten für eine beliebige Zahl an Kernen sowie die Spannungen entsprechend deckelt, so man das für sinnvoll hält.
Aus den physisch lahmen Kernen "vollwertige" zu machen, wenn man ordentlich Schmackes auf allen Kernen braucht, stelle ich mir da schon schwieriger vor ...

Und am Ende des Tages bekommt man bei der Konkurrenz 16 gleichwertige Kerne bei derselben Leistungsaufnahme.
 

PCGH_Torsten

Redaktion
Teammitglied
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen

Als ich das letzte Mal Zahlen gesehen habe, beschäftigte Intels Software-Abteilung mehr Leute als AMDs komplette CPU-Division, in jedem Fall besteht eine weitaus engere Zusammenarbeit mit und Support für Software-Entwickler. Und während Bulldozer meiner Erinnerung nach zeitweilig unter 5 Prozent Marktanteil hatte, liegt Intel über alle Märkte hinweg meinem Wissen nach immer noch bei 65-70 Prozent. Zwar stetig fallend, aber Desktop-Retail ist nicht alles und Alder Lake wird definitiv ein Vielfaches der Verbreitung von Bulldozer erreichen. Passende Optimierungen sind also weitaus wahrscheinlicher. Zudem arbeitet Intel seit Lakefield mit Microsoft (respektive für Linux selbst) daran, dass Problem auf Betriebssystemebene zu lösen.

Wie gut das gelingt, bleibt abzuwarten, aber die Chancen stehen weitaus besser als bei AMDs Modul-Ansatz. Zudem sollte man immer im Hinterkopf behalten: Bulldozer war nicht nur komplex, sondern für viele Anwendungszwecke auch einfach nur schlecht. Unsachgemäße Programmierung hat die Sache verschlimmert, aber wessen Aufgabenstellung viel FP- oder Decoding-Leistung erforderte, der konnte mit Zambezi einfach keinen Blumentopf gewinnen. Und selbst eng verwobene Integer-Probleme skalierten manchmal mit vier 3-fach-superskalaren Kernen (K10, Intels ... Bridge) besser als mit acht 2-fach-superskalaren. Von vier 4-fach-superskalaren (Haswell/Broadwell/Skylake) ganz zu schweigen. Da fehlte im Desktop einfach der Schritt auf Excavator, mit dem man wenigstens die Decoder-Ausstattung über das Niveau eines Quadcores gehoben hätte, das bereits der Phenom II überbieten konnte.

Alder Lake dagegen wird, nach aktuellem Informationsstand selbst als reiner Achtkernprozessor kein Rück-, sondern ein Fortschritt gegenüber heutigen Achtkernprozessoren sein. Wie effektiv die zusätzlichen Little-Cores eingesetzt werden, bleibt abzuwarten. Aber die "wird vom eigenen Vorgänger geschlagen"-Schmach, die Bulldozer schon zum Launch das Genick gebrochen hat, ist nahezu ausgeschlossen und wenn AMD Zen 4 tatsächlich auf Ende 2022 verschoben hat, sehe ich sogar ein paar echte Marktchancen.
 
Zuletzt bearbeitet:

PCGH_Dave

Redaktion
Teammitglied
Wenn man alles nach rechts schiebt sind einige aktuelle Spiele auch mit nagelneuen High-End-Grafikkarten selbst mit einem Quadcore nicht im CPU-Limit. "UHD reicht mir nicht"-Raff ist mal wieder dabei, seinen privaten Sechskerner zu Untertakten.
Raff nutzt "noch" einen Achtkerner, rüstet aber ziemlich bald auf einen 12-Kerner auf und untertaktet diesen dann massiv. Mehr Kerne sind genau dann Gold wert, wenn keine maximale Leistung nach oben, sondern nach unten gefragt ist; stabile Frametimes sorgen für ein flüssiges Spielgefühl. Das kann dann gerade bei modernen Titeln mit hoher Raytracing-Last, die auch die CPU belastet, etwas ausmachen. Die Vorteile sind aber gering, das kann sich in Zukunft aber ändern und belohnt jene, die nicht jedes Jahr ihre CPU aufrüsten möchten (oder können).
 

DarkWing13

Software-Overclocker(in)
Bei dem ganzen Takt- und Thread "Wirrwarr" frage ich mich, ob das OS, oder die Software dies immer akkurat ver-, bzw. aufzuteilen vermag...

Als Gaming-CPU macht der 16-Kerner wenig Sinn, und bei Anwendungen die 16 Kerne +SMT auslasten können, wohl noch weniger.
Vor allem dann, wenn wie man sieht, auch Intel nur mit Wasser kocht und bei kleineren Strukturbreiten den Takt senkt.
 
Oben Unten