Intel Core i9-12900K & Core i5-12600K im Test: Angriff mit 10 nm und Hybrid-Architektur

theGucky

Freizeitschrauber(in)
Naja mal ehrlich gesagt.. mein 5950X nutzt kein Boost oder PBO und es liegt ein 4.2Ghz/3.8Ghz manuell Takt an. So verbraucht die CPU 60 - max 90W im Gaming oder 142W bei 100% Multicore Load.
Mit Boost/ohne PBO liegt alleine beim Surfen >80W an...weil bei mir der Boost bugged ist und schon bei 1% Last auf 1.5V boostet...von daher ist es aus.
BISHER habe ich im 4k Gameplay fast immer die 3090FE bei 100% Load.
Es gibt aber auch Spiele die nur ein paar Kerne nutzen, dort sind die paar Kerne auf 90-100%, aber die gesamte CPU unter 15% Last...
16 Kerne sind aktuell noch zuviel für ein Gamer um diese effektiv zu nutzen.

Und Intel ist leider immernoch ein Stromverschwender...es wird wieder eine hoher TDP rausgeholt nur um AMD zu überholen...

@IICARUS
Mein 5950X kommt, wenn der Boost angeschaltet ist, kommt instant an 80-85°C. Selbst beim normalen surfen und 1% Last. Weil der blöde Boost an 1-2 Kernen sofort 1,5V anlegt und die Hitze ist so punktuell, das selbst meine 280mm AIO das nicht so gut wegkühlen kann. Der Verbrauch ist auch dann bei 80-90W.
Ohne Boost bin ich bei <40°C und 40-45W oder weniger im selben Szenario.
Wenn ich mit Boost z.b. Prime95 anschalte dann liegt derselbe Boost nur noch 1.05-1.1V an ALLE Kerne und zieht sogar bis 142W aber die CPU wird nur 60-65°C warm.
Ich habe bisher noch KEINE Möglichkeit gefunden diese 1.5V im Boost einzustellen. Es gibt ein Offset, der kann aber nur max 0.1V runtergehen, da er auch automatisch den Idle UND Allcore Boost mit runterstellt. Und unter 1V mag die CPU nicht wirklich...
 
Zuletzt bearbeitet:

Lichtspieler2000

Freizeitschrauber(in)
Ich fasse kurz Zusammen. Super schnell, Super Stromdurstig.
Im Durchschnitt verbrauchen diese CPUs auch nicht mehr als die AMD Prozessoren.
CPU Preise sind ok, die Plattform noch unbezahlbar.
Launchpreise
12600K 319,-
Z Board DDR4 189,-

Macht insgesamt auch nicht mehr als AMD aktuell für den 5800x + Board verlangt.
Das Intel System hat zusätzlich noch eine IGP, die nicht getestet wurde.
Ich denke weiß auch Intel und bietet die CPUs etwas günstiger an.
Und unterm Strich kostet das Intel System damit auch nicht mehr.
Und Intel ist leider immernoch ein Stromverschwender...es wird wieder eine hoher TDP rausgeholt nur um AMD zu überholen...
Kannst du das belegen?
In diesem Test ist die Anwendungseffizienz des AMD 5900x nur 20% höher.
Ein 12700K müsste noch besser abschneiden.
 

Dulindor

Komplett-PC-Aufrüster(in)
Es geht darum, das Computerbase entgegen eurer Aussage sagt das die E Cores bei Spielen keinerlei Vorteile bringen also er in Spielen eigentlich ein 6 kerner ist und von Ihm abraten, ihr sagt unbedingt kaufen, da es ein 10 kerner in Spielen ist, da sehe ich eine gewaltige Diskrepanz in den Aussagen..
Die Aussage von CB zum Abschluss halte ich für groben Unfug, weil sie nicht mit ihren eigenen gemessenen Daten zusammen passt. Nebenbei finde ich diese in der von dir zitierten Form auch nicht in ihrem Artikel zu AlderLake oder ist der aus ihrem Forum? Im Artikel von Wolfgang finde ich nur das: "Erst mit dem Core i5-12600K wird es langsamer, zumal die nur 6 Performance-Kerne in Zukunft vermutlich recht schnell knapp werden können. Sonderlich attraktiv ist der Core i5 aufgrund der mit 289 US-Dollar geringen Kostenersparnis zum Core i7 daher nicht."

Auch die Aussage finde ich schon gewagt, gleiches gilt ja uneingeschränkt auch für den 5600X und passt nicht wirklich mit der Gaming-Leistung auf Niveau des 5950X (was CB auch selber so bestätigt) zusammen. Über 100€ zum I7 finde ich bei ~300€ auch beachtlich, fürs Budget ist der i5 das deutlich bessere Produkt, auch wenn der Potentielle 12400 da wohl noch besser werden dürfe.
 

RyzA

PCGH-Community-Veteran(in)
Danke für den Test.:pcghrockt:
Der Sieger ist dann ja eigentlich der 12600K. Vom P/L und der Effizienz.
Wer maximale FPS in Games will muß mehr hinblättern und den 12900K nehmen.
Das ist alles aber jetzt nichts was AMD nervös machen sollte. Und war zu erwarten.
 

owned139

BIOS-Overclocker(in)
Was hättest du nicht erwartet? Das ergibt doch ein klares Bild. Dass die CPUs bei Spielen nicht auf Anschlag laufen ist doch klar. Und dass eine CPU mit weniger Kernen weniger verbraucht ist doch auch klar. Einzig Rocket Lake bricht aus dem Schema aus...
Der 12900K hat mehr Kerne als der 5900X, verbraucht weniger und hat die bessere Performance.
 

IICARUS

Kokü-Junkie (m/w)
Wenn ich mit Boost z.b. Prime95 anschalte dann liegt derselbe Boost nur noch 1.05-1.1V an ALLE Kerne und zieht sogar bis 142W aber die CPU wird nur 60-65°C warm.
Bei Intel reicht es nicht nur die Spannung runter zu setzen, weil dann der Prozessor instabil läuft. Weil der Takt sich dabei nicht mit anpassen wird. Daher muss dann auch zugleich die Rotation mit heruntergesetzt werden. Habe das auch mal mit dem 3900X von meinem Sohn ausgetestet und mit weniger Spannung lief das System immer noch stabil, hat aber dann je nach Anwendung (Auslastung) weniger getaktet.
 

Optiki

Software-Overclocker(in)
Ich habe für den R5 5600X genausoviel bezahlt wie jetzt für den I5 12600K und der hat sogar noch eine anständige Grafikkarte an Bord. Und 200€ für ein neues Mainboard ist für mich auch ok. DDR 4 oder 5 kann ja dann jeder selber entscheiden.
Weil du die CPU schnell haben wolltest oder warum hast du so viel bezahlt? Du kannst dir ja mal die 200 Euro Z-Boards anschauen und dann nochmal überlegen ob du so ein Müll haben willst oder lieber direkt nochmal 100 Euro in die Hand nimmst.

Edit:

sagen wir 50 Euro
 
Zuletzt bearbeitet:

TheOpenfield

Freizeitschrauber(in)
Naja mal ehrlich gesagt.. mein 5950X nutzt kein Boost oder PBO und es liegt ein 4.2Ghz/3.8Ghz manuell Takt an. So verbraucht die CPU 60 - max 90W im Gaming oder 142W bei 100% Multicore Load.
Mit Boost/ohne PBO liegt alleine beim Surfen >80W an...weil bei mir der Boost bugged ist und schon bei 1% Last auf 1.5V boostet...von daher ist es aus.
BISHER habe ich im 4k Gameplay fast immer die 3090FE bei 100% Load.
Es gibt aber auch Spiele die nur ein paar Kerne nutzen, dort sind die paar Kerne auf 90-100%, aber die gesamte CPU unter 15% Last...
16 Kerne sind aktuell noch zuviel für ein Gamer um diese effektiv zu nutzen.

Und Intel ist leider immernoch ein Stromverschwender...es wird wieder eine hoher TDP rausgeholt nur um AMD zu überholen...

@IICARUS
Mein 5950X kommt, wenn der Boost angeschaltet ist, kommt instant an 80-85°C. Selbst beim normalen surfen und 1% Last. Weil der blöde Boost an 1-2 Kernen sofort 1,5V anlegt und die Hitze ist so punktuell, das selbst meine 280mm AIO das nicht so gut wegkühlen kann. Der Verbrauch ist auch dann bei 80-90W.
Ohne Boost bin ich bei <40°C und 40-45W oder weniger im selben Szenario.
Wenn ich mit Boost z.b. Prime95 anschalte dann liegt derselbe Boost nur noch 1.05-1.1V an ALLE Kerne und zieht sogar bis 142W aber die CPU wird nur 60-65°C warm.
Ich habe bisher noch KEINE Möglichkeit gefunden diese 1.5V im Boost einzustellen. Es gibt ein Offset, der kann aber nur max 0.1V runtergehen, da er auch automatisch den Idle UND Allcore Boost mit runterstellt. Und unter 1V mag die CPU nicht wirklich...

Du kannst über den Energiesparplan die Maximalfrequenz einschränken, läuft dann ähnlich wie bei Nvidia GPUs mit "begrenzter" Curve. Aber so kann man auch gleich mit deinem fixen Allcore fahren, wirkliche Unterschiede gibts dann nicht mehr.

Den Boost im Idle etwas zu entschärfen geht aber generell auch mit anderen Energiesparplänen.
 

Lichtspieler2000

Freizeitschrauber(in)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Der 5950x wird in Anwendungen auch häufig geschlagen. Sieht extrem gut für Intel aus.
 

troppa

Software-Overclocker(in)
P1030042-i.jpg


Ist grad reingeschneit. Fehlen nur noch Mainboard und Speicher.
 

CD LABS: Radon Project

Volt-Modder(in)
Bislang kristallisiert sich ja heraus, dass diverse Themen noch genauerer Betrachtungen bedürfen.
Mal ein ganz anderer Blickwinkel, was an großen Fragen des Vorfelds hat sich schon heute geklärt?
  1. Warum hat Intel erst die Desktop-AlderLake-CPUs gebracht? Zentrale Antwort: Weil das Softwareökosystem noch nicht auf einem Niveau angekommen ist, dass für mobilen Einsatz ausreichend ist. Für Desktop-Quasibetakunden passt es hingegen. Nebenantwort: Die Redaktionen haben einfach Massen zu testen und wahrscheinlich wäre die Aufmerksamkeit bei einem Notebookrelease geringer ausgefallen.
  2. Wurden die hohen Powerlimits von Intel gewählt, um die Gamingkrone zu erlangen? Nein. Sie wurden gewählt, um in Anwendungen (auf den ersten Blick) besser dazustehen. Hat ihrem Ruf unter Gamern dennoch vielleicht geschadet... (dieser Teil hingegen ist natürlich einer, der sich auch erst in Zukunft zeigen wird)
  3. Lohnt sich Intels Variante der Big.LITTLE-Philosophie im Desktop? Für Multicoreanwendungen auf jeden Fall. Für Spiele wahrscheinlich auch.
 

IICARUS

Kokü-Junkie (m/w)
Der 5950x wird in Anwendungen auch häufig geschlagen. Sieht extrem gut für Intel aus.
Aber gerechterweise auch nur dann, wenn die 241 Watt Sperre drin ist, denn sonst fällt der 5950X zumindest was die Effizienz angeht besser ab. Mit Gaming sieht es dann ganz anders aus und ich sehe den Hauptvorteil hierin, sollte sich ein System eher um Gaming stützen.
 

user42

Freizeitschrauber(in)
Intels 10nm heißt jetzt 7nm warum wohl? Weil es das gleiche ist und Intel bemerkt hat
das dieses Markting Blabla mit Nanometer genauso gespielt werden kann.

Intel hat keinen Grund wo zu fertigen, den jetzt haben sie es ja geschafft.
Das Ergebnis spricht wohl für sich. Nm Zahlen haben ja nichts mehr mit Transistor Größe zu tun.
Im Grunde kannst da hinschreiben was man will.

Nimm mal die Fanboy Brille ab. Intel behauptet sie wären mit ihrem 10nm gleichauf.
Du bist auf deren Marketing Blabla reingefallen.
Unter Volllast siehst du was bei rumkommt ... der 12900k säuft 100W mehr als ein 5950x und der 5950x bringt dann auch noch mehr Leistung.
 

CD LABS: Radon Project

Volt-Modder(in)
Das ist falsch, denn im Gaming erreicht der Prozessor sogar eine geringere Leistungsaufnahme als AMD und erreicht dennoch höhere Ergebnisse (FPS). Einfach mal aktuelle Ergebnisse von heute anschauen und nicht solch eine falsche Prognose aufstellen.
Ich weiß nicht, ob du nicht genau genug gelesen oder ich mich nicht genau genug ausgedrückt habe.
Auf jeden Fall war der Inhalt der Aussage, dass die Intel-Wattangaben für Gaming keine Relevanz haben; anders, als dies manche User befürchtet hatten.
Oder mal ganz simpel formuliert: Im Gamingkontext sind die AlderLakes keine Stromschleudern. Das war vorher nicht klar. Jetzt ist es klar.
 

perupp

Software-Overclocker(in)
Die Aussage von CB zum Abschluss halte ich für groben Unfug, weil sie nicht mit ihren eigenen gemessenen Daten zusammen passt. Nebenbei finde ich diese in der von dir zitierten Form auch nicht in ihrem Artikel zu AlderLake oder ist der aus ihrem Forum? Im Artikel von Wolfgang finde ich nur das: "Erst mit dem Core i5-12600K wird es langsamer, zumal die nur 6 Performance-Kerne in Zukunft vermutlich recht schnell knapp werden können. Sonderlich attraktiv ist der Core i5 aufgrund der mit 289 US-Dollar geringen Kostenersparnis zum Core i7 daher nicht."

Auch die Aussage finde ich schon gewagt, gleiches gilt ja uneingeschränkt auch für den 5600X und passt nicht wirklich mit der Gaming-Leistung auf Niveau des 5950X (was CB auch selber so bestätigt) zusammen. Über 100€ zum I7 finde ich bei ~300€ auch beachtlich, fürs Budget ist der i5 das deutlich bessere Produkt, auch wenn der Potentielle 12400 da wohl noch besser werden dürfe.

Hier bitte schön unter Fazit
 

PCGH_Torsten

Redaktion
Teammitglied
Es geht darum, das Computerbase entgegen eurer Aussage sagt das die E Cores bei Spielen keinerlei Vorteile bringen also er in Spielen eigentlich ein 6 kerner ist und von Ihm abraten, ihr sagt unbedingt kaufen, da es ein 10 kerner in Spielen ist, da sehe ich eine gewaltige Diskrepanz in den Aussagen..

Okay, da steht das tatsächlich. Muss ich übersehen haben – kann mir aber auch nicht erklären, worauf die Aussage gründet.
Im Test selbst finde ich nur Messungen zum 12900K ohne E-Cores. Die kommen natürlich sinngemäß zu dem Fazit "wenn man schon acht sehr starke, HT-fähige Kerne im System hat, dann profitieren heutige Spiele von einem weiteren Ausbau nicht". Wie man von dieser altbekannten und vorerst weiterhin gültigen Weißheit zu dem Schluss kommt, dass auch ein "6"-Kerner von weiteren E-Cores nicht profitiern könne, insbesondere wenn dieser vermeintliche "6"-Kerner gerade den Gleichstand zu einem 16-Kerner geschafft und sich deutlich vor 8- und 12-Kerner gesetzt hat, ist mir dagegen ein Rätsel. Und der Verweis auf kommende Spielegenerationen ist geradezu irritierend. Sinngemäß zitiert: "Die Kerne 7, 8, 9 und 10 Kerne werden heutzutage gar nicht genutzt ... die CPU ist zukunftsuntauglich, weil sie keinen Kern 7 geschweige denn 8, 9 oder 10 hat"?
Dieses Fazit widerspricht nicht nur unserer Beurteilung, sondern in meinen Augen auch sich selbst sowie den CB-eigenen Messungen.
 

PCGH_Torsten

Redaktion
Teammitglied
Bislang kristallisiert sich ja heraus, dass diverse Themen noch genauerer Betrachtungen bedürfen.
Mal ein ganz anderer Blickwinkel, was an großen Fragen des Vorfelds hat sich schon heute geklärt?
  1. Warum hat Intel erst die Desktop-AlderLake-CPUs gebracht? Zentrale Antwort: Weil das Softwareökosystem noch nicht auf einem Niveau angekommen ist, dass für mobilen Einsatz ausreichend ist. Für Desktop-Quasibetakunden passt es hingegen. Nebenantwort: Die Redaktionen haben einfach Massen zu testen und wahrscheinlich wäre die Aufmerksamkeit bei einem Notebookrelease geringer ausgefallen.
  2. Wurden die hohen Powerlimits von Intel gewählt, um die Gamingkrone zu erlangen? Nein. Sie wurden gewählt, um in Anwendungen (auf den ersten Blick) besser dazustehen. Hat ihrem Ruf unter Gamern dennoch vielleicht geschadet... (dieser Teil hingegen ist natürlich einer, der sich auch erst in Zukunft zeigen wird)
  3. Lohnt sich Intels Variante der Big.LITTLE-Philosophie im Desktop? Für Multicoreanwendungen auf jeden Fall. Für Spiele wahrscheinlich auch.

Einfachere Antwort zu 1: Weil Tiger Lake 45H erst seit einem halben Jahr im Markt angekommen und voll konkurrenzfähig ist, während es schon 2019 einen besseren Desktop-Chip als Rocket Lake gebraucht hätte.
 

pietcux

Software-Overclocker(in)
Weil du die CPU schnell haben wolltest oder warum hast du so viel bezahlt? Du kannst dir ja mal die 200 Euro Z-Boards anschauen und dann nochmal überlegen ob du so ein Müll haben willst oder lieber direkt nochmal 100 Euro in die Hand nimmst.

Edit:

sagen wir 50 Euro
Ich tendiere eher zur TUF Serie. Aber da es noch keine Mini ITX Boards gibt warte ich noch. Mein Umbausatz für den Noctua A12U kommt eh auch erst im Dezember.
 
Oben Unten