• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

Kleiner, günstiger, sparsamer und trotzdem konkurrenzfähig - Intels Core i7-12700K leistet mehr, als man auf den ersten Blick vermuten würde. Wir haben die CPU in 19 Spielen und 9 Anwendungen getestet und informieren Sie jetzt über Performance, Effizienz und erklären, warum der Prozessor unserer Meinung nach das eigentliche Topmodell sein sollte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K
 

Sidewinder

Komplett-PC-Aufrüster(in)
Irgendwie passt das Fazit nicht zu den Testergebnissen - oder geht das nur mir so?
AMDs Ryzen 9 5900X hat schlechte Karten gegen den Core i7-12700K, zudem dürfte die Intel-CPU dank schnellerer DDR5-Module zukünftig noch besser dastehen...
So wie ich das sehe stehen bei dem i7 geringfügig bessere Spieleleistung (und das auch nur unter theoretischen 720p Tests) einer deutlich schlechteren Leistung in den Anwendungen bei dem 5900X gegenüber.
Dazu ist der 5900X auch noch effizienter obwohl er keine "Effizienz-Kerne" besitzt.

Die geringen Mehrkosten in der Anschaffung des 5900X (der war bis vor wenigen Wochen noch für 489€ zu bekommen) stehen unverhältnismäßig hohen Kosten für ein kompatibles Mainboard und DDR5-RAM gegenüber.
Und das bei einem 1 Jahre altem Prozessor der auch im damals im Schatten seines großen Bruders stand.

Im Prinzip müsste das Fazit lauten, selbst der 5800X wäre noch ein besserer Deal.
 

Wubziz

PC-Selbstbauer(in)
Dazu ist der 5900X auch noch effizienter obwohl er keine "Effizienz-Kerne" besitzt.
:lol:Seite 4 übersprungen?

Der 12700K verbraucht 21W mehr als der 5900X in der Leistungsaufnahme (sehe ich), und im Effizienz-Index liegt der 12700K mit 75.5 vor dem 5900X mit 60.1.

Dabei ist der 12700K auf Augenhöhe (mal besser, mal schlechter ) des 5900X in MultiCore Anwendungen.
Ihn da mit einem 5800X zu vergleichen, der gegen einen 12700K abstinkt, ist denke ich falsch.

Da ich einen 12700K habe (bei PCGH noch nicht geändert), kann ich dir dies bzgl. Gaming sagen:
35-45°C, 25-40W Verbrauch (CPU Package).
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Software-Overclocker(in)
vielleicht 20% schneller als mein 5600x bei 70% mehr verbrauch?

nein danke
Das gilt für die Anwendungen, da ist der 5600x insgesamt nicht mal in der nähe der 20% da gehts je nach Bench auch mal Richtung 70%.
Im normalen Gaming dürfte AL bei ähnlichen Verbrauch landen und schneller sein.

Produkt ist von der Leistung und Preis wohl ok. Aber die Plattformkosten machen das ganze auch hier wieder extrem Unattraktiv. Hier fehlt einfach ein günstiger Einstieg wie ihn Zen2 mit B450 hatte.

Und da das Thema ja denletzt aufgekommen ist. @PCGH_Dave danke für deine Arbeit und Zeit. Schöner test!:pcghrockt:
 

JanJake

BIOS-Overclocker(in)
Für nen 12 Kerner ganz schön langsam...

War nicht vor Alder Lake von 24% mehr Leistung die Rede? Sehe ich nicht wirklich.

Auch die Effizienz, unter aller sau! Dabei auch noch das neue Verfahren und "E" Cores!

Sorry, da habe ich VIEL mehr erwartet.

IPC nicht viel höher als vorher, DDR5 bringt 0 und Takt auch kaum geändert. Durch die Spielzeug Kerne etwas Leistung dazu gewonnen, aber sonst? Nichts berauschendes. Da wird AMD sich mit den Ryzen 6000 und 3D Cache nicht sonderlich anstrengen.
 

gaussmath

Lötkolbengott/-göttin
vielleicht 20% schneller als mein 5600x bei 70% mehr verbrauch?

nein danke
Wut?

Da ich einen 12700K habe (bei PCGH noch nicht geändert), kann ich dir dies bzgl. Gaming sagen:
35-45°C, 25-40W Verbrauch (CPU Package).
Wut?

Für nen 12 Kerner ganz schön langsam...

War nicht vor Alder Lake von 24% mehr Leistung die Rede? Sehe ich nicht wirklich.

Auch die Effizienz, unter aller sau! Dabei auch noch das neue Verfahren und "E" Cores!
Wut?
 

CD LABS: Radon Project

Volt-Modder(in)
Einen interessanten Test fände ich, einen 12900K auf die Settings des 12700K zu bremsen, mit Ausnahme der Anzahl an freigeschalteten E-Cores.

Ich gehe nämlich nicht davon aus, dass der 12700K auf Grund von nur vier E-Cores besser dasteht. (sondern auf Grund der besser gewählten Settings und des geringeren Preises)
 

FKY2000

PCGHX-HWbot-Member (m/w)
:lol:Seite 4 übersprungen?

Der 12700K verbraucht 21W mehr als der 5900X in der Leistungsaufnahme (sehe ich), und im Effizienz-Index liegt der 12700K mit 75.5 vor dem 5900X mit 60.1.

Dabei ist der 12700K auf Augenhöhe (mal besser, mal schlechter ) des 5900X in MultiCore Anwendungen.

Aber wie kann das denn sein?

Der 12700k ist in den Anwendungsbenchmarks auf Augenhöhe (Tendenz etwas langsamer) als der 5900X, verbraucht im Mittel mehr, soll aber in eben diesen Anwendungen effizienter sein? Das ist für mich erstmal etwas unlogisch
 

PCGH_Dave

Redaktion
Teammitglied
Ich gehe nämlich nicht davon aus, dass der 12700K auf Grund von nur vier E-Cores besser dasteht. (sondern auf Grund der besser gewählten Settings und des geringeren Preises)
Die CPU steht insgesamt besser da, weil sie nicht an der Kotzgrenze läuft ;-)
Das war beim 11700K vs. 11900K auch schon so, sogar noch viel krasser, vergleiche mal die Leistungsaufnahme der beiden. Ein 12700K ist ein viel runderes Produkt als ein 12900K. Intel preist die CPUs als Spiele-CPUs an, da nützen vier zusätzliche E-Cores praktisch nichts.
 

Wubziz

PC-Selbstbauer(in)
Momentaufnahme vom Gaming:
12700KMomentaufnahme.JPG
 

CD LABS: Radon Project

Volt-Modder(in)

PCGH_Dave

Redaktion
Teammitglied
Aber wie kann das denn sein?

Der 12700k ist in den Anwendungsbenchmarks auf Augenhöhe (Tendenz etwas langsamer) als der 5900X, verbraucht im Mittel mehr, soll aber in eben diesen Anwendungen effizienter sein? Das ist für mich erstmal etwas unlogisch
Danke für dein Feedback. Da ist mir tatsächlich ein Zahlendreher unterlaufen :schief:
Die neuen Werte gehen gleich online, ein 12700K ist nicht effizienter als ein 5900X. Ich hatte versehentlich die Leistungsdaten in die Effizienz-Tabelle eingetragen, die Zahl steht im Excel direkt daneben, das kann also schnell mal passieren. :wall:
 

RX480

Lötkolbengott/-göttin
Für nen 12 Kerner ganz schön langsam...
IPC nicht viel höher als vorher, DDR5 bringt 0 und Takt auch kaum geändert.
Als Privatperson würde ich eh net solche sinnlosen Einstellungen nutzen. (4400@G2)
Was man so hört, soll DDR4-4000@Gear 1 noch bei den meisten ADL funzen.

anhand des Bildes kann man evtl. interpolieren, wo man dann rauskommt

edit:
evtl. als waterblock dann passend
(sollte mit dem kleineren 12700 dicke ausreichen)
 

Anhänge

  • minFps@Ram.JPG
    minFps@Ram.JPG
    46,2 KB · Aufrufe: 60
Zuletzt bearbeitet:

IICARUS

Kokü-Junkie (m/w)
Finde den 12700K auch als perfekten Prozessor, der nicht nur günstiger ist, sondern auch bereits für Games vollkommen ausreicht. In meinem Fall würde ich ein 12900K nur aus reiner Kopfsache bevorzugen.

Dann ist das Reading kaputt. Der verbraucht doch keine 30 Watt in Spielen. Oder hast du den undervolted?
Je nach Game und im GPU-Limit auch gut möglich.

Mit meinem 9900K komme ich in Games was nicht alle 8 Kerne voll auslasten und dann im GPU-Limit liegt, auch auf etwa 75 Watt. Setze ich dann noch ein FPS-Limit, sodass die Grafikkarte noch nicht mal mehr voll arbeiten muss, dann komme ich z.B. in Overwatch auch nur noch auf etwa 55 Watt.
 

IICARUS

Kokü-Junkie (m/w)
Mal so über den Daumen gepeilt, bringt das E und P Design etwas oder nicht?
Kommt auf dein bereits verbautes System mit an, mit meinem 9900K würde der 12700K in Games (GPU-lImit) etwa 10-20 FPS mehr bringen und in Anwendungen um die 30%. Mit einem 12900K hätte ich in Games etwas dasselbe, aber in Anwendungen um die 50% mehr.

Ich nutze aber mein Rechner überwiegend nur für Games oder Office, daher würden sich die Mehrkosten dazu nicht rechnen. Wenn ich umrüste, dann hätte es nur was mit dem HABEN wollen was zu tun.

In deinem Fall, mit einem Ryzen 5900X, wird es noch weniger bringen.
Da du bereits ein guten Prozessor mit 12 Kerne hast.
 

gaussmath

Lötkolbengott/-göttin
Ist Stock, HWiNFO auf Version v.7.14-4610, RAM auf DDR4 4000 G1 im Verbund mit dem MSI Z690 Tomahawk WiFi DDR4.
Kann auch am Spiel liegen, welches die Kerne nicht voll auslastet. Hab mit dem 12700K noch keine Triple-A Titel angefasst.
Welches Spiel ist das? Kannst du mal Cyberpunk 2077 checken bitte?

Je nach Game und im GPU-Limit auch gut möglich.
Welches Spiel soll das sein? Ori bei 30 FPS?
 

SlaveToTheRave

Freizeitschrauber(in)
Da ich einen 12700K habe (bei PCGH noch nicht geändert), kann ich dir dies bzgl. Gaming sagen:
35-45°C, 25-40W Verbrauch (CPU Package).
Ich habe auf meinem gestern ein Video gerendert (Da Vinci Resolve).
Die Auslastung lag laut Taskmanager bei ~35 % über alle Kerne / Threads
und die der iGPU bei 95%.
Taktraten: ~4.7GHz (P), ~3,7 GHz (E), ~1.4 GHz iGPU.

HWInfo gab einen summierten Verbrauch von ~95W aus. Die Temps lagen zw. 60 °C und max. 68 °C.
Zusammen mit den restlichen Komponenten (Mobo, SBlaster, 2x 8GiB DDR4 3000, M.2 SSD, HDD, 3x Lüfter, Netzteil) liegt man dabei wohl bei ca. ~130Watt.

Finde ich eigentlich ganz O.K.
Grafikkarte ist (noch) keine verbaut.
 
Zuletzt bearbeitet:

IICARUS

Kokü-Junkie (m/w)
Ginge auch! BF5, CP 2077 und SotTR sind so die Verbrauchskracher, die ich kenne.
In BF5 braucht mein 9900K mit 5 GHz auf alle Kerne nur 1,225v und dann komme ich im GPU-Limit etwa auf 95 Watt. In einem Test habe ich auch mal 1,300v mit demselben Takt anliegen gehabt, da es auch Prozessoren gibt, die für solch ein Takt mehr Spannung anliegen haben müssen. Dann habe ich auch die 100 Watt überschritten und im CPU-Limt habe ich etwa 120 Watt erreicht.

In einem Test habe ich die Spannung auf nur 1,000v reduziert und ein Takt von 4,2 Ghz auch alle Kerne. Damit bin ich dann im GPU-Limit auf etwa 25-35 Watt mit COD gekommen. Ein paar Watt kann man daher schon einsparen, wenn ein System besser optimiert ist. Hängt natürlich auch vom Prozessor, dem Mainboard und von der Kühlung mit ab.

Habe aber in manchen Tests gesehen, dass der 12700K/12900K in Games effizienter sein wird.
 

PCGH_Dave

Redaktion
Teammitglied
Wundert mich nicht, das Ihr das erst einführt wenn Intel besser wie AMD dasteht..
Was redest du da? Natürlich wurde die Leistungsaufnahme vorher auch schon in die Note mit einberechnet. Nur jetzt noch etwas stärker als vorher. Hart trifft es dabei eh nur CPUs wie ein 5950X, 12900K oder 11900K, die eben die letzten fünf Prozent Leistung über einen exorbitanten Verbrauch holen. Belohnt werden hingegen Prozessoren mit höchster Effizienz.

Was die rBAR-Tests angeht, musst du mit Raff reden, bei den CPU-Benchmarks wird das Feature nach wie vor nicht verwendet.
 

hornsz

Schraubenverwechsler(in)
Wenn ich schon viel Geld für den Prozessor ausgebe, dann will ich auch aktuelle Speichertechnologie nutzen. Aber wie es aussieht, der ganze Alder Lake Launch ist ein Start ohne passenden Speicher in Bezug auf DDR5. Mein Bekannter sitzt schon seit mehr als 2 Wochen auf seinem 12900K + MB für "schlappe" 1350 EUR und kann nichts nutzen. Und laut Händler ist eine Lieferung von DDR5 zeitlich absolut unklar. Ihm wurde sogar gesagt, dass es vor Weihnachten nichts werden könnte. Na super.
 

Optiki

Freizeitschrauber(in)
@PCGH_Dave bei der Grafik zu Watch Dogs ist wohl der falsche Name für die CPU hinterlegt, da steht der Name vom i5

Ansonsten sehr gute Gamingcpu, wem der kleine i5 nicht zukunftssicher genug scheint, für den ist er wohl die beste und vernünftigere Wahl gegenüber dem i9. Mal sehen wie sich so die Kinderkrankheiten der Plattform entwickeln und die Preise, vor allem für DDR5.

Ich glaube nicht, das AMD mit 3D Cache da auf AM4 noch großartig etwas reißen kann.
 

FKY2000

PCGHX-HWbot-Member (m/w)
Aber wie kann das denn sein?

Der 12700k ist in den Anwendungsbenchmarks auf Augenhöhe (tendenz etwas langsamer) als der 5900X, verbraucht im Mittel mehr, soll aber in ebendiesen Anwendungen effizienter sein? Das ist für mich erstmal etwas unlogisch

Danke für dein Feedback. Da ist mir tatsächlich ein Zahlendreher unterlaufen :schief:
Die neuen Werte gehen gleich online, ein 12700K ist nicht effizienter als ein 5900X. Ich hatte versehentlich die Leistungsdaten in die Effizienz-Tabelle eingetragen, die Zahl steht im Excel direkt daneben, das kann also schnell mal passieren. :wall:
Hi Dave,

kann immer mal passieren, ist menschlich.
Das Du bzw. Ihr so schnell darauf reagiert, ist aber super!
LG
 

Pokerclock

Moderator
Teammitglied
Die Verfügbarkeit der CPUs ist hervorragend und entgegen dem allgemeinen Trend ist auch eine leichte Tendenz nach unten beim Preis zu sehen. Aber. DDR5 ist nicht verfügbar. Grafikkarten sind sau teuer. AMD hat nun auch in der Gamer-Landschaft einen Fuß in der Tür. Mittlerweile bin ich auch am überlegen DDR5 einfach links liegen zu lassen. DDR4 liegt hier in Massen herum. Richtige Mehrleistung sieht man bei den Timings nicht. Ich denke nicht, dass DDR5-Plattformen für mich die kommenden zwei Jahre interessant werden. Muss mal gucken wie meine Kunden auf das Big-Little-Prinzip reagieren. Wenn man mal DDR5 außen vor lässt, sind die Preise der CPUs, vor allem für den 12700K echt nett. 400 € für nen 16 Threader + Anhang-Kerne + gute Single-Core-Leistung kann man mitnehmen oder auf den bewährten 5800X mit AM4 setzen. Schwierig, schwierig...
 

Rollora

Kokü-Junkie (m/w)
Ein nettes Stück Technik.
Dennoch ist der verwendete Prozess erst auf dem Niveau was AMD seit 2019 einsetzt.
Ich warte auf neuere Prozesse bei den beiden, die aktuellen Verbräuche und die Effizienz ist noch nicht das, was ich mir erhoffe.
Außerdem wäre cool, wenn die 2 auch mal eine große, effiziente APU bauen könnten wie etwa den M1. Der ja viel Power daher holt weils eigentlich ein riesiger 5nm Chip ist. Das können AMD und Intel sicher auch in ähnlicher Konfiguration. Das wär mal ein Chip für den ich mir ein neues Notebook (aktuell fast 10 Jahre alt) holen würde.
 

Rollora

Kokü-Junkie (m/w)
Die Verfügbarkeit der CPUs ist hervorragend und entgegen dem allgemeinen Trend ist auch eine leichte Tendenz nach unten beim Preis zu sehen. Aber. DDR5 ist nicht verfügbar. Grafikkarten sind sau teuer. AMD hat nun auch in der Gamer-Landschaft einen Fuß in der Tür. Mittlerweile bin ich auch am überlegen DDR5 einfach links liegen zu lassen. DDR4 liegt hier in Massen herum. Richtige Mehrleistung sieht man bei den Timings nicht. Ich denke nicht, dass DDR5-Plattformen für mich die kommenden zwei Jahre interessant werden. Muss mal gucken wie meine Kunden auf das Big-Little-Prinzip reagieren. Wenn man mal DDR5 außen vor lässt, sind die Preise der CPUs, vor allem für den 12700K echt nett. 400 € für nen 16 Threader + Anhang-Kerne + gute Single-Core-Leistung kann man mitnehmen oder auf den bewährten 5800X mit AM4 setzen. Schwierig, schwierig...
DDR5 in Gear 2 das dann gerade so performt wie günstiges DDR4 3200 in Gear 1... werde ich mir auch nicht holen.
Ich habe aber die Hoffnung, dass Raptor Lake oder Meteor Lake bzw. Zen 4 ordentlich mit höher getakteten DDR5 umgehen können.
Ich würde außerdem, wenn sich bis dahin die GPU Preise nicht nach unten korrigiert haben erstmals dazu übergehen einfach mal nur den Unterbau (samt iGPU) zu kaufen bzw. zu betreiben.
die iGPU dürfte dann dank der höheren Bandbreite (DDR5 6400 oder schneller) auch ausreichend für ältere Spiele performen.
 

Sidewinder

Komplett-PC-Aufrüster(in)
Irgendetwas stimmt da bei dem Kingdom Come Deliverance Testergebnissen nicht.
Mit einer RTX3090 in 720p nichtmal 60fps?

Selbst bei 1440p mit maximalen Details inkl. AF, AA und HD Texturpacket komme ich selten unter 100fps auf einer schwächeren Grafikkarte.
 

theGucky

Freizeitschrauber(in)
Wenn ich mir Spiele Benchmarks ansehe, ist der Trend klar.
Man braucht 10-12 Kern CPU bzw 8P+4E CPUs und diese müssten 6GHz oder mehr haben, damit man richtig Performance bei Spielen hat.
Wenn ich z.b. Battlefield 2042 zocke, dann sind 4 Threads von 3 Kernen mit Hintergrundprogrammen beschäftigt (hier wäre 4E Kerne gut) und 10 Threads von 8 Kernen sind mit dem Spiel beschäftigt (ja BF nutzt bei mir bei 6 Kernen nur je 1 Thread ). Knapp 6 Kerne laufen leer (oder gar 18/32 Threads).
Siehe hier:
Unbenann444t.jpg

Fun Fakt...wenn man die 2 Kerne anguckt die mit je 2 Threads laufen, dann sieht man das die Kurven wie 2 Teile eines Puzzles genau ineinanderpassen, wenn man einen davon umdreht... was AUCH komisch ist XD...

Edit: Kann auch sein, das BF 2042 nicht mit 2 CCXs zurechtkommt... da BF nur CCX0 also den ersten nutzt.
Mein 5950X läuft übrigends mit 1.1V bei 4.2Ghz allCore, Powerlimit wird nicht errreicht.
 
Oben Unten