Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

Mal so über den Daumen gepeilt, bringt das E und P Design etwas oder nicht?
Kommt auf dein bereits verbautes System mit an, mit meinem 9900K würde der 12700K in Games (GPU-lImit) etwa 10-20 FPS mehr bringen und in Anwendungen um die 30%. Mit einem 12900K hätte ich in Games etwas dasselbe, aber in Anwendungen um die 50% mehr.

Ich nutze aber mein Rechner überwiegend nur für Games oder Office, daher würden sich die Mehrkosten dazu nicht rechnen. Wenn ich umrüste, dann hätte es nur was mit dem HABEN wollen was zu tun.

In deinem Fall, mit einem Ryzen 5900X, wird es noch weniger bringen.
Da du bereits ein guten Prozessor mit 12 Kerne hast.
 
Ist Stock, HWiNFO auf Version v.7.14-4610, RAM auf DDR4 4000 G1 im Verbund mit dem MSI Z690 Tomahawk WiFi DDR4.
Kann auch am Spiel liegen, welches die Kerne nicht voll auslastet. Hab mit dem 12700K noch keine Triple-A Titel angefasst.
Welches Spiel ist das? Kannst du mal Cyberpunk 2077 checken bitte?

Je nach Game und im GPU-Limit auch gut möglich.
Welches Spiel soll das sein? Ori bei 30 FPS?
 
Da ich einen 12700K habe (bei PCGH noch nicht geändert), kann ich dir dies bzgl. Gaming sagen:
35-45°C, 25-40W Verbrauch (CPU Package).
Ich habe auf meinem gestern ein Video gerendert (Da Vinci Resolve).
Die Auslastung lag laut Taskmanager bei ~35 % über alle Kerne / Threads
und die der iGPU bei 95%.
Taktraten: ~4.7GHz (P), ~3,7 GHz (E), ~1.4 GHz iGPU.

HWInfo gab einen summierten Verbrauch von ~95W aus. Die Temps lagen zw. 60 °C und max. 68 °C.
Zusammen mit den restlichen Komponenten (Mobo, SBlaster, 2x 8GiB DDR4 3000, M.2 SSD, HDD, 3x Lüfter, Netzteil) liegt man dabei wohl bei ca. ~130Watt.

Finde ich eigentlich ganz O.K.
Grafikkarte ist (noch) keine verbaut.
 
Zuletzt bearbeitet von einem Moderator:
Ginge auch! BF5, CP 2077 und SotTR sind so die Verbrauchskracher, die ich kenne.
In BF5 braucht mein 9900K mit 5 GHz auf alle Kerne nur 1,225v und dann komme ich im GPU-Limit etwa auf 95 Watt. In einem Test habe ich auch mal 1,300v mit demselben Takt anliegen gehabt, da es auch Prozessoren gibt, die für solch ein Takt mehr Spannung anliegen haben müssen. Dann habe ich auch die 100 Watt überschritten und im CPU-Limt habe ich etwa 120 Watt erreicht.

In einem Test habe ich die Spannung auf nur 1,000v reduziert und ein Takt von 4,2 Ghz auch alle Kerne. Damit bin ich dann im GPU-Limit auf etwa 25-35 Watt mit COD gekommen. Ein paar Watt kann man daher schon einsparen, wenn ein System besser optimiert ist. Hängt natürlich auch vom Prozessor, dem Mainboard und von der Kühlung mit ab.

Habe aber in manchen Tests gesehen, dass der 12700K/12900K in Games effizienter sein wird.
 
Das sieht doch schonmal gut aus. Die Leistungsaufnahme kann man ja noch herabsetzen, dann kann man sich auch die Meckerei sparen.:P
 
Wundert mich nicht, das Ihr das erst einführt wenn Intel besser wie AMD dasteht..
Was redest du da? Natürlich wurde die Leistungsaufnahme vorher auch schon in die Note mit einberechnet. Nur jetzt noch etwas stärker als vorher. Hart trifft es dabei eh nur CPUs wie ein 5950X, 12900K oder 11900K, die eben die letzten fünf Prozent Leistung über einen exorbitanten Verbrauch holen. Belohnt werden hingegen Prozessoren mit höchster Effizienz.

Was die rBAR-Tests angeht, musst du mit Raff reden, bei den CPU-Benchmarks wird das Feature nach wie vor nicht verwendet.
 
Wenn ich schon viel Geld für den Prozessor ausgebe, dann will ich auch aktuelle Speichertechnologie nutzen. Aber wie es aussieht, der ganze Alder Lake Launch ist ein Start ohne passenden Speicher in Bezug auf DDR5. Mein Bekannter sitzt schon seit mehr als 2 Wochen auf seinem 12900K + MB für "schlappe" 1350 EUR und kann nichts nutzen. Und laut Händler ist eine Lieferung von DDR5 zeitlich absolut unklar. Ihm wurde sogar gesagt, dass es vor Weihnachten nichts werden könnte. Na super.
 
@PCGH_Dave bei der Grafik zu Watch Dogs ist wohl der falsche Name für die CPU hinterlegt, da steht der Name vom i5

Ansonsten sehr gute Gamingcpu, wem der kleine i5 nicht zukunftssicher genug scheint, für den ist er wohl die beste und vernünftigere Wahl gegenüber dem i9. Mal sehen wie sich so die Kinderkrankheiten der Plattform entwickeln und die Preise, vor allem für DDR5.

Ich glaube nicht, das AMD mit 3D Cache da auf AM4 noch großartig etwas reißen kann.
 
Aber wie kann das denn sein?

Der 12700k ist in den Anwendungsbenchmarks auf Augenhöhe (tendenz etwas langsamer) als der 5900X, verbraucht im Mittel mehr, soll aber in ebendiesen Anwendungen effizienter sein? Das ist für mich erstmal etwas unlogisch

Danke für dein Feedback. Da ist mir tatsächlich ein Zahlendreher unterlaufen :schief:
Die neuen Werte gehen gleich online, ein 12700K ist nicht effizienter als ein 5900X. Ich hatte versehentlich die Leistungsdaten in die Effizienz-Tabelle eingetragen, die Zahl steht im Excel direkt daneben, das kann also schnell mal passieren. :wall:
Hi Dave,

kann immer mal passieren, ist menschlich.
Das Du bzw. Ihr so schnell darauf reagiert, ist aber super!
LG
 
Die Verfügbarkeit der CPUs ist hervorragend und entgegen dem allgemeinen Trend ist auch eine leichte Tendenz nach unten beim Preis zu sehen. Aber. DDR5 ist nicht verfügbar. Grafikkarten sind sau teuer. AMD hat nun auch in der Gamer-Landschaft einen Fuß in der Tür. Mittlerweile bin ich auch am überlegen DDR5 einfach links liegen zu lassen. DDR4 liegt hier in Massen herum. Richtige Mehrleistung sieht man bei den Timings nicht. Ich denke nicht, dass DDR5-Plattformen für mich die kommenden zwei Jahre interessant werden. Muss mal gucken wie meine Kunden auf das Big-Little-Prinzip reagieren. Wenn man mal DDR5 außen vor lässt, sind die Preise der CPUs, vor allem für den 12700K echt nett. 400 € für nen 16 Threader + Anhang-Kerne + gute Single-Core-Leistung kann man mitnehmen oder auf den bewährten 5800X mit AM4 setzen. Schwierig, schwierig...
 
Ein nettes Stück Technik.
Dennoch ist der verwendete Prozess erst auf dem Niveau was AMD seit 2019 einsetzt.
Ich warte auf neuere Prozesse bei den beiden, die aktuellen Verbräuche und die Effizienz ist noch nicht das, was ich mir erhoffe.
Außerdem wäre cool, wenn die 2 auch mal eine große, effiziente APU bauen könnten wie etwa den M1. Der ja viel Power daher holt weils eigentlich ein riesiger 5nm Chip ist. Das können AMD und Intel sicher auch in ähnlicher Konfiguration. Das wär mal ein Chip für den ich mir ein neues Notebook (aktuell fast 10 Jahre alt) holen würde.
 
Die Verfügbarkeit der CPUs ist hervorragend und entgegen dem allgemeinen Trend ist auch eine leichte Tendenz nach unten beim Preis zu sehen. Aber. DDR5 ist nicht verfügbar. Grafikkarten sind sau teuer. AMD hat nun auch in der Gamer-Landschaft einen Fuß in der Tür. Mittlerweile bin ich auch am überlegen DDR5 einfach links liegen zu lassen. DDR4 liegt hier in Massen herum. Richtige Mehrleistung sieht man bei den Timings nicht. Ich denke nicht, dass DDR5-Plattformen für mich die kommenden zwei Jahre interessant werden. Muss mal gucken wie meine Kunden auf das Big-Little-Prinzip reagieren. Wenn man mal DDR5 außen vor lässt, sind die Preise der CPUs, vor allem für den 12700K echt nett. 400 € für nen 16 Threader + Anhang-Kerne + gute Single-Core-Leistung kann man mitnehmen oder auf den bewährten 5800X mit AM4 setzen. Schwierig, schwierig...
DDR5 in Gear 2 das dann gerade so performt wie günstiges DDR4 3200 in Gear 1... werde ich mir auch nicht holen.
Ich habe aber die Hoffnung, dass Raptor Lake oder Meteor Lake bzw. Zen 4 ordentlich mit höher getakteten DDR5 umgehen können.
Ich würde außerdem, wenn sich bis dahin die GPU Preise nicht nach unten korrigiert haben erstmals dazu übergehen einfach mal nur den Unterbau (samt iGPU) zu kaufen bzw. zu betreiben.
die iGPU dürfte dann dank der höheren Bandbreite (DDR5 6400 oder schneller) auch ausreichend für ältere Spiele performen.
 
Irgendetwas stimmt da bei dem Kingdom Come Deliverance Testergebnissen nicht.
Mit einer RTX3090 in 720p nichtmal 60fps?

Selbst bei 1440p mit maximalen Details inkl. AF, AA und HD Texturpacket komme ich selten unter 100fps auf einer schwächeren Grafikkarte.
 
Wenn ich mir Spiele Benchmarks ansehe, ist der Trend klar.
Man braucht 10-12 Kern CPU bzw 8P+4E CPUs und diese müssten 6GHz oder mehr haben, damit man richtig Performance bei Spielen hat.
Wenn ich z.b. Battlefield 2042 zocke, dann sind 4 Threads von 3 Kernen mit Hintergrundprogrammen beschäftigt (hier wäre 4E Kerne gut) und 10 Threads von 8 Kernen sind mit dem Spiel beschäftigt (ja BF nutzt bei mir bei 6 Kernen nur je 1 Thread ). Knapp 6 Kerne laufen leer (oder gar 18/32 Threads).
Siehe hier:
Unbenann444t.jpg

Fun Fakt...wenn man die 2 Kerne anguckt die mit je 2 Threads laufen, dann sieht man das die Kurven wie 2 Teile eines Puzzles genau ineinanderpassen, wenn man einen davon umdreht... was AUCH komisch ist XD...

Edit: Kann auch sein, das BF 2042 nicht mit 2 CCXs zurechtkommt... da BF nur CCX0 also den ersten nutzt.
Mein 5950X läuft übrigends mit 1.1V bei 4.2Ghz allCore, Powerlimit wird nicht errreicht.
 
Zurück