Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

JanJake

BIOS-Overclocker(in)
@JanJake wenn du eine so starke Abneigung gegen Intel hast, dass du sogar mit Unwahrheiten um dich wirfst, wieso klickst du den Artikel dann überhaupt an? Eure Hetze braucht niemand und die könnt ihr euch klemmen.
Habe weder eine Abneidung noch sonst was!

Wo verbreite ich Undwahrheiten?

12700K ist ein 12 Kerner und in Anwendungen schafft er es in keiner am 5900X vorbei. Das ist Mau! Der 12900K genau das gleiche gegen den 5950X. Nach den Leaks vorher, habe ich da VIEL mehr erwartet. Ging davon aus, dass der 12700K auf höhe des 5950X ist bei gleichem Verbrauch und der 12900K ein gutes Stück davor. Aber nö!


Ganze 10% mehr IPC etwa und dann holt er es nur über den Takt und die Krüppel Kerne.

In Games minimal schneller und in Anwendungen langsamer. Dabei hat ein 12900K 72%! mehr Leistungsaufnahme bei weniger Leistung!

Das ist nicht Mau, das ist unterirdisch!

Größter Pluspunkt, die CPUs sind etwas günstiger als die AMD gegenstücke. Müssen die aber auch sein, bei dem was die Fressen!
 

RyzA

PCGH-Community-Veteran(in)
Mir fehlt im PCGH Test auch noch ein Index jeweils für die Spiele Benchmarks und Anwendungs Benchmarks.
So muß man sich immer durch die einzelnen Spiele und Anwendungen durchklicken.

Edit: Ich weiß das es den allgemeinen CPU-Index gibt. Aber ich finde in den Tests sollte man das auch machen.
 
Zuletzt bearbeitet:

owned139

BIOS-Overclocker(in)
Habe weder eine Abneidung noch sonst was!

Wo verbreite ich Undwahrheiten?
Überall.

12700K ist ein 12 Kerner und in Anwendungen schafft er es in keiner am 5900X vorbei. Das ist Mau! Der 12900K genau das gleiche gegen den 5950X. Nach den Leaks vorher, habe ich da VIEL mehr erwartet. Ging davon aus, dass der 12700K auf höhe des 5950X ist bei gleichem Verbrauch und der 12900K ein gutes Stück davor. Aber nö!
12700K vs 5900X bedeutet 12C/20T gegen 12C/24T, merkste was?
Selbes Bild beim 12900K vs 5950X: 16C/24T gegen 16C/32T.
Der 5950X bietet 8 Threads mehr und kann sich trotzdem nicht vom 12900K absetzen, sondern ist in Summe nur ~2% schneller. Das finde ich beachtlich und abgesehen davon sind die CPUs primär fürs Gaming gedacht. Klar kannste damit auch super arbeiten, aber niemand hat behauptet, dass ADL dafür besser geeignet wäre als ZEN3, nicht mal Intel.


Ganze 10% mehr IPC etwa und dann holt er es nur über den Takt und die Krüppel Kerne.
Unbenannt.png


20%, genau so wie es Intel versprochen hat. Du schreibst unsinn. Nimm die rote Brille ab oder lass es einfach.
Das führt ansonsten zu nichts.
 

PCGH_Dave

Redaktion
Teammitglied
@PCGH_Dave
Der 5950X ist in eurem CPU-Index (Anwendungen) 20% schneller als der 5900X.
Gleichzeitig benötigt der 5950X im Schnitt (nur) 19% mehr Energie als der 5900X.

Folglich müsste der 5950X minimal effizienter sein als der 5900X. Bei euch fällt der 5950X allerdings relativ deutlich gegenüber dem 5900X in der Effizienzskala zurück. Gibt es dazu eine transparente Auflösung?
Alle Werte nehmen Maß an der 100-Prozent-CPU. ;)
 

Pu244

Lötkolbengott/-göttin
12700K ist ein 12 Kerner und in Anwendungen schafft er es in keiner am 5900X vorbei. Das ist Mau! Der 12900K genau das gleiche gegen den 5950X. Nach den Leaks vorher, habe ich da VIEL mehr erwartet. Ging davon aus, dass der 12700K auf höhe des 5950X ist bei gleichem Verbrauch und der 12900K ein gutes Stück davor. Aber nö!

Wenn du dir das unbedingt so schönreden willst, dann mach das.

Die kleinen Kerne hatten niemals den Anspruch, mit den großen Kernen mitzuhalten. Von daher ist es kein vollwertiger 12 Kerner. Wobei es auch relativ egal ist, wichtig ist die Leistung und der dafür verlangte Preis.

Ganze 10% mehr IPC etwa und dann holt er es nur über den Takt und die Krüppel Kerne.

"Krüppel" Kerne zeigt eigentlich ganz deutlich, dass du nicht neutral bist oder dich auch nur um Fakten bemühst.

In Games minimal schneller und in Anwendungen langsamer.

In Anno 1800, das für mich extrem wichtig ist, sind es 23% Vorsprung, gegenüber dem R9 5950X, das ist signifikant.

Intel stellt im Moment eben die besten Gaming CPUs her.

Das ist nicht Mau, das ist unterirdisch!

Wenn man bedenkt, dass Intel aus ähnlicher Chipfläche, wie des R7 5800X, mit dem 12900K mehr Leistung, als ein R9 5900X, rausholt und noch eine IGP hat, dann ist das bemerkenswert.

Intel hat die Trendwende geschafft und sich die Gamingkrone zurückgeholt, auch wenn es den AMD Fanboys gar nicht schmeckt. (ich hätte mir gewünscht, dass AMD noch ca. 5 Jahre überlegen bleibt, damit sie Marktanteile erobern können)
 

Lamaan

Freizeitschrauber(in)
Überall.


12700K vs 5900X bedeutet 12C/20T gegen 12C/24T, merkste was?
Ich kann das nicht mehr hören.
Das wird auch nicht logisch wenn man das 100 mal wiederholt.

Noch mal für Dich zum mitschreiben.

1 Virtueller Thread ~ 0,2 - 0,3 Kerne.

Ergo ein Kern gleich 3,3 - 5 Virtuelle Threads.
Es macht null Sinn die Anzahl der Threads höher zu werten als die Anzahl der Kerne.
Wenn man, um einer Architektur zu schmeicheln, unbedingt die virtuellen Kerne dazu zählen will, wäre es wohl am sinnvollsten die bekannten Verhältnisse rechnerisch zu berücksichtigen. ->
Also 1 echter Kern = 4 Threads, bei Intel.
Der Einfachheit halber lass ich das Verhältnis bei AMD jetzt mal weg.

12 echte intel-Kerne sind dann schon 48 virtuelle Kerne.

Das Ganze könnte man jetzt mit hohen Zahlen durchrechnen, um am Ende wieder ein ungenaues Ergebnis zu bekommen, oder man weiß einfach das die echten Kerne 3 - 4 mal so viel wie virtuelle Kerne zählen und vergisst die Virtuellen in der Rechnung.

Das würde eh nur eine Genauigkeit vortäuschen die man nicht wirklich abbilden kann.

Dann steht man wieder bei 12 Kerne gegen 12 Kerne.
Oder 12 Kerne plus 8 Threads durch 4 = 2 -> 14 Kerne gegen 12 Kerne plus 12 Threads / 4 = 4 -> 16 Kerne
Also 14 Kerne (Intel) gegen 16 Kerne (AMD), merkst Du was ?

Viele Grüße

Ps. Skylake (immer noch aktuell) ist auch ein vollwertiger Kern, also sind die "kleinen" für mich auch volle Kerne.
 

Bl4ckR4v3n

Software-Overclocker(in)
Habe weder eine Abneidung noch sonst was!

Wo verbreite ich Undwahrheiten?

12700K ist ein 12 Kerner und in Anwendungen schafft er es in keiner am 5900X vorbei. Das ist Mau! Der 12900K genau das gleiche gegen den 5950X. Nach den Leaks vorher, habe ich da VIEL mehr erwartet. Ging davon aus, dass der 12700K auf höhe des 5950X ist bei gleichem Verbrauch und der 12900K ein gutes Stück davor. Aber nö!
Welche leaks bitte? Außerdem sollte man sich klar machen, dass Intel ein anderes vorgehen hat und blind Kerne vergleichen da nicht wirklich sinnvoll ist. Der 12900k ist vom Aufbau eher mit einem 5900x als mit einem 5950x vergleichbar.

Ganze 10% mehr IPC etwa und dann holt er es nur über den Takt und die Krüppel Kerne.

In Games minimal schneller und in Anwendungen langsamer. Dabei hat ein 12900K 72%! mehr Leistungsaufnahme bei weniger Leistung!

Das ist nicht Mau, das ist unterirdisch!

Größter Pluspunkt, die CPUs sind etwas günstiger als die AMD gegenstücke. Müssen die aber auch sein, bei dem was die Fressen!
Dann differnziere doch mal bitte ein wenig. In Games und niedriger Last ist die Intel CPU effizienter, für große Workloads ist er an der Kotzgrenze. Das AL im MC so schwach wirkt ist nicht schuld der CPU, es ist einfach die bescheuerte Idee Intels lange Balken zu haben. Ein Ryzen an der Kotzgrenze säuft auch und würde ebenfalls nur minimal zulegen. Für den normalen Alltag sehe ich aber keinen einzigen Nachteil. Wer aber Hobbymäßig tatsächlich mal die Kerne öfter Ausfährt hat definitiv mehr von AMD.


Och bitte nicht schon wieder....die Auflösung tangiert die CPU nicht, wann verstehen die Leute das endlich :heul:
Das wird sich nie ändern. Ich warte nur noch auf die Fanboy anschuldigung ;)
 

owned139

BIOS-Overclocker(in)
@Lamaan Es ist doch nicht neu, das HT die Leistung bei Multithreaded Anwendungen verbessert und genau von diesen virtuellen Kernen bietet der 5950X eben 8 mehr.

Wenn ich jetzt also deine Zahl 0,3 nehme und diese mit 8 multipliziere, erhalte ich 2,4. Diese 8 virtuellen Kerne haben also eine theoretische Leistung von 2,4 echten Kernen, jedenfalls laut dir.
Du sagst also selbst, dass 12900K vs 5950X kein fairer Vergleich ist und unabhängig davon liegt die Anwendungsleistung beider CPUs nicht weit auseinander.

Es ist auch immer wieder das selbe, dass man genau solche Gespräche mit Usern führt, dessen Signatur vor AMD Hardware nur so strotzt. Von den selben Usern kommt auch der Ausdruck "krüppel Kerne".
 
Zuletzt bearbeitet:

Freiheraus

BIOS-Overclocker(in)
Alle Werte nehmen Maß an der 100-Prozent-CPU. ;)
Verstehe ehrlich gesagt nicht was das ändert.
Ich verstehe auch bereits nicht, dass der 5950X 19% mehr Strom in Anwendungen braucht als der 5900X, wenn beide spätestens bei 142 Watt abriegeln. Der 5950X läuft afaik mitunter sogar früher in das EDC-Limit und drosselt dann noch früher. Mehr Performance pro Watt als der 5950X holt in Multithread Anwendungen eigentlich keine CPU heraus. Höchstens Cezanne @15 Watt kann da noch mithalten: https://www.computerbase.de/forum/t...iency-suite-pes.2031876/page-12#post-26207589

Edit: Was eigentlich auch nicht sein kann: Wenn der 5800X 18% schneller in Anwendungen als der 5600X ist, aber nur 15% mehr Energie benötigt, spricht jede Logik dagegen, dass der 5800X so weit hinter dem 5600X im Effizienzindex Anwendungen liegt.
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Software-Overclocker(in)
Ich kann das nicht mehr hören.
Das wird auch nicht logisch wenn man das 100 mal wiederholt.

Noch mal für Dich zum mitschreiben.

1 Virtueller Thread ~ 0,2 - 0,3 Kerne.

Ergo ein Kern gleich 3,3 - 5 Virtuelle Threads.
Es macht null Sinn die Anzahl der Threads höher zu werten als die Anzahl der Kerne.
Wenn man, um einer Architektur zu schmeicheln, unbedingt die virtuellen Kerne dazu zählen will, wäre es wohl am sinnvollsten die bekannten Verhältnisse rechnerisch zu berücksichtigen. ->
Also 1 echter Kern = 4 Threads, bei Intel.
Der Einfachheit halber lass ich das Verhältnis bei AMD jetzt mal weg.

12 echte intel-Kerne sind dann schon 48 virtuelle Kerne.

Das Ganze könnte man jetzt mit hohen Zahlen durchrechnen, um am Ende wieder ein ungenaues Ergebnis zu bekommen, oder man weiß einfach das die echten Kerne 3 - 4 mal so viel wie virtuelle Kerne zählen und vergisst die Virtuellen in der Rechnung.

Das würde eh nur eine Genauigkeit vortäuschen die man nicht wirklich abbilden kann.

Dann steht man wieder bei 12 Kerne gegen 12 Kerne.
Oder 12 Kerne plus 8 Threads durch 4 = 2 -> 14 Kerne gegen 12 Kerne plus 12 Threads / 4 = 4 -> 16 Kerne
Also 14 Kerne (Intel) gegen 16 Kerne (AMD), merkst Du was ?

Viele Grüße

Ps. Skylake (immer noch aktuell) ist auch ein vollwertiger Kern, also sind die "kleinen" für mich auch volle Kerne.
Das Problem bei den E-Cores ist die erlaubte Leistungsaufnahme. Um die Leistung von Skylake zu erreichen benötigt der Kern 15W. 8 dürfen sich aber nur noch 48W genehmigen. Er tut sich in vielen Workloads damit schwer von einem 6700k zu entfernen der nur 4 Kerne und 8 Threads nutzt aber normal "saufen" darf. Das ganze ist dadurch deutlich schwieriger zu beurteilen und einfach zu sagen, ein Kern ist deutlich besser passt da auch nicht zwingend.
 

Markzzman

Software-Overclocker(in)
Komisch das irgendwie jeder was anderes als sein eigenes Fazit aus dem Bericht zieht :-)

Ist doch eine super CPU, unabhängig davon welcher Marke da drauf steht :daumen:
 

PCGH_Dave

Redaktion
Teammitglied
Lest doch bitte den Fließtext. Den ganzen. Unter den Anwendungen laufen alle Prozessoren ohne TDP-Limit. Natürlich benötigt dann ein 16-Kerner mehr Energie als ein 12-Kerner.
 

Blacky0407

Komplett-PC-Aufrüster(in)
Was soll der Quatsch.....1 " echter Kern" von Intel ergibt 4 Threads !???
1 Kern ergibt bei HT-Betrieb immer nur 2 Threads. egal ob INTEL oder AMD!!!
 

PCGH_Dave

Redaktion
Teammitglied
Um die maximal mögliche Leistung ab Werk abzubilden. Ohne OC, versteht sich. Und auch, um "offene" Werte zu liefern, dessen Fehlen ständig kritisiert wurde. Es macht keinen Sinn, eine CPU künstlich zu begrenzen, wenn jemand damit arbeitet und Leistung erzielen möchte.

Das läuft so aber schon, seit diese Tests bei uns gibt, ist also nichts Neues.
 

gerX7a

BIOS-Overclocker(in)
Verstehe ehrlich gesagt nicht was das ändert.
Ich verstehe auch bereits nicht, dass der 5950X 19% mehr Strom in Anwendungen braucht als der 5900X, wenn beide spätestens bei 142 Watt abriegeln. Der 5950X läuft afaik mitunter sogar früher in das EDC-Limit und drosselt dann noch früher. Mehr Performance pro Watt als der 5950X holt in Multithread Anwendungen eigentlich keine CPU heraus. Höchstens Cezanne @15 Watt kann da noch mithalten: https://www.computerbase.de/forum/t...iency-suite-pes.2031876/page-12#post-26207589

Edit: Was eigentlich auch nicht sein kann: Wenn der 5800X 18% schneller in Anwendungen als der 5600X ist, aber nur 15% mehr Energie benötigt, spricht jede Logik dagegen, dass der 5800X so weit hinter dem 5600X im Effizienzindex Anwendungen liegt.
Die CPUs werden selten , insbesondere von Ethusiast-Boards hart bei 142 W gedeckelt, schließlich sieht man nicht umsonst regelmäßig bei typischen Tests die 12- und 16-Kerner in bspw. dem Cinebench bei 160 - 180 W herum.
Darüber hinaus ist das aber auch schon ein alter Hut, dass die 2-CCD-Zen-Chips i. V. z. ihren 1-CCD-Vertretern signifikant ineffizienter sind und diese Ineffizienz nimmt deutlich sichtbare Ausmaße an, wenn man sich von einer 100%igen Auslastung wegbewegt (dem Idealfall für dieses CPU-Design), übrigens ein Szenario, das nur für relativ wenige Workloads zutrifft.
Beispielsweise im Gaming schneiden die 2-CCD-Chips signifikant schlechter ab als der 5800X, denn sie bieten nur unverhältnismäßig wenig mehr FPS, benötigen dafür jedoch überproportional mehr Watt.
Die Aussage "Mehr Performance pro Watt als der 5950X holt in Multithread Anwendungen eigentlich keine CPU heraus" ist übrigens pauschal nicht zutreffend, wie Igor recht unmissverständlich darlegt. ALD auf 125 W limitiert schneidet bspw. in Blender besser als jede Zen3-CPU ab (und rendert immer noch so schnell wie ein 5900X). *)
Der 5950X liefert hier tatsächlich in Blender in der Zen3-Linie das beste Ergebnis in Watt pro Stunde ab. Beispielsweise in der komplexen Testszene benötigen sowohl der 12900K auf 125 W als auch der 5900X beide recht genau 0,08 h für die Fertigstellung des Renderings. ADL verbraucht hier im Mittel jedoch über diesen Workload nur 138 W, während der 5900X hier 183 W zieht um das gleiche Ergebnis zu erreichen (0,08 h Renderdauer). Der 5950X schafft es zwar das Bild in 0,062 h fertigzustellen, benötigt dafür jedoch in dem Testszenario im Mittel 217 W.
Leider hat Igor den 5950X nicht noch zusätzlich näher am SweetSpot getestet, klar ist aber auch, dass eine PowerReduktion Leistung kostet. Vermutlich könnte man den großen Ryzen noch näher an ADL heranbringen, jedoch absehbar nur bis zu einem gewissen Grade, weil dann die niedrigere Auslastung sich kontraproduktiv auf die Effizienz auswirken wird.

Zudem, die angezweifelte Aussage in deinem nachgereichten "Edit" wird von Igor ebenso bestätigt, der hier vorrechnet, dass der 5800X und 5600X eine recht vergleichbare Effizienz aufweisen. Ersterer rendert schneller, zieht aber auch für den konkreten Workload gemittelt +37 % mehr Watt, letzterer ist langsamer aber sparsamer und beide kommen am Ende nahezu zu einem identischen Watt-pro-Stunde-Ergebnis.
Schlussendlich liegen aber alle Zen3-CPUs in einem recht vergleichbaren Rahmen, wenn man sie unter nahezu voller Auslastung testet, denn andernfalls tritt das 2-CCD-Design nachteilig hervor und umso deutlich, je weiter man sich von einem dauerhaften Hochlastszenario entfernt.
Will man sich dieses Phänomen in extremster Ausprägung ansehen, lohnt ein Blick auf den Epyc. Ein 8280 Cascade Lake (28 C) oder 8380 Ice Lake (40 C) liegen Idle bei 26 W respektive 27 W Package Power. Dagegen ein Epyc 7763 (64 C) liegt Idle bei 99W, ein Epyc 75F3 (32 C, Zen3) liegt gar bei 111 W Idle, was schlicht dem CCD-Design geschuldet ist.

Beispielsweise im Gaming ist ADL derzeit tatsächlich absolut gesehen die leistungsfähigste und dazu noch effizientere CPU. Das Bild ändert sich erst nennenswert, wenn man TSMCs N7 in den Vordergrund rückt, indem man die Zen3-CPU maximal auslastet, aber das setzt voraus, dass man dafür auch passende Workloads hat, etwas, was bei den meisten Consumern eher nicht der Fall ist.

*) Im Gaming dagegen spielt es nahezu keinerlei Rolle ob man den 12900K mit 125 W- oder 241 W-Limit betreibt, da sich Leistung (Fps) und der real gemessene Verbrauch in beiden Betriebsmodi bei derartigen Workloads kaum voneinander unterscheiden.

**) Die Effizienz im Gaming und ähnlichen Workloads sieht man auch bei Igor im Gaming-Test, der W pro Fps ausweist. Die 1-CCD-Chips halten noch sehr gut mit ADL mit (selbst die ADL-241W-PL1-Tests liegen hier im exakt gleichen Bereich), die 2-CCD-Chips von AMD dagegen schneiden deutlich schlechter ab, sowohl als die eigenen 1-CCD-Modelle als auch i. V. z. ADL.
Und ähnlich zu dem Ergebnis hier kam auch Igor schon vor Wochen zu dem Schluss, dass der 12700K selbst mit 241W PL1 im Gaming die effizienztechnisch beste CPU ist und ebenso vor jedem Zen3-Modell liegt, d. h. auch den in diesem Kontext effizientesten Chip der Serie, den 5600X, schlägt.


 
Zuletzt bearbeitet:
G

gaussmath

Guest
Das Bild ändert sich erst nennenswert, wenn man TSMCs N7 in den Vordergrund rückt, indem man die Zen3-CPU maximal auslastet, aber das setzt voraus, dass man dafür auch passende Workloads hat, etwas, was bei den meisten Consumern eher nicht der Fall ist.
Falls das darauf hindeuten soll, dass TSMCs 7nm dem Intel 7 überlegen soll, dafür spricht eigentlich nicht wirklich was.
 

Bl4ckR4v3n

Software-Overclocker(in)
Die CPUs werden selten , insbesondere von Ethusiast-Boards hart bei 142 W gedeckelt, schließlich sieht man nicht umsonst regelmäßig bei typischen Tests die 12- und 16-Kerner in bspw. dem Cinebench bei 160 - 180 W herum.
Nenne bitte die Boards! Ich kenne nicht ein Board was automatisch PBO aktiviert. Selbst mein Aorus Master hält sich an die AMD vorgaben out of the Box!
 

IICARUS

Kokü-Junkie (m/w)
Sorry, aber wer von einem 5900X auf einen 12700k/12900K wechseln will... hat einfach nur Basteldrang. Mehr net:D
:P
Kenne ich allzu gut und je nachdem was sich morgen tut, könnte ich auch schwach werden... :D
Is doch nicht wahr. Nein, doch, ohhh:D
Wir sind auch nicht zu retten... :fresse:
Habe mir heute Abend ein Asus Strix DDR4 + 12900K bestellt.

Zwar wollte ich noch bis morgen warten, aber ich befürchte, dass es morgen ein Ansturm geben wird und ich dann ohne dastehen könnte. Habe mir daher schon meine Hardware gesichert. :D

Sollte ich morgen doch ein besseres Angebot bekommen, dann kann ich ja immer noch was nachbestellen.
Von Asus sollte es dafür auch noch 100 Euro Cashback geben.
 

Lamaan

Freizeitschrauber(in)
Was soll der Quatsch.....1 " echter Kern" von Intel ergibt 4 Threads !???
1 Kern ergibt bei HT-Betrieb immer nur 2 Threads. egal ob INTEL oder AMD !!!

Weil es nun mal so ist, dass ein virtueller Kern bei intel zwischen 20 und 30% der Leistung eines richtigen Kerns hat.
Wenn man diese Rechnung nun umstellt ergibt sich aus 0,25, was ja 1/4 ist, halt 4 so ist das mit Zahlen.

Natürlich nicht in parallelen workloads aber halt in Rechenpower, und darum geht's ja bei dem Vergleich.

Vlt. erst denken und dann schreiben, oder einfach normal, oder sogar vlt. freundlich fragen..
 
Zuletzt bearbeitet:
Oben Unten