Intel Core i7-12700K im Test: Der wahre Thronfolger im Schatten des Core i9-12900K

Ich glaube nicht, das AMD mit 3D Cache da auf AM4 noch großartig etwas reißen kann.
Fakten, Belege?
Oder nur Glaskugelwissen?

Topic: Nette CPU. Da könnte ich mal wieder zu Intel wechseln, aber das Gesamtpaket mit MB und RAM ist absolut unstimmig/zu teuer.
Noch bin ich ja mit meiner CPU sehr zufreiden, aber ach, die Bastellust :D
Danke für den Test Dave :daumen:
Gruß T.
 
Ich hätte mir noch einen Vergleich zwischen gedeckeltem und ungedeckeltem P2 gewünscht, also bei P1 125 Watt. So wie es aussieht, kommen dort der 12700k und 12900k bei diversen Test kaum schlechter weg und sparen einiges an Strom.
Ich hab einen 12700kf für 380 € geschossen mit einem Asrock Z690 Extreme und werde mich nachher mal damit beschäftigen :D
 
Das ist nicht komisch sondern vollkommen klar. Je zwei aufeinanderfolgende virtuelle Kerne im Taskmanager laufen auf einem physischen Kern. D.h. was Du siehst ist ein Kern, auf dem ein Spiele-Thread läuft, der mal auf dem einen virtuellen Kern und mal auf den anderen Kern des selben physischen Kerns ausgeführt wird.
Würde es nicht mehr Sinn machen, wenn 2 Threads auf zwei einzelnen echten Kernen laufen würden und die virtuellen nur genutzt werden, wenn die realen schon voll sind? Bei meinem Alder Lake habe ich das jedenfalls schon häufiger gesehen. Erst werden die P-Kerne genutzt, dann die E-Kerne und zu guter Letzt die virtuellen.
 
Es wäre sehr hilfreich wenn die gpu core load angegeben werden würde.
Die Daten habt ihr
ich weiß zwar nicht welche benchmark Funktion und Programm für die Messungen genutzt werden
Nehme ich mal capframex oder der Ursprung GenericLogViewer an ein addon für hwinfo geht auch mit msi afterburner logs geht das
 
Erst werden die P-Kerne genutzt, dann die E-Kerne und zu guter Letzt die virtuellen.
Was die unterschiedlichen Kerne angeht, kann ich das bestätigen. Vergiss aber bitte nicht, dass Alder Lake auf einen Thread Director setzt, den AMD Zen nicht hat. Die Verteilung der Last wird vom TR gesteuert und verhält sich anders als der Windows-Scheduler.

Es wäre sehr hilfreich wenn die gpu core load angegeben werden würde.
Die Daten habt ihr
ich weiß zwar nicht welche benchmark Funktion und Programm für die Messungen genutzt werden
Nehme ich mal capframex oder der Ursprung GenericLogViewer an ein addon für hwinfo geht auch mit msi afterburner logs geht das
Steht doch alles im Text. Und ein GPU-Limit gibt es nicht, bei keinem einzigen Test. Die GPU-Last selbst spielt daher keine Rolle. Kann ich dir heraussuchen, wenn du möchtest, aber was würde dir jetzt die Info nutzen, dass unsere Asus Strix RTX 3090 bei Kingdom Come beispielsweise zu 34 Prozent (Beispielwert) unter 720p ausgelastet ist?
 
@PCGH_Dave ich weiß, aber bringt es denn tatsächlich mehr Performance? CB kam ja zum Entschluss, dass es egal ist, ob man Windows 10 oder 11 nutzt. Die Performance ist nahezu identisch.
Ich weiß jetzt natürlich nicht, wie sich Alder Lake bezüglich P, E und virtueller Kerne unter Windows 10 verhält.
 
Ich weiß jetzt natürlich nicht, wie sich Alder Lake bezüglich P, E und virtueller Kerne unter Windows 10 verhält.
Wir leider auch noch nicht, leider habe ich mehr Aufgaben als "nur" CPUs zu testen, sonst hätte ich das längst schon unter die Lupe genommen. Aber da Windows 10 bis mindestens 2025 noch ein Thema ist und nicht jeder auf Windows 11 wechseln möchte, werden wir das auf jeden Fall noch untersuchen. Vielleicht packe ich tatsächlich zwei CPU-Indexe, einmal mit Win 10 und einmal mit Win 11, aber ich kann nichts versprechen, bedauerlicherweise ist ein Arbeitstag sehr kurz!
 
@dave-PCGh
nun das sagt darüber was aus welche cpu die gpu besser auslasten kann das in 720p 37% load herrscht betätigt mich das mit einer gpu ab 20tf 1080p zum testen wählen sollte.
Klar ist das stark spielabhängig ein cyberpunk 2077 mit dxr kann auch eine rtx3090 (26 reale teraflops) auslasten.
Wogegen ein total war warhammer 2 noch in nen cpu limit verweilt.
Aktuelles bsp wäre hier farcry 6 das selbst bei ner rtx3060 auf 80% load auf zen2 kommt
da zen 3 und alderlake gut 20-27% schneller ist und die rtx3060 nur 9,6tf erreicht
Könnte es mit der doppelt so schnellen rtx3090 in 1080p zu cpu limits kommen.
 
In den Game Benches bekommt Amd schon jetzt von Intel ganz schön auf den Hintern :D

Wird lustig zu sehen was passiert wenn Intel die Fertigung noch optimiert , also weniger Stromverbrauch und noch ein klein wenig mehr Takt ;)
 
Fakten, Belege?
Oder nur Glaskugelwissen?
Ich stehe als normaler Forenuser bei dieser Aussage absolut nicht in der Pflicht irgendwelche Fakten oder Belege liefern zu müssen. Mein Satz beginnt eindeutig mit der Phrase "ich glaube". Ich bin einfach Jemand der von sich aus immer tiefer stapelt, wenn AMD dann doch etwas liefern sollte, umso besser.
 
Zuletzt bearbeitet:
@dave-PCGh
nun das sagt darüber was aus welche cpu die gpu besser auslasten kann das in 720p 37% load herrscht betätigt mich das mit einer gpu ab 20tf 1080p zum testen wählen sollte.
Und warum sollte ich das tun? Um unnötig das Risiko zu erhöhen im GPU Limit zu landen?

Lesen und verstehen:
 
Scho auch für mich die interessanteste CPU und die Plattformkosten wären mit ausgereiftem DDR4 bei normalen Preisen auch überschaubar (der Unterschied ist nämlich überschaubar zwischen 4 und 5). Nur bissl abschreckend ist die derzeitige Intel Liste der problembehafteten Spielen, wo genau zwei drauf stehen, die ich derzeit zock, also bleibts vorerst beim 8700k (aber reizen würds mich echt, mich selbst zu Weihnachten zu beschenken... :ugly: )
 
@PCGH_Dave : Danke für den Test. Schön das ihr die Effizienz jetzt höher bewertet.

Ansonsten hat Intel wieder eine sehr gute Gaming CPU abgeliefert. Aber ZEN 3D steht in den Startlöchern.
 
@PCGH_Dave
Der 5950X ist in eurem CPU-Index (Anwendungen) 20% schneller als der 5900X.
Gleichzeitig benötigt der 5950X im Schnitt (nur) 19% mehr Energie als der 5900X.

Folglich müsste der 5950X minimal effizienter sein als der 5900X. Bei euch fällt der 5950X allerdings relativ deutlich gegenüber dem 5900X in der Effizienzskala zurück. Gibt es dazu eine transparente Auflösung?
 
Zurück