News Core i7-14700K vs. Core i7-13700K: Raptor Lake Refresh 17 Prozent schneller im Cinebench R23

In der Firma habe ich nun jetzt neu einen 13600K bekommen.
Mein Fresse, ist der schlecht!
Bei meinem 2700K ist der Lüfter nie merklich angesprungen, wenn der bei einfacher Arbeit Teillast hatte.
Der 13600K springt sofort auf Turboturbine, wenn der einmal in der Stunde mal 30 Sekunden was berechnen soll.
Jetzt weiß jeder, ob ich arbeite, oder nicht. Daher von mir: keine Empfehlung. lol ;-)
Was vermutlich am Kühler liegt.

Ich dulde keine Kritik am 13600K. Die CPU ist über allem erhaben. Gut, ich habe vielleicht etwas übertrieben mit dem Begriff "Wunderwerk der Technik" aber innerhalb der CPU Entwicklung ist der 13600K ein famoses Stück Technik mit Kultstatus.

Eine CPU für die Ewigkeit. Ich frage mich, ob Menschen wirklich solch eine Technologie entwickeln können? Ich vermute einen Ursprung im Bereich der Präastronautik.
 
Der 13600K springt sofort auf Turboturbine, wenn der einmal in der Stunde mal 30 Sekunden was berechnen soll.
Jetzt weiß jeder, ob ich arbeite, oder nicht. Daher von mir: keine Empfehlung. lol ;-)
Klingt so, als wäre da eine Kühlung verbaut, die noch nicht auf die heutigen Konzepte passt und die CPU auf Teufel komm raus runterkühlen will, woraufhin die CPU macht, wofür sie gemacht ist und bis auf 180W hochboostet, was die Kühlung nicht mit einer annehmbaren Lautstärke schafft. Kann man finden, wie man will, ich bin auch kein Riesenfan, aber diese Kühlung kann man der CPU nicht wirklich ankreiden. Ansonsten: Powerlimit setzen, stille genießen. Und wenn das nicht geht, geht die Schuld an den Mainboardhersteller.
Was vermutlich am Kühler liegt.
Da gebe ich dir Recht, aber...
Ich dulde keine Kritik am 13600K. Die CPU ist über allem erhaben. Gut, ich habe vielleicht etwas übertrieben mit dem Begriff "Wunderwerk der Technik" aber innerhalb der CPU Entwicklung ist der 13600K ein famoses Stück Technik mit Kultstatus.

Eine CPU für die Ewigkeit. Ich frage mich, ob Menschen wirklich solch eine Technologie entwickeln können? Ich vermute einen Ursprung im Bereich der Präastronautik.
...bleib ernsthaft mal ein bisschen auf dem Teppich. Das Ding ist wird nach einer sehr kurzen "Ewigkeit" von höchstens zehn Jahren zum alten Eisen gehören und für einen Kultstatus ist das Ding viel zu unaufregend.
 
Sicher können wir die Testergebnisse nun dazu von Dave nehmen.
Nur spiegeln die auch nicht das realistische Szenario wieder wie die Verbräuche in einem normalen Gaming Rechner so aussehen.

Wenn wir da den angeblich Sauf König nehmen - den 13900K - wird dir @IICARUS sicher auch realitätsnähere Werte liefern können (Gaming technisch)

Hier mal ein Beispiel, da ich aktuell Metro Enhanced durchspiele. Der 13900K gönnt sich hier z.B. zwischen 90 und 110 Watt., die 4090 hat da auch gut was zu tun in 32:9 mit RT. Und DLSS spart einiges an Strom und Auslastung. Nativ +/- 438W bis runter auf 224W mit DLSS UP (Framecap 120 fps gesetzt, Rest offen).

1689082171304.png

Edit: Zum Vergleich habe ich das auch nochmal in CP2077 gecheckt, ähnliches Bild, zieht 89-113W:

1689091517705.png

Wer nicht 24/7 rendert, sieht auch nicht solche Verbräuche (Cinebench Multi):

1689092488823.png
 
Zuletzt bearbeitet:
Teillast und Gaming sind halt Paradedisziplin seitens Intel. Speziell die brachiale Singlethread IPC helfen natürlich. Wobei Undervolting bei vielen auch eine Option ist um Hitze und Verbrauch etwas wegzunehmen, da könnte sich Intel out of the box auch noch etwas steigern.
Liegt aber auch stark am Boardhersteller wie die Spannungen Anfangs aussehen glaube ich.

Dadurch das nur Atomkerne und evtl. der DLVR noch dazu kommen wird das auch so bleiben bei der 14er Generation, wobei ein KS mit vllt. 10 P-Cores natürlich noch eine interessante Sache wäre, zumindest für 4090 Besitzer :ugly: .

Bei den X3D wird die vermeintliche Effizenz auch durch den erhöhten Leerlaufverbrauch wahrscheinlich deutlich aufgezehrt werden. Auch wenn Frischaccount GomezNL hier wieder in den Kommentaren trollt, und andere wegen Spam oder Polemik dann verwarnt werden wenn sie solche Figuren zitieren.
 
  • Like
Reaktionen: QIX
Ich dulde keine Kritik am 13600K.
Laut deiner Signatur hast du einen 7800X3D. Welche Scharade wird hier eigentlich gespielt? :ugly:

Der 14-Kerner ist sicher keine schlechte CPU, und mMn. die beste Raptor-CPU (bis jetzt), hat aber leider darunter zu leiden, dass IMC und Skalierbarkeit nicht so gut ausfallen, wie bei den größeren Modellen. Schließlich werden 13700K oder 13900K(S) nur zum 13600K, wenn die Eigenschaften der CPU nicht ausreichen, um die Qualität der i7 und i9 zu erreichen. Die beste CPU 2023 kann es auch nicht sein, dass sie schon 2022 erschienen ist. Am Ende des Tages liefert bereits ein 5800X3D 63 Prozent mehr Fps pro Watt und ein 7800X3D schließlich 117 Prozent, ist also mehr als doppelt so effizient, wenngleich auch teurer. Und dabei kam der 5800X3D ein dreiviertel Jahr vor dem 13600K heraus.

Möchte man keinen AMD-Prozessor kaufen, warum auch immer, dann empfehle ich gerne den 13600K. Die CPU des Jahres 2023 ist aber definitiv der 7800X3D, weil es so eine hohe Effizienz, gepaart mit so einer hohen Leistung noch nie gab. Das ist eine echte technische Errungenschaft, auf die man als Firma stolz sein kann.
 
Laut deiner Signatur hast du einen 7800X3D. Welche Scharade wird hier eigentlich gespielt? :ugly:

Der 14-Kerner ist sicher keine schlechte CPU, und mMn. die beste Raptor-CPU (bis jetzt), hat aber leider darunter zu leiden, dass IMC und Skalierbarkeit nicht so gut ausfallen, wie bei den größeren Modellen. Schließlich werden 13700K oder 13900K(S) nur zum 13600K, wenn die Eigenschaften der CPU nicht ausreichen, um die Qualität der i7 und i9 zu erreichen. Die beste CPU 2023 kann es auch nicht sein, dass sie schon 2022 erschienen ist. Am Ende des Tages liefert bereits ein 5800X3D 63 Prozent mehr Fps pro Watt und ein 7800X3D schließlich 117 Prozent, ist also mehr als doppelt so effizient, wenngleich auch teurer. Und dabei kam der 5800X3D ein dreiviertel Jahr vor dem 13600K heraus.

Möchte man keinen AMD-Prozessor kaufen, warum auch immer, dann empfehle ich gerne den 13600K. Die CPU des Jahres 2023 ist aber definitiv der 7800X3D, weil es so eine hohe Effizienz, gepaart mit so einer hohen Leistung noch nie gab. Das ist eine echte technische Errungenschaft, auf die man als Firma stolz sein kann.
Er hatte vorher einen 13600KF :-D

Aber der X3D scheint irgendwie doch die bessere CPU sein.
 
Laut deiner Signatur hast du einen 7800X3D. Welche Scharade wird hier eigentlich gespielt? :ugly:
Bin auch irritiert. Die 13600K ist seiner Meinung nach die CPU des Jahres, hat aber selber den 7800X3D.
Ich glaube, die Sonne hat mir zu sehr auf das Hirn gebrutzelt. Sorry Leute;-). Beim Einkaufen der CPU hatte ich mich offensichtlich vergriffen. Das Mainboard wurde mir untergejubelt. Beide Komponenten haben sich von selbst magisch zusammengeführt und sind dann in meinem PC Gehäuse gewandert. Ich bin unschuldig.

Es sollte natürlich ein 13600K werden. Zeit diesen Fehler in 2027 zu beheben.
 
Laut deiner Signatur hast du einen 7800X3D. Welche Scharade wird hier eigentlich gespielt? :ugly:

Ich würde sagen, dass es einigen nur ums rumtrollen geht,. Mann gibt sich als Fan(boy) von AMD/Intel/Nvidia oder auch mal als Konsolero aus und läßt die Firma/Fraktion so richtig blöd aussehen, indem man einen Unsinn von sich gibt.

Funktioniert sehr gut, die Kunst besteht jedoch darin, dass das ganze Getrolle auch noch glaubwürdig bleiben muß und dennoch maximal dämlich rüberkommen sollte. Wenn es gut gemacht ist, dann kann sich der gerade Trollende über haufenweise Reaktionen freuen.
 
Für mich spricht gegen intel die Little cores die unter win 10 nicht korrekt funktionieren und ich noch keinen bock auf das bugfest 11 habe. dazu ist mein corsair 280er aio nicht mit den neuen Intels kombinierbar da es keine adapter kits gibt bei dem modell leider. Aber bin sowieso nur am Video schauen und zocken also da wirds bald ein 7800x3d für mich werden.
 
Was für ein bugfest? Windows 11 läuft bei mir komischerweise einwandfrei.
Und die meisten Sockel 1700 Boards haben auch die Löcher für Sockel 1200 Kühler.
 
Und die meisten Sockel 1700 Boards haben auch die Löcher für Sockel 1200 Kühler.
Mit "die meisten" meinst du wohl die Asus Boards? Das sind die die einzigen die zusätzlich noch Sockel 1200 Löcher verbauen und auch da lässt sich über den Sinn diskutieren weil sich neben den Löchern auch die Höhe geändert hat und somit der Anpressdruck nicht ideal ist.
 
@Thomas5010 wollte eigentlich einem 7800X (Skylake-X) aber wurde dann über dem Tisch gezogen da die Namen kaum zu unterscheiden sind.

Und bei 3D dachter er einfach, der Händler gibt ihm eine 3D Brille oben drauf :-D Und beim Sockel blickt Thomas nicht mehr durch und hat auf seinen Händler gehört.

PS war übrigens meine erste Intel CPU :stick:

auf das bugfest 11 habe.
komisch das bei mir das perfekt läuft ? Ich muss was falsch machen ^^
 
Die i7-14700k wird damit merklich aufgewertet. In der altuellen Generation war er im Vergleich zum i5-13600K definitiv zu teuer. Aber so könnte das die eierlegende Wollmilchsau werden. Könnte eine schöne CPU werden. Aber mein 5800X3D wird noch lang nicht zum Altenteil gehören.
 
Zurück