Intel Core i9-13900K, i7-13700K und i5-13600K im Test: Befreiungsschlag für den Chipriesen

Der P/L Tipp auf AM4 sind momentan vorallem die gebrauchten Zen 3 8-Kerner ohne 3D Cache die überall raus fliegen weil auf den 5800X3D aufgerüstet wird.
Der 13600k mit DDR4 Plattform bietet beim Neukauf aber definitiv mehr MT Leistung und etwas mehr SP Leistung als alles auf AM4 und kostet dabei weniger als ein Einstieg in AM5.
 
Was P/L ansieht, wenn man die FPS/€ im Test anschaut, dann ist (rein von den CPU Preisen her) der Ryzen 5600 durchweg am besten, was aber eher am echt günstigen Preis liegt. Der dürfte aber vielen zu langsam sein. Danach kommen dann der 5800X und 7600X, gefolgt vom 13600K

Wenn ich aber sehe wie gut der 5800X3D abschneidet, trotz "alter" Architektur. Liegt vom Preis her nahe dem 13600K, und leistungsmäßig auch ziemlich nahe. In manchen Fällen sogar an der Spitze vorm 7700X und ziemlich nahe am 13900K.

Da zeigt sich was der große Cache ausmachen kann.
(Wie auch schon Techspot bei nem 10600K/10700K/10900K Test und davor PCGH bei den diversen Core 2 Modellen getestet hat, In Spielen teilweise 40-45% mehr mit 6 MiB anstatt mit 0.5 MiB, und das nicht nur im 3DMark sondern auch in echten Spielen)

Bin gespannt auf einen zukünftigen 7800X und was Intel in der Richtung tun kann. Ein 13999K (oder was auch immer denen als Name einfällt) könnte da in einigen Spielen noch gut was rausholen.

Ich hab schon Tests gesehen in denen der 5800X3D gut 40% vor nem 12900K liegt.
Wenn Intel also zu der schnellen Architektur noch den Cache Bonus drauftut, kann da einiges bei rauskommen, und multi-chip designs gab es bei denen ja auch schon (Pentium Pro, Pentium D, Core 2 Quad, manche Nehalem chips), Da kann also durchaus was kommen.
 
Der Intel 13600K lässt Amd ganz schön alt aussehen
Ich nehme mal an das du dich jetzt nur auf den allgemeinen Wettstreit zwischen den beiden Firmen beziehst, also dies keine Firmentreue aussage sein soll.
AMD hat da aber noch ein Ass im Ärmel, den Cache, hat man schon beim 5800X3D gesehen, damit kann AMD Intel wieder überholen... die Produktion ist sicher schon angelaufen.
 
Die Frage ist halt, ob er wieder so konservativ takten wird. Wie man schon am 5800X3D sehen kann, ist das Produkt dadurch auch manchmal im Nachteil.
 
Die Frage ist halt, ob er wieder so konservativ takten wird. Wie man schon am 5800X3D sehen kann, ist das Produkt dadurch auch manchmal im Nachteil.
Man sieht ja inzwischen warum: Hätte man den 5800X3D übertakten können, wäre Zen 4 in jeder Hinsicht langsamer geworden. :ka:
Ob Intel mal so eine CPU bringt, bezweifle ich aber irgendwie. Die hatten seit dem 5775c so viele Chancen dazu, aber genutzt wurden sie nicht.
 
Ich glaube das es nicht nur aus Taktischer Sicht gemacht wurde, obwohl dies sicher auch eine Rolle gespielt hat.
Werden die Dinger nicht sehr warm wenn man mehr Takt gibt, vor allem wegen dem Cache?
Auch Intel hat damals nicht Grundlos den Takt bei 5675C/5775C relativ niedrig gehalten, ich hatte mal einen 5675C, er hatte keine Übertaktungssperre und der lies sich dennoch kaum übertakten.
 
Genau deswegen guckte ich nicht schlecht als ich den neuen Heatspreader gesehen habe. Vor allem die Dicke. Rein theoretisch könnte es ja sein, dass AMD den Cache höher aufbaut und den Heatspreader von innen dünner gestaltet, um so besser zu kühlen. Nur ist wohl der Wärmeübergang das größere Problem und nicht die Leitfähigkeit des HS an sich.
 
Das Hauptproblem bei den immer kleineren Strukturgrößen ist ja die Wärme auf mehr Fläche zu verteilen. Ein massiver aber gut angebunden HS macht da durchaus mehr Sinn als ein dünnes Blech dass dann nur genau da ganz heiß wird wo das Silizium ist.

Die Taktschwäche von Broadwell war afaik auf allen Varianten gegeben und ein Fertigungsproblem, das war nicht auf die Varianten mit eDRAM beschränkt.
Was auch Sinn ergibt da bei den Zen 3D Varianten das 3D Stacking die Problemstelle ist, nicht der Cache an sich. Broadwell-DT hatte den RAM aber IM DIE und nicht oben drauf.
 
Broadwell H mit Crystalwell hat den L4-Cache neben dem Chip mit Kernen, L1, L2 und L3. Kommt kühlungstechnisch aber aufs gleiche raus, nur Stacking ist problematisch. ;-)
Taktlimitierend wirkt Cache immer dann, wenn er auch mitgetaktet wird. Das war z.B. beim dritten historischen Cache-Monster, Gallatin, der Fall, denn dessen L3 lief mit vollem Kerntakt. Oder eben nicht. Auch z.B. Pentium II 333 und 450 unterschieden sich nur in der Qualität der externen Cache-Bausteine (eine italienische Firma hat in Kleinserie umgelötet und das Original übertroffen.^^) Aber bei Broadwell H hing der L4 am L3 und somit am Uncore-Takt; das schlechte Kern-OC-Verhalten resultierte aus der Broadwell-Architektur und der ersten 14-nm-Fertigungsgeneration. Broadwell E war ja auch kein Übertakterwunder.
 
Yup, der eDRAM ist ein eigenes Stück Silizium. Meinem Wissen nach sogar bei allen Haswell-, Broadwell- und Skylake-Modellen mir Iris Pro der gleiche. (Intel selbst hat den Codenamen Crystalwell, manchmal auch Crystal Well geschrieben, meinem Wissen nach nur bei den 4000er-Ablegern genutzt, die vor allem von Apple verbaut wurden.)
 
Tatsache :what:
BDW Chips_678x452.jpg

Ich hatte den eDRAM bei den Desktop Broadwells immer eher als "Unfall" abgetan weil man die entsprechende Maske halt gerade zur Hand hatte. Aber das war ja schon ein gehöriger Material-Aufwand der irgendwie deutlich schlechter vermarktet wurde als AMDs 3D-Cache.
 
Den L4 Cache (eDRAM) hatten meine ich nur Modelle mit GT3e GPU. Er wurde als Beschleuniger für die Grafikunit „beworben“. Die Tester und User haben dann festgestellt, dass auch die CPU gut durch den L4 beschleunigt wird. Intel hatte das offiziell aber nie als Vorteil herausgestellt :ka:
 
Bei den Notebookchips war auch das ein Vorteil, den Hersteller von Gaming-Boliden durchaus nicht übersehen haben. Aber Intel selbst war voll auf dem Ultrabook-Trip und hat das Konzept "ohne dGPU" in den Mittelpunkt gerückt. Für die Desktopmodelle, die sicherlich fast immer mit einer Grafikkarte kombiniert wurden, gab es dann praktisch gar kein Marketing, also weder Lob für IPC-dank-eDRAM noch für Fps-dank-eDRAM. Broadwell H war einfach nur ein Verlegenheitsmanöver, weil man Aktionäre und OEMs nicht das weitere halbe Jahr auf Skylake warten lassen konnte, aber die 14-nm-Fertigung so langsam rampen konnte, dass es für eine 5000er-Produktfamilie einfach nicht reichte. Um trotz der miesen Taktbarkeit überhaupt das Haswell-Niveau zu schlagen, hat man dann halt zwei Modelle mit Cystalwell rausgehauen. Zu wir-wollen-den-eigentlich-gar-nicht-verkaufen-Preisen.

AMD ist da weitaus aggressiver, sowohl was die Zurschaustellung "eigener" technischer Fähigkeiten (100 Prozent by TSMC) als auch Vermarktung angeht. Während man in Santa Clara sklavisch an hohen Margen hängt, schmeißt AMD den aufwendigen 5800X3D notfalls auch zum Selbstkostenpreis auf den Markt – Hauptsache die von-Zen1/2-Aufrüster kaufen kein LGA1700. Wäre Intel schlau gewesen, hätten sie das 2017 genau gemacht und "Kaby Lake X" hätte als 7700K plus 128 MiB L4 im Sockel 1151 die Gamer vom AM4 weggelockt, statt der Schrott zu werden, der er in Realität war. Ich habe mich in der Comet-Lake-Generation nochmal gefragt, ob Intel mit der gleichen Technik nicht ein bezahlbares Single-Chip-Design als Octacore + 64 MiB statt des aus Spielersicht reichlich sinnlosen 10900K hätte produzieren können? Irgendwann muss Intel wirklich mal jemand beibringen, wie Schubladen funktionieren.^^
 
Ich denke mal, weil der Leistungsvorteil des 13600k im Spielemittel durch die krassen Differenzen in Anno, CP und GoW größer ist als der energetische Nachteil.
 
@PCGH_Dave :

Warum schneidet der 13600K besser im Effizienz-Index ab als der 7700X, obwohl der 7700X weniger Strom verbraucht?
Sowohl in Spielen als auch in Anwendungen?
Bei den FPS/Watt ist der 7700X auch davor.

Intel Raptor Lake im Test: Leistungsaufnahme und Effizienz-Index
Weil "höhere Effizienz" nicht "geringere Leistungsaufnahme" bedeutet, sondern "Leistung pro Watt".
Hier mal die Daten im Direktvergleich:

1672130923491.png


Anno 1800 ist der Worst Case für den 7700X, aber dieser Wert wird am Ende nur mit etwas über acht Prozent in die Gesamtwertung gerechnet.

Beachte zudem, dass der 7700X mithilfe einer Radeon-GPU im Hinblick auf Effizienz ordentlich zulegt (oben ist mit Geforce):

1672131193864.png


Weil der 7700X mit der Radeon-GPU mehr Fps generiert und dabei sogar noch die Leistungsaufnahme sinkt, sind die Fps pro Watt, die nicht(!) normiert werden, etwas höher, als beim 13600K. Mit einer Geforce-GPU ist es genau andersherum, da hat der 13600K die Nase vorn.
 
@PCGH_Dave : Ok. Alles klar. Danke für die Erklärung. ;)

Weil "höhere Effizienz" nicht "geringere Leistungsaufnahme" bedeutet, sondern "Leistung pro Watt".
Ja das war mir klar...

Weil der 7700X mit der Radeon-GPU mehr Fps generiert und dabei sogar noch die Leistungsaufnahme sinkt, sind die Fps pro Watt, die nicht(!) normiert werden, etwas höher, als beim 13600K. Mit einer Geforce-GPU ist es genau andersherum, da hat der 13600K die Nase vorn.
Daran hat´s wohl gelegen das ich das nicht ganz verstanden hatte.
 
Zuletzt bearbeitet:
Zurück