Core i9-13900K in Spielen vermessen: Gemittelt ca. 4,5 % schneller und höere Leistungsaufnahme

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Core i9-13900K in Spielen vermessen: Gemittelt ca. 4,5 % schneller und höere Leistungsaufnahme

Aus Asien kamen die Tage bereits synthetische Benchmarks zum Core i9-13900K und der gleiche Reviewer legt nun auch mit Spielewerten nach.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Core i9-13900K in Spielen vermessen: Gemittelt ca. 4,5 % schneller und höere Leistungsaufnahme
 
Endlich mal brauchbare Ergebnisse, mit denen man auch was anfangen kann im Alltag.
Groß überraschend ist das eher nicht, ist im Grunde nur eine Neuauflage mit etwas mehr von allem, Intel typisch auch mehr von den Nachteilen, würde mich nicht überraschen wenn auch die Temps wieder gestiegen sind.
Die 13000er Reihe scheint wohl keine wirkliche Verbesserung zu werden, der (MEIN!) 5800X3D braucht sich nicht zu verstecken ;-)
AMD lehnt sich wohl mit einem lächeln zurück was die Leistung für Spiele betrifft, Ryzen7000 wird sicher nicht nur eine Neuauflage.
 
4,5%… ist ja lächerlich, dass ist ja nicht mal mit einem Refresh zurechtfertigen…Pfui…

Spiele profitieren generell nicht sonderlich von extrem vielen Kernen. Einen Unterschied wird das wohl erst ab 16 genutzten Threads ausmachen. Dann ist da noch die Auflösung von 1080p, in 720p wird der Unterschied wohl noch größer ausfallen.
Wozu braucht man auch eine 24 Kern CPU für Gaming?:-)

Wozu braucht man eine Zweikern CPU, wenn die Einkern CPUs doch besser, da schneller, sind?

Die Frage hat sich vor etwa 17 Jahren gestellt.
 
Spiele profitieren generell nicht sonderlich von extrem vielen Kernen. Einen Unterschied wird das wohl erst ab 16 genutzten Threads ausmachen. Dann ist da noch die Auflösung von 1080p, in 720p wird der Unterschied wohl noch größer ausfallen.


Wozu braucht man eine Zweikern CPU, wenn die Einkern CPUs doch besser, da schneller, sind?

Die Frage hat sich vor etwa 17 Jahren gestellt.
Naja. Die neueren Intel 4 Kerner mit 8 Threads reichen auch noch für die meißten aller Spiele. Habe nur ein Spiel gesehen, was mit dem ziemlich abkackt. Die anderen laufen zum größten Teil immer noch mit über 100fps :D
 
Ich habe bei meiner CPU sogar fürs Spielen SMT ausgeschaltet. Ja, 8 native Kerne schicken.
4,5% Mehrleistung bei 10% Mehrverbrauch :lol:
Eines ist sicher: 12000er-Besitzer können die 13000er-Serie in aller Ruhe aussitzen.
Es entfällt die Qual der Wahl
Keine schlaflosen Nächte mehr mit: kauf ich kauf ich nich kauf ich kauf ich nich kauf ich kauf ich nich :D
Gruß T.
 
Aber es wird so getan als wäre das bereits eine offizielle Release-CPU inklusive Test. Weil irgendein Asiate ein Engineering Sample wer weiss wie testet... :lol:
Taktraten und BIOS Version werden bei den finalen Produkten anders ausfallen.
Da liegen noch 5 bis 10% an Leistung brach, weil die Leistungsmessungen auch nur in 1080p gemacht wurden.
Am Ende wird es ein enges Duell zwischen Raptor Lake und Zen 4 in Spielen werden, mit leichten Vorteilen für Zen 4D im Bereich ~10%, soviel ist sicher.

Intel kann nur den 6Ghz KS nachschieben oder die Taktraten soweit optimieren, damit sie in der Disziplin nicht kriegsentscheidend zurückliegen. Spielekönig wird aber AMD.
 
Mit dem finalen BIOS sollte man schon 10% Mehrleistung gegenüber dem KS erwarten können.
Die News enthält wie üblich keinerlei konkrete Informationen über die SPECs.
Wenn der 13900K tatsächlich mit 5.5GHz in Spielen taktet, dann sollten durchaus 8-10% gegenüber dem 12900KS drin sein. Warum kommt der "Test" hier nicht auf diesen Bereich? 1080p verursacht vermutlich ein leichtes GPU-Limit und die Anhebung der Speicherspezifikation wird ausgehebelt. Beide CPUs wurden mit 6400MT/s getestet. Sollte eigentlich bei 4400MT/s für ADL und 5200MT/s für RPL liegen.
 
Ich heiz ja mit Gas und überlege schon sicherheitshalber einen Ölradiator zu kaufen, aber vielleicht ist Intel da ja an einer ganz heißen Sache dran. Kann mir den Werbespot schon vorstellen, da sitzen Leute auf ihrer Couch im deutschen Winter 22 und dank 13.Gen Intel Laptop auf dem Schoß ist es kuschelig warm und ein lächelndes Model prostet mit dem Glühwein Richtung Zuschauer. Intel, alles wird gut.
 
4,5% Mehrleistung bei 10% Mehrverbrauch :lol:
Es wurde nur der Peak Verbrauch gemessen, auch avarage ist höher, aber minimal.
Eines ist sicher: 12000er-Besitzer können die 13000er-Serie in aller Ruhe aussitzen.
Ich wäre mir da anhand von Messungen eines ES Samples nicht so sicher.
Ich kenne die Spezifikationen und Leistungsmessungen der finalen Modelle ganz gut und da wird sich der Wechsel unter Umständen (MT) ~40% schon lohnen.
Der "finale" 13900K liegt in 720p mit dem Standard-RAM (DDR4 5200) und 5,8Ghz ST Boost ziemlich genau 13/14% vor dem 12900K in Games und ja man kann einzelne Kerne der CPU auch auf 6Ghz takten, wenn man damit seine 360er AIO an die Grenze treiben möchte.
 
Bin ich der Einzige der die Benches auch liest? Oder bin ich zu blöd die zu lesen?

Ich hab mal das einfachste gemacht und nur die 1080p FPS der Spiele zusammengerechnet und verglichen, da komme ich auf durchaus erstaunliche 19,20 Prozent (ja, es wird mathematisch weniger sein, aber besser als 4,5% Quatsch). Es ist doch absoluter Quatsch, die Leistung einer CPU zu bestimmen, wenn sie im GPU Limit liegt! Wenn man bedenkt, dass zwishcen einem 8700k und einem 12900k keine 10% FPS Unterschiede in 4K vorliegen, weiß man glaube wovon wir reden.

Am Ende werden es 15% sein und das finde ich doch mehr als gut, für eine Generation in der NIX geändert wurde, ja man hat die Fertigung etwas verbessert, aber mehr ist nicht passiert und da 15% zu holen ist doch nicht schlecht. Mal sehen ob es dann für Team Rot reichen wird, rechne fest mit einem Gleichstand!
Ich kenne die Spezifikationen und Leistungsmessungen der finalen Modelle ganz gut und da wird sich der Wechsel unter Umständen (MT) ~40% schon lohnen.
Ja nee, is klar!

Ich weiß aus sicherer Quelle, dass AMD nur spielt und nächste Woche die 10Ghz 64 Kern CPU ankündigen wird :-)
 
Ich habe bei meiner CPU sogar fürs Spielen SMT ausgeschaltet. Ja, 8 native Kerne schicken.
Dem würde ich auch echt zustimmen! Habe bei mir auch Hyperthreading auf Dauer deaktiviert. Führt bei mir zu geringeren Temperaturen, einem niedrigeren Stromverbrauch (oder wahlweise halt mehr Takt bei gleicher/geringerer Spannung im Vergleich zu mit HT/SMT) und irgendwie insgesamt gefühlt glatteren Frametimes.

Klar kommt es logischerweise auch immer ein wenig auf die IPC von der verwendeten CPU an, ob die Anzahl der dann noch zur Verfügung stehenden Threads noch ausreicht um die gewünschten Minimum-FPS zu erreichen, wenn man HT/SMT deaktiviert. Bei mir ist das der Fall bzw. sogar besser.

Mal was anderes: Wie ist das eigentlich bei Alder bzw. Raptor Lake dann: Wenn man für das Gaming die E-Cores komplett deaktiviert und zusätzlich noch HT deaktiviert - steht den 8 P-Core-Threads dann der KOMPLETTE L2/L3-Cache zur Verfügung oder wird der Anteil des Caches, den sonst die E-Cores beanspruchen, bei Deaktivierung dieser ebenfalls mit "deaktiviert"?
 
Die News enthält wie üblich keinerlei konkrete Informationen über die SPECs.
? ... "Gemessen wurde auf einem Asus ROG Z690 Extreme und 32 GiByte DDR5-6400. Die Pixel beschleunigt eine MSI Geforce RTX 3090 Ti Suprim X."

Ich habe bei meiner CPU sogar fürs Spielen SMT ausgeschaltet. Ja, 8 native Kerne schicken.
Habe ich auch, zuerst bei meinem 8700K (Da auch wegen den Beschleunigungslöchern in der CPU *Hust*) und jetzt auch bei meinem 5800X3D.
 
Für Spieler wäre sicher ein Vergleich 12400 vs 13400 interessanter gewesen. die 900er haben aus Spielersicht eh ein recht schlechtes Preis-Leistungs-Verhältnis.
 
Zurück