Core i9-13900K in Spielen vermessen: Gemittelt ca. 4,5 % schneller und höere Leistungsaufnahme

BigBoymann

BIOS-Overclocker(in)
Dann wäre AMD mit Zen1 auch ein ziemlicher Fail unterlaufen. So ist das eben bei der ersten Generation, abwarten würde ich sagen.
Ziemlicher Unterschied!

Mit Zen 1 bereits hat man einen Quantensprung im Vergleich zum Vorgänger hingelegt, dazu konnte man preislich sehr gut konkurieren und hatte auch im Bereich der Effizienz durchaus einen Gleichstand.

Das war damals ziemlich genau die Hoffnung und Erwartung an Zen, daher kann man hier in meinen Augen nicht von gescheitert reden.

Also ich bin auch kein Freund davon im Desktop, mobil schon eher.
Da sind wir uns grundlegend einig, lieber 12 "echte" Kerne, als 8+8! Mobil halte ich grds. von den vorliegenden Konfigs recht wenig, da würde ich mir bspw. 2 + 8 wünschen, ein pures Effizienzwunder und genug Leistung für alles. Ähnlich hat dies ja auch bei ARM angefangen, wo oftmals ein, oder zwei HighPower Kerne kombiniert wurden. Mittlerweile ist ARM aber kaum zu unterscheiden, egal ob Cortex XY oder Cortex XZ, die Effizienz ist in Teillastbereichen oftmals identisch (fast identisch) , lediglich oben raus haben die neueren Kerne mehr Leistung, dafür kosten sie oftmals eben mehr Fläche und damit sind sie teurer.

Allerdings glaube ich nachwievor nicht an eine Zukunft von bigLITTLE im Desktop, es gibt noch soviele Möglichkeiten auch bei P Cores Stromsparmechanismen einzubauen, das die wenn gewollt, das gleiche Effizienzlevel erreichen würden, wenn man nur wollte.

Gescheitert ist man aber nicht: man hat AMD im Singlecore und im Multicorebereich wieder erreicht. Die immer höher werdenden Produktionskosten drückt man mit kleieren Cores auch. 16 große wären mir aber natürlich auch lieber als 8+8
Ich glaube da reden wir aneinander vorbei.

Intel ist (zumindest im ersten und wahrscheinlich auch zweiten Versuch) mit der Umsetzung des bigLITTLE gescheitert. Ziel von bigLITTLE war es nicht (s.o. Zen1) AMD einzuholen, Ziel von bigLITTLE war es im Bereich der Effizienz an AMD vorbeizuziehen und eine "überlegene" Architektur" zu implementieren. Das hat man nunmal überhaupt nicht geschafft, ja man hat einen großen Sprung (auch in Sachen Effizienz) gemacht, der aber eben nicht wirklich auf dem bigLITTLE Design begründet scheint, sondern schlicht der feineren Fertigung (Intel 7) geschuldet ist. Insofern halte ich schon das Design für gescheitert, man hat das Ziel "führender im Bereich der Effizienz" zu sein nicht erreicht, im Gegenteil, es scheint so, als wenn man weiter weg ist als in der Generation davor (Zen 2).

Und ja, ich bin mir absolut bewusst, dass Intel durchaus effizient sein kann, im Bereich Gaming ist man absolut auf Augenhöhe (vieleicht sogar leicht vorne), aber bigLITTLE ist ganz sicher nicht fürs Gaming konzipiert, denn da reicht, wie AMD mit 3D Cache gezeigt hat, am Ende des Tages 8 fette Kerne und den Bereich der 8 E Cores, hätte Intel dafür sicherlich besser in L3 Cache investiert.
Aber im Bereich MC Leistung ist man nachwievor deutlich unterlegen, im Desktop Betrieb schlägt ein 5950X den 12900K meist deutlich in Sachen Effizienz.
 

PCGH_Torsten

Redaktion
Teammitglied
Anscheinend sind es beim i9 von Raptor Lake dann 4 E-Core-Cluster (4x4 MB), weil die Anzahl der E-Cores verdoppelt wird (8 statt 16). Also würden die 8 Threads bei einem Core i9-13900K dann also "nur "den kompletten L3-Cache sowie den L2-Cache der P-Core-Cluster bekommen. Von den 68 MB L2+L3 Cache würden dann noch 52 MB übrig bleiben - also genauso viel wie beim Core i7-13700K (bezogen auf mein beschriebenes Szenario)?

Der L2-Cache müsste von den jeweiligen Kernen beziehungsweise -Clustern verwaltet werden und ist somit nicht von nutzen, wenn letztere deaktiviert werden. Die L3-Slice neben den E-Clustern ist dagegen eine ganze normale wie sie auch neben P-Cores sitzt und kann genau wie diese als Teil des vereinheitlichen L3 von allen anderen Prozessor-Bestandteilen genutzt werden.


Es ist relativ gut bekannt und auch von AMD bestätigt. Die AMD Fans und Fanboys klammern sich eisern an die Hoffnung, dass AMD nach 14 Jahren wieder die TDP nicht komplett ausreizen könnte. Ich persönlich halte das für mehr als nur unwahrscheinlich. Warum sollte AMD die maximal mögliche Leistungsaufnahme so krass anheben, wenn sie sie dann nicht nutzen? Das hat AMD damals schon Probleme bereitet, weshalb sie es bei den T Modellen, des Phenom II und dem FX abgestellt haben.

Der R9 7950X wird wohl mit extrem großer Sicherheit seine 170/240W benötigen. Soll mir recht sein, solange AMD noch den 65W Eco Modus anbietet.

AMD wird mit Zen 4 die AVX-Einheiten deutlich aufbohren. Das ein Ryzen 7000 die 230 W PPT in bestimmten Betriebszuständen ausreizen wird, macht also noch nicht zwingend eine Aussage über den Spiele-Betrieb.


So soll wohl z.B. das Flagschiff von Arrow Lake (Gen. 15, die nach Meteor Lake) 8 P-Cores und 32 E-Cores haben. Wenn 4 E-Cores den Platz von einem P-Core beanspruchen, warum entscheidet man sich dann nicht dafür nach und nach auch die Anzahl der P-Cores anzuheben?

Oder man bringt 3 unterschiedliche Modelle auf den Markt:

1.) Core i9-15900K(a): 8 P-Cores + 32 E-Cores
2.) Core i9-15900K(b): 12 P-Cores + 16 E-Cores
3.) Core i9-15900K(c): 16 P-Cores, keine E-Cores

Sollte ja irgendwie möglich sein, wenn Intel ab Meteor Lake mit Multi-Tile-Chips startet.

Meteor Lake besteht nach aktuellen Infos aus einem IGP-, einem SoC- und einem I/O-Tile (wobei vollkommen unklar ist, wie die Arbeitsteilung zwischen SoC und I/O aussieht), aber die P- und (normalen) E-Cores werden vollständig im Compute-Tile liegen. Da lässt sich also nichts nachträglich variieren und allgemein ist unwahrscheinlich, dass 2-Kern-/-Cluster-kleine Siliziumstückchen noch effizient gefertigt und verbaut werden könnten. Kantenverschnitt, Anbindungsbedarf und Handlingaufwand fallen alle pro Chip.

Bezüglich des Bedarfs sieht es einfach so aus, dass P-Cores ausschließlich für latenzkritische Aufgaben benötigt werden. Alles, was auch über ein paar Zehntelsekunden hinweg nacheinander abgearbeitet werden kann, läuft auf E-Cores effizienter und zur Steigerung der allgemeneinen Leistung ist es somit sinnvoller, deren Zahl zu steigern. Latenzkritische Aufgaben sind wiederum nahezu ausschließlich solche, die den Anwender direkt betreffen – und die hierfür benötigte Rechenleistung ist somit durch den Anwender begrenzt. Intel sieht hier offensichtich mittelfristig keinen Steigerungsbedarf, der nicht durch Takt- und Architekturfortschritte bedient werden könne. Ob das stimmt, muss sich zeigen – aber wenn man sich anguckt, wie der 12600K zwei Jahre nach "3950X: Leistungsreserven ohne Ende" in Spielen abschneidet, lag Intels bisherige Grundüberlegung zumindest nicht grundlegend daneben. Auch die runtergeputzten i7-7700K haben sich in Gaming-Systemen als erstaunlich hartnäckig erwiesen, verglichen mit den "Achtkernern gehört die Zukunft"-1800X.
 

Cleriker

PCGH-Community-Veteran(in)
Der 12700K ist mit ein wenig OC in allem Besser als ein 5800X3D, außer bei der Effizienz und ist preiswerter. In der Mathematik reicht ein Gegenbeispiel, um eine allgmeine Behauptung zu widerlegen.


Das allgemeine Engagement Unfug zu schreiben ist bei Don deutlich stärker ausgeprägt als die fachliche Kompetenz. Es ist wirklich traurig und das mit 51...
Sagt der richtige..

Dann führe Mal deinen Beweis. Ich hätte gern die benötigten Komponenten samt Gesamtkosten um die 30% Vorsprung des 12700k zu erzielen.

Ein 5800X3D geht auf ein einfaches A520M Pro-VH für 46 EUR.
Der 5800X3D schlägt mit 489 EUR zu Buche.
Beim RAM gehe ich davon aus dass du um auf die 30% zu kommen wohl mehr als die spezifierten Taktraten fahren musst. Ich gehe dafür vier Stufen überhalb der CPU Specs und wähle 2 Riegel mit zusammen zukunftssicheren 64GB 3600 CL16 für 218 EUR. Dadurch musst du zwar theoretisch noch mehr als 30% erreichen, kannst aber halt schnelleren RAM nutzen. Das wären bei dir dann irgendwo ab 6000MHz.
Beim Kühler komme ich dir auch entgegen und wähle einen mit 150W TDP spezifizierten Pure Rock 2 für 30 EUR. Wir wollen ja sicherstellen, dass er auch unter Last nicht begrenzt.
Macht also 783EUR.

Bitte stell Mal deine Liste zusammen und wir schauen einmal was die unter Last stabilen 30% mehr des 12700k so an Aufwendungen bedeuten.
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Sagt der richtige..

Dann führe Mal deinen Beweis. Ich hätte gern die benötigten Komponenten samt Gesamtkosten um die 30% Vorsprung des 12700k zu erzielen.

Ein 5800X3D geht auf ein einfaches A520M Pro-VH für 46 EUR.
Der 5800X3D schlägt mit 489 EUR zu Buche.
Beim RAM gehe ich davon aus dass du um auf die 30% zu kommen wohl mehr als die spezifierten Taktraten fahren musst. Ich gehe dafür vier Stufen überhalb der CPU Specs und wähle 2 Riegel mit zusammen zukunftssicheren 64GB 3600 CL16 für 218 EUR. Dadurch musst du zwar theoretisch noch mehr als 30% erreichen, kannst aber halt schnelleren RAM nutzen. Das wären bei dir dann irgendwo ab 6000MHz.
Beim Kühler komme ich dir auch entgegen und wähle einen mit 150W TDP spezifizierten Pure Rock 2 für 30 EUR. Wir wollen ja sicherstellen, dass er auch unter Last nicht begrenzt.
Macht also 783EUR.

Bitte stell Mal deine Liste zusammen und wir schauen einmal was die unter Last stabilen 30% mehr des 12700k so an Aufwendungen bedeuten.

Vorsicht: Low-End-Platinen schränken die zulässige TDP häufig stark ein und die CPUs erreichen dann nicht die vorgesehene Leistung. Dave hat den 5800X3D kürzlich mal auf einem A320 durch den PCGH-Parcours gejagt und kam auf -5 bis -6 Prozent im Schnitt. Und die Spannungswandler wurden trotzdem bedenklich heiß, dass heißt abseits eines klimatisierten Büros mit CPU-Tester-Overkill-Belüftung könnte es auch noch zu Thermalthrotteling mit weit schlechteren Ergebnissen kommen. Wer soviel für eine CPU ausgibt, sollte sich wenigstens ein brauchbares Mittelklasse-Board gönnen. Oder alternativ was altes high-endiges – seitdem AMD endlich die Kompatibilität in wenigstens eine Richtung freigegeben hat, bietet ein A520 rein gar nichts, was nicht auch ein B350 oder X370 könnte.
 

Cleriker

PCGH-Community-Veteran(in)
Ähm... ich war schon der Meinung dass der Beitrag so verfasst war, dass er aufzeigt was mich an seiner Aussage gestört hat. Ich selbst kaufe immer ganz brauchbare Boards, wie man an meiner Hardware sehen kann, denke ich.
 

Quake2008

BIOS-Overclocker(in)
12900KS ist in Spielen 0,9% schneller als der 5800X3D:
Wenn du den KS jetzt noch mit ordentlichem RAM paarst, dann wars das ganz für den X3D.

Und der 12900K ist in Awendungen 0,6% schneller als der 5950X:

In Cinebench sieht AMD gar kein Land gegen Intel:
Anhang anzeigen 1398865
Quelle: https://wccftech.com/intel-core-i5-...-12600k-beats-the-ryzen-9-5950x-in-cinebench/

Und mit RPL wird dann endgültig der Sack zugemacht :)


Das übliche bla bla von dir, dabei hast du selbst einen 12900KS, weil AMD dir zu langsam ist. :ugly:
Je nach dem ob man mit beiden Augen oder nur einem Auge schielt. Im Grunde sind die E-Cores nur da um 24Threads bzw beim RPL 32Threads zu haben ohne das man 500Watt kühlen muss und um Effizienter zu sein. Auch beim Amd kannste schnellen Ram und kurze CLs nehmen. 0,9% schneller, fällt sowas nicht in die Meßtoleranz?

Im Grunde haben wir für jeden das passende, wozu die Vergleiche?

Sollen die sich überbieten hab nix einzuwenden, und dann wird entschieden was passt ins Bugdet.

Wenn ich ne Gaming Maschine haben will nehm ich den 5800x3D und bin 200-300Euro günstiger dran als mit nehm 12900KS. Die stecke ich dann in eine bessere graka.

Hätte ich Aktien von einem der Beiden genannten, dann hätte ich einen Grund hier den Verfechter zu spielen.

Warum macht Intel nicht auch 16P-Cores wie Amd?

BigLittle ist nette Idee, aber ich will vollwertige Kerne.

Wenn ich BigLittle gewollt hätte, so würde ich am Handy, Tablet oder Mac arbeiten.

Das Teil ist ne Notgeburt, nicht weil deren P-Kerne zu langsam sind, ganz im Gegenteil da man davon in dem Design nicht mehr anbieten kann. War nicht der 10900k schon so ein Abwärme Monster, mit reichlich Power aber nur mit passender Kühlung. Kann aber sein das ich ein schlechtes Gedächtnis hab.
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Es sind eben nicht nur 50 Euro. Es sind mehrere hundert Euro. Eben drum ist doch die Aussage Mist. Ein teureres System hinstellen und dann sagen dass es schneller ist? Dann kannste dir auch gleich den 12900KS kaufen.
 

owned139

BIOS-Overclocker(in)
Je nach dem ob man mit beiden Augen oder nur einem Auge schielt. Im Grunde sind die E-Cores nur da um 24Threads bzw beim RPL 32Threads zu haben ohne das man 500Watt kühlen muss und um Effizienter zu sein. Auch beim Amd kannste schnellen Ram und kurze CLs nehmen. 0,9% schneller, fällt sowas nicht in die Meßtoleranz?
Der 5800X3D profitiert aber nicht wirklich von schnelleren RAM. Die anderen Modelle dagegen schon.

Im Grunde haben wir für jeden das passende, wozu die Vergleiche?
Weil hier ganz gerne Cherrypicking betrieben wird, um dann zu behaupten, dass CPU/GPU x schneller ist y.

Warum macht Intel nicht auch 16P-Cores wie Amd?
Weils nicht nötig ist. Spiele profitieren nicht von 16 P-Kernen und die E-Kerne sind für MT Workloads und Anwendungen.

BigLittle ist nette Idee, aber ich will vollwertige Kerne.
Warum? Spekulieren wir mal ein bisschen und gehen mal davon aus, dass der 13900K dem 7950X die Stirn bieten wird. Welche Rolle spielt es da für dich, was da für Kerne unter der Haube werkeln, wenn die Leistung passt?
 

Dr1val

Freizeitschrauber(in)
Weils nicht nötig ist. Spiele profitieren nicht von 16 P-Kernen und die E-Kerne sind für MT Workloads und Anwendungen.
Ist es nicht eigentlich mittlerweile quasi "bums", wieviel Kerne man hat, sobald eine Schnittstelle (z.B. DirectX12 oder Vulkan) und Engine genutzt wird, die ALLE Kerne gleichmäßig auslastet (gewisse IPC natürlich vorausgesetzt)?

Was ich meine:
Ich wäre z.B. dazu bereit wieder auf 6 oder 8 Kerne zu reduzieren, denn sobald die IPC 20 % (8 Kerne) respektive 40 % (6 Kerne) höher ist als mein 10900K, ist die MT-Leistung ja (bei gleichem Takt natürlich) schon wieder egalisiert. Wenn sich die IPC verschlechtern würde (was natürlich nicht der Fall ist), bräuchte ich wiederum mehr Kerne bei gleicher MT-Last.

Ich denke, dass IPC- und Effizienzerhöhung erstmal am wichtigsten sind. Da mir ~120-140 FPS in Singleplayerspielen auf Dauer vollkommen ausreichen (und sich diese Ansprüche in Zukunft in Anbetracht des Alterns der Augen wohl nicht ändern werden ^^), brauche ich mir über 16 P-Kerne auch keine Gedanken zu machen, aber 10-12 richtige Kerne (im monolithischen Design - Stichwort Latenz!) wären schon nice...
 

PCGH_Torsten

Redaktion
Teammitglied
Der Overhead der Grafik-API macht nur einen kleinen Teil der Rechenlast aus. In gut parallelisierten Spielen konnte das früher der eine Teil sein, der die Gesamtgeschwindigkeit begrenzt, aber viele Spiele sind eben schlecht parallelisiert/parallelisierbar. Typischerweise nimmt die Skalierung jenseits von sechs Kernen rapide ab und kaum ein Spiel kann mehr als 12 Kerne sinnvoll nutzen. Von daher ist es durchaus wichtig, über wie viele Kerne sich die Rechenleistung verteilt – von einem fiktiven 3-GHz-6-Kerner auf einen 4-GHz-6-Kerner (+33 Prozent) zu gehen bringt weiterhin sehr viel mehr Fps als auf einen 3-GHz-8-Kerner (+33 Prozent). Als reales Beispiel könnte man 8700K, 12600K (mit deaktivierten E-Cores) und 9900K vergleichen. Oder, um die Message richtig deutlich zu machen, direkt einen 3950X.
 

Dr1val

Freizeitschrauber(in)
Okay, die Sache mit dem Overhead und der Parallelisierung habe ich außen vor gelassen, aber die Kernskalierung scheint ist ja mit den momentan modernsten Schnittstellen und gängigen Engines auch immer besser zu werden (und ist auch schon besser als früher). DirectX 12 wird bestimmt auch irgendwann mal einen Nachfolger bekommen...

Und dass ein 8700K bei gleichem Takt langsamer ist als ein 12600K (mit deaktivierten E-Cores) liegt doch letztendlich an der IPC, oder? Oder anders gesagt: Angenommen ein 8700K hat eine um 20% geringere IPC als ein 12600K, dann müsste die Leistung von einem auf 3 GHz getakteten 12600K einem auf 3,6 GHz getakteten 8700K entsprechen (Cache und RAM mal außen vor ^^).

Aber ja, so theoretisch kann man das vielleicht letztendlich trotzdem nicht betrachten, da sich die Multifaktorialität nicht wegdiskutieren lässt.
Typischerweise nimmt die Skalierung jenseits von sechs Kernen rapide ab und kaum ein Spiel kann mehr als 12 Kerne sinnvoll nutzen.
Achso, und beziehst du da den Umstand mit ein, dass Hyperthreading bzw. SMT aktiviert ist (sprich doppelte Anzahl Threads)?
 

PCGH_Torsten

Redaktion
Teammitglied
Ob gleicher Takt bei höherer IPC im spezifischen Szenario (8700K vs. 12600K) oder höherer Takt bei gleicher Architektur (fiktiver 3-GHz-6-Kerner gegen fiktiven 4-GHz-6-Kerner) spielt für die Software keine Rolle. Da zählt nur höhere Leistung pro Kern. In der technischen Praxis und unter Effizienzgesichtspunkten erreicht man die halt besser über Architektur denn über Takt, aber das Spiel merkt den Unterschied nicht.

SMT habe ich meinen Betrachtungen einfach mal als gegeben angenommen, da es seit Jahren keine Prozessoren ohne in den genannten Klassen gibt. Wenn man es mutwillig abschaltet, erschwert man die effiziente Auslastung von CPUs mit wenigen Kernen natürlich und verschiebt so die Grenze nach oben. Allerdings ist die Erkenntnis "Wenn man mit angezogener Handbremse fahren will, lohnt sich ein V12 auch im Stadtverkehr" jetzt nicht unbedingt der Gipfel der Genialität.
 

Bärenmarke

BIOS-Overclocker(in)
AMD wird mit Zen 4 die AVX-Einheiten deutlich aufbohren. Das ein Ryzen 7000 die 230 W PPT in bestimmten Betriebszuständen ausreizen wird, macht also noch nicht zwingend eine Aussage über den Spiele-Betrieb.

Das ist doch genau der Punkt den die ganzen Hardcore intelfanboys die sich hier tummeln nicht verstehen wollen.
Der Sockel erlaubt nun eine deutlich höhere Leistungsaufnahme, nur für welche CPUs die gelten wird, ist zum jetzigen Zeitpunkt nicht bekannt (16/24 Core oder vielleicht auch für 12?)
Genauso wenig unter welchem Szenario diese abgerufen wird und vor allem was dabei auch an Leistung rüber kommt!
Du sagst es ja richtig, bei AVX hat sich einiges getan und wenn die 230W dann bei voller AVX Last benötigt werden, wird dies bei anderen Szenarien nicht der Fall sein.
Nur manche wollen jetzt halt krampfhaft suggerieren, AMD verbraucht auch 230W also auch die Brechstange... aber gut mit logischem Denken ist halt nicht jeder gesegnet.
Daher gut, dass du die AVX Einheiten nochmal ansprichst!


Es sind eben nicht nur 50 Euro. Es sind mehrere hundert Euro. Eben drum ist doch die Aussage Mist. Ein teureres System hinstellen und dann sagen dass es schneller ist? Dann kannste dir auch gleich den 12900KS kaufen.

Das ist denen doch egal, hauptsache intel ist vorne, auch wenn du einige 100€ mehr investierst.
Und wenn man ehrlich zu sich selbst ist, müsste man die Zeit die man für das OC und Feintuning aufwendet auch noch mit einbeziehen.
Das ist wie mit den deutschen Winzern die sich auch gerne selbst bescheisen, indem dann noch die Familie mit hilft und das im Preis nicht berücksichtigt wird.
 
Oben Unten