Core i9-13900K mit RTX 4090: Große Fps-Unterschiede mit und ohne E-Cores

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Core i9-13900K mit RTX 4090: Große Fps-Unterschiede mit und ohne E-Cores

Mit dem kürzlich erschienenen Prozessor Core i9-13900K verfolgt Intel weiter die Idee von zwei verschiedenen Kernen, die unterschiedliche Workloads übernehmen sollen. Doch wie wirken sich die sogenannten E- und P-Kerne auf die Performance in Spielen aus? Bei TechPowerUp hat man das Theman unter die Lupe genommen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Core i9-13900K mit RTX 4090: Große Fps-Unterschiede mit und ohne E-Cores
 
"Im schlimmsten Fall muss man aber je nach Spiel (zum Beispiel Far Cry 5, Metro Exodus und Prey) und Auflösung bis zu zehn Prozent Leistungsverlust bei aktivierten E-Cores hinnehmen. Far Cry 6, Spider-Man Remastered und Civ 6 sind Gegenbeispiele."

Also ich zocke immer noch Far Cry 5 und Teil 6.
Hätte jetzt keinen Bock da im BIOS ein jedes mal aktivieren/deaktivieren ... :schief:

MfG Föhn.
 
"Im schlimmsten Fall muss man aber je nach Spiel (zum Beispiel Far Cry 5, Metro Exodus und Prey) und Auflösung bis zu zehn Prozent Leistungsverlust bei aktivierten E-Cores hinnehmen. Far Cry 6, Spider-Man Remastered und Civ 6 sind Gegenbeispiele."

Also ich zocke immer noch Far Cry 5 und Teil 6.
Hätte jetzt keinen Bock da im BIOS ein jedes mal aktivieren/deaktivieren ... :schief:

MfG Föhn.
Oder man nimmt sowas wie Process Lasso und stellt das einmal ein welche Kerne das Spiel benutzen darf und welche nicht.

Habe selbst einen 12900k. Je nach Spiel muss ich HT und/oder E-Cores "deaktivieren" um die maximale Performance zu bekommen. Aber mit Prozess Lasso einfach nur einmal eingestellt und dann nie wieder drüber nachgedacht.

Gerade in so Titeln wie Cosmoteer oder Star Citizen erreiche ich damit erhebliche Leistungssteigerungen.
 
Interessanter Test. Da wurden auch echt viele Spiele getestet. Hardware Unboxed hatten Ende letzten Jahres dasselbe mal mit dem i9-12900K gemacht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ich hätte es schön gefunden, wenn TechPowerUp analog HUB noch die P1-FPS bzw. 1%Lows mit aufgelistet hätten.

Mein Gedanke war (in der Theorie) immer, dass den P-Cores bei abgeschalteten E-Cores mehr L3-Cache zur Verfügung steht und man deshalb mehr Performance erwarten dürfte. Anscheinend ist dem nicht so und man kann es sich wirklich klemmen.

Ich fände trotzdem einen (aufwändigen) Vergleich mit 4 Konfigurationen interessant:

1.) 16C/32T (E-Cores on, HT on)
2.) 16C/24T (E-Cores on, HT off)
3.) 8C/16T /E-Cores off, HT on)
4.) 8C/8T (E-Cores off, HT off)

Insbesondere bei Konfiguration 4 stünde jedem der 8 Threads ganze 4,5 MB L3-Cache zur Verfügung. Das ginge dann schon fast Richtung 5800X3D-Dimensionen! Ich kann mir daher einerseits gut vorstellen, dass bei mehr freiem L3-Cache RAM-OC weniger wichtig wird (analog wie beim X3D) und die P1-FPS höher ausfallen, weil der Cache greift. Andererseits wäre es fast schon bescheuert sich zielgerichtet die dickste CPU zu kaufen, nur um dann 3/4 der Threads nicht zu nutzen um den maximal nutzbaren L3-Cache zu generieren. Interessant fände ich es trotzdem allemal.

Sowas wird nur niemand testen. Daher muss ich das wohl selber tun, wenn ich es wissen möchte, ob es was bringt oder nicht. ^^

Ich hoffe ja auch wirklich sehr, dass wir in ein paar Generationen endlich mal ein Leistungsrelief erreicht haben, dass man sich das ganze Tunen und die Rumprobiererei sparen kann, weil die CPUs so leistungsstark geworden sind, dass es keine Rolle mehr spielt. Dann stellt man nur noch sein gewünschtes Powerlimit ein und das wars. Ich denke, dass wir auf einem guten Weg sind.
 
Zuletzt bearbeitet:
"Im schlimmsten Fall muss man aber je nach Spiel (zum Beispiel Far Cry 5, Metro Exodus und Prey) und Auflösung bis zu zehn Prozent Leistungsverlust bei aktivierten E-Cores hinnehmen. Far Cry 6, Spider-Man Remastered und Civ 6 sind Gegenbeispiele."

Also ich zocke immer noch Far Cry 5 und Teil 6.
Hätte jetzt keinen Bock da im BIOS ein jedes mal aktivieren/deaktivieren ... :schief:

MfG Föhn.
Musst du ja nicht. Die paar % merkt im GPU Limit keiner. Ich meine die Spiele könntest du sogar auf den E-Cores zocken ohne größere Performance Einbußen zu erleiden...
 
Mein Gedanke war (in der Theorie) immer, dass den P-Cores bei abgeschalteten E-Cores mehr L3-Cache zur Verfügung steht und man deshalb mehr Performance erwarten dürfte. Anscheinend ist dem nicht so und man kann es sich wirklich klemmen.

Der Punkt ist wohl, dass das, was im L3 Cache liegt, nicht von den CPU Kernen, sondern von den zu berechnenden Anwendungen abhängt. Wenn du zig verschiedene Anwendungen gleichzeitig bearbeitest, dann dürfte es da ein kommen und gehen sein, bei nur einer Anwendung, gibt es auch nur Daten dieser einen Anwendung. Für den L3 Cache ist es egal, ob sich ein P Kern oder ein E Kern die Daten holt und das ganze dann bearbeitet. Der L3 Cache steht in seiner Gesamtheit allen Kernen zur Verfügung, das ist ja der Witz daran. Somit sind es für die CPU Kerne auch nicht 8 mal 4,5MB sondern 8 mal die vollen 36MB. Weshalb der L3 Cache eine Methode ist, um um das Amdahlsche Gesetz herumzukommen und überproportional zu beschleunigen.
 
Für den L3 Cache ist es egal, ob sich ein P Kern oder ein E Kern die Daten holt und das ganze dann bearbeitet. Der L3 Cache steht in seiner Gesamtheit allen Kernen zur Verfügung, das ist ja der Witz daran. Somit sind es für die CPU Kerne auch nicht 8 mal 4,5MB sondern 8 mal die vollen 36MB.
Hmmm, ergibt schon Sinn. Ich dachte bisher immer, dass der L3-Cache bei den jeweils aktiven Kernen sozusagen anteilig "geparkt" wird.

Dann müsste es ja auch so sein, dass, wenn beispielsweise ein älteres Spiel gespielt wird, welches auf nur einem einzigen Thread läuft und keine Kerne/Threads deaktiviert (ergo 16C/32T aktiv) sind, die vollen 36 MB L3-Cache von dem einen ausgewählten Thread genutzt werden können, OBWOHL die anderen 31 Threads rein theoretisch auch zur Verfügung stehen würden, aber eben in der Praxis nicht auf sie zugegriffen wird.

Wenn dem so wäre, würde ich die E-Cores gar nicht deaktivieren.
 
Oder man nimmt sowas wie Process Lasso und stellt das einmal ein welche Kerne das Spiel benutzen darf und welche nicht.

Legacy-Modus für die e-Cores ist das Zauberwort.

Hätte jetzt keinen Bock da im BIOS ein jedes mal aktivieren/deaktivieren ... :schief:

Mein Bios hat ein Legacy-Modus für die e-cores.
Mit Rollen (Scroll/Lock) kann man die e-cores on the fly im Windows an und abschalten.
Das kann Deins bestimmt auch, Du hast Dich blos noch nicht damit beschäftigt.
 
Mein Bios hat ein Legacy-Modus für die e-cores.
Mit Rollen (Scroll/Lock) kann man die e-cores on the fly im Windows an und abschalten.
Das ist richtig, aber Mehr FPS kommen dadurch nicht dazu, das bekommt man nur wenn die im Bios direkt abgestellt werden.

Zwar wird das Spielgefühl besser aber bessere mini/max Werte kommen mit der Rollen taste nicht raus.
 
Legacy-Modus für die e-Cores ist das Zauberwort.

Mein Bios hat ein Legacy-Modus für die e-cores.
Mit Rollen (Scroll/Lock) kann man die e-cores on the fly im Windows an und abschalten.
Das kann Deins bestimmt auch, Du hast Dich blos noch nicht damit beschäftigt.

Das bringt mir wenig wenn ich dann die E-Cores nutze um nebenbei auf twitch zu streamen, streams zu schauen, youtube, netflix oder ähnliches. Mit Prozess Lasso kann ich die E-Cores weiterhin voll nutzen.

Aber sonst ja. Wenn man die E-Cores dann gar nicht nutzt ergibt das einen Sinn.
 
Also ich zocke immer noch Far Cry 5 und Teil 6.
Hätte jetzt keinen Bock da im BIOS ein jedes mal aktivieren/deaktivieren ... :schief:


Bei Teil 5 wirst Du keinen spürbaren Unterschied haben da die Frames hoch genug sind und bei Far Cry 6 landest Du vermutlich eh im GPU-Limit, spürst also auch keinen Unterschied. Ist wie mit SMT on/off. Im Endeffekt gut zu wissen, aber die Prozessoren sind so leistungsstark, dass es quasi irrelevant ist.
 
Denke ist eher wie immer: Leute die sich solch ein Setup inkl. Rtx4090 zulegen zocken zu 100% in wqhd - qhd/4k in hohen Quali Settings mit ggf. Raytracing. Dort bewegen sich die Rechner weit im GPU Limit selbst mit einem ältern 6 Kerner wir Zen2 oder Intel ab 8 Gen.
Es gibt nur ein paar ganz wenige Games die auch extrem an der cpu saugen wie Star Citizen, Anno, MS Flugsim...
Die restlichen 99% der Games brauchen nicht so viel cpu Rechenleistung. Ist selbst zocke auf nem I5 10400f und bin in meinen Games zu 100% im GPU (Rtx3060ti) Limit.
 
Denke ist eher wie immer: Leute die sich solch ein Setup inkl. Rtx4090 zulegen zocken zu 100% in wqhd - qhd/4k in hohen Quali Settings mit ggf. Raytracing. Dort bewegen sich die Rechner weit im GPU Limit selbst mit einem ältern 6 Kerner wir Zen2 oder Intel ab 8 Gen.

Hängt halt immer an den Leuten. Wie stelle ich mein Spiel ein? Möchte ich mich mit den Reglern beschäftigen? Ab wann "fehlen" mir FPS? Bin ich einer der User, der jeden FPS mitnehmen möchte, aber auf keinen Fall irgend einen Regler im Game bewegen möchte (und das scheint mir eine große Masse zu sein^^), weil ich sonst Angst habe Leistung, die ich bezahlt habe, zu verschenken.

Und die 4090 ist wirklich ein BIEST. Selbst in UHD mit einem 13900k befindest Du Dich ständig im CPU-Limit, wenn Du Dich nicht mit den Reglern beschäftigen möchtest.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Vielleicht sollte ich ja die e-Cores abschalten, damit ich dauerhaft 120 FPS habe^^
Oder einfach DLSS3 Framegeneration anschalten (was meiner Meinung nach völlig unbefriedigendes Maus-Handling ergibt, denn das Gefühl bleibt bei den niedrigen FPS, während hohe FPS dargestellt werden). Oder ich Regle die Grafik ein bisschen runter.

So viele Wege führen nach Rom %-)
 
Zuletzt bearbeitet:
Hängt halt immer an den Leuten. Wie stelle ich mein Spiel ein? Möchte ich mich mit den Reglern beschäftigen? Ab wann "fehlen" mir FPS? Bin ich einer der User, der jeden FPS mitnehmen möchte, aber auf keinen Fall irgend einen Regler im Game bewegen möchte (und das scheint mir eine große Masse zu sein^^), weil ich sonst Angst habe Leistung, die ich bezahlt habe, zu verschenken.

Und die 4090 ist wirklich ein BIEST. Selbst in UHD mit einem 13900k befindest Du Dich ständig im CPU-Limit, wenn Du Dich nicht mit den Reglern beschäftigen möchtest.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Vielleicht sollte ich ja die e-Cores abschalten, damit ich dauerhaft 120 FPS habe^^
Oder einfach DLSS3 Framegeneration anschalten (was meiner Meinung nach völlig unbefriedigendes Maus-Handling ergibt, denn das Gefühl bleibt bei den niedrigen FPS, während hohe FPS dargestellt werden). Oder ich Regle die Grafik ein bisschen runter.

So viele Wege führen nach Rom %-)
Sehe ich auch so, man sollte jedoch immer dabei betrachten welche Spiele man spielt, ansonsten packt man 500€ für eine Monster cpu auf den Tisch und gewinnt nicht einen Fps zur älteren bereits vorhandenen cpu.
Meist steht erstmal GPU Upgrade vor cpu. Klar ist natürlich wer 2000€ für eine 4090 auf den Tisch legt dem ist Geld eh egal, der kauft sich einfach die schnellste cpu dazu weil er es kann/will.
So leute wie ich die pro Woche nur 3-6h zocken ist das zu viel Geld obwohl ich es habe. Mir reicht mein kleiner 100€ I5 10400f und die kleine (und viel zu teure) Rtx3060ti. Ist aber alles immer eine 100% individuelle Entscheidung. Gut ist mittlerweile jede CPU& GPU von Intel/NV/AMD. Falsch macht also eigentlich niemand was, bis auf bei der Rtx4090 wegen dem ungelösten Stromstecker Problem. Da muss man eigentlich zwingend abwarten.
 
Tatsächlich ist es so. Ich habe zb einen zweiten rechner mit einer 12700 cpu
Auf diesem hatte ich mal testweise Black Desert Online in Remastered gespielt Und vergessen von energiesparmodus meines asus tuf gaming mainboards auf den volle leistungsmodus zu wechseln. Die e cores wurden dabei voll hochgetaktet und ausgelastet und die p-cores haben sich gelangweilt. Der takt der p cores schwankte einzwln zwische 800mhz idle takt und 2,5ghz sparflammentakt.
Erst als ich dann auf volle leistung gegangen bin haben sich die p cores hochgetaktet und vom spiel ausgelastet.
Spielbar war beides, klar die leistung war etwas schlechter aber es war nicht ruckelig.
Gpu war btw eine 3060ti.
 
Zurück