Core i9-13900K mit RTX 4090: Große Fps-Unterschiede mit und ohne E-Cores

Wow, Windows 10. Das wundert mich halt null und ich sag es immer wieder: Unter W10 sollte man die E-Cores eh deaktivieren, da es sonst zu framedrops kommt.
 
Was ist daran gewagt? Was sollen die Leute mit Skylake bzw. ZEN1 machen? Kann man damit nicht mehr spielen? Im GPU Limit ist es bis auf wenige % egal, das ist zwar messbar aber sicher nicht spürbar.

Wer sagt, dass man damit nicht mehr spielen kann? Zumal "spielbar" ein dehnbarer Begriff ist.
Schön, dass du grad Skylake erwähnst.
Mein Vater spielt noch mit einem 6600K Skylake, den ich ihm vor Jahren zum Geburtstag geschenkt habe, er benutzt jetzt seit einer Woche meine alte RX 5700 XT und er läuft praktisch andauernd ins CPU Limit. Ihm macht die Performance nichts aus, da es für ihn spielbar ist und immer noch deutlich besser als mit dem GTX 970 Speicherkrüppel. Da ich aber weiß, wie gut Spiele (auch solche, die er spielt) mit genau der Grafikkarte laufen können, weiß ich eben, dass die Einbußen durchaus offensichtlich sind.
Und wenn du einen 144 Hz Monitor hast, sowieso.
 
Hmmm, ergibt schon Sinn. Ich dachte bisher immer, dass der L3-Cache bei den jeweils aktiven Kernen sozusagen anteilig "geparkt" wird.

Dann müsste es ja auch so sein, dass, wenn beispielsweise ein älteres Spiel gespielt wird, welches auf nur einem einzigen Thread läuft und keine Kerne/Threads deaktiviert (ergo 16C/32T aktiv) sind, die vollen 36 MB L3-Cache von dem einen ausgewählten Thread genutzt werden können, OBWOHL die anderen 31 Threads rein theoretisch auch zur Verfügung stehen würden, aber eben in der Praxis nicht auf sie zugegriffen wird.

Wenn dem so wäre, würde ich die E-Cores gar nicht deaktivieren.

Cache wird überhaupt nicht "zugeteilt", sondern als Pool für Daten gemäß deren Verwendung verwendet. Egal ob ein Thread auf einem P-Kern, acht Threads auf acht P-Kernen oder 200 Threads auf 8+16-Kernen laufen (letzteres entspricht am ehesten der Realität): Es ist immer möglich, dass die Daten einer Anwendung 35+ MiB des L3 belegt. Natürlich sinkt die Wahrscheinlichkeit, dass irgend eine andere auch als wichtig zählt, mit der Zahl der laufenden Programme, aber das ist komplett unabhängig von der Zahl der zugehörigen Threads und den aktiven Ausführungseinheiten.

Wo ich mir nicht mehr ganz sicher bin: Arbeitet der L3 inclusive oder exklusive? In letzterem Fall würden Inhalte, die gerade im L2 der E-Cluster liegen, keinen L3 belegen und aktive E-Cores somit die L3-Belastung reduzieren.

Da müßte man "größere" definieren.

Die E Kerne von Alderlake hatten ungefähr Sky Lake IPC. jetzt ist man eine Generation weiter. Maximal Takten sie mit 4,3 GHz. Die 16 E kerne entsprechen am ehesten einem doppelten i7 9700K und auf dem laufen beide Spiele nicht schlecht.

Raptor Lakes E-Cores übernehmen die Gracemont-Architektur 1:1 von Alder Lake und die hatten eine etwas niedrigere IPC als Skylake in Single-Thread-Anwendungen. Bei Multi-Threading kommt bei den meisten Skylake-CPUs noch Hyperthreading hinzu (geschickte Wahl mit dem HT-freien 9700K), der homogene Aufbau und im Desktop natürlich ein höherer Takt (ganz schlechte Wahl beim 9700K, der 9700T wäre passender). Intel selbst hat für einen E-Core-4er-Cluster 80 Prozent mehr Leistung als bei einem nicht näher definierten Dual-Core-Skylake versprochen – ohne anzugeben, ob ein 3,9 GHz 6320 oder ein 1,9 GHz 6102E gemeint ist.
 
Tatsächlich ist es so. Ich habe zb einen zweiten rechner mit einer 12700 cpu
Auf diesem hatte ich mal testweise Black Desert Online in Remastered gespielt Und vergessen von energiesparmodus meines asus tuf gaming mainboards auf den volle leistungsmodus zu wechseln. Die e cores wurden dabei voll hochgetaktet und ausgelastet und die p-cores haben sich gelangweilt. Der takt der p cores schwankte einzwln zwische 800mhz idle takt und 2,5ghz sparflammentakt.
Erst als ich dann auf volle leistung gegangen bin haben sich die p cores hochgetaktet und vom spiel ausgelastet.
Spielbar war beides, klar die leistung war etwas schlechter aber es war nicht ruckelig.
Gpu war btw eine 3060ti.
Denke da ist Softwareseitig noch einiges nötig damit win P & E richtig einteilt. Hab mal gelesen man braucht dafür mindestens win11 damit die gen so halbwegs gut läuft.
Wer sagt, dass man damit nicht mehr spielen kann? Zumal "spielbar" ein dehnbarer Begriff ist.
Schön, dass du grad Skylake erwähnst.
Mein Vater spielt noch mit einem 6600K Skylake, den ich ihm vor Jahren zum Geburtstag geschenkt habe, er benutzt jetzt seit einer Woche meine alte RX 5700 XT und er läuft praktisch andauernd ins CPU Limit. Ihm macht die Performance nichts aus, da es für ihn spielbar ist und immer noch deutlich besser als mit dem GTX 970 Speicherkrüppel. Da ich aber weiß, wie gut Spiele (auch solche, die er spielt) mit genau der Grafikkarte laufen können, weiß ich eben, dass die Einbußen durchaus offensichtlich sind.
Und wenn du einen 144 Hz Monitor hast, sowieso.
"mein Vater spielt...im cpu Limit" ist erstmal sehr sehr allgemein.
Die erste entscheidende Frage ist in welcher Auflösung und fps er spielt. Wenn er z.B. mit >120fps im cpu limit in fhd zockt ist an der cpu nix aussetzen.
Frage Nr. ist welche Spiele er Zockt. Die Schwankungen GPU/CPU Hunger sind extrem. Wenn z.B. Star Citizen oder Strategie wie Anno zockt ists natürlich klar, die fressen cpu's zum Frühstück.
Der I5 6600k ist mit 4Kernen/ 4Threads natürlich sehr grenzwertig. 6 Kerner bieten da natürlich mehr Luft.
Ich hab z.B. lange mit einem 11 Jahre alten I7 870 gezockt bis zur gtx970. Erst als ich auf eine gtx1070 aufrüstete lief ich permanent in cpu limit. (Wqhd/qhd, hauptsächlich BF 3-5).
Aktuell werkelt in I5 10400f + Rtx3060ti die sehr gut zusammen passen.
 
Zurück