Kernskalierung in 10 Spielen getestet: Wann reichen 4 Kerne und bringen 16 Kerne einen Vorteil?

Jo,
deswegen wäre mir ein 5800X lieber als ein 5900X für ne Gaming-CPU.
Nö das ist relativ egal.
Selbst im gleichen CCD haste Verluste wenn du zwischen den Kernen hin und her verschiebst mit cppc enabled.

Da ist mit CPPC disabled der interconnect frametime massig das geringere übel, da hier nur Berechnungsergebnisse hin und her geschoben werden und keine ganzen Berechnungen an sich.
 
Wenn der Cache neu aufgebaut werden muss in der anderen CCD ist das sicher net optimal für die Pipeline.
 
Wenn der Cache neu aufgebaut werden muss in der anderen CCD ist das sicher net optimal für die Pipeline.
Richtig,
aber wenn cppc disabled ist dann wird ja sauberer über die Kerne verteilt.

Die Sachen die auf ccd2 berechnet werden bleiben ja dann dort. Werden dort von Anfang bis Ende berechnet.
Genauso wie der entsprechende Cache.

Wie arbeitet es sich effizienter? Wenn man immer am gleichen Arbeitsplatz mit seinen Werkzeug ist..
Oder wenn man alle paar min sein Zeug packt und zu ner anderen Werkbank (eventuell in einer anderen Halle) umzieht.

Dem Getriebe ist es egal ob das Teil in Halle A oder in Halle B produziert wird solang es schnell genug fertig ist..
Und im schlimmsten Fall muss ich nur die 100m in die andere Halle ins Lager gehen und das Teil holen.. ist immer noch schneller als es neu zu produzieren.
 
Zuletzt bearbeitet:
Warum wurde eigentlich 16c/16t nicht mit getestet?

nachdem 8c/8t in einigen games schneller war als 8c/16t würde das doch Sinn machen, oder ?
 
Richtig,
aber wenn cppc disabled ist dann wird ja sauberer über die Kerne verteilt.

Die Sachen die auf ccd2 berechnet werden bleiben ja dann dort. Werden dort von Anfang bis Ende berechnet.
Genauso wie der entsprechende Cache.


Halte ich für ein Gerücht, Windows wechselt bei einem Kontent-Wechsel gerne mal den Kern. Genau dafür ist ja CPPC gedacht, damit das nicht passiert.

Starte doch mal Prime95 mit einem Worker ohne CPPC ... da siehste ganz genau wie SAUBER Windows das macht.


cpu-limit_ein_thread_3kjcs.jpg


Der Wahnsinn ... ganz sauber. Kern-Wechsel ohne Ende über alle Kerne hinweg.
Oder krankt mein Beispiel jetzt daran, dass ich kein Win11 und kein AMD nutze?
 
Zuletzt bearbeitet:
Halte ich für ein Gerücht, Windows wechselt bei einem Kontent-Wechsel gerne mal den Kern. Genau dafür ist ja CPPC gedacht, damit das nicht passiert.

Starte doch mal Prime95 mit einem Worker ohne CPPC ... da siehste ganz genau wie SAUBER Windows das ohne CPPC macht.


Anhang anzeigen 1392230

Der Wahnsinn ... ganz sauber. Kern-Wechsel ohne Ende über alle Kerne hinweg.
Dir ist schon klar das du da mit nem Intel CPU argumentiert?
Ich aber von nem AMD CPU rede
 
Ja, ist mir bewusst. Ich hatte nur gerade kein Beispiel parat. Liefer ich aber gerne nach.
Oder Du lieferst ... denn Du sagst ja das es nicht passiert.
 
Ich muss nachher noch mal meine Ergebnisse anschauen, ich meine aber ohne CPPC war die Leistung durchgehend schlechter.
Bei Synthetischen Benchmarks ja..
weil eventuell im singlecore Bereich nicht mehr der stärkste CPU Kern genutzt wird.

Aber singlecore sind heutzutage nur noch eine Handvoll spiele.

@HisN
Modern Warfare.png

Warzone ist sogar in der Lage n 16kerner 5950x CPU technisch auszulasten .

CPPC funktioniert bei AMD anders als bei Intel.
 
CPPC funktioniert bei AMD anders als bei Intel.

Ist mir auch bewusst. Und es ging mir nie um "die Leistung", die Du so gerne anbringst.
Mir ging es einzig und alleine darum OB die Kerne gewechselt werden oder nicht. Was Du bei unser 100ersten Diskussion um dieses Thema immer wieder ignorierst und immer wieder die FPS auspackst^^

Und ich rudere zurück. Ich hab das gerade auf einem aktuell gepatchtem Win11 ohne CPPC ausprobiert.
Ist nicht so "sauber" wie mit CPPC, aber besser als das was ältere Windows-Versionen gemacht haben.

Die Kerne werden gewechselt, aber die Last bleibt innerhalb eines CCX.
CPPC aus.jpg


D.h. Du solltest bei den Diskussionen um dieses Thema ein aktuell gepatchtes Win11 voraussetzen.
 
Ja und?
Vergangenheit hat gezeigt das 720p Ergebnisse relativ sind.

Was bringt es zu sagen : Mein 12900k ist in 720p schneller wie dein 5950X..
Aber in 2 Jahren wenn 16kerne mal wirklich gebraucht werden, dann ist der 5950X schneller dank 16P Kerne statt nur 8P+8E Kerne.

Also Gleich Realistisch Testen und das dann mit DLSS und RSR/FSR da diese Technik in der Zukunft zum Standard wird.

Ich nutze es schon bei 1080p in jeden game wo es geht. (DLSS)
Den Unterschied sehe ich so gut wie gar nicht, da ich nicht mit der Lupe am Bildschirm klebe.
 
Was bringt es zu sagen : Mein 12900k ist in 720p schneller wie dein 5950X..
Aber in 2 Jahren wenn 16kerne mal wirklich gebraucht werden, dann ist der 5950X schneller dank 16P Kerne statt nur 8P+8E Kerne.
Was hat ein solch unrealistischen Szenario mit der Richtigkeit der 720p Auflösung für CPU Tests zu tun? Niemand kann zukünftige Spiele heute testen. Und ob zukünftige Spiele dann mit der heute schwächeren CPU besser laufen, ist erfahrungsgemäß sehr unwahrscheinlich.

Also Gleich Realistisch Testen und das dann mit DLSS und RSR/FSR da diese Technik in der Zukunft zum Standard wird
Auch das hat weder was mit den Tests noch mit CPUs zu tun.

Ich nutze es schon bei 1080p in jeden game wo es geht. (DLSS)
Auch kein Argument gegen 720p CPU Tests.
Vergangenheit hat gezeigt das 720p Ergebnisse relativ sind.
Relativ? Relativ sinnvoll? Ja. Aber welche Vergangenheit?
 
Ist es wirklich so schwer, sich die CPU und GPU Werte anzugucken und dann das kleinste Ergebnis davon zu nehmen?
Muss du wirklich alles vorgekaut bekommen?


Ich zocke grade The Outer Worlds in Ultra auf meinem 49 Zöller 32:9...... 3090+18Kerner Wassergekühlt inkl Aktiv-Backplate......Komm so übertaktet auf rund 180-250 Frames GPU100% / CPU ca 10% Auslastung

WOZU 2022 ein CPU Bench in 1080???...Zudem auf ner Seite mit GAMES im Titel........Einzig reale Auflösungen bringen was......und zwar: Selbst mit ner zur Kotzgrenze übertakteten und Vorn wie Hinten Wassergekühlten GPU, braucht ihr nichtmal n 2 Jahre alten 10980XE.....bei weitem nicht

Wär aber schlecht für die Clickbait-Ratio

Irgendwas begriffen von dem was ich sage??
Ja vor allem um so höher die auflösung zb. 4k ,ändern sich die angaben aber deutlich .Ja schon klar warum 1080p und 720 p ,doch nutzt das keinem was der vor 8 jahren das letzte mal auf 1080p gedaddelt hat !
So siehts aus.........aber somit könnten die sich jeden 2. Artikel sparen, weil klar wäre das CPUs relativ unwichtig sind
Ich würde sogar noch weiter gehen und sagen das soche Zahlen schon fast Betrug am Leser sind - Schreibt wenigstens drüber das unter Realbedingungen selbst bei ner wassergekühlten GPU die FPS-Unterschiede nur knapp über Messtoleranz liegen.
Echt Ärgerlich das man jedesmal auf Youtube jemanden finden muss um echte Vergleiche zu bekommen.
 
Zuletzt bearbeitet:
Komm so übertaktet auf rund 180-250 Frames GPU100% / CPU ca 10% Auslastung
Und das ist bei jedem Spiel, in jeder Szene so?

weil klar wäre das CPUs relativ unwichtig sind
Bei den von dir gespielten spielen vielleicht

Klar, jeder kauft sich nur die aktuell dickste CPU. Wer gibt sich denn mit popligen 6 Kernen zufrieden.

Wär aber schlecht für die Clickbait-Ratio
Eher besser. Denn die meisten schreien ja rum wie kleine Kinder "das ist aber unrealistisch, weil weil weil keiner spielt in 720p und weil ich es nicht verstehe, will ich das nicht". Hardware unboxed haben ihre 720p Tests aufgegeben weil die Community sich permanent in den Kommentarspalten ausgelassen haben. Es gibt genug Tests für euch, also lasst doch wenigstens PCGH so testen, wie es richtig ist. Ohne GPU Limit. Es gibt noch Leute die dafür dankbar sind.
Danke.
 
Die Gesamt CPU Auslastung sagt Recht wenig über die tatsächliche Auslastung aus, denn selbst im CPU Limit, würdest du nie auf 100% kommen. Teste doch Mal was deine CPU Auslastung im CPU Limit für einen Wert anzeigt. Und such dir eine CPU lastige Szene aus.
Hier wird ein wenig zu deinem Spiel gesagt und die Tester kommen in der getesteten Szene mit keiner CPU auf über 100FPS. So unwichtig scheint die CPU also gar nicht zu sein.
 
WOZU 2022 ein CPU Bench in 1080???...Zudem auf ner Seite mit GAMES im Titel........Einzig reale Auflösungen bringen was......und zwar: Selbst mit ner zur Kotzgrenze übertakteten und Vorn wie Hinten Wassergekühlten GPU, braucht ihr nichtmal n 2 Jahre alten 10980XE.....bei weitem nicht
Weil es ein CPU-Test ist und kein Spiele oder GPU Benchmark. Man möchte wissen, wie schnell die CPU in dem Spiel performt. Deswegen ja auch die Bezeichnung CPU-Test!

Wenn PCGH in 1080p oder 4K testen würde, hättest du 10-20 CPUs, die augenscheinlich alle die gleichen Leistung in Spielen bieten würde und dann kaufen sich einige möglicherweise aufgrund dessen eine CPU wie den 5600X und wundern sich dann hinterher in sehr CPU lastigen Spielen wie z.B. ANNO, dass die CPU nicht mehr mit dem 12900K mithalten kann, obwohl es ja vorher der Fall war.

Oder ein anderes Beispiel:
Du hast einen VW Polo und einen Lamborghini Aventador und möchtest wissen, welches der beiden Fahrzeuge die höhere Endgeschwindigkeit hat. Jetzt fährst du mit beiden auf der Autobahn, beschleunigst auf max. 100 km/h und bremst wieder ab, weil mehr nicht erlaubt ist. Das Ergebnis ist dann, dass beide 100 km/h fahren, aber was bringt dir das? Das hat 0 Aussagekraft. Wir beide wissen, dass der Aventador viel schneller als der Polo ist.

Ich habe dir auch schon erklärt, wie du an den Wert kommst, den du sehen möchtest. Schau dir an wie schnell deine GPU in gewünschter Auflösung und wie schnell deine CPU in 720p in Spiel xy ist. Der kleinere Wert ist dann das, was du erhältst.

Ausgedachtes Beispiel:
In Cyberpunk 2077 liefert deine CPU durchschnittlich 160 FPS und deine GPU in 4K RT max. durchschnittlich 70 fps.
Dann wirst du mit deinem System bei durchschnittlich 70 FPS landen, da deine CPU durch deine GPU gebremst wird.

Weiteres Beispiel:
In In Anno liefert deine CPU durchschnittlich 30 FPS und deine GPU in 4K durchschnittlich 80 fps.
Hier landest du also logischerweise bei 30 FPS, weil deine GPU durch deine CPU gebremst wird.

War das so schwer?

Wär aber schlecht für die Clickbait-Ratio
Das hat mit Clickbait nichts zutun. Du bist einfach nicht in der Lage einfachste Sachverhalte zu verstehen und nachvollziehen zu können.
 
Zuletzt bearbeitet:
Ich würde sogar noch weiter gehen und sagen das soche Zahlen schon fast Betrug am Leser sind - Schreibt wenigstens drüber das unter Realbedingungen selbst bei ner wassergekühlten GPU die FPS-Unterschiede nur knapp über Messtoleranz liegen.
Das ist echt harter Tobak, den du hier von dir lässt. :nene:

Warum schauen wir nicht einmal, wie die Kollegen Hardware testen? Torsten vergleicht die Mainboard-Performance mit der immer gleichen CPU (aktuell i9-12900K und R9 3950X) beispielsweise in Cyberpunk 2077 in der Auflösung 640 × 360, um den Einfluss der Mainboard-Konfiguration und dessen Ausstattung beziehungsweise Vor- und Nachteile möglichst genau abbilden zu können. Stephan testet Arbeitsspeicher unter anderem in Kingdom Come Deliverance und reduziert die Auflösung dabei auf mickrige 1176 × 664, da RAM nur Unterschiede aufweist, wenn man diesen im CPU-Limit testet. Raff testet Grafikkarten mit einem stark modifizierten i9-12900K mit deaktivierten E-Cores, einer Wasserkühlung und einer Übertaktung, welche die wenigsten nachstellen können oder möchten, um ein CPU-Limit vermeiden, denn immerhin testet er Grafikkarten. Er nutzt dabei kein DLSS oder RSR/FSR, weil das die Pixellast wieder verringern und die GPU-Last senken würde, obwohl das doch "alle" anderen nutzen, wie kann er nur? Unser externer Redakteur Valentin Sattler hat es sogar gewagt, Wärmeleitpasten mit einem veralteten System, bestehend aus einem i9-9900K und nur 4 GiByte RAM zu testen, so wenig Speicher nutzt doch niemand mehr? Dabei geht es in dem Artikel nur darum, Temperaturunterschiede zwischen einzelnen Wärmeleitpasten aufzuzeigen. Richard testet Gehäuse und vergleicht dessen Kühlleistung mit einem i7-6700K und DDR4-2133 – Hardware aus der Steinzeit und alles andere als praxisnah. Doch für den Vergleich der Kühl- und Lautstärkeleistung eines Gehäuses ist das immer gleiche System über Jahre für eine ausgezeichnete Vergleichbarkeit über viele Artikel Gold wert.

Jeder dieser Redakteure hat seine Testhardware mit Bedacht gewählt und seine Testumgebung so gestaltet, dass die Komponente, die er testet, limitiert und in der Lage ist, einen Vergleich aufzuzeigen. Alle testen sie "praxisfern", denn niemand nutzt mehr 4 GiByte Arbeitsspeicher, spielt CP 2077 in 360p oder KCD in 664p, ist in 4K mit einer langsamen Grafikkarte ohne Upscaling unterwegs oder zieht für einen Temperaturvergleich zwischen Gehäusen ausschließlich einen i7-6700K zurate.

Aber wehe, der CPU-Fachredakteur kommt jetzt auf die Idee, Prozessoren im CPU-Limit zu testen und für diesen Fall die schnellsten Grafikkarten (RTX 3090 und RX 6900 XT) zu verwenden, um ein GPU-Limit zu vermeiden, damit er die Unterschiede zwischen einzelnen CPU-Modellen aufzeigen kann. Das muss ein Betrüger sein.
 
Zuletzt bearbeitet:
Guten Tag und vielen Dank für diesen Test. Ich habe in dieser Kommentarsektion relativ viele (nicht besonders freundlich) formulierte Bemerkungen zur gewählten Testauflösung gelesen, und muss leider sagen, dass ich den Kritikern in einigen Punkten zustimme.
Das Argument, dass in 720p die Unterschiede zwischen CPU Konfigurationen besonders deutlich hervortreten, was für die Leistungsbewertung einer CPU wünschenswert ist und eine höhere Auflösung durch andere Faktoren (grafikkarte) diese Ergebnisse weniger deutlich macht, ist zwar valide, allerdings können Tests in höheren Auflösungen ebenfalls wichtige Informationen offenlegen.
Die theoretische Leistungsskalierung einer CPU ist zwar interessant allerdings gibt es dafür auch Tests wie Cinebench die heutzutage ähnlich realistisch sind wie hunderte FPS bei 720p. Ich fände es also schön wenn in Zukunft (je nachdem wie das vom Aufwand her machbar ist) auch in populäreren Auflösungen wie 1080p (und evtl. 1440p) getestet würde.
Denn auch ein Ergebnis wie: "man sieht zwar das CPU A in Spielen theoretisch um x% besser performen kann als CPU B, aber mit heutigen Grafiktechnologien ist dies in der Praxis (realistische Auflösungen) nur bedingt relevant.", ist wertvoll.
Grüße und einen schönen Tag noch
 
Zuletzt bearbeitet:
Dann schaut man sich ein GPU Test zu dem Spiel an. Ist mir ein Rätsel wie das nicht in den Kopf gehen kann. Heilige…

CPU Test in 1440p oder gar 2160p ist so gut wie immer ein GPU! Grafikkarte! Test.
 
Zurück