News AMD Ryzen: Was bringt mehr, Kerne, Takt oder Cache?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen: Was bringt mehr, Kerne, Takt oder Cache?

Was bringt mehr bei Ryzen in Spielen, Kerne, Takt oder Cache? Diese Frage hat sich Techspot gestellt und zwei bei Spielern beliebte Zen-3-Modelle gegeneinandergestellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Ryzen: Was bringt mehr, Kerne, Takt oder Cache?
 
obwohl mein CPU fast einschläft habe ich mir 7000er gegönnt. bis heute weiss ich nicht warum ich mir die Mühe gemacht hab :D Aktuelle Spiele verlangen mehr GPU als CPU. WQHD mit 180 hz und mehr brauche ich eigentlich nicht mehr
 
Mehr IPC ist am besten, dann kommt mehr Takt und dann mehr Cache.
Mehr Kerne gilt nur für ein Bruchteil der Spiele.
obwohl mein CPU fast einschläft habe ich mir 7000er gegönnt. bis heute weiss ich nicht warum ich mir die Mühe gemacht hab :D Aktuelle Spiele verlangen mehr GPU als CPU. WQHD mit 180 hz und mehr brauche ich eigentlich nicht mehr
Wenn du mit 180hz spielst und von daher 180FPS als FPS-Ziel/Limit setzt und trotzdem nicht am CPU-Limit bist, dann haste mit Sicherheit eine zu langsame GPU. :D
Ansonsten hat die Hertz-Zahl des Monitors keinerlei Einfluss auf CPU oder GPU, sondern nur die Auflösung die man im Spiel einstellt. Aber auch hier könnte man auf 4k einstellen und auf z.b. 1080p downsamplen.
 
Zuletzt bearbeitet:
obwohl mein CPU fast einschläft habe ich mir 7000er gegönnt. bis heute weiss ich nicht warum ich mir die Mühe gemacht hab :D Aktuelle Spiele verlangen mehr GPU als CPU. WQHD mit 180 hz und mehr brauche ich eigentlich nicht mehr
Ich bin in fast jedem Game abgesehen von Hardcore-RT Titeln immer im CPU-Limit mit einem 7000er X3D.

Sim und RTS Titel sind fast immer durch die CPU limitiert und nicht durch die GPU. Oft auch Open-World RPGs. Auch das aktuelle Last Epoch bricht in den FPS deutlich ein wenn mal viel auf dem Screen los ist.

"Aktuelle Spiele" - bezogen worauf also ? Die fünf Titel wo eine GPU wirklich gut auslasten können ? Die anderen 96.000 Steam Titel haben keine Relevanz ? Selbst ein relativ neues Hogwarts Legacy ist hart CPU-limitiert.

Stories ausm Paulanergarten die du hier erzählst. :-D
 
Mehr IPC ist am besten, dann kommt mehr Takt und dann mehr Cache.
Mehr Kerne gilt nur für ein Bruchteil der Spiele.

Wenn du mit 180hz spielst und von daher 180FPs als Ziel setzt und trotzdem nicht am CPU-Limit bist, dann haste mit Sicherheit eine zu langsame GPU. :D
Sehe ich anders.
Aus was bildet sich denn überhaupt die berühmt, berüchtigte IPC?
Von daher muß an erster Stelle klar der Cache stehen, dann Takt und zum guten Schluß die Kernanzahl.
Cache ist wie Hubraum. Durch nichts zu ersetzen außer durch noch mehr Hubraum.
Und davon profitiert der Abbau von Instruktionen pro Zyklus am stärksten. Mit anschließendem Gaspedaldurchtreten (Takt) :D
Gruß T.
 
Da der Test nicht mit gleichen Taktraten gemacht wurde, bringt der Test keine neuen Erkenntnisse. Selbst ihr bei PCGH messt das ja seit Jahren.
 
Mehr IPC ist am besten, dann kommt mehr Takt und dann mehr Cache.
Mehr Kerne gilt nur für ein Bruchteil der Spiele.

Wenn du mit 180hz spielst und von daher 180FPS als FPS-Ziel/Limit setzt und trotzdem nicht am CPU-Limit bist, dann haste mit Sicherheit eine zu langsame GPU. :D
Ansonsten hat die Hertz-Zahl des Monitors keinerlei Einfluss auf CPU oder GPU, sondern nur die Auflösung die man im Spiel einstellt. Aber auch hier könnte man auf 4k einstellen und auf z.b. 1080p downsamplen.
denke rtx 4090 ist noch nicht gerade allzu langsam :)
 
Ein Test dieser Art ist doch nichts neues, das haben im Prinzip schon zig Tester gemacht...?

Ich hätte mir bei der Überschrift eher erwartet, dass man bei einem 7800X3D z.B. sukzessive gewisse Features abgestellt hat, um die Unterschiede zu testen.
Aber so ist das doch überhaupt keine Nachricht wert.
 
RAM OC wird irgendwie immer vergessen.. schade eigentlich..
Du kannst dein RAM gar nicht so sehr overclocken, dass es auch nur in die Nähe der Geschwindigkeit und Zugriffszeit der Caches kommt. In dem Moment wo der Cache-miss zuschlägt und die CPU Daten aus dem RAM holen muss, bremst das erstmal massiv aus. Deswegen nützt auch ne hohe IPC genau gar nix, wenn die Daten nicht im Cache sind. Dann müssen die aus dem (im Vgl. zum Cache) lahmen RAM geholt werden, und derweil drehen deine ganzen schönen schnellen Recheneinheiten im Leerlauf...
 
Ich wünschte meine Programme würden sich wie bei games verhalten, tuen sie aber leider nicht. Aber auch ich stoße trotz fast voll auslastung an ner Grenze.

Auch ich habe verstanden das Kerne nicht alles ist. Wenn schon ein 24 Kerner nicht zu 100 % ausgelastet, gilt dies auch für den 32 Kerner erst recht. Cache Scheint meiner Anwendung auch mehr egal sein.

Wenn man das auch auf Anwendung außerhalb der Spiele übertragen kann müsste der Sprung dank des fehlenden mehr Kerntakts wohl sehr klein sein. Bei manchen Anwendung ist takt King, bei anderen Kerne king und hier halt Cache king.

Es gibt nicht viele Programme wo Kern King sind, spiele sind ja Cache King und bei meinem videoumwandlung ist cpu takt King.
So die Aufteilung. Überall halt wo viel apdraktionen also plus und so zahlen als Fokus stehen, ist es der allcore takt. Bei games bin ich old-school unterwegs und die games stammen noch aus der Zeit wo 3 und 4 Kerner auf dem Weg zum Standard wurden. Aber auch da wird Cache wichtig sein aber nur solange wie wenn man auf viele fps steht.

Wenn man allerdings die fps oben rum limitiert dann bringt der größere Cache allerdings nix mehr, das ist klar.
 
Du kannst dein RAM gar nicht so sehr overclocken, dass es auch nur in die Nähe der Geschwindigkeit und Zugriffszeit der Caches kommt.
Da spricht der Fachmann mit mehr als offensichtlichen Fakten. Dass RAM bei der Geschwindigkeit nicht die internen CPU Caches ersetzen kann, dem ist sich jeder bewusst. Es geht beim RAM Tuning nicht nur darum den Takt zu erhöhen sondern auch die Latenzen zu drücken. Das ist genau das, worauf Games im CPU Limit ansprechen - so geringe Latenzen wie möglich.
 
Da spricht der Fachmann mit mehr als offensichtlichen Fakten. Dass RAM bei der Geschwindigkeit nicht die internen CPU Caches ersetzen kann, dem ist sich jeder bewusst. Es geht beim RAM Tuning nicht nur darum den Takt zu erhöhen sondern auch die Latenzen zu drücken. Das ist genau das, worauf Games im CPU Limit ansprechen - so geringe Latenzen wie möglich.
Da geb ich dir schon recht, nur hat selbst maximal getuntes RAM immer noch Latenzen, die um Größenordnungen länger sind als die des L3-Cache (sorry, ich hab mich initial unklar ausgedrückt, mit Zugriffszeiten meinte ich Latenzen). RAM-OC bringt vielleicht ein bisschen was, aber es ist nix im Vgl. zu einer Vergrößerung der Caches. Wenn ich die Wahl hätte zwischen maximalen RAM-OC und einer CPU mit verdoppeltem Cache, würde ich ganz klar die CPU nehmen.
 
Kann es sein, dass die neue Unreal Engine 5 auch moderne CPUs ziemlich viel abverlangt. Habe mal bisschen rumgelesen imNetz und meinen Erfahrungen abgeglichen. Für die neuen Titel mit UE5 wie Hogwarts, Palworld, oder Remnant braucht man schon dicke CPUs muss ich sagen. Liegt das an vielleicht an den neuen eingebauten Techniken wie Lumen und Nanite?
 
Da spricht der Fachmann mit mehr als offensichtlichen Fakten. Dass RAM bei der Geschwindigkeit nicht die internen CPU Caches ersetzen kann, dem ist sich jeder bewusst. Es geht beim RAM Tuning nicht nur darum den Takt zu erhöhen sondern auch die Latenzen zu drücken. Das ist genau das, worauf Games im CPU Limit ansprechen - so geringe Latenzen wie möglich.
Beim RAM oc. Was ist wichtiger: geringere Latenzen oder höherer takt?
3200mhz mit sehr geringen Latenzen?
3800mhz mit höheren Latenzen?
 
Kann es sein, dass die neue Unreal Engine 5 auch moderne CPUs ziemlich viel abverlangt. Habe mal bisschen rumgelesen imNetz und meinen Erfahrungen abgeglichen. Für die neuen Titel mit UE5 wie Hogwarts, Palworld, oder Remnant braucht man schon dicke CPUs muss ich sagen. Liegt das an vielleicht an den neuen eingebauten Techniken wie Lumen und Nanite?
Sicherlich, Raytracing spielt da ja auch mit rein.
Trotzdem gehts auch ohne große CPU Last in Unreal Engine, siehe z. B. The Finals.

Ich bin trotzdem öfter im CPU Limit als im GPU Limit, z. B. bei Far Cry 6, Anno 1800 oder Warzone.

3200mhz mit sehr geringen Latenzen?
3800mhz mit höheren Latenzen?
Die Latenzen sind abhängig vom Takt, dementsprechend werden die sehr ähnlich ausfallen,
nur eben man hat trotzdem mehr Takt und damit (zumindest in Warzone) mehr Leistung.

Hier siehst du das ganz gut:
 
Früher hieß es mal das Hubraum durch nichts zu ersetzen ist als durch noch mehr Hubraum.

Was sich dann im Bereich Downsizing inklusive schnellerer Obsoleszenz entwickelt hat ist ja hinreichend bekannt :fresse:
 
Zurück