Special AMD Ryzen 9 9950X und 9900X im Test: PC-Spieler stehen hier nicht im Fokus von Zen 5

An meinem Forscherdrang liegt's nicht. Ich habe verschiedene Konstellationen ausprobiert. SMT off/on, 1 CCD/ Default CCD, verschiedene Power Plans, BIOS Defaults/ OC, Thread Affinity per CapFrameX/ Thread Affinity per Chipsatztreiber. Das einzige, was ich nicht versucht habe, ist ein frisches Windows. Aber das sehe ich nicht ein. nope.
ok, leider habe ich das Spiel nicht sonst würde ich das Nachtesten.
Aber z.b in Jede Survior das ja auch UE4 meines wissen mit RT, habe ich selbst auf Kono (der Wüstenplanet) glattere Frametimes als das. Klar ein anderes Spiel, aber ähnlich beschissen Programmiert.

Klar hat intel sein vorteile bei sowas, aber UE4 plus RT ist oft genung selbst auf high end Intel CPUs beschissen.
gibt es genung videos davon bei Digital Foundry.

Ich empfehle jedem, der nicht gerade die Schnellsten CPUs auf dem Markt hat, bei UE4 Titeln RT zu deaktivieren.
 
Es reicht nicht, einfach nur die Standardmetriken dafür heranzuziehen. Perzentile haben die Eigenschaft, Ausreißer rauszufiltern. Genau das will man ja, um stabile Ergebnisse zu bekommen in einem Review. Kein Tester hat die Zeit, so viele Runs zu machen, bis ausreißersensitive Metriken wie Low Average eine valide Session ergeben.

Man muss sich die Frametimegraphen anschauen. Ich musste RT auf dem Ryzen abschalten, um Gotham Knights wirklich genießen zu können. Die Ruckler waren extrem nervig. Solche Spikes siehst du in P1 und P0.2 nicht.

Anhang anzeigen 1466867

Ne, wenn man Frametimes statt Fps plottet, sollte man auch eher beim 99,8ten denn beim 0,2ten Perzentil gucken. :-P
Da sehe ich deinem Plott aber sehr deutlich eine mindestens Verdoppelung der Frametimes. Gut, das volle Ausmaß der Spikes wird erst bei P99,9 sichtbar, aber dass in deinem Beispiel vorher gar nichts zu sehen ist, stimmt so nicht. (Bei Dave dagegen bescheinigen die P0,2 Fps dagegen tatsächlich eine saubere Ausgabe)
Ob P0,1 aber aber überhaupt die große Relevanz hat, wäre noch gegenzuprüfen. Man ist ja extra von min. Fps auf Perzentile gewechselt, weil 1 schlechter Frame unter 999 nicht automatisch eine schlechte Game-Experience bedeutet.

Unreal Engine 4 ^^ Die Engine ist einfach Mist, sorry.
Aber ja, die X3D haben eine Frametime-Schwäche, das schreibe ich ja fast bei jedem Test dazu. Wie ausgeprägt die ist, hängt dann vom Use-case ab. Vielleicht wird das ja mit Zen-5-X3D besser :ka:

So sporadisch auftretende Ruckler sollten eigentlich nicht durch Berechnungsschwächen entstehen. Entweder es gibt irgendwas sehr seltenes im Game-Loop, dass nicht mehr in den Cache passt oder, sehr viel wahrscheinlicher, das Scheduling der Streaming-Engine haut nicht hin bzw. passt nicht ins Kern-Budget. (Ein Vergleich mit p-only Intel sollte Aufschluss geben.)
An beidem ändert sich mit Zen 5 nichts, also auch nicht bei Zen 5D
 
Ne, wenn man Frametimes statt Fps plottet, sollte man auch eher beim 99,8ten denn beim 0,2ten Perzentil gucken. :-P
;-)
Da sehe ich deinem Plott aber sehr deutlich eine mindestens Verdoppelung der Frametimes. Gut, das volle Ausmaß der Spikes wird erst bei P99,9 sichtbar, aber dass in deinem Beispiel vorher gar nichts zu sehen ist, stimmt so nicht. (Bei Dave dagegen bescheinigen die P0,2 Fps dagegen tatsächlich eine saubere Ausgabe)
Nein, das volle Ausmaß wir nicht grundsätzlich bei P99.9 sichtbar. Wenn die Anzahl der Samples genügend groß ist, dann werden Ausreißer immer rausgefiltert. Perzentile hängen von der Anzahl der Samples ab und repräsentieren einen einzigen Wert, wenngleich es ein Strukturparameter ist (Sortierung). Es bleibt nichts anderes übrig als sich den Frametimegraphen anzuschauen oder Metriken zu verwenden, welche unmittelbar von Ausreißern abhängen, wie z.B. Low Average oder Low Integral (MSI Afterburner/RTSS Lows). Solche Metriken machen einem das Leben als Tester aber schwerer, weil sowohl statistische als auch systematische Ausreißer erfasst werden. Die ersteren sind böse, die will keiner. ^^
 
Ich meinte P99,9 für deinen Fall. :-)
Wenn von 15.000 Frames einer doppelt so lange gerendert wurde, sieht man das natürlich nicht erst bei P99,995. (In einem Frametime-Graphen auf einem <8K-Display dagegen möglicherweise nicht.) Aber da ist eben die Frage, wie wichtig ein einzelner Ruckler alle fünf Minuten ist?
 
Aber da ist eben die Frage, wie wichtig ein einzelner Ruckler alle fünf Minuten ist?
In meinem Beispiel oben sind es fiese Spikes alle paar Sekunden. Das hat beim Spielen ziemlich gestört. Perzentile sind halt gut für Reviews, weil die Ergebnisse stabil sind, aber eher ungeeignet um die reale Spieleerfahrung abzubilden.
 
Wie gesagt: In deinem Beispiel zeichnen sich die Spikes auch deutlich in den P99,8 ab. Da ist dann halt ein passend gewichtetes Wertungssystem und Betrachtung des richtigen Perzentils gefragt. Frametime-Verschlechterungen über 4-5 Frames, wie bei dir, würden sich @50 Fps in P99,9 selbst bei nur einem Auftreten alle 1,5 Minuten noch abzeichnen, was nun wirklich nicht mehr "alle paar Sekunden" ist (und auch weit jenseits typischer Benchmark-Längen liegt). Da stehen ein Fragezeichen weniger hinter der Statistik und eher hinter den Ansprüchen der Leser. Ich persönlich wäre ja auch dafür, das die quadrierten Frametimes unterhalb von 20 ms zu integrieren. Aber bislang ist nicht mal durchgedrungen, dass Avg. eigentlich irrelevant sind.
 
Bei der UE ist es wichtig das ein schneller Datenträger das spiel beherbergt Sprich SSD
Ist je nach spiel erforderlich, bei HDD nur cmr und min 7200rpm alles andere führt zu den frametimespikes.
Kenne das sehr gut sofern man genug ram hat (ab 32gb) und ne gpu mit mehr als 8gb vram wird das deutlich weniger (bis 1080p)
Das neueste meiner Sammlung hellblade 2 SSD ist hier essentiell dagegen ein F1 24 reicht ne HDD völlig. Da die Daten vorgeladen werden.
Selbst das dragons dogma2 liebt Ssd Speicher
Aktuell führt mein gpu quäl liste das benchmark tool von black myth an. aber ist sehr nah bei alan wake 2 und cp2077
Optisch machen die beiden Ue5 spiele black myth und hellblade2 nenn sehr guten job das gute mit ssd ruckelt da nix
Was aber wichtig bei der ue5 ist das man tsr nutzt das reduziert bzw erhöht die Textur Komprimierung und nicht die Auflösung.
leider hat das Nachteile bei der schärfe ist aber von der Implementierung abhängig gut gemacht sieht man zwischen 33% tsr und 100% tsr kein unterschied. gewinnt aber deutlich an perf bis zu 60%
Allerdings kostet das sofern genug gpu Leistung vorhanden cpu perf
Das wird in den kommenden Jahren sich so Abzeichen das SSD zwingend wird und die cpu zunehmend zum Flaschenhals wird selbst bei ner rtx4070ti super (32,5tf/45tf)
Sicher ist nur das 1080p alsbald nicht eol wird sofern OLED mich dazu nicht zwingen
 
Wie gesagt: In deinem Beispiel zeichnen sich die Spikes auch deutlich in den P99,8 ab.
Nicht wirklich. P99.8 ist immer noch fast 20ms, was man als flüssig durchgehen lassen könnte, zumindest als Low-Wert.

1723807064317.png

Da ist dann halt ein passend gewichtetes Wertungssystem und Betrachtung des richtigen Perzentils gefragt. Frametime-Verschlechterungen über 4-5 Frames, wie bei dir, würden sich @50 Fps in P99,9 selbst bei nur einem Auftreten alle 1,5 Minuten noch abzeichnen, was nun wirklich nicht mehr "alle paar Sekunden" ist (und auch weit jenseits typischer Benchmark-Längen liegt). Da stehen ein Fragezeichen weniger hinter der Statistik und eher hinter den Ansprüchen der Leser. Ich persönlich wäre ja auch dafür, das die quadrierten Frametimes unterhalb von 20 ms zu integrieren. Aber bislang ist nicht mal durchgedrungen, dass Avg. eigentlich irrelevant sind.
Du kannst das nicht über Perzentile machen, weil du das Perzentil dynamisch auf die Situation anpassen müsstest. Soll man dann immer einen anderes Perzentil in die Charts schreiben? ;-)
 
Zuletzt bearbeitet:
Ich würde sagen, es sind mehrere Faktoren, der stärkste scheint zu sein, dass Intel das bessere Memory Management hat. Das ist extrem wichtig für Spiele. Am Ende des Tages macht das RPL zur besten Gaming CPU.
Oder aber auch, dass RPL ein Monolith ist.
AMDs Multi-Die Ansatz mit IF ist zwar praktisch, günstig, hat aber eben genau diese Nachteile: Latenz. Warum diese in Zen 5 so viel mehr ist, ist mir noch nicht klar, aber ich komme auch erst im November dazu mich vollumfänglich einzulesen.

Jedenfalls noch vor meinem nächsten Upgrade, ich hab grad das Problem, dass ich zumindest einen der Maschinen daheim ein Upgrade spendieren möchte, weil ich wieder vermehrt "Counter Strike 2" spiele und das bei mir manchmal nervige Framedrops hat... am bald 10 Jahre alten HTPC aber nicht (Core i5 6500), da ist es überraschend flüssig und nun würde ich halt gerne ein Setup anstreben, dass hier noch besser ist und auch zukunftstauglich (ich werde ja auch anderes spielen), also wieder einige Jahre "Ruhe". Vielleicht wirds ja statt dem 9950X3D ein Arrow Lake Modell...
 
Zuletzt bearbeitet:
Ich würde sagen, es sind mehrere Faktoren, der stärkste scheint zu sein, dass Intel das bessere Memory Management hat. Das ist extrem wichtig für Spiele. Am Ende des Tages macht das RPL zur besten Gaming CPU. Auch wenn das kein Reviewer so darstellt, ich kann es mit zig Beispielen belegen. Wenn mein Z690 Board nicht defekt wäre, ich wäre schon längst zurück zum 13900K gewechselt. Schlechtere Effizienz hin oder her, ich habe die Frametime Probleme mit den Ryzens satt. :daumen2:
Puh, ich spiele keine Frametimes. Sitze auch nicht die ganze Zeit vor dem Spiel und hab zehn Diagnose Tools laufen.

Hast du den ein Ryzen? Das du so betroffen bist? Wo liegt das Problem sich ein Board zu organisieren, selbst als B-Ware bekommst die Teile um die 100Euro.

Ob mit Ryzen 1-4 konnte ich immer entspannt arbeiten und spielen. Ob Intel oder AMD, hier wird immer nach dem Haar in der Suppe gesucht.
 
Zuletzt bearbeitet:
Was hat das mit AVX zu tun? Die 60% Singlecore-Performance beziehen sich nicht auf AVX.
Doch, du hast dich auf Spec CPU 2017 bezogen, vermutlich auf den Test von Anandtech, und der bezieht AVX explizit ein:
For the launch of the Ryzen 9000 desktop chips, we've built a fresh set of binaries to better take advantage of the Zen 5 architecture. Specifically, as these are the first consumer chips since 2021's Rocket Lake (11th Gen Core) to offer AVX-512 support with a full, 512-bit wide SIMD backing it, we've built a new set of binaries to make use of the feature.
 
Doch, du hast dich auf Spec CPU 2017 bezogen, vermutlich auf den Test von Anandtech, und der bezieht AVX explizit ein:
Joar... Geekbench korrelliert ziemlich gut mit SPEC CPU 2017 und das reagiert kaum auf AVX-512.
We've not yet had the chance to run our x86_64-v3 (non-AVX-512) binaries on AMD's chips, so I won't speculate too much on the impact of a 512-bit SIMD in these scores. But the SPEC CPU benchmark suite is not known for being particularly sensitive on SIMD width to begin with, as it uses plenty of serial code
Oder aber auch, dass RPL ein Monolith ist.
RPL's Speicherlatenz ist gar nicht sooo viel besser. Das sind vielleicht 10-15% Unterschied. Entscheidend ist, wie schlau der Prefetcher ist. Daten können smart im Voraus geladen werden. Damit kann man schlechtere Latenzen gut kompensieren. Intel scheint das ziemlich gut zu beherrschen.
 
Zuletzt bearbeitet:
RPL's Speicherlatenz ist gar nicht sooo viel besser. Das sind vielleicht 10-15% Unterschied. Entscheidend ist, wie schlau der Prefetcher ist. Daten können smart im Voraus geladen werden. Damit kann man schlechtere Latenzen gut kompensieren. Intel scheint das ziemlich gut zu beherrschen.
Sorry. Ich war mal wieder undeutlich, ich meinte eigentlich eher die Core-to-Core Latenzen die vielleicht auch einiges reinspielen.
 
Von deine Screenshots aus sieht es eher nach einem eingestellten FPS Limit aus, da CPU UND GPU nicht voll ausgelastet sind.
Von daher passen deine Screenshots nicht zu deinem Argument...

Ne das liegt am DLSS da wird die GPU nicht ausgelastet, auch bei abgeschalteten DLSS hat die CPU
knapp 60% Auslastung .

also weit weit weg von 100% Auslastung und das mit einem 7800X3D

der 9950X wäre hier bei geschätzt 20-30%


StarCitizen_2024_08_16_20_40_15_849.jpg
 
Rein Architektonisch gibt es wenig Gründe warum die FP Leistung ohne AVX Nutzung auffällig steigen sollte, und die Spiele Ergebnisse spiegeln ja auch genau das wieder.
Es geht ja auch nicht nur isoliert um die FP Leistung. SPEC CPU 2017 deckt nicht nur die Compute Units ab. Ich habe übrigens den SPEC CPU 2017 ohne AVX-512 bereits "in Auftrag" gegeben bei Raichu.

Spiele sprechen auf andere Dinge (jenseits von non-AVX FP) viel stärker an, deswegen spiegelt sich da eigentlich nichts wieder, nein.
 
der 9950X wäre hier bei geschätzt 20-30%
Aber auch nur, weil nicht alle Kerne genutzt werden. Wenn nur 4-6 Kerne genutzt werden, sind halt 10-12 idle und von daher ist die CPU im gesamten weniger ausgelastet.
Ein Spiel das 8 Kerne optimal nutzt, sollte z.b. zwischen 80-90% Last beim 7800X3D liegen, wenn kein GPU-Limit besteht. Dabei ist DLSS egal, nur das reine GPU-Limit ist da wichtig.
Deswegen ist die Prozentangabe bei der CPU meist nicht sehr aussagekräftig.
Ein Spiel könnte nur 2 Kerne nutzen, die aber zu 100% und beim 7800X3D wäre es trotzdem nur 25% Last...
Ein CPU-Limit ist es in dem Spiel aber trotzdem.

100% Last bei der CPU ist aber auch nicht gut, da es dann häufig zu Rucklern kommt.
Da wäre etwas Luft besser, denn der Verlauf in einem Spiel ist ja nie gradlinig.
 
Angeblich hat AMD das Problem gelöst, meine den Core-Parking Bug.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück