Ryzen 9 3950X angeblich 24 Prozent schneller als Core i9-10980XE

Eine ernst gemeinte Anmerkung möchte ich noch anbringen. Soll keine Kritik sein, nur ein Denkanstoß. Vorsicht, jetzt kommt eine Aneinanderreihung von Argumenten die teilweise nur zu 99% zutreffen. Wer es bis zum Ende schaffen will, sollte die "ja aber" Mentalität kurz ablegen.

Die Wenigsten werden sich eine CPU mit 16 Kernen kaufen, um nur damit zu zocken. 8 Kerne werden dafür noch eine Weile reichen.
Was haben sie also vor mit den restlichen Kernen zu machen während das Spiel läuft? Anderes Zeug das auch CPU-Ressourcen braucht. Von solchen Ressourcen gibt es zweierlei: geteilte und nicht geteilte. Nicht geteilte sind so Zeug wie L2-Cache, von dem jeder Kern seinen eigenen hat.
Geteilte Ressourcen sind beispielsweise der L3-Cache und der Speichercontroller. Die müssen sich merere Kerne teilen. L3-Cache ist geschenkt, davon hat ein Ryzen 3rd gen mehr als genug. Aber wie sieht es mit der Speicherbandbreite aus? Die ist mit 2 Kanälen für 16 Kerne nicht unbedingt üppig. Das muss kein Bottleneck in Spielen sein, schon gar nicht, wenn diese die 16 Kerne alleine nicht auslasten können.
Aber jetzt kommt der Poweruser daher und startet neben seinem Game noch etwas anderes CPU-intensives. Schon kann es sein, dass eine geteilte Ressource wie der Speichercontroller zum Flaschenhals wird. Und das obwohl jede der beiden parallel ausgeführten Anwendungen für sich alleine kein Problem damit hätte, und Bestmarken in Benchmarks aufstellt.

Lange Rede kurzer Sinn: wenn ICH mir eine CPU im Preisbereich 500€+ mit mehr als 8 Kernen kaufen würde, dann wäre mir quad-channel wichtiger als x% mehr Leistung in einzelnen synthetischen Benchmarks. Und auch einen Aufpreis bei CPU und Mainboard wert. Das heißt übrigens nicht dass ich zwangsläufig zu Intel greifen würde, auch AMD hat in diesem Segment etwas anzubieten ;)
 
Aber... wenn man wirklich Speicherdurchsatz braucht, hilft der auch nicht. ;)

Ja, wann ist das schon der Fall? Dass selbst Prefetching nichts mehr reißen kann, da müssen es schon spezielle numerische Verfahren wie FEM sein. Und dann kauft man sich besser gleich ein System mit Octa-Channel Interface. Mein Ryzen System hat 60GB/s Durchsatz und viel Cache. Das reicht in verdammt vielen Szenarien aus.
 
Ja, wann ist das schon der Fall? Dass selbst Prefetching nichts mehr reißen kann, da müssen es schon spezielle numerische Verfahren wie FEM sein. Und dann kauft man sich besser gleich ein System mit Octa-Channel Interface. Mein Ryzen System hat 60GB/s Durchsatz und viel Cache. Das reicht in verdammt vielen Szenarien aus.

Aber... nicht in allen.

Nein, du hast prinzipiell natürlich Recht. Aber die Bedenken, dass es ab einer bestimmten Kernzahl mit gleich bleibendem Interface zu Engpässen kommen könnte, halte ich trotzdem für berechtigt. Und nicht in allen Szenarien wird häufig auf die gleichen Daten zugegriffen. Wenn sich die Berechnungen über große Datenmengen ziehen, aber relativ simpel sind, könnte ich mir Engpässe schon vorstellen.
 
Man sollte sich tatsächlich vorher mal Gedanken machen und informieren. Was so Standard-Workloads betrifft, sehe ich nicht die großen Probleme. Dafür haben die R9 ja 64MB L3 Cache und eine 3200MT/s RAM-Spezifikation.
 
Was so Standard-Workloads betrifft, sehe ich nicht die großen Probleme.

Die meisten Standardworkloads werden auch keine 16 Kerne auslasten. Ich denke aber auch, dass man selbst mit Dual-Channel auch bei Last auf allen Kernen in aller Regel noch weit von ernsthaften Engpässen weg ist. Viel kann in solchen Szenarien ja auch das SMT abfedern und natürlich wird in den meisten Szenarien auch der Cache greifen.
 
Ich meinte Multi-Processing mit mehren Standard-Anwendungen. Multi-Threading ist nochmal was anderes. Wann wird schon randomisiert auf eine riesige, monolithische Datenstruktur zugegriffen? Prefetching + großer L3 Cache deckt wirklich schon verdammt viel ab.
 
Ich kenne den "break-even" bei diesen Szenarien nicht. Mir ist nur das Prinzip bekannt.

Ich weiß nicht, ob man das als break-even bezeichnen kann. Es entsteht ja im schlimmsten Fall kein Vorteil. Ohne Prefetching und mit einem ein Byte breiten Interface hätten wir eben die Bandbreite wie mit ~50MT/s. Mit Prefetching und den üblichen 64-Bit-Interfaces kommt man halt, wenn man mindestens 64 Byte sequentiell lesen will, halt auf die von den üblichen ~3-4 GT/s. Insofern war meine Aussage eigentlich Quatsch. Es bleibt ein Achtel von den T/s, aber nur ein Achtel der Daten würde genutzt.
 
Zurück