AMD Ryzen 5000: Cinebench-Ergebnisse zu allen vier CPUs aufgetaucht

Jetzt ist es nur eine Frage der Zeit bis Intel 10 nm ausrollt und 5 GHz und mehr dabei schafft. Dann sieht AMD wieder mal nur die Rücklichter.
Sicher^^

Es gab immer Boards die beides boten. DDR1 + DDR2
DDR2 + DDR3
DDR3 + DDR4 (extrem selten)

Aber der Ram ist heute nicht mehr so auf dem Vormarsch wie früher.
Solche Boards gibt es kaum noch, seit dem die Speichercontroller in die CPUs gewandert sind.
 
Das zeigt es doch, eine Unterscheidung in "Anwendungs-IPC" und "Spiele-IPC" ist überholt.
Überholt ist eher das simple hochrechnen einer Durchschnitts IPC auf alle Workloads.

Es geht hier ja weniger um den Ryzen 5000 CB "Singlecore" Score ansich, es geht um die steigerung gegenüber dem Ryzen 3000. Und, wenn AMD nicht nur auf CB optimiert hat, kann man sehr wohl sagen, dass die "SpieleLeistung" dann überproportional zu dem "Singlecore" Score zulegen wird.

Die Spieleleistung wird mehr zulegen, als die Cinebench SC Leistung, das ist richtig.

Aber es besteht keine notwendige Korelation zwischen den beiden Steigerungen, es gilt nicht generell, dass die Spieleleistung stärker ansteigt als das was man im cinebench SC sieht.
Das sie es in dem Fall tut, liegt zum Großteil an den verbesserten Latenzen, hätte man dahingehend nichts geändert, wäre man im cinebench trotzdem noch so stark, in spielen aber deutlich schwächer.

Die Änderungen bei Zen3, die für die erhöhte Spieleleistung verantwortlich sind, sind nicht die gleichen, die für die erhöhte Cinebench Leistung sorgen,
 
Überholt ist eher das simple hochrechnen einer Durchschnitts IPC auf alle Workloads.



Die Spieleleistung wird mehr zulegen, als die Cinebench SC Leistung, das ist richtig.

Aber es besteht keine notwendige Korelation zwischen den beiden Steigerungen, es gilt nicht generell, dass die Spieleleistung stärker ansteigt als das was man im cinebench SC sieht.
Das sie es in dem Fall tut, liegt zum Großteil an den verbesserten Latenzen, hätte man dahingehend nichts geändert, wäre man im cinebench trotzdem noch so stark, in spielen aber deutlich schwächer.

Die Änderungen bei Zen3, die für die erhöhte Spieleleistung verantwortlich sind, sind nicht die gleichen, die für die erhöhte Cinebench Leistung sorgen,

Kann du mir bitte einmal die Quelle verlinken, die dich veranlasst, gesichert davon auszugehen, das die Spieleleistung stärker steigt, als der Cinebench Single Score.

Weil das wäre große Klasse und AMD könnte es wirklich endlich an Intel vorbei schaffen, in SPIELEN!
 
Für die Schätzung der Spieleleistung lohnt es anzusehen, um welchen Faktor der Cinebench zulegt, wenn er alle Kerne benutzen darf. Single-Core Leistung skaliert ja nicht 1:1 mit der Kernanzahl.

i5-10600 494/3556 (Faktor 7,19 statt12 = ~59,9%)
i7-10700 499/4834 (Faktor 9,68 statt 16 = ~60,5%)

R5 5600X 604/4312 (Faktor 7,13 statt 12 = ~59,4%)
R7 5800X 618/5724 (Faktor 9,26 statt 16 = ~57,8%)

Hier sehen wir, dass weder der R5 noch der R7 fundamental besser oder schlechter Skalieren als die Intel CPUs, sodern sie mit der gleichen Software beworfen werden. Wenn der Ryzen in einem Optimalfall (wie es Cinebench ist) 16,6% vorne ist, dann kann der Chip das auch in Ziel bringen.

Was zu beachten ist, sind natürlich auch die AMD Preise, denn die sind plötzlich nicht mehr billiger als Intel. Für die Leistung eines i7 wird auch der Preis eines i7 aufgerufen, auch wenn weiterhin R5 drin ist. Jemand der einen i5 kaufen will, dem könnte man klar sagen, der 6-Kern von AMD wäre schneller. Aber dafür kostet er auch fast das Geld eines Intel 8-Kern. Das macht den AMD Sieg zu einem Pyrrhussieg.
 
Für die Schätzung der Spieleleistung lohnt es anzusehen, um welchen Faktor der Cinebench zulegt, wenn er alle Kerne benutzen darf. Single-Core Leistung skaliert ja nicht 1:1 mit der Kernanzahl.

Hört doch mal bitte auf, so einen Unsinn zu verbreiten. Cinebench und Spiele, das sind ganz andere Workloads. Man kann aus den Cinebench Scores nicht die Spieleleistung herleiten.

Wenn Zen 3 die gleiche Cache-Struktur wie Zen 2 hätte, wäre der Cinebench Score dennoch so hoch, aber die Spieleleistung nicht. Man sieht das auch an Renoir. Der L3 Cache ist nur 1/4 so groß, aber der Cinebench Score ist vergleichbar mit Matisse.

Wieso ist das so schwer verständlich? Ich bin sehr verwundert...

Kann du mir bitte einmal die Quelle verlinken, die dich veranlasst, gesichert davon auszugehen, das die Spieleleistung stärker steigt, als der Cinebench Single Score.

Weil das wäre große Klasse und AMD könnte es wirklich endlich an Intel vorbei schaffen, in SPIELEN!

Ja Moin, die Präsi nicht gesehen? :D Man kann natürlich jetzt sagen, dass das alles Marketing-Blub sei, aber dann wäre das eine Blamage ohnegleichen für AMD. Ich gehe persönlich davon aus, dass das stimmt, was sie da gezeigt haben. Aber wir werden sehen, wenn unabhängige Tests veröffentlicht werden. Vielleicht ist es dann sogar etwas mehr, wegen 1080p und so...
 
Zuletzt bearbeitet von einem Moderator:
Ja Moin, die Präsi nicht gesehen? :D Man kann natürlich jetzt sagen, dass das alles Marketing-Blub sei, aber dann wäre das eine Blamage ohnegleichen für AMD. Ich gehe persönlich davon aus, dass das stimmt, was sie da gezeigt haben. Aber wir werden sehen, wenn unabhängige Tests veröffentlicht werden. Vielleicht ist es dann sogar etwas mehr, wegen 1080p und so...

Bei den unabhängigen Tests muss man dann noch beachten, dass AMD in der Präse mit 3600er RAM getestet hat (beide Systeme) und nicht mit Spezifikation 3200 (AMD) und 2933/2666 (Intel).

Alleine deswegen werden die Ergebniss bei PCGH/CB und so wohl etwas mehr abweichen vermute ich. Insgesamt gehe ich aber auch davon aus, dass AMD recht nah an der Realität ist. Bis jetzt waren alle Zen Präsentationen ja ziemlich Wahrheitsgemäß was die Leistung angeht tatsächlich.
 
Kann du mir bitte einmal die Quelle verlinken, die dich veranlasst, gesichert davon auszugehen, das die Spieleleistung stärker steigt, als der Cinebench Single Score.

Weil das wäre große Klasse und AMD könnte es wirklich endlich an Intel vorbei schaffen, in SPIELEN!
Wie schon gesagt, die AMD Präsentation: 5900X ~7% schneller als 10900K in Spielen und zwar beide mit 3600CL16 RAM betrieben.
Hier bei PCGH oder auch bei Computerbase, wo mit 3200 für den 5900X und 2933 für den 10900K getestet wird, werden wir dann um die 10% Vorsprung sehen.

Und von 3900XT auf 5900X hat man eine Steigerung von im Schnitt 26% gezeigt, der CB Singlecore Score steigt von ~530 auf ~630, das sind knapp 19%.
 
Warum haben sie eigentlich hier auf high getestet?
Erst ab highest/ultrahigh wird die CPU richtig belastet. Mehr Weitsicht usw.
Wollten sie den 3900XT nicht deklassieren, oder hat das einfach besser gepasst ;)
PCGH wirds an Licht bringen :daumen:
 

Anhänge

  • SOTTR+.PNG
    SOTTR+.PNG
    3,1 MB · Aufrufe: 14
Solange der 1080p Test nicht im GPU Limit hängt ist das an sich auch kein Thema. Aber viele verstehen leider nicht, dass ein CPU Test die CPU testen sollte und nicht das GPU Limit und es einem keinen Mehrwehrt gibt wenn 5-6 CPU Modelle im gleichen Limit kleben obwohl da deutliche unterschiede herrschen.
 
Es sind aber leider grob geschätzt 95% des Volkes^^

Das glaube ich ist ein Online Phenomen. Also, es werden sich immer, eher die Leute melden, die sich beschweren wollen, als anders herum.

Wobei es gibt schon extrem viele Menschen da draußen, die sehr wenig verstehen. Deren Welt funktioniert einfach einfacher ;).

Ich glaube das es der größere Anteil der Leute zu schätzen wissen, das in 720p getestet wird, bzw. worum es eignetlich geht, das die Grafiklast möglichst reduziert wird, um das Potential der CPU zu zeigen.
 
Das glaube ich ist ein Online Phenomen.

Ich glaube das es der größere Anteil der Leute zu schätzen wissen, das in 720p getestet wird, bzw. worum es eignetlich geht, das die Grafiklast möglichst reduziert wird, um das Potential der CPU zu zeigen.

Wenn wir Online in Fachforen schon eine Mehrheit von Leuten haben, die lieber 1080p oder gar 1440p Tests sehen wollen, weil das schließlich ihre eigene Auflösung ist(wir kämpfen bei CB ja immer noch für 720p Tests), dann gehe ich davon aus, dass bei den Personen die sich nicht in solchen Foren aufhalten, eher 99% nicht mal wissen, warum man eine CPU in 720p testen sollte.
Geschätzt wüsste über die Hälfte der Menschen nicht mal, wie sie rausfinden können, welche Komponente ihre Performance gerade limitiert, und viele von denen die es wissen, schreiben dann, dass es ja nicht die CPU sein kann, weil der Taskmanager ja nur 25% CPU Last zeigt^^

Solange der 1080p Test nicht im GPU Limit hängt ist das an sich auch kein Thema. Aber viele verstehen leider nicht, dass ein CPU Test die CPU testen sollte und nicht das GPU Limit und es einem keinen Mehrwehrt gibt wenn 5-6 CPU Modelle im gleichen Limit kleben obwohl da deutliche unterschiede herrschen.
Tatsächlich verstehen das schon viele der 720p Verweigerer. Ihr Ansatz ist einfach, dass sie keinen reinen CPU Test haben möchten im Sinne von "Was kann die CPU maximal leisten", sondern realistischere Werte für reale Konfigs sehen möchten.
Sie möchten die Info bekommen, dass man sich zwischen 5-6 CPUs entscheiden kann, weil es in realen Auflösungen keinen großen Unterschied macht.
Eventuelle Einflüsse auf die Perzentile würden ja potenziell auch in einem 1080p Test gesehen werden, nur nicht immer die maximale Performance.
 
Zuletzt bearbeitet:
Man sollte bei CPU Tests in Zukunft einfach die Angabe zur Auflösung weglassen und einfach schreiben, dass im CPU Limit getestet wurde.
Das gibt nur Unterstellungen, das man einen Hersteller bevorzugen wolle, oder falsch testet. Weil andere Seiten im GPU Limit testet und die Utnerschiede kleiner sind.

Problem wird immer sein, das es einige nicht tiefgehend genug interessiert und andere einfach nicht das Verständnis dafür aufbringen können.

Das ist aber kein Problem von Computerhardwareinteressierten. Sondern trifft man überall.


Wenn wir Online in Fachforen schon eine Mehrheit von Leuten haben, die lieber 1080p oder gar 1440p Tests sehen wollen, weil das schließlich ihre eigene Auflösung ist(wir kämpfen bei CB ja immer noch für 720p Tests), dann gehe ich davon aus, dass bei den Personen die sich nicht in solchen Foren aufhalten, eher 99% nicht mal wissen, warum man eine CPU in 720p testen sollte.
Geschätzt wüsste über die Hälfte der Menschen nicht mal, wie sie rausfinden können, welche Komponente ihre Performance gerade limitiert, und viele von denen die es wissen, schreiben dann, dass es ja nicht die CPU sein kann, weil der Taskmanager ja nur 25% CPU Last zeigt^^


Tatsächlich verstehen das schon viele der 720p Verweigerer. Ihr Ansatz ist einfach, dass sie keinen reinen CPU Test haben möchten im Sinne von "Was kann die CPU maximal leisten", sondern realistischere Werte für reale Konfigs sehen möchten.
Sie möchten die Info bekommen, dass man sich zwischen 5-6 CPUs entscheiden kann, weil es in realen Auflösungen keinen großen Unterschied macht.
Eventuelle Einflüsse auf die Perzentile würden ja potenziell auch in einem 1080p Test gesehen werden, nur nicht immer die maximale Performance.

Dann muss man das aber so sagen und nicht den Test als solches kritisieren.
Ich persönlich finde aber, das man genau das alles schon mit einem 720p Test bekommt.

Man weiß ja in etwas, was die eigene GPU kann, dann sollte es ein Leichtes sein, die Ergebnisse eines 720p Tests für sich zu interpretieren.

Wenn meine GPU, in meinen Spielen und Settings normal für rund 100Fps gut ist und CPU x in 720p 120Fps leisten kann, dann passt diese. Dann brauche ich keine schnellere (ich rede jetzt nur aus einem solchen Blickwinkel betrachtet).

PCGH will als Hardware Magazin aber eben einen TEST liefern, einen CPU Test und nicht einen Praxis Versuch.

Wobei doch auch PCGH im Heft immer schon am Ende eines CPU Tests darauf hingewiesen hat, das alles ab xyz schnell genug wäre.(aktuell)
 
Zuletzt bearbeitet:
Bin schon echt gespannt ob der CPU tausch von 4930K auf 5900X in TESO PvP etwas bewirkt, durch die SC Mehrleistung sollte dies einiges bringen. Jedoch befürchte ich trotzdem noch eine ziemliche Ruckelorgie wenn da massig Leute zusammen kommen.

Weis schon jemand wann das NDA fallen wird?
 
Überholt ist eher das simple hochrechnen einer Durchschnitts IPC auf alle Workloads.



Die Spieleleistung wird mehr zulegen, als die Cinebench SC Leistung, das ist richtig.

Aber es besteht keine notwendige Korelation zwischen den beiden Steigerungen, es gilt nicht generell, dass die Spieleleistung stärker ansteigt als das was man im cinebench SC sieht.
Das sie es in dem Fall tut, liegt zum Großteil an den verbesserten Latenzen, hätte man dahingehend nichts geändert, wäre man im cinebench trotzdem noch so stark, in spielen aber deutlich schwächer.

Die Änderungen bei Zen3, die für die erhöhte Spieleleistung verantwortlich sind, sind nicht die gleichen, die für die erhöhte Cinebench Leistung sorgen,
Nochmal:

Wenn man von einem Ryzen 3000 ausgeht, dessen Werte man schon lange im CB (SC und MC) kennt, und diese Werte nun mit den Werten von einem entsprechendem Ryzen 5000 vergleicht, dann wird man feststellen dass:

AMD den Takt nicht so gesteigert/optimiert bekommen hat, dass CB im MC leicht steigt UND im SC ÜBER 100 Punkte drauflegt.
AMD den Cache (Größe, Takt, Latenz,…) nicht so gesteigert/optimiert bekommen hat, dass CB im MC leicht steigt UND im SC ÜBER 100 Punkte drauflegt.
AMD den Speichercontroller (Takt, Latenz,…) nicht so gesteigert/optimiert bekommen hat, dass CB im MC leicht steigt UND im SC ÜBER 100 Punkte drauflegt.
AMD die FPU nicht so gesteigert/optimiert bekommen hat, dass CB im MC leicht steigt UND im SC ÜBER 100 Punkte drauflegt.


Erst wenn man die Optimierungen zusammen betrachtet wird klar WIE AMD es geschafft hat damit CB im MC leicht steigt UND im SC ÜBER 100 Punkte drauflegt.

Wenn man dann noch CB etwas kennt sollt auch klar sein, dass Spiele davon deutlich mehr profitieren werden (im schnitt) als es die Steigerung im CB SC prozentual hergibt.

auch nochmal:

Nun aber hier von „SpieleIPC“ zu sprechen ist/war/bleibt schlicht falsch. Die „Bandbreite“ der Spiele reicht ja von z.b. Schach über RPG zu Rennspielen bis Shooter und die „Bandbreite“ der Anwendungen ist nicht kleiner.

Für eine CPU/Core nach Spiele und Anwendungen unterschiedliche IPC zu zuweisen ist einfach Unsinn. Auf IPC bezogen sind Spiele und Anwendungen schlicht die gleiche „Gattung“, für "die IPC" ist es egal, es gibt kein Unterscheidungskriterium.

Den „Unterschied“ den ihr "der IPC" zuschreiben wollt liegt vor allem an der Messmethodik. Z.B wird i.d.R. niemand von Anwendungen Messdaten im Millisekunden Bereich fordern und diese dann in ein „ein Sekunden durchschnitt Korsett“ zwängen.
 
Nun aber hier von „SpieleIPC“ zu sprechen ist/war/bleibt schlicht falsch. Die „Bandbreite“ der Spiele reicht ja von z.b. Schach über RPG zu Rennspielen bis Shooter und die „Bandbreite“ der Anwendungen ist nicht kleiner.
Wer spricht denn von "Spiele IPC" ?
Ich hab doch jetzt schon mehrfach gesagt, dass die IPC davon abhängig ist, welche Anwendung man zum testen benutzt und das nicht nur auf "Spiele" und "nicht Spiele" getrennt werden kann.
Genauso wirst du bei unterschiedlichen Spielen unterschiedliche Ergebnisse bekommen, daher siehst du auch bei den Spielen Unterschiede von +50% bis +5%.


Für eine CPU/Core nach Spiele und Anwendungen unterschiedliche IPC zu zuweisen ist einfach Unsinn. Auf IPC bezogen sind Spiele und Anwendungen schlicht die gleiche „Gattung“, für "die IPC" ist es egal, es gibt kein Unterscheidungskriterium.

AMD hat 25 verschiedene Anwendungen getestet um am Ende auf +19% IPC zu kommen, nach deiner Logik hätten sie ja einfach nur Cinebench nehmen brauchen, weil es ja keinen Unterschied macht.
Tut es aber. In einigen dieser 25 Anwendungen kann ein IPC + von 30% rausgekommen sein, während in anderen nur 5% rauskamen. Am Ende war der Schnitt eben bei 19%.


Man hätte auch durchaus die FPU soweit aufbohren können, dass man im Cinebench diese +19% hat, hätte dann in Spielen allerdings deutlich weniger Steigerung bekommen. Die Steigerung in Spielen kommt vor Allem durch den umgebauten Cache und damit die geringeren Latenzen, um die sich Cinebench überhaupt nicht schert.

Wie ich schon sagte, Vergleiche zwischen Cinebench und Spieleleistung kann man so nicht anstellen und dass die Leistung in Spielen (im Schnitt) hier stärker gestiegen ist als die CB20 SC Leistung liegt einfach daran, dass man an der Architektur mehr verbessert hat, was gut für Spiele funktioniert, als für Rendering.

Es hätte genausogut andersrum kommen können, wenn man sich mehr auf die FPU als auf die Latenzen konzentriert hätte, hätten wir 25% Cinebench SC Leistung und nur 20% Spieleleistung gesehen..
 
Zuletzt bearbeitet:
Wer spricht denn von "Spiele IPC" ?
Ich hab doch jetzt schon mehrfach gesagt, dass die IPC davon abhängig ist, welche Anwendung man zum testen benutzt und das nicht nur auf "Spiele" und "nicht Spiele" getrennt werden kann.
Genauso wirst du bei unterschiedlichen Spielen unterschiedliche Ergebnisse bekommen, daher siehst du auch bei den Spielen Unterschiede von +50% bis +5%.




AMD hat 25 verschiedene Anwendungen getestet um am Ende auf +19% IPC zu kommen, nach deiner Logik hätten sie ja einfach nur Cinebench nehmen brauchen, weil es ja keinen Unterschied macht.
Tut es aber. In einigen dieser 25 Anwendungen kann ein IPC + von 30% rausgekommen sein, während in anderen nur 5% rauskamen. Am Ende war der Schnitt eben bei 19%.


Man hätte auch durchaus die FPU soweit aufbohren können, dass man im Cinebench diese +19% hat, hätte dann in Spielen allerdings deutlich weniger Steigerung bekommen. Die Steigerung in Spielen kommt vor Allem durch den umgebauten Cache und damit die geringeren Latenzen, um die sich Cinebench überhaupt nicht schert.

Wie ich schon sagte, Vergleiche zwischen Cinebench und Spieleleistung kann man so nicht anstellen und dass die Leistung in Spielen (im Schnitt) hier stärker gestiegen ist als die CB20 SC Leistung liegt einfach daran, dass man an der Architektur mehr verbessert hat, was gut für Spiele funktioniert, als für Rendering.

Es hätte genausogut andersrum kommen können, wenn man sich mehr auf die FPU als auf die Latenzen konzentriert hätte, hätten wir 25% Cinebench SC Leistung und nur 20% Spieleleistung gesehen..
Die Software hat 0,0 Einfluss auf die IPC, die IPC hat aber Einfluss auf die Software. Es ist damit genau andersherum als du es beschreibst.
Je mehr die Software auf die CPU (IPC) optimiert ist, desto näher kommt sie dem auf der CPU möglichem maximalem duchsatz. Die IPC einer CPU änderst sich nicht, die ist fix. Es liegt an der Software dem "best case" möglichst nahe zu kommen.
Schön das wir uns einig sind, es gibt keine unterschiedliche IPC (Spiele vs Anwendung), ist ja auch schon was. ;)

@FPU
Es schreibt sich natürlich leicht "Man hätte auch durchaus die FPU soweit aufbohren können, dass man im Cinebench diese +19% hat" fakt ist ja aber, dass AMD dies ja genau nicht getan hat bzw wohl nicht konnte.
Du hättest auch schreiben können"Man hätte auch den Takt soweit steigern können, dass man in CB diese +19% hat" aber genau das ist ja eben nicht passiert. Es ist utopisch anzunehmen AMD könnte so "mir nix dir nix" einfach mal einen Teil so stark optimieren.
AMD hat breitflächiger optimiert und genau DAS schlägt dann auch bei SpieleLast überproportional mehr ein.
 
Zuletzt bearbeitet:
Zurück