AMD Pinnacle Ridge: Ryzen 5 2600 auf X470-Mainboard getestet

@moonshot
Schaue mal hin, wie vielen Threads der AMD Ryzen sein Symmetric Multiprocessing umsetzt vergleichend zum Intel Core, dessen Grundbestandteil wie die Intel Hyper-Threading Technology nicht aufstarten.

Und was hat solcher Stonage-Plunder wie ARMA und CS mit der Zukunft zu schaffen!? So etwas zockt man seit einem Jahrzehnt nicht mehr

Abgesehen davon, dass Quake lediglich einen einzigen Thread nutzen kann und das bei der Auslastung auch gut sichtbar ist:

SMT ist die generische Bezeichnung für simultaneous multi threading
Hyper Threading Technology ist Intels Markenname für SMT.
 
720p-Tests kamen auf, weil die High-End-Grafikkarten dermassen schnell wurden, dass es keinen Unterschied mehr ausmachte, ob man das CPU-Limit in 160p, 320p, 480p, 600p oder 720p testet.

Liegt aber auch an der Minimalen Auflösung der Spiele. Während sich FC2 noch auf 300x240 spielen konnte, wenn die FPS bei Feuer unter 1 fielen, ist bei vielen aktuellen Spielen 1366x768 das Minimum.
 
Hat sich einer der Kommentatoren überhaupt mal die geleakten Benchmarks angesehen? Die sind absolut massiv! Ein IPC Plus zwischen 5 und 10 Prozent im Schnitt bei gleichen Taktraten, in Spielen ein Plus von ebenfalls 10 Prozent. Gar nicht schlecht für "nur" einen Refresh. Damit dürfte Zen+ endgültig zur Intel IPC aufgeschlossen haben.

Ganz toller Test. Ohne Infos zu den Rahmenbedingungen. Keine Infos zum Ramtakt. Der Test sagt genau nix aus ??

Ich bin wieder auf den SC2 Test gespannt. Für mich einer der besten CPU Indikatoren.
 
Klar ein Spiel aus 2010 ist eine der besten CPU Indikatoren, weil sich in der Gaming Branche ja nichts geändert hat in 8 Jahren!
So ein Statement kann sich auch wohl nur dem Author selbst erschließen!
 
Als Gradmesser für die IPC perfekt. Daran sieht man was jeder Kern zu leisten mag.

Wir können nächtlich auch wieder Cinebech nutzen und uns freuen das 8 Keren schneller sind als 6 :)
 
Da ich Battlefield 1 zur Zeit wieder viel spiele, dürstet es dem Spiel nach mehr als meinen 4 Kernen. Aber eine Kaufentscheidung zu Ryzen hängt für mich sehr stark von den Mainboards ab. Wann gibt es endlich vernünftige mATX Mainboards für Ryzen?
Und die aktuellen Coffee-Lakes kommen auch nicht in Frage, da diese zur Zeit "nur" zwei Kerne mehr bieten.
 
Als Gradmesser für die IPC perfekt. Daran sieht man was jeder Kern zu leisten mag.

Wir können nächtlich auch wieder Cinebech nutzen und uns freuen das 8 Keren schneller sind als 6 :)
Der Punkt ist doch, dass wenn Spiele von Grund auf so logisch aufgebaut sind, dass sie im gleichen Maße von Parallelisierung profitieren wie darauf ausgelegte Anwendungen, sähen die Ergebnisse durchaus anders aus. Deshalb wäre ja ein rein synthetischer Benchmark, für Single und Multicoreleistung langfristig etwas aussagekräftiger, da dieser dann nicht wie bei vielen Spielen aktuell, Hersteller spezifischen Architektur/ feature optimierten Code unterliegt.

MfG
 
Das würde aber voraussetzen, dass die Spiele in naher Zukunft auf viele Kerne optimiert werden. Das ist aber selbst 2018 nur selten der Fall. Als die PS4 2013 auf dem Markt kam ist man davon ausgegangen das Multicore Standard wird. Und trotzdem laufen 90% der neue Spiele perfekt mit wenigen Kernen.

Ich halte von den ganzen synthetischen Benches nix, da ich wissen will was ich heute für mein Geld bekommen. Ob die CPU in 5 Jahren wegen 2 Kernen mehr besser ist tangiert mich z.B. gar nicht. Genau wie der Vergleich Sandy vs Bulldozer. Der AMD CPU mag zwar besser gealtert sein, aber das interessiert heute niemanden mehr.
 
Besser wäre wenn Spiele dafür entwickelt und nicht optimiert werden. Wenn die Enginge von Grund auf darauf ausgelegt wäre, dann könnte man die CPUs optimal auslasten, wovon dann gerade die Mehrkernmodelle, siehe Cinebench, sehr stark profitieren würden. Dann braucht man keine Ghz mehr für max Leistung sondern Kerne und die lassen sich wesentlich besser, effizienter und wirtschaftlicher skalieren, jedenfalls bei Ryzen. :daumen:

MfG
 
Zuletzt bearbeitet:
Und trotzdem laufen 90% der neue Spiele perfekt mit wenigen Kernen.

Entschuldigung, aber das ist Wischiwaschi in Tateinheit mit Bullshit-Bingo, komprimiert im Nebensatz.

Was sind für dich "neue" Spiele und wie viele (und welche) davon hast du berücksichtigt, um auf die 90% zu kommen?
Wann läuft ein Spiel "perfekt"?
Wie viele Kerne sind "wenige Kerne"?

Klär' das doch mal bitte mit deinem inneren Statistik-Büro ab und lass' uns daran teilhaben, sobald etwas Substanzielles vorliegt. Danke. :)
 
Das stimmt leider nur eingeschränkt.
Die Testergebnisse bilden ja nur die Reserven bei den getesteten Spielen ab.
Wie schon andere bemerkten, sieht das Ganze dann vollkommen anders aus, sofern die Spiele endlich mal regelmäßig mit 8+ Threads umgehen können.
Dann sind die aktuellen Ergebnisse schlicht für die Katz.
Ich seh aber trotzdem was passiert sollte ein Spiel nun mal nicht ins GPU Limit laufen, wenn es diese Engine oder ähnlich viele Threads verwendet. Und wenn die IPC hoch ist und dann auch noch die 8 Threads (oder mehr) genauso ausgelastet sind wie die 1-2 habe ich wieder dasselbe Ergebnis
 
Ich würde Star Craft vielleicht gegen PUBG austauschen.
Das macht halt allein von dem Spielprinzip her schon keinen Sinn: du vergleichst dann ein Spiel das eigentlich keine KI hat mit einem, das enorm viel Micro und Macro-AI im Hintergrund laufen lässt. Das ist eben für die CPU eine ganz andere Belastung, Es ist ja auch ein anderes Genre.
Starcraft wird außerdem seit 8 Jahren von Millionen gespielt, ist seit kurzem F2P´.
Es ist also der einzige große Genrevertreter der noch wirklich gespielt wird, somit ist es nach wie vor ein (worst case) Benchmark und insofern auch wichtig. Wenn ich immer nur den best case teste, weiß ich halt nicht, was mich sonst noch erwarten kann.
 
Nach der Logik müßten ausschließlich, LOL, Overwatch, CSGO, WoW, World of Tanks etc. gebencht werden, da sie am meisten gespielt werden.
 
Ich seh aber trotzdem was passiert sollte ein Spiel nun mal nicht ins GPU Limit laufen, wenn es diese Engine oder ähnlich viele Threads verwendet. Und wenn die IPC hoch ist und dann auch noch die 8 Threads (oder mehr) genauso ausgelastet sind wie die 1-2 habe ich wieder dasselbe Ergebnis

Ja und nein.
Das Ergebnis gilt dann wie immer für exakt dieses Spiel.
Nur:
Welche SSE Erweiterung nutzt das untersuchte Spiel?
Rennt es in ein Limit, weil es intern mit 32bit rechnet und auch nicht mehr Speicher addressieren kann?
.
.
.

Besonders bei uralt Engines, wie der von GTA 5, die ja schon mehr als 5 Jahre auf dem Buckel hat, ist es eher fraglich, inwiefern sie noch adäquat die Leistung eines einzelnen Kerns widerspiegeln.
Starcraft 2 ist von 2010.. die Engine noch deutlich älter...
Wäre es da nicht sinnvoller, einem aktuellen Spiel lediglich die Mindestanzahl an Threads zu erlauben, damit es überhaupt noch startet?
 
Wäre es da nicht sinnvoller, einem aktuellen Spiel lediglich die Mindestanzahl an Threads zu erlauben, damit es überhaupt noch startet?

Als ständiges Element regulärer CPU-Tests halte ich das für nicht praktikabel, aber als Extra, wenn eine neue CPU-Generation herauskommt, wäre das sicherlich informativ.
 
Nach der Logik müßten ausschließlich, LOL, Overwatch, CSGO, WoW, World of Tanks etc. gebencht werden, da sie am meisten gespielt werden.
Nein, nach der Logik müssen AUCH solche, nicht NUR solche Spiele gebenched werden.
Und ein Spiel rausnehmen, nur weil es die Schwächen von gewissen Szenarien offenbart, macht halt wenig Sinn. Schon gar nicht, wenn ich es durch ein Spiel ersetze, das völlig anders reagiert. Wenn die von dir erwähnten Spiele ein CPU oder GPU Limit aufzeigen, dann ist es durchaus sinnvoll das regelmäßig zu überprüfen.

Beispiel: ich kauf mir eine neue CPU, weil alle Tests die auf 8+ Threads ausgelegt sind aufzeigen, dass das die super Nonplusultra-CPU ist, aber plötzlich komm ich drauf meine Spiele die vorher toll liefen sind plötzlich langsamer. Selbiges bei der GPU. Da kann man erwarten, dass im Rahmen eines Testparcours irgendwann auch solche Fälle getestet werden.

Noch dazu, weil die meisten Spiele eben NICHT gut Multithreaded sind, und man sich die Leistung pro Kern immer ansehen muss, natürlich auch bei Anwendungen.

Ja und nein.
Das Ergebnis gilt dann wie immer für exakt dieses Spiel.
Nur:
Welche SSE Erweiterung nutzt das untersuchte Spiel?
Rennt es in ein Limit, weil es intern mit 32bit rechnet und auch nicht mehr Speicher addressieren kann?
.
.
.

Besonders bei uralt Engines, wie der von GTA 5, die ja schon mehr als 5 Jahre auf dem Buckel hat, ist es eher fraglich, inwiefern sie noch adäquat die Leistung eines einzelnen Kerns widerspiegeln.
Starcraft 2 ist von 2010.. die Engine noch deutlich älter...
Wäre es da nicht sinnvoller, einem aktuellen Spiel lediglich die Mindestanzahl an Threads zu erlauben, damit es überhaupt noch startet?
Wie gesagt: wenn ich eine neue CPU kaufe, will ich ja wissen, wie diese in den von mir (und Millionen anderen) verwendeten Worst-Case Szenarios performt.
Auch deine Variante macht Sinn - warum nicht beides? Ein breites Testfeld, wo sich jeder Leser selbst raussuchen kann, ob die CPU für SEINE Bedürfnisse gut ist oder nicht.


WIr können auch in Zukunft nur noch Wolfenstein 2 testen, das hervorragend skaliert mit den Kernen - und uns einreden, dass in Zukunft jedes Spiel so aussehen könnte. Aber dem ist halt nicht so
 
720p-Tests kamen auf, weil die High-End-Grafikkarten dermassen schnell wurden, dass es keinen Unterschied mehr ausmachte, ob man das CPU-Limit in 160p, 320p, 480p, 600p oder 720p testet.

Langsam gleiten wir da ja jetzt auf 1080p zu...

Darfst den Aluhut also wieder abnehmen.

Die GPU-Leistung hat damit wenig zu tun. Auch heute noch ist eine Skalierung von niedrigeren Auflösungen auf 720p festzustellen und wir sind meilenweit davon entfernt, in 1080p die gleiche Performance zu erreichen. Dass dennoch mit 720 und nicht mehr mit 480 Zeilen getestet wird, liegt am Bildinhalt respektive Seitenverhältnis:
Die meisten Spiele unterstützen keine kleineren 16:9-Auflösungen als 1.280 × 720 und es gibt auch Spiele ganz ohne 4:3-Support. Wir möchten aber, dass unsere Benchmarkergebnisse über mehrere Auflösungen hinweg vergleichbar sind, also immer den gleichen Bildausschnitt zeigen. Also nutzen wir die kleinste in alle Spielen mögliche Auflösung, die die gleiche Perspektive wie Full-HD bietet: 720p


Wenn man rein CPU Leistung testet, wären dann synthetische Benchmarks nicht generell besser, da Spiele teils auch Hersteller feature/Architektur optimiert sind?

MfG

CPU-Hersteller-spezifische Optimierungen sind selten respektive kommen gar nicht vor. Umgekehrt belasten synthetische Benchmarks wie Linpack oder Pi fast konzentriert einzelne Funktionseinheiten einer CPU, können also nicht deren Gesamtleistung erfassen. Spiele haben sich als am repräsentativsten für Spiele erwiesen. :-)


Das stimmt leider nur eingeschränkt.
Die Testergebnisse bilden ja nur die Reserven bei den getesteten Spielen ab.
Wie schon andere bemerkten, sieht das Ganze dann vollkommen anders aus, sofern die Spiele endlich mal regelmäßig mit 8+ Threads umgehen können.
Dann sind die aktuellen Ergebnisse schlicht für die Katz.

Wir würden sehr gerne mit Spielen des Jahres 2022 testen, aber ich vermute du kannst du da auch nicht mit Testversionen aushelfen? (Fertig optimiert und gepatched bitte, damit Ergebnisse länger als eine Woche gültig sind.)
Ohne diese haben wir leider nur zwei Optionen:
- Gar nicht testen
- Mit heutigen Spielen testen und die Ergebnisse interpretieren
Wer erstere Variante bevorzugt, sollte halt keine Hardware-Tests lesen und seine Kaufentscheidungen auswürfeln. Für alle anderen gibt es PCGH und eins steht wohl fest: Tests mit heutigen Engines in 720p lassen mehr Rückschlüsse auf die CPU-Performance in kommenden Titeln zu als Tests heutiger Engines in 1080p. Letztere erlauben nicht einmal ein valides Ranking der CPU-Leistung in heutigen Spielen.


Nach der Logik müßten ausschließlich, LOL, Overwatch, CSGO, WoW, World of Tanks etc. gebencht werden, da sie am meisten gespielt werden.

Tatsächlich wären einige dieser Titel durchaus interessant, beispielsweise in World of Tanks war mangelnde Single-Thread-Leistung lange Zeit ein Problem. Im Gegensatz zu Starcraft erlauben reine Multiplayer-Titel aber keine reproduzierbaren Benchmark-Abläufe und eigenen sich deswegen sehr schlecht für Benchmark-Parcoure.
 
Als ständiges Element regulärer CPU-Tests halte ich das für nicht praktikabel, aber als Extra, wenn eine neue CPU-Generation herauskommt, wäre das sicherlich informativ.

Testen von single Core Leistung wird mit der Zeit immer schwieriger, sofern man sich nicht auf Cinebench verlassen will.
Allerdings sehe ich es als ziemlich problematisch an, zusehends veraltete Spiele als Referenz heranzuziehen, die noch deutlich mehr Einschränkungen haben, als nur die Zahl der Threads.

Je weiter sich die CPU Technologie von dem Stand in 2007 / 2010 entfernt, desto weniger zuverlässig werden die Ergebnisse, die mit den alten Engines erzielt werden.
Starcraft stellt ja nicht den Stand der Technik anno 2010 dar, sondern eher den Stand von 2007.
GTA5 ist mit dem Release in 2013 auf einem Stand von ca. 2010. Und selbst da eher auf dem Stand der Konsolentechnik zu der Zeit - auch wenn die Engine später erweitert wurde, um sie für PS4, XB1 und PC fit zu machen, bleibt der Kern doch steinalt.

Daher ist es langsam eher an der Zeit, dem halb syntetischen Cinebench mehr zu trauen, als den beiden genannten Spielen.


Edit:

Wir würden sehr gerne mit Spielen des Jahres 2022 testen, aber ich vermute du kannst du da auch nicht mit Testversionen aushelfen? (Fertig optimiert und gepatched bitte, damit Ergebnisse länger als eine Woche gültig sind.)
Ohne diese haben wir leider nur zwei Optionen:
- Gar nicht testen
- Mit heutigen Spielen testen und die Ergebnisse interpretieren
Wer erstere Variante bevorzugt, sollte halt keine Hardware-Tests lesen und seine Kaufentscheidungen auswürfeln. Für alle anderen gibt es PCGH und eins steht wohl fest: Tests mit heutigen Engines in 720p lassen mehr Rückschlüsse auf die CPU-Performance in kommenden Titeln zu als Tests heutiger Engines in 1080p. Letztere erlauben nicht einmal ein valides Ranking der CPU-Leistung in heutigen Spielen.

Ich bin vollkommen dafür, heutige Spiele zu nehmen, um sie zu testen.
Nur eben nicht dafür, mehr als 10 Jahre alte Engines als Benchmarkgrundlage zu nehmen.
Die Engine von SC2 ist halt schon knapp über 10 Jahre alt.
 
Tatsächlich wären einige dieser Titel durchaus interessant, beispielsweise in World of Tanks war mangelnde Single-Thread-Leistung lange Zeit ein Problem. Im Gegensatz zu Starcraft erlauben reine Multiplayer-Titel aber keine reproduzierbaren Benchmark-Abläufe und eigenen sich deswegen sehr schlecht für Benchmark-Parcoure.

Über welches "Problem" sprechen wir denn da, eines aus rein technischer Sicht, oder aus spielerischer Sicht.
Mal etwas zu meiner eigenen World of Tanks Karriere.
Angefangen in der open Beta (2010) mit einem AMD X2 4200@2,6 GHZ (Sockel 939 mit einer Radeon 4850), gefolgt von einem Phenom X6@ 3,5 GHZ mit einer Radeon 6950 2GB (2011)und seit fast einem Jahr habe ich einen Ryzen 1600@ 3,8GHZ mit einer RX 580.
Ich habe in World of Tanks über 34000 Spiele seit 2011, zu besten Zeiten ein PR Rating von über 2000 gehabt und habe immer noch über 1800 PR, spiele das Spiel aber seit 2 Jahren nur noch sehr sporadisch.
Ich hatte mit meinen eher betagten AMD Systemen mit denen ich fast alle Spiele gemacht habe, nie irgendwelche Probleme in dem Spiel oder mangelnde FPS, ich konnte nie feststellen, das meine AMD CPUs mangelnde Singlecore Performance hatten, um competitive und mit Freude zu spielen.
 
Zuletzt bearbeitet:
Zurück