AMD Ryzen 5: Erste Gaming-Benchmarks zum R5 1400

Aufwendiger Test, der auch ziemlich gut geschnitten ist. Ich persönlich mache mir so leichter ein Bild von der Leistung, als wenn ich nur irgendwelche Balken anschaue. Er meinte zum Anfang, dass er nicht so viel Geld hat, aber hat 4 verschiedene Systeme am Start, da weiß man doch, wo das Geld geblieben ist :ugly:.

Wenn das jetzt auch alles stimmt und da nicht einfach nur irgendwelche Werte angezeigt werden, hat der Autor meine Hochachtung.

Etwas schade finde ich, dass er mit einer Latency von 18 das System zu betreiben scheint. Verschenkte Leistung würde ich sagen.
 
Sofern man das Glück hat, solche Taktraten mit einer Speichercontrollerspannung die alles andere als gesund sein dürfte (dafür braucht man nicht selten 30-40% MEHRSpannung!) überhaupt zum laufen zu bekommen.

Hier würde ich Einspruch einlegen. Bei AMD ist die IMC Spannung, sofern man sie im Bios einstellen kann (bei mir geht das noch nicht), genau die Hälfte der DRAM Spannung. 1,35V ist eine normale und aktzeptable Spannung, also dürfte die geringe Steigerung der IMC Spannung von 0,6V auf 0,675V wenig Auswirkungen haben. Bei mir läuft gerade DDR4 3200er mit CL14 ohne Probleme bei 1,35V und dem Asrock AB350 Pro4. Wäre das also gefährlich, würde man sich jeden Ryzen mit einem 1,35V DDR4 Ram zerschießen.

Mich würde allerdings schon die maximalen Spannungen interessieren von VTT (IMC) Spannung und VDDCR (PCH) Spannung. PCH-Spannung deshalb, weil aus irgendeinem Grund diese Spannung bei Anheben des Ram Taktes von 0,95V auf 1,1V angehoben wird. Ausgelesen habe ich diese beiden Spannungen nur über Ryzen Master, da kein anderes Tool diese anzeigt. Beide genannten Spannungen lassen sich nicht über das Bios einstellen.

Weiß da einer von euch mehr?
 
Im Vergleich zum i5 7400 ohne HT für 180€ ist der Ryzen R5 1400 (ist eben mit HT) für ca. 180€ deutlich zukunftssicherer. Was war daran so unverständlich?

Man bekommt für 180€ bei AMD den zukunftssichereren Prozessor. Was ein Intel 4 Kerner mit HT jetzt damit zutun haben soll, erschließt sich mir irgendwie nicht. Ein Intel/AMD 8C/16T ist natürlich auch zukunftssicher.

Stimme dir zu. Allerdings frage ich mich wirklich, in wiefern 16 Threads @ 8 Cores oder noch mehr in Zukunft wirklich eine Rolle spielen werden.

Selbst im Musterbeispiel BF1 Multitplayer halten sich die Vorteile von mehr als 8 Threads extrem stark in Grenzen.
AMD Ryzen 7 1800X, 1700X, 1700 im Test (Seite 4) - ComputerBase

Hier sieht mans doch schön. Der 7700K muss gegenüber dem 6900K gerade mal 19% einbüßen. Die kommen wahrscheinlich alleine schon dadurch zustande, weil 8 echte kerne und nicht nur 8 SMT Threads zur Verfügung stehen.
Trotzdem sieht man schön, dass die 20 Threads des 6950X so gut wie gar nicht genutzt werden, weil er sich zwischen den beiden CPUs platziert. Wahrscheinlich werden vom Spiel mehr als 8 Threads genutzt, sonst könnte sich der 6950X trotz des geringen Takts wohl kaum soweit oben platzieren. Man merkt aber mehr als deutlich, dass sich der Ertrag trotz derart vieler Kerne und Threads extrem in Grenzen hält. Weniger als halb so viele Kerne/Threads dafür ein etwas höherer Takt und man erreicht die gleiche Performance...

Mich würde da echt mal interessieren, wie viel Performance man z.B. beim 6950X pro Thread dazu gewinnt. Wahrscheinlich gewinnt man jenseits der 8 Threads irgendwas im unteren einstelligen Prozentbereich dazu. Vielleicht 2-3%?

Und wie gesagt, BF1 kann man schon quasi als Musterbeispiel sehen. Nun stellt sich eben die Frage, was man da in Zukunft erwarten kann. Dass man ein Spiel auf immer mehr und immer mehr Threads aufteilen kann scheint für mich keine logische Evolution zu sein. Ich glaube nicht, dass wir in meinetwegen 20 Jahren Spiele haben, die 32 oder 64 Threads nutzen könnten, da das ganze nach meinem Verständnis noch immer ein rein logisches Problem ist, das der Programmierer zu lösen hat.
Wenn ich nicht mehr Threads erzeugen kann, weil das für meine Programmierlogik keinen Vorteil bringt, dann ist das eben so.
Damit die Aufteilung auf mehrere Threads funktioniert bzw. einen Vorteil bringt, muss logischerweise ein Rechenproblem vorliegen, das sich parallel abarbeiten lässt.
Wenn das nicht der Fall ist, dann ist der beste Programmierer machtlos und kann die Leistung zusätzlicher Threads nicht nutzen.

Ich glaube daher, dass die Zahl der praktisch nutzbaren Threads nicht mit dem technischen Fortschritt skaliert, sondern dass einfach logische Grenzen vorhanden sind, nach denen der Ertrag von zusätzlichen Kernen exponenziell abnimmt, sobald nicht nur ein einziges Rechenproblem (welches beliebig parallelisierbar ist) berechnet werden soll.

Deswegen eben die Frage, ob 16 Threads wirklich zukunftssicher sein können. Haben Spiele überhaupt rein logisch das Potenzial, nennenswerte Performancegwinne aus 16 Threads (oder mehr) zu ziehen?

fragen über fragen....



Gut, zu Ryzen 5.
Ich denke, sobald die Tests draußen sind, wird man sehen, dass man mit einem Ryzen 5 in Spielen vermutlich ~80-90% der Leistung eines Ryzen 7 erreichen wird. Weil eben die von mir beschriebene Problematik vorherrscht.
Die Frage ist halt, kann ein Ryzen 7 mit 16 Threads überhaupt zukunftssicherer sein, wenn man damit rechnen müsste, dass Spiele daraus "nie" einen nennenswerten Vorteil ziehen könnten?
 
Das kommt einem wie die Diskussion vor ein paar Jahren vor als Quad-Cores die neuen Dual-Cores wurden.
Wenn die nächste Konsolen-Generation (Scorpio? PS5?) einen Octa-Core mit HT spendiert bekommt, kann man darauf Gift nehmen, dass aktuelle AAA-Titel dann auch bis zu 16 Threads nutzen werden. Die Entwickler werde nämlich wieder gar keine andere Wahl haben, weil die Konsolen-CPUs generell wegen der Effizienz (u. a. wegen Kosteneinsparung bei Kühlung und Stromversorgung [Netzteil, Spannungswandler, etc.], Formfaktor/Lautstärke-Limits) relativ niedrig takten und die Chip-Designs wie im Mobile-Bereich eher "in die Breite" gehen -> mehr Kerne statt Taktsteigerungen.
 
Zuletzt bearbeitet von einem Moderator:
Das kommt einem wie die Diskussion vor ein paar Jahren vor als Quad-Cores die neuen Dual-Cores wurden.
Wenn die nächste Konsolen-Generation (Scorpio? PS5?) einen Octa-Core mit HT spendiert bekommt, kann man darauf Gift nehmen, dass dann aktuelle AAA-Titel bis zu 16 Threads auch nutzen werden.

haste recht entweder e8200 oder q6600 ich bin mit dem e8200+OC besser gefahren danach dann phenom 2

Es kommt einfach auf die Games und eigenen Bedürfnisse an

ich denke es ist zu früh für 8 echte kerne (Games only) und bis dahin wird ryzen wieder zu alt sein und überholt
 
Zuletzt bearbeitet:
Die Engine- und Spieleentwickler haben keine andere Wahl als zu parallelisieren, wenn die Kerne relativ niedrig takten. Effektive Takterhöhungen sind seit einer Dekade nicht mehr drin (Pentium 4 kam auch schon mit 4GHz), sie sind ausserdem furchtbar Ineffizient (weil der Spannungsbedarf explosionsartig ansteigt). Einzig kostengünstiger sind sie, weil man DIE-Fläche bei der Fertigung spart.

Edit: AAA ist nicht gleich alle.
 
Zuletzt bearbeitet von einem Moderator:
Ich warte lieber auf Finale Benchmarks und Reviews als sowas das aus dem Netz stammt, kann auch ein Fake sein :)
 
Die Engine- und Spieleentwickler haben keine andere Wahl als zu parallelisieren, wenn die Kerne relativ niedrig takten.

Dafür, dass das seit vielen Jahren so ist hat sich an der Front von PC-Spielen die wirklich mehr als 4 kerne brauchen oder einen großen Vorteil davon haben wenig getan.
Ich meine seit wann haben wir 8-Kerner in Konsolen? Die XB1 und PS4 kam 2013 auf den Markt, wenn mans ganz streng auslegt hatte Sonys PS3 im Jahre 2007 schon eine Multikern-CPU.

Damals war das Argument genau dasselbe: Konsolen haben jetzt 8 Kerne, es dauert nicht lange bis PC-Spiele das super unterstützen.
Jetzt sind 4 Jahre vergangen - und die Unterstützung ist bis auf ganz wenige Ausnahmen noch immer sehr schlecht. Immer noch liest man die immer gleiche Mär von Konsolen bringen 8-Kern Unterstützung von Spielen in den Desktop. Ich behaupte wer heute noch einen "zukunftsunsicheren" Vierkerner kauft wird auch die nächsten 4 Jahre noch Null Probleme beim Spielen haben. Ein Ryzen5 beispielsweise wird für einen "normalen" Spieler garantiert viele Jahre lang schnell genug sein.
 
Die Games der Konsolen sind trotzdem nicht auf alle vorhandenen Kerne optimiert...grade im bezug darauf das alle Rechenkraft benötigt wird um die Karre auf 30 FPS zu bringen und irgenwie fullhd / 4k hoch zu skalieren...so viel Kerne bleiben da nicht fürs game übrig...
 
DX11 hatte vom Konzept her auch keine MT-Architektur, DX12 dagegen explizit. Die API/Render-Technologie auf dem PC hinkt hinterher und ist seit Jahren veraltet. Auf den Konsolen parallelisiert man und nutzt diverse Technologien seit Jahren standardmäßig. So geil die PC-Hardware sein mag (TFlops/Power), softwaretechnisch ist der PC-Gaming-Bereich wie ein Entwicklungsland.

Man sieht den Rückstand daran, daß DX12/Vulkan noch nicht den Kinderschuhen entwachsen ist und viele Probleme macht. Das Ganze was momentan abgeht hätte 5 Jahre früher stattfinden sollen, ungefähr zu Mantle-Zeiten.
 
Zuletzt bearbeitet von einem Moderator:
Siliziumchips sind was herkömmlich zu beherrschender/kühlender Takt angeht, am Ende. Nur mit sehr viel Aufwand(8auer :D ), wären Standarttaktraten(!) jenseits der 5GHz, zu meistern. Diese Problematik ist schon sehr lange bekannt. Ob die neueste PS 8,12 oder 20 Kerne beschert bekommt, ist völlig Wurscht. Die Entwickler sehen beim Silizium(deswegen wird ja auch nach anderen Chipmaterialien geforscht) nur noch eine logische Steigerung über das Parallelisieren, respektive eben mehr vernünftig nutzbare Kerne. Server sind hier ein gutes Beispiel. Jetzt müssen halt nur noch die Softwaringenieure mitziehen. Ob Ryzen gut/nötig ist oder nicht, er zeigt ganz klar wo die Reise hingeht. Ich finde es sehr gut, das AMD quasi die User "zwingt", über Mehrkerner zu diskutieren und somit endlich(!) diese Technik in Privathaushalten Einzug halten kann. Ist das Zeug erst mal da, wird es dann auch von den Entwicklern unterstützt. Außerdem, wo steht den geschrieben, das ein Spiel nur auf 4 Kernen und 5GHz laufen muß und nicht auch mit 32 Kernen bei 1.2GHz? Alles nur ne Sache der Programmierung.
Go forward AMD:daumen:
Gruß T.
 
wo steht den geschrieben, das ein Spiel nur auf 4 Kernen und 5GHz laufen muß und nicht auch mit 32 Kernen bei 1.2GHz? Alles nur ne Sache der Programmierung.

Kommentare an denen man bemerkt dass der Schreiber noch nie programmiert hat. ;)

Zwei Dinge die es zu bedenken gibt:
1.) Es ist sehr, SEHR viel aufwendiger so zu programmieren dass viele Threads gleichzeitig gut genutzt werden können
2.) Je nach Aufgabe ist der Performancegewinn durch Parallelisierung sehr klein (Amdahlsches Gesetz und so - wenn der Code zur Hälfte parallelisierbar ist was schon viel ist ist der performancegewinn von 8 zu 128 Kernen quasi null) und viele Aufgaben KÖNNEN nicht parallelisiert werden weil beispielsweise die weitere Vorgehensweise eines Programmes vom Ergebnis einer einzigen Berechnung abhängt - in dem Fall müssen 31 Kerne auf den 32. warten. Bei Spielen gibt es naturgemäß viele derartige Situationen.
 
Soll Multi-Engine (um nicht das böse Marketingwort "Asynchronous Compute" zu verwenden) nicht genau das Problem mit dem Warten angehen?
 
Naja, man versuchts halt an den Stellen wo es sinnvoll ist (sprich der Code einen hohen parallelisierbaren Anteil hat, beispielsweise Partikelphysik, da kannste für jedes Partikelchen einzeln rechnen sofern nicht so genau simuliert werden muss dass Partikel andere Partikel beeinflussen und das macht man in Spielen selbstverständlich nicht) möglichst gut hinzubekommen. Grade im GPU-Bereich wo Async Compute greift hab man ja extrem gut parallelisierbare Aufgaben (sonst wäre es Unsinn tausende von Shadereinheiten gleichzeitig zu benutzen...), im CPU-Bereich ist das nunmal leider oftmals nicht so. An Stellen wo die Aufgabe an sich aber kaum bis nicht parallelisierbar ist hilft das alles nichts. Wenn sehr vereinfacht eine Berechnung darüber entscheidet, ob eine Spielfigur jetzt nach rechts oder links läuft müssen alle anderen Berechnungen wartn bis die Entscheidung gefallen ist und können dann weitermachen. Ganz blöd ist es, wenn Ergebnisse von einem Thread die berechnungen von anderen Threads beeinflussen - und das ist in Spielen nunmal die regel - wenn du da zu viel parallelisierst berechnen die parallelisierten Threads Dinge, die dann verworfen werden müssen weil sich was geändert hat. Dann haste 90% Last auf nem 8-Kerner mit SMT aber bist nicht schneller wie vorher... oder es geht nichts mehr wenn du nen Deadlock kassierst^^
 
Zuletzt bearbeitet:
Viel interessanter könnte es werden, wenn spätere Konsolen von Microsoft und Sony einen Zen (Zen+) Prozessor besitzen. Dadurch könnte man direkt auf die neue Architektur programmieren und wer weiß vllt würde dann auch die wahre Natur der Ryzen Mikroarchitektur freigesetzt werden. Ich bin noch immer der Meinung das AMD mit Ryzen noch weit mehr herausholen kann. Von daher sind meine Erwartungen für Zen+ ziemlich groß. 2018 wird aufgerüstet, ob Intel oder AMD wird sich dann zeigen. :daumen:
 
Ich wollte genau das schreiben, was Incredible Alk schon geschrieben hat.
Die Diskussion das zukünftig mehr Cores für Games genutzt werden, gab es schon als XBone und PS4 in der Planung waren.
Verändert hat sich bis heute, dass meistens wenigstens 4 Cores auf dem PC halbwegs genutzt werden, die meisten Games aber so gar noch mit Dual Cores funktionieren.
Auch die Hoffnung das durch die neuen Konsolen AMD Hardware beim PC profitiert, erfüllte sich nicht.
Bis auf wenige Games sieht man keinen Unterschied, und nicht selten ist eine Intel-Nvidia-Kombination besser.


Und zum Thema DX12 hat Leo eine interessante Einschätzung geschrieben.

Die PC Games Hardware bringen von der GDC bemerkenswerte Entwickler-Statements seitens Jurjen Katsman zu DirectX 12 mit, dessen Entwicklerstudio Nixxes mit Rise of the Tomb Raider und Deus Ex: Mankind Divided an zwei der bekannteren DirectX-12-Titel gearbeitet hat. Im Laufe diese Arbeit scheint jedoch die anfängliche Begeisterung bezüglich DirectX 12 einer gewissen Ernüchterung gewichen zu sein: Zwar kann man mit DirectX 12 diverse Leistungsgewinne verzeichnen und auch die Ausnutzung mehrerer Grafikkarten ist besser zu erreichen. Dafür steht jedoch ein erhöhter Aufwand für die Spieleentwickler auf der Gegenseite – und wenn man jenen nicht geht und einen eher lieblosen DirectX-12-Port erstellt, dann kann sich der avisierte Leistungsgewinn schnell in Luft auflösen bzw. die Performance unter Umständen sogar schwächer alsfallen als mit DirectX 11. Selbiges war schließlich auch schon in der Praxis bei einigen Spielen zu beobachten – die Spieleentwickler müssen sich in das Thema DirectX 12 augenscheinlich erst einmal aufwendig einarbeiten, ehe man gute Ergebnisse erzielen kann.

Dies könnte man als Anfangsschwierigkeiten abtun, allerdings sehen wir hier ein grundsätzliches Problem: Am Ende bringt DirectX 12 selbst bei guter Umsetzung nur ein wenig mehr Performance, primär einen gewissen Boost bei der CPU-Performance. Bis auf Sonderfälle wie Strategietitel mit echter Ausnutzung dieser Möglichkeiten wird ein bißchen mehr CPU-Performance unter heutigen Spielen aber kaum benötigt. Man kann es sogar krasser formulieren: Jeder Performance-Boost, der nicht gleich wirklich herausragend ist, spielt eigentlich keine Rolle, weil man mehr Performance sehr kontinuierlich über immer schnellere Hardware bekommt. Relevant für Spieleentwickler sollten eher die technologischen Möglichkeiten einer Grafik-API sein bzw. der Aufwand, jene dann auch auszunutzen. Hier lagen die großen Vorteile aller Vorgänger von DirectX 12 – es gab ständig neue Möglichkeiten zur Grafikgestaltung, gleichzeitig wurden Limits entfernt und Einzelaufgaben vereinfacht. Damit war mit jeder DirectX-Version immer auch eine bessere Grafikqualität möglich – ein Punkt, welcher bei DirectX 12 nunmehr weitgehend fehlt. In Kombination mit dem Mehraufwand, welchen die Spieleentwickler mit DirectX 12 haben, sieht dies nominell nicht gut aus für DirectX 12. Wir würden ja den Spieleentwickler, die unbedingt über DirectX 11 hinausgehen wollen, eher den Wechsel zu Vulkan empfehlen – wenn schon unbedingt etwas neues, dann kann es auch gleich Plattform- und Hersteller-unabhängig sein.
Hardware- und Nachrichten-Links des 24. Marz 2017 | 3DCenter.org
 
Zuletzt bearbeitet:
@Incredible Alk: Ich bin mir durchaus bewußt, das es zum JETZIGEN Zeitpunkt nicht so ohne weiteres möglich ist. Aber wer sagt, das dies zukünftig nicht machbar sein sollte? Wäre der Chip in der Parallelisierung nämlich schnell genug, wäre Warten egal( die Idee des Molekularcomputers, sehr lesenswert: Rebooting the molecular computer | January 23, 2017 Issue - Vol. 95 Issue 4 | Chemical & Engineering News). Zumindest versucht AMD mal neuere Wege zu etablieren. Ganz Unrecht hast Du nicht. Programieren habe ich so 1997 aufgegeben. War nicht mehr nötig:D
Gruß T.
 
Aber wer sagt, das dies zukünftig nicht machbar sein sollte?

Das Problem an physikalischen/mathematischen Gesetzen wie dem Amdahlschen Gesetz ist in der Hinsicht, dass es in 100 Jahren noch genauso gelten wird wie heute. ;)
Selbst wenn ein PC faktor eine Million schneller wäre in Parallelisierung wie heutige CPUs und Tausende Kerne hätte kann er schlecht/nicht parallelisierbaren Code nicht schneller bearbeiten.

Natürlich gibts da noch tonnenweise zu optimieren aber es gibt da leider eine natürliche Grenze.
 
Zurück