AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche

[...]man sollte immer auch Bilder vergleichen und sich die Detailtiefe der Darstellung anschauen. Das macht dann natürlich richtig Arbeit. :(

Puh, das macht richtig viel Arbeit. Ich habe ja die Auslastungs-Stats der CPU in CapFrameX. Das werde ich dann mal vergleichen. Im übrigen kenne ich nur ein Beispiel mit kernabhängigem Detailgrad: Ashes of the Benchmark.
 
Im übrigen kenne ich nur ein Beispiel mit kernabhängigem Detailgrad: Ashes of the Benchmark.
Ja, das war es. Ob es das einzige ist, mag sein, aber es ist ein Hinweis. Denn ich finde es schon bemerkenswert, das der olle Vierkerner so gut abschneidet. Wieder ein Grund, von meinen i7-4770K nicht aufzurüsten, auch wenn es wie in Anno 1800, inzwischen scmerzlich ruckelt. Aber zuerst würde dann WIN 10 auf den Rechner kommen. Das soll bei dem Spiel sehr viel bringen.

Aber ich will kein WIN 10, nein, diese Suppe ess ich nicht. :)
 
Quadcores sind tot? Von wegen und dank 8 Threads hat man in Games durchaus noch viel Spaß, auch mit den alten Siebenern Intels.

Top Test, PCGH. So liest man gern:)

Gruß
 
Also Anno soll recht stark von DX12 profitieren. Es hat aber dann auch kein Problem, wenn es sich den R9 mit 18 Threads F@H teilen muss.

Mein i7 bleibt wohl auch noch bis Sockel AM5 / 1700 mit DDR5 und dann muss wohl auch Win10 drauf.
 
Quadcores sind tot? Von wegen und dank 8 Threads hat man in Games durchaus noch viel Spaß, auch mit den alten Siebenern Intels.
Wenn da nicht der Haben-Faktor bei den 12 und 16 Kernern wäre. Mein Geldbeutel schwitzt jetzt schon schlimmer als ne RTX 2080 Ti vor dem Launch von Crysis Remastered. :ugly:
 
was bringen dann die ganzen 8 kerner und aufwärts für gamer? warum was mit 8 kernern kaufen wenn der 4 kerner die hälfte kostet und die 4 kerne eh nur pennen? bis wirklich 8 kerne gefragt sind ist der 8 kerner den man kaufte müll und wsnl gibt es billigere bessere 8 kerner dann. naja gut zu wissen das mehr egal ist . kannst nichtmal ein test vertrauen .....empofehlen 6 kerner bla bla bla schopn beim ryzen 1600 und was hat sich bis jetzt getan gar nichts.

Wenn es die nächsten Jahre so weiter gehen sollte, wäre das schon ein Armutszeugnis für die Entwickler. In 2020 würde ich mir keine CPU mit 4K/8T mehr kaufen, da die Entwicklung definitiv weitergehen wird und ich nur selten das Spiel alleine offen habe. Da finde ich die Empfehlungen in den Tests definitiv gerechtfertigt.

Am Ende auch egal, wahrscheinlich antworte ich hier wieder einem Drittaccount.
 
Hier mal ein Performance-Vergleich 3300X vs. 3950X (4-0 vs. 2-2) mit The Division 2. Dass die Intercore-Latenzen derart großen Einfluss haben, hätte ich nicht gedacht. Und der 3950X war sogar noch 150-200MHz höher getaktet. Zen 3 ruft schon aus der Ferne...

CX_2020-18-5_20-47-47_Comparison.png
 
Beide CPUs haben ungefähr 55 Watt verbraucht während des Runs. Der 3950X hat zwar doppelt so viel Cache, aber der kann nicht global genutzt werden.
 
Ich schließe mich den Fragen an, Gauss. Was genau hast du getestet? Was sagt AIDA64 über die Latenzen? Arbeitsspeicher?
Mit welcher Szene hast du Division 2 getestet?
 
Ich schließe mich den Fragen an, Gauss. Was genau hast du getestet? Was sagt AIDA64 über die Latenzen? Arbeitsspeicher?
Mit welcher Szene hast du Division 2 getestet?

Ich habe eine CPU-lastige ingame Szene (Tageszeit morgens) gebencht. Ein Video davon lade ich die Tage hoch. Speicher und restliches System waren identisch. AIDA64 weist keine nennenswerten Unterschiede auf. Es sind einzig die Intercore Latenzen, welche sich deutlich unterscheiden.
 
Stell dir vor wie gut der 8 Kern Zen 3 wird. RAM dann mittlerweile zusätzlich noch im 1 zu 1 mode mit 4600 MHz, 4.8GHz allcore SMT Off und 50W Verbrauch. 250FPS im selben Test.
 
Zen 3 könnte richtig gut werden. 32MB global (aus CCD Sicht) nutzbarer L3 Cache. Bessere Intercore Latenzen innerhalb eines CCDs (Single CCX vermutlich mit Ringbus), mehr Takt und mehr IPC. Dazu noch softwareseitige Optimierung durch die Nutzung in den Konsolen. Sony arbeitet (sogar schon länger) an einem optimierten Compiler für Zen, so dass LLV Optimierungen zu erwarten sind.

Kurzum, sieht danach aus, dass Intel nicht nur vom Gaming Thron geschubst, sondern regelrecht weggepustet wird.
 
Meinst du wirklich, dass die 8 Kerne in einem CCX mit dem IF verbunden werden, ähnlich zu Intels Mesh? Dann gute Nacht geringe Intercore Latenzen und vor allem schnelle L3 Cache Anbindung. Hast du dir mal die L3 Cache Latenzen von SKL-X angeschaut? Sie haben 4 mal so viel L2 verbaut, um das zu kompensieren. Deswegen verbraucht SKL-X auch so viel Strom. Das würde hinten und vorne nicht passen zu AMDs Zielen bzgl. der Effizienz. Der IF bleibt natürlich für Inter CCD und I/O erhalten. Es wird halt ein lokaler Ringbus.
 
Kurzum, sieht danach aus, dass Intel nicht nur vom Gaming Thron geschubst, sondern regelrecht weggepustet wird.
Wenn du FP unter Spielen für wichtig erachtest schon, ansonsten eher nicht, wobei die Arch mit Rocket Lake-S verglichen wurde. Denke mal man wird Epyc um Faktor X beschleunigen, da Zen nichts anderes ist wird das unter Spielen eher moderat ausfallen. Von wegen wegpusten und so...:D.

Ich würde schön finden wenn sie all@Core endlich mal die Taktwall von 4GHz durchbrechen würden, und man dafür nicht mit einem Hammer draufschlagen muss. Ringbus wäre da eine ganz blöde Idee.
 
Wenn du FP unter Spielen für wichtig erachtest schon, ansonsten eher nicht,[...]

Ich habe doch weiter oben erwähnt, welche Faktoren meiner bescheidenen Meinung nach, die Gaming Leistung pushen werden. FP war jetzt nicht direkt dabei, indirekt aber in der IPC-Steigerung... :D Der Begriff ist eh wischi-waschi. Lass uns lieber von gesteigerter Backend-Leistung sprechen oder Compute-Leistung. Das ist für Games aber nicht sooo wichtig, nicht im großen Mittel. Da sind Latenzen King.
 
Ich will da deine Euphorie nicht bremsen, aber dir ist soweit nicht klar, wie die Abstractionsebene zwischen "CCX" und "CCD" aussieht und was du für "wegpusten" den Entwicklern verkaufen musst. Vor allem wenn eine Gen über die Gerüchteküche mit altem Zeug von Intel verglichen wird, würde ich das nicht als Anlass hernehmen zu glauben die IF wird als Interconnect aussondiert und durch Ringbus ersetzt. Einfach mal nicht soviel Fake glauben.

Edit sagt: ...Intels Mesh ist übrigens nur langsam, weil es unter den Spieleentwicklern niemanden interessiert und man für eine Randgruppe (HEDT hin oder her) nicht optimieren will. Nun wird ja Ryzen "gehypt" und daher ist das gerade wichtig. Wäre ziemlich blöd von AMD jetzt schon wieder etwas Grundlegendes abzuändern. Verarsc*en in jährlichen Zeiträumen kann man sich nämlich allein...
 
Zuletzt bearbeitet von einem Moderator:
[...] würde ich das nicht als Anlass hernehmen zu glauben die IF wird als Interconnect aussondiert und durch Ringbus ersetzt. Einfach mal nicht soviel Fake glauben.

Dann skizziere doch mal bitte, wie man mit 8 Kernen und nicht heterogenem Interconnect, einheitlich auf den 32MB großen, zusammenhängenden Cache zugreifen will?

Edit sagt: ...Intels Mesh ist übrigens nur langsam, weil es unter den Spieleentwicklern niemanden interessiert und man für eine Randgruppe (HEDT hin oder her) nicht optimieren will.

So so, dann ist also der SiSoftware Sandra Latenztest wohl auch einfach nicht "optimiert"? :ugly:
 
Ha ha netter Versuch..:D

4bm pro Kern und 16 pro CCX...,nix 32mb für alles!

Nur weil eine Software Stuss bei einem ES ausliest heißt es das AMD was ändert, ja klar.:schief:
 
Zurück