AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche

Bevor AMD dieses Jahr mit Zen 3 in die nächste Runde geht, wird das Portfolio um Matisse, alias Zen 2, nach unten hin abgerundet. Herausgekommen sind dabei zwei Quadcore-CPUs, namentlich AMD Ryzen 3 3300X und Ryzen 3 3100. Was die kleinen Flitzer leisten und ob es sich aus Spieler-Sicht im Jahre 2020 noch lohnt, auf einen Quadcore aufzurüsten, klären wir in unserem Test.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche
 
Quadcore well done! :daumen:

Das ist doch ein schöner günstiger Einstieg (mit B550) in die AM4-Welt. Es wird sowohl in Games wie auch in Anwendungen auch der bisherige P/L-Kracher i5-9400F teils recht deutlich geschlagen. Dementsprechend führt nun auch in sehr preiswerten Gefilden kein Weg mehr an Zen2 vorbei.


Top Test von Euch!
 
Schneller als mein 7700K. Schon ein toller Prozessor.

So muss es ja auch sein. Hat zwar mehrere Jahre gedauert (3-4 oder?), aber immerhin! Und dann zu einem echt guten Preis. Wenn man sich überlegt, dass der 7700K mal 300-350 EUR gekostet hat. :daumen:

Witzig ist, dass man diesen ja heute in einen Office-PC einsetzen kann. Wenn ich mir überlege, was in unseren Geschäfts-PCs für Intel-CPUs eingebaut sind (3570 glaub), und die sich schon langweilen, dann hat man hier Power ohne Ende!
 
Witzig ist, dass man diesen ja heute in einen Office-PC einsetzen kann. Wenn ich mir überlege, was in unseren Geschäfts-PCs für Intel-CPUs eingebaut sind (3570 glaub), und die sich schon langweilen, dann hat man hier Power ohne Ende!

Ich hab auffer Arbeit sie 8 Jahren oder so nen i5-2500 mit 4GB RAM (wird dieses Jahr ersetzt, ich bin gespannt...). Und das ding macht (leichte) virtuelle Maschinen, CAD, Office und vieles mehr.
Klar, das macht keinen Spaß was dioe Performance angeht und ich brauche stellenweise viel Kaffee aber es funktioniert. Diese "Office-CPUs" sind weitaus stärker als was für einen reinen Office-PC nötig ist. Da ist schon einiges an Leistung da auch wenn man mal anspruchsvollere Dinge vor hat. Für alle, dioe nicht jedes FPS suchen gehen und denen es auch egal ist ob sie jetzt 5 oder 7 Sekunden auf ne Sanduhr starren gibts hier für wenig Euros ausreichend Leistung. :)
 
Interessanter Test. Klar, ein 4-Kerner ist im Jahr 2020 eher weniger zum "Zocken" gedacht, aber als potenter Office-PC-Prozessor absolut ausreichend. Trotzdem sehe ich jetzt nicht die mega Absatzzahlen dafür.
 
Ich hatte den gleichen Gedanken wie einige Vorposter: Die Leistung eines 7700K für etwas über 100€ - schon beeindruckend. Wer hätte das vor 2-3 Jahren gedacht - immerhin war das damals die High-End-Gaming-CPU.

Edit: Das Problem ist eigentlich, dass AMD keine iGPU verbaut hat. Eine separate GPU oder eine APU ist für viele Office-PCs overkill, aber eine einfache iGPU könnte zumindest den Desktop darstellen.
 
Ich habe einen 1440p-Monitor und Frage mich was 720p-Benchmarks für einen Aussage-Wert haben...
Ihr lernt es irgendwie nicht.
Ihr habt schon Anwendungsbenchmarks. Reichen die nicht um die theoretische Geschwindigkeit zu bestimmen?
Wieso noch zusätzlich Spielebenchmarks in 720p?
Wann war 720p Standard?? Vor 15 Jahren oder so.
Ich weiss also wie die CPU sich vor 15 Jahren geschlagen hätte.
Grafikkarten-Benchmarks entstehen bei euch auch nicht ausschließlich in 8k, wieso also CPU-Benchmarks in 720p?
Total sinnlos, wer spielt heutzutage schon in dieser niedrigen Auflösung?
Da ist Computerbase die deutlich bessere Wahl.
Vielleicht wacht ihr ja mal auf, bemängele das schon seit Ewigkeiten.

PCGames(!!)Hardware. Vielleicht solltet ihr euch PCTheoriehardware nennen.
Bin echt enttäuscht, dass ihr auch 2020 in dieser Zwergauflösung testet
 
Ich habe einen 1440p-Monitor und Frage mich was 720p-Benchmarks für einen Aussage-Wert haben...
Ihr lernt es irgendwie nicht.
Ihr habt schon Anwendungsbenchmarks. Reichen die nicht um die theoretische Geschwindigkeit zu bestimmen?
Wieso noch zusätzlich Spielebenchmarks in 720p?
Wann war 720p Standard?? Vor 15 Jahren oder so.
Ich weiss also wie die CPU sich vor 15 Jahren geschlagen hätte.
Grafikkarten-Benchmarks entstehen bei euch auch nicht ausschließlich in 8k, wieso also CPU-Benchmarks in 720p?
Total sinnlos, wer spielt heutzutage schon in dieser niedrigen Auflösung?
Da ist Computerbase die deutlich bessere Wahl.
Vielleicht wacht ihr ja mal auf, bemängele das schon seit Ewigkeiten.

PCGames(!!)Hardware. Vielleicht solltet ihr euch PCTheoriehardware nennen.
Bin echt enttäuscht, dass ihr auch 2020 in dieser Zwergauflösung testet

Was bringts wenn der PC bei einem CPU-Benchmark im Graka-Limit hängt :confused:
Sagt mir nichts über die CPU, nur über die Graka :ka:

edit: https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/
 
Es geht darum ein GPU-Bottleneck auszuschließen und weniger ein realistisches Szenario abzubilden. Man möchte ja die Leistung der CPU protokollieren.
Klar, mit einer 2080Ti könnte man auch problemlos in 1080p Ultra benchen und die Ergebnisse wären wahrscheinlich die gleichen, aber ganz sicher sein kann man sich nicht.
 
Es geht darum ein GPU-Bottleneck auszuschließen und weniger ein realistisches Szenario abzubilden. Man möchte ja die Leistung der CPU protokollieren.
Klar, mit einer 2080Ti könnte man auch problemlos in 1080p Ultra benchen und die Ergebnisse wären wahrscheinlich die gleichen, aber ganz sicher sein kann man sich nicht.

Sind in 1080p schon nicht mehr die gleichen Ergebnisse. Selbst da schrumpfen die eigentlichen real existierende Unterschiede schon künstlich zusammen. Spiele CPU Test, Auflösung so gering wie möglich, fertig. ;)

Der 3300X ist eine sehr knackige CPU. Gerne würde ich dazu Optimierungsversuche sehen.

Was geht an Takt und was geht mit optimierten Ram, das dann gegen einen optimierten 7700k. Das wäre für mich sehr interessant.
 
YouTube

lol schlägt den 7700k xD das teil geht für 300 ocken über den theken in ebay die leute sind so behindert

Das stimmt allerdings, was für Intel an Gebrauchtpreisen aufgerufen wird ist lächerlich. Wobei die letzten 7700k die ich gesehen habe, gingen für knapp 200 Euro weg. Einzig ein 7700k, der bei 1,2V schon 5GHz machte sollte dann rund 270Euro bringen.

Dennoch viel zu hoch, wenn man sich ansieht, das ein 3600 schon nur 180 Euro neu kostet.

NAch diesem Test wünsche ich mir jetzt ganz schnell einen Zen 3, mit 8 Kernen in einem CCX, mit steigender IPC usw.
 
Zuletzt bearbeitet:
Interessanter Test. Klar, ein 4-Kerner ist im Jahr 2020 eher weniger zum "Zocken" gedacht, aber als potenter Office-PC-Prozessor absolut ausreichend. Trotzdem sehe ich jetzt nicht die mega Absatzzahlen dafür.

Finde ich nicht. Du kannst auch noch heute mit 4C/8T gut und solide zocken, wenn es auf 1080p bleibt und dafür ist so eine Budget-CPU ja gedacht, da die damit gepaarte GPU kein 4k sinnvoll schaffen wird.

Ich selbst habe noch einen besagten 7700K und ich kann heute noch problemlos aktuelle Spiele zocken. Sicherlich nicht optimal aber deine Aussage klingt so, als ob es überhaupt nicht gehen würde.

Von daher: Wer wenig Kohle hat oder ausgeben will und nicht das Maximum an Details braucht, der bekommt hier eine sehr gute CPU fürs zocken.
 
Ich bin ein wenig über die Tabelle für die "Leistungsafnahme Leerlauf" verwundert. Ein AMD R9 3950X liegt auf dem selben Niveau wie der AMD R3 3100 und der AMD R3 3300X. Ein R7 3800X beispielsweise hat aber mehr, so wie der R9 3900X auch - Wie geht das? :what:
 
Zuletzt bearbeitet:
Ein AMD R9 3950X liegt auf dem selben Niveau wie der AMD R3 3100 und der AMD R3 3300X. Ein R7 3800X beispielsweise hat auch mehr oder der R9 3900X - Wie geht das? :what:

Der Grund ist ziemlich simpel: Die Chiplets/Kerne verbrauchen im Idle quasi nix (<<1 W), der I/O-Chip hat aber keine Stromsparfunktionen. Es ist völlig egal ob du 4, 8, 12 oder 16 Kerne hast, der allergrößte Anteil des Stromverbrauchs im Idle macht der I/O-Chip aus der bei allen Ryzen3000 CPUs der genau gleiche ist. Deswegen ist der Idleverbrauch eines 3100ers der quasi gleiche wie der eines 3950X.

Die Idleverbräuche sind noch das große Manko des aktuellen Designs. Ich hoffe mit Ryzen4000 hat AMD da was verbessert.
 
Der Grund ist ziemlich simpel: Die Chiplets/Kerne verbrauchen im Idle quasi nix (<<1 W), der I/O-Chip hat aber keine Stromsparfunktionen. Es ist völlig egal ob du 4, 8, 12 oder 16 Kerne hast, der allergrößte Anteil des Stromverbrauchs im Idle macht der I/O-Chip aus der bei allen Ryzen3000 CPUs der genau gleiche ist. Deswegen ist der Idleverbrauch eines 3100ers der quasi gleiche wie der eines 3950X.

Die Idleverbräuche sind noch das große Manko des aktuellen Designs. Ich hoffe mit Ryzen4000 hat AMD da was verbessert.

Das erklärt aber nicht, wieso die anderen 3000er mehr verbrauchen obwohl diese ebenfalls den I/O-Hub nutzen und weniger Kerne haben. Wie in meinem Beispiel: 3950X beansprucht 14W, genau so viel wie der 3100 und 3300X. Dann sind da aber noch die anderen 3000er z.B. der 3800X mit 17W (3W mehr) und der 3600X mit 20W (6W mehr) und der 3900X mit 27W (13W mehr) - Meine Frage zielte darauf ab, weshalb gerade der dickste Ryzen, mit 16 Kernen, bei 14W liegt.

index.jpg
 
Zuletzt bearbeitet:
Test procesorow AMD Ryzen 3 3100 i Ryzen 3 3300X - Nowe rozdanie (strona 29) | PurePC.pl
Hauen mal eben 4.6GHz raus^^

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wichtig ab Minute 2.
 
Zuletzt bearbeitet:
Zurück