AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche

Wenn ich sehe dass die 3300x ca. 50FPS mehr in TW3 hat, wie viel bleibt davon noch in 1080p oder 1440p übrig?
Ganz einfach: So viel, wie deine verwendete Grafikkarte schafft. Genau das ist der Trick. ;)

Du schaust dir einen Benchmark deiner Grafikkarte in TW3 in deiner Auflösung an (am besten ohne CPU-beeinflussung, also mit 9900KS @7 GHz :P).
Schafft die Karte mehr als 50 fps dann hast du 50 fps (CPU-Limit)
Schafft die karte weniger als 50 fps haste die fps-Zahl die die Karte schafft (GPU-Limit)

Eben das ist der Grund für solche Tests.
 
Ich habe einen 1440p-Monitor und Frage mich was 720p-Benchmarks für einen Aussage-Wert haben...
Ihr lernt es irgendwie nicht.
Ihr habt schon Anwendungsbenchmarks. Reichen die nicht um die theoretische Geschwindigkeit zu bestimmen?
Wieso noch zusätzlich Spielebenchmarks in 720p?
Wann war 720p Standard?? Vor 15 Jahren oder so.
Ich weiss also wie die CPU sich vor 15 Jahren geschlagen hätte.
Grafikkarten-Benchmarks entstehen bei euch auch nicht ausschließlich in 8k, wieso also CPU-Benchmarks in 720p?
Total sinnlos, wer spielt heutzutage schon in dieser niedrigen Auflösung?
Da ist Computerbase die deutlich bessere Wahl.
Vielleicht wacht ihr ja mal auf, bemängele das schon seit Ewigkeiten.

PCGames(!!)Hardware. Vielleicht solltet ihr euch PCTheoriehardware nennen.
Bin echt enttäuscht, dass ihr auch 2020 in dieser Zwergauflösung testet

Einfach von Euro in Mark umrechnen.

Das finde ich besser, als praxisnahe Grafikdetails und Auflösungen zu sehen; dann müsste ich mehr herum rechnen und spekulieren, wie was wo laufen würde.

Beispiel ein Leichtgewicht E-Sport Spiel wie League of Legends: 720p, niedrige Details, die CPU kann 500 FPS drücken, die Grafikkarte auch 500 FPS. Ließe man nun 1080p mit hohen Details laufen, käme man bei z. B. 200 FPS raus (bitte nagele mich niemand auf diese Werte fest), würde aber unter Umständen nicht erfahren, wann der Prozessor nicht schneller von leichtem Bild zum nächsten leichten Bild hüpfen kann, was in der Tat die Aussagekraft über die Geschwindigkeit des Prozessors schmälern würde.

500 FPS wären 2ms Render Zeit. um auf 1 Sekunde zu kommen. Begrenzt man nun die Bildwiederholungsrate auf z. B. 75 FPS, hat die CPU 13,33 ms Zeit um das nächste Bild vorzubereiten, was den Stromverbrauch und die Auslastung senkt und nicht den maximalen Leistungszustand darstellt. Wenige ms "Pause machen" sind eine Ewigkeit für eine CPU bei diesen hohen Geschwindigkeiten der Kerne und der Cache Stufen 1 bis 3. So werden die Unterschiede von kleinen, alten CPU hin zur modernsten Technik nicht nur minimal, sondern fast gar nicht mehr messbar bzw. sichtbar gemacht. Im Grafikkarten Limit ist es egal, ob die CPU 10% bringt oder auf Halbgas läuft.

Im schlimmsten Fall gibt es bei praxisnahen Tests dann unter den Videos Kommentare wie: "Hey, es gibt praktisch keine Unterschiede zwischen einem 100€ 6 Kerner und einem 500€ 8 Kerner." weswegen man sich den ganzen CPU Test als YouTube Video dann gleich sparen kann. Um die zu erwartende Leistung in diesem einen Fall des Testers auf YouTube zu sehen, geht das in Ordnung, aber nicht wenn man die CPUs untereinander vergleichen möchte. Obwohl die Bildwiederholungsraten in zukünftigen Titeln niedriger sind als bei heutigen Titel in 720p mit niedrigsten Details, kann man das dann fast linear herunter rechnen auf das Zukunfts Spiel in voller Grafikpracht, weswegen der PCGH 720p CPU Test auch so sehr und zurecht hoch gelobt wird und viele Leute sind einfach zufrieden mit dieser Testmethodik, weil sie zwar dividieren müssen, aber wissen, wie gut eine aktuelle CPU wirklich "am Gas" hängt.

Zwei CPUs, die heute in 720p 500 FPS und 300 FPS schaffen, werden in Zukunft bei höheren Systemanforderungen eines Spiels dann bei einem Umrechnungsfaktor von 5 eben 5 mal weniger Bilder pro Sekunde schaffen, in diesem Fall 100 FPS und 60 FPS. Bei Strategiespielen von vor 15 Jahren benötigt meine Grafikkarte 7-15 Watt und die CPU auch, alles in 1080p bei maximalen Details. Nur bei Aufnahmen oder Live Streams landet man dann bei einer Leistungsaufnahme von je 16-25 Watt.

Statt also in die Vergangenheit zu sehen, wird hier die Gegenwart beleuchtet und ein Ausblick in die Zukunft gegeben, ohne dass dir jemand dein schönes 1440p Bild streitig machen möchte. Die Testmethodik ist gut so wie sie ist...und ohne PCGH würden die Leute genau die gleichen Tests eben selbst machen. Folglich kann beim Test einer schnelleren und effizienteren Grafikkarte trotzdem der Gesamtverbrauch des Testsystems höher liegen, weil mehr FPS generiert werden, weshalb u. a. der Prozessor auch mehr zu tun bekommt und es folglich zu "verfälschten" Ergebnissen kommt, aber die richtigen Nerds, die genau hingucken und sich viel Zeit für die Analyse nehmen, spüren diese Erschütterung der Macht natürlich.

So zumindest habe ich das verstanden. ;)
 
Zuletzt bearbeitet:
Ganz einfach: So viel, wie deine verwendete Grafikkarte schafft. Genau das ist der Trick. ;)

Du schaust dir einen Benchmark deiner Grafikkarte in TW3 in deiner Auflösung an (am besten ohne CPU-beeinflussung, also mit 9900KS @7 GHz :P).
Schafft die Karte mehr als 50 fps dann hast du 50 fps (CPU-Limit)
Schafft die karte weniger als 50 fps haste die fps-Zahl die die Karte schafft (GPU-Limit)

Eben das ist der Grund für solche Tests.

Gut. Klingt logisch, aber wohl zu alt für diesen Sch...
Als ich noch jung war, da habe ich nach jedem Treiberupdate meine Voodoo 2 gebencht. Ich bin aber 40 und habe eine Familie. Meine Freizeit verbringe ich nicht mit Benchmarks lesen und miteinander verknüpfen.

Ich bin Computec-Leser seit 1991 (Play Time zweite Ausgabe). Bin wohl nicht mehr nerdig genug ^^

Für SSDs und co. nehme ich euch immer noch gerne zu Rate.
 
Meine Freizeit verbringe ich nicht mit Benchmarks lesen und miteinander verknüpfen.

Naja, eigentlich brauchste nur zwei Benchmarks zu lesen.
Den deiner CPU im Spiel X und den deiner GPU im Spiel X und deiner Auflösung. Die jeweils kleinere Zahl der beiden Werte werden deine FPS sein.

Das halte ich persönlich für deutlich weniger Zeitaufwendig als den einen Benchmark zu suchen, der genau dein System in deinen Settings testet - meistens wirds den ja nicht mal geben. ;)
Und als Bonus weißt du danach sogar, was du aufrüsten müsstest wenn die Zahl dir zu klein ist.
 
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen 3 3300X und 3100 im Test: Bewährte Technik mit Kernschwäche
Eine grandiose Einsteiger-CPU. Und schaue ich mir die Spielebenchmarks an, scheinen Vierkerner keineswegs mausetod zu sein. Wenn man eh auf ZEN 3 umsteigen will, ist der kleine Ryzen 3 eine sehr gute Alternative.

Danke für den Test!

Schneller als mein 7700K. Schon ein toller Prozessor.
Jana, beim i7-7700K bleibt eine Menge Übertaktungsoptionen. Sagen wir, beide CPUs nehmen sich nicht viel. Und das ist schon klasse.
 
Zuletzt bearbeitet von einem Moderator:
Naja, eigentlich brauchste nur zwei Benchmarks zu lesen.
Den deiner CPU im Spiel X und den deiner GPU im Spiel X und deiner Auflösung. Die jeweils kleinere Zahl der beiden Werte werden deine FPS sein.

Das halte ich persönlich für deutlich weniger Zeitaufwendig als den einen Benchmark zu suchen, der genau dein System in deinen Settings testet - meistens wirds den ja nicht mal geben. ;)
Und als Bonus weißt du danach sogar, was du aufrüsten müsstest wenn die Zahl dir zu klein ist.

Habe ich es übersehen, oder gibt es wirklich keinen Durchschnittswert der CPUs?
 
Ach Alki, wenn wir dich nicht hätten. :bier:

Es ist ganz einfach:
Wenn wir eine CPU testen, dann möglichst im CPU-Limit. Schließlich interessiert uns in dem Fall nicht die Leistung der Grafikkarte (wie es bei Tests in höheren Auflösungen der Fall wäre), sondern was der Prozessor maximal zu leisten imstande ist. Daher beschränken wir die Benchmarks auf maximale Draw Calls und blenden exklusive Grafikeffekte wie Anti-Aliasing oder Screen Space Ambient Occlusion usw. aus und schrauben die Auflösung die kleinste Stufe im 16:9-Bildformat herunter, die alle Spiele unterstützen: 1.280×720 Pixel. Dieses Bildformat nutzen die meisten unserer Leser. Das wissen wir, weil wir regelmäßig Umfragen durchführen.

Jetzt nehmen wir uns als Beispiel einen der letzten Technik-Tests, in dem Fall Wolcen. Wir schauen, was die CPU leisten kann: https://www.pcgameshardware.de/Wolc...64/Specials/Benchmark-Tuning-Tipps-1343438/3/
Ein Ryzen 3600 packt hier rund 143 Fps. Auf der Seite davor sind die Grafikkarten-Benchmarks: https://www.pcgameshardware.de/Wolc...64/Specials/Benchmark-Tuning-Tipps-1343438/2/
Nehmen wir nun einmal an, wir haben ein System mit dem genannten Ryzen und verbauen dazu eine aktuell sehr beliebte 5700 XT. Bereits unter Full HD liefert die 5700XT "nur" rund 124 Fps.
Das Fazit ist offenkundig: Da die CPU theoretisch mehr leisten kann, befinde ich mich in Wolcen mit einer 5700 XT im GPU-Limit. Hätte ich den Ryzen jetzt allerdings nur in Full HD, oder in höheren Auflösungen getestet, müsste ich eine weitaus schnellere Grafikkarte verbauen, um überhaupt noch Unterschiede zwischen einzelnen CPUs feststellen zu können. In UHD erreicht eine 2080 Ti beispielsweise gerade noch rund 57 Fps. Die packt ein Core 2 Quad Q6600 (!) mit 4 GHz auch in 720p. Würde ich dem nun einen Core i9-9900K gegenüberstellen, würde das Fazit lauten: Ein 9900K ist in Wolcen so schnell wie ein Core 2 Quad Q6600 :ugly:
 
Wenn ich mich recht erinnere dann sind in der Zeitschrift viele CPUs in Verhältnis zueinander gesetzt.

Achso, ja das gibts. In Papierform in jeder Printausgabe.
Für einen schnellen Überblick ok, persönlich nutze ich dieses "Ranking" aber eher weniger. Durchschnittsbildung hat nunmal auch zwingend einen gewissen Informationsverlust zur Folge.

Die Rankings haben halt ein großes problem dass verschiedene CPUs in verschiedenen Szenarien sehr unterschiedlich performen - es ist nichtmal klar welcher da jetzt die 100% bekommt. Ein 3950X wird in Anwendungen (im Desktopbereich) ziemlich alles leicht wegputzen, in Spielen aber im Mittel gegen einen 9900K verlieren der nur halb so viele Kerne hat. Da kann man jetzt wild hin und her gewichten oder sogar einen Anwendungs- und Spieleindex machen - und auch Einzelwerte dazuschreiben wie es hier gemacht wird aber dennoch ist das für mich am Ende nur ein Schätzeisen.
 
Achso, ja das gibts. In Papierform in jeder Printausgabe.
Für einen schnellen Überblick ok, persönlich nutze ich dieses "Ranking" aber eher weniger. Durchschnittsbildung hat nunmal auch zwingend einen gewissen Informationsverlust zur Folge.

Ich find's gut, da ich mich selten auf ein Genre und/oder Spiel beschränke ;)
Ich finde man könnte das Ranking auch online zur Verfügung stellen. Die Arbeit macht sich sowieso jemand ;)

Edit: ja. Ich meinte den Index :klatsch:
Die CPUs sind noch nicht eingepflegt, aber ich denke der 3300X liegt ungefähr beim 3600.
Die Frage ist wie sinnvoll es ist 2020 eine Spiele-PC mit einem Vierkerner zu erstellen. Auf lange Sicht dürfte der 3600 die bessere Wahl sein
 
Zuletzt bearbeitet:
Diese Durchschnittswerte als Prozentzahl gegenüber anderen CPUs im Diagramm sieht man, wenn man mit dem Mauszeiger über die Balken fährt, auf Smartphones oder Tablets auf den Balken "drücken".

Sprich im jeweiligen Test kann man auch die - in diesem Fall - CPUs untereinander vergleichen.
Statt der gebotenen FPS wird das ganze dann in % Prozent angezeigt, wobei der jeweilige "berührte" Balken 100% markiert.

In Fachkreisen nennen sie das "intuitive Steuerung" oder "intuitive Benutzeröberfläche". Fast alles ist da, wo man es vermuten würde. :D
 
Zuletzt bearbeitet:
Ja nu, und wo ist jetzt der Indexwert?
Soweit ich sehe, wurden ja alle Spiele getestet. Man muss ja nicht den ganzen Index in den Text quetschen, ein einfacher Zahlenwert mit Link zum Ranking hätte ja gereicht.
Wenn man ihn nur im Heft angeben möchte ok, halte ich aber für einen Wettbewerbsnachteil gegenüber Seiten wie CB.
 
Diese Durchschnittswerte als Prozentzahl gegenüber anderen CPUs im Diagramm sieht man, wenn man mit dem Mauszeiger über die Balken fährt, auf Smartphones oder Tablets auf den Balken "drücken".

Sprich im jeweiligen Test kann man auch die - in diesem Fall - CPUs untereinander vergleichen.
Statt der gebotenen FPS wird das ganze dann in % Prozent angezeigt, wobei der jeweilige "berührte" Balken 100% markiert.

In Fachkreisen nennen sie das "intuitive Steuerung" oder "intuitive Benutzeröberfläche". Fast alles ist da, wo man es vermuten würde. :D

Davon bin ich ausgegangen. Aber irgendwie hat es es funktioniert.
Liegt aber sicherlich am Display meines Smartphones. Wird Zeit für ein neues
 
Finde ich nicht. Du kannst auch noch heute mit 4C/8T gut und solide zocken, wenn es auf 1080p bleibt und dafür ist so eine Budget-CPU ja gedacht, da die damit gepaarte GPU kein 4k sinnvoll schaffen wird.

Ich selbst habe noch einen besagten 7700K und ich kann heute noch problemlos aktuelle Spiele zocken. Sicherlich nicht optimal aber deine Aussage klingt so, als ob es überhaupt nicht gehen würde.

Von daher: Wer wenig Kohle hat oder ausgeben will und nicht das Maximum an Details braucht, der bekommt hier eine sehr gute CPU fürs zocken.

Ich würde das gar nicht so einschränken, für weches Spiel ist der 3300X denn zu lahm, mal 144Hz Spieler ausgenommen, die können nie genug bekommen ;) (eigene Erfahrung)

siehe signatur. anders kann man sich das nicht erkläre das wäre als würde man eien gtx 970 für 250 auf ebauy kaufen obwohl es bessere und neure hardware im offiziellem handel gibt

Würde ich so auch nicht sagen. Mein PC ist einzig und allein Hobby, brauchen tue ich den ansonsten nicht.

Für einen Zocker, der nur zockt, oder das die höchsten Anforderungen stellt, warum sollte der keinen Intel kaufen. Also pauschal?

Nur zwei Beispiele
1. einer will sich für 144Hz, oder mehr einen Rechner zusammenstellen. Da ist der 9900KS die schnellste Wahl, vor allem wenn noch OC dazu kommen soll.
2. ein Anderer, nehmen wir mal meiner einer, der Spielt zur Zeit nur eine Simulation, in der ein Zen 2 pro Takt knapp an einem Skylake scheitert und das Spiel kann über 4 Kerne nicht sinnvoll nutzen. Warum sollte jemand in dieser Situation keinen Intel nehmen.

Mir geht es nur um das pauschale...
 
Zurück