Ryzen 7 5800X3D: AMD sieht bis zu 43 Prozent Vorteil gegenüber Core i9-12900K

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen 7 5800X3D: AMD sieht bis zu 43 Prozent Vorteil gegenüber Core i9-12900K

AMD sieht den Ryzen 7 5800X3D gegenüber der Konkurrenz deutlich im Vorteil: In Spielen soll die CPU bis zu 43 Prozent schneller sein. Im Schnitt gibt es bei der Performance der (Gaming-)Topmodelle aber kaum einen Unterschied.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Ryzen 7 5800X3D: AMD sieht bis zu 43 Prozent Vorteil gegenüber Core i9-12900K
 
Wenn wir schon auf "bis zu..."-Formulierungen sinken, dann ist das noch sehr bescheiden, wenn man die Vorteile bei Star Citizen ver. 3.17 betrachtet. Die Frage ist eher ob und wie viele Spiele solche Optimierungen erfahren -> nur die Zukunft wird's zeigen.
 
Auf die Gaming Leistung reduziert mag das alles stellenweise beachtlich sein.
Für mich ist der 12900K trotzdem das bessere Gesamtpaket. Nur allein das Zocken ist halt nicht das einzige Argument auf das ich achte beim Kauf. Und leider gottes ist es dann auch noch ein geben und nehmen bei der Gaming Leistung zwischen 5800X3D und 12900K/KS.

Die aktuellen Preise sind einfach zu hoch für nen 8 Kerner.
 
Für alles was ich neben Gaming mache würde der 3D vollkommen reichen.
Hier tun einige so als ob man Office, Browsing und ein bisschen Gafik / Video mit dem Prozessor nur gaanz schlecht nutzen kann.

Nein schlecht nutzen nicht aber man merkt einfach ob man nur 8 oder 16 Kerne hat :daumen:

Und ja … ich zocke und Arbeite mit meinem PC ( CAD/ CAM usw…)
Über einen 5900X3D hätte ich mich mehr gefreut.
 
@Schak28
Behauptet auch niemand das der 5800x3d ein Monster bei professionellen arbeiten ist, dass bringen nur diejenigen auf die den 5800x3d relativieren wollen, da er deutlich günstiger ist als der 12900ks, deutlich weniger verbraucht und kühler bleibt, aber auch generell weniger kosten mit sich zieht bei Kühlung und möglichen DDR5 die noch kaum was bringen.
 
@Schak28
Behauptet auch niemand das der 5800x3d ein Monster bei professionellen arbeiten ist, dass bringen nur diejenigen auf die den 5800x3d relativieren wollen, da er deutlich günstiger ist als der 12900ks, deutlich weniger verbraucht und kühler bleibt, aber auch generell weniger kosten mit sich zieht bei Kühlung und möglichen DDR5 die noch kaum was bringen.

Den KS lasse ich extra mal aus dem Spiel da ich das Ding für das gleiche Geld wie den 12900K bekommen habe. Aber das tut nichts zur Sache.
Die 150 Euro Aufpreis waren mir es im Endeffekt werd für die Leistung die ich mehr hab in meinem Anwendungsbereich.

Und wenn ich Upgrade dann richtig. Ich hätte mein DDR4 auch weiter nutzen können. Aber wieso auch wenn’s mir egal war weil ich wenn ich umbaue auch richtig umbaue und nicht Halbherzig.
 
Mein 3700X tuts auch - selbst für die nächste Grafikkarte würde der vorerst noch reichen.
Bei anstehenden neuen Spielen mit hoher Raytracing-CPU-Last und dann gewünschten hohen Bildraten darf es dann ruhig auch was von den oben genannten Prozessoren sein.
Alles andere ist für mich Luxus, selbst wenn ich das Geld dafür irgendwie hätte.
 
Mein 3700X tuts auch - selbst für die nächste Grafikkarte würde der vorerst noch reichen.
Bei anstehenden neuen Spielen mit hoher Raytracing-CPU-Last und dann gewünschten hohen Bildraten darf es dann ruhig auch was von den oben genannten Prozessoren sein.
Alles andere ist für mich Luxus, selbst wenn ich das Geld dafür irgendwie hätte.
in tarkov merke ich das vom 3800x zum 5800x3d die lowfps signifikant besser werden.
 
Ist doch Latte das geblubber ,die tatsache ist das der x3d ebenbürdig ist und das noch zu bis zu einem viertel sparsammer .Mehr brauch ich nicht wissen :-)
AMDs Angaben sind korrekt und natürlich nimmt man den 12900K (~577 €) statt den 12900KS (~797 €) gegen den R7 5800X3D (~528 €). Als Spielekiste kann man den KS doch sowieso nicht ernst nehmen.
Verstehe die "Aufregung“ nicht.
Gibt ja genug vergleiche mit dem KS online da passiert auch nicht mehr als beim K !
 
Als Technik Enthusiast finde ich es immer noch schade dass man keinen 5950X3D baut, einfach "weil man es kann".
Als realistischer UHD-Spieler stelle ich dagegen fest dass selbst mein 3600 nicht wirklich begrenzt.
 
Zuletzt bearbeitet:
Gibt ja genug vergleiche mit dem KS online da passiert auch nicht mehr als beim K !
AMD hat hier Intel noch relative gut wegkommen lassen, denn den KS kann man zum Spielen wirklich nicht ernst nehmen. Und ja, bei den FPS tut sich zwischen K und KS nicht viel, aber leider woanders:
KvsKSvs3DX.png


EDIT:
... Als realistischer UHD-Spieler ...
:lol:Unfassbar, was man sich zum Schönreden so alles einfallen lässt.
 
Und ja, bei den FPS tut sich zwischen K und KS nicht viel, aber leider woanders:
Das haben wir schon lange vor Igor herausgefunden, da kann man gerne auch mal unseren Benchmark verlinken:

1651399056952.png


Ist ja nun nichts Neues mehr, dass ein X3D deutlich effizienter ist. Die CPU könnte auch zehn Prozent langsamer als ein 12900KS sein, wenn dabei trotzdem nur ein Viertel der Energie benötigt wird und die CPU zudem günstiger ist, wäre es trotz allem das bessere Produkt für Gamer. Zum Arbeiten kauft man sich dann einen 5950X, der ähnlich günstig wie ein 12900K ausfällt und in Anwendungen flotter ist und in Spielen immer noch effizienter als die Intel-CPU. Intel braucht noch ein oder zwei Gens, bis sie da zu AMD aufholen können. Aber dann wird AMD schon mit Zen 4 und 4D da sein. Das bleibt spannend.
 
Hier tun einige so als ob man Office, Browsing und ein bisschen Gafik / Video mit dem Prozessor nur gaanz schlecht nutzen kann.
Es gibt auch noch User die ein bisschen mehr mit ihrem System machen wie z.B. Code compilen.
Mögen die AMD Verehrer hier vielleicht nicht gerne lesen, aber der 5800X3D ist keine eierlegende Wollmilchsau.
 
Ich sage immer, Test sehen immer sehr gut aus, weil im CPU-Limit getestet wurde. Aber im GPU-Limit, was wir alle eher anstreben wird der Abstand immer geringer und selbst wenn es Unterschiede gibt, wird dieser Unterschied nicht sehr groß ausfallen. Natürlich gibt es auch Spiele, die eher im CPU-Limit laufen, aber die werden dann auch nicht so krass ausfallen, wie mit 720p. Ganz davon abgesehen, laufen manche Spiele auch im CPU-Limit, weil dessen Grafik nicht aufwändig ist und sich die Grafikkarte langweilt.

Klar, es ist toll, was dieser Prozessor in Games schaffen kann, aber in solchen Tests werden System auch mit ihren Spezifikationen getestet. Der Trend geht aber immer in schnelle Arbeitsspeicher und so wird kaum jemand egal ob AMD oder Intel Arbeitsspeicher verbaut haben, die laut Spezifikation laufen.

Der 5800X3D soll mit schnellen Arbeitsspeicher nicht gut skalieren und da warte ich nur auf Themen wie... mein 3600 MHz Arbeitsspeicher läuft nicht?! Was kann ich tun... :D

Bei mir habe ich auch statt 3200 MHz 3600 MHz Arbeitsspeicher verbaut und laufen tun sie auch noch problemlos mit 4000 MHz. In Sache OC ist da auch noch einiges dabei. Ob es sich aber lohnt, muss jeder für sich wissen.
Ashampoo_Snap_Freitag, 15. April 2022_11h37m03s_002_.png

Mit Stock sind es aber auch schon ausreichend Punkte.
Ashampoo_Snap_Donnerstag, 10. März 2022_17h56m09s_001_.png

Klar, es wird immer auf die Effizienz geritten, aber ein Z-Board kann auch dazu verwendet werden, weniger Takt anliegen zu haben und so kann dann auch einiges an Spannung eingespart werden.
Ashampoo_Snap_Donnerstag, 28. April 2022_16h08m44s_002_.png Ashampoo_Snap_Donnerstag, 28. April 2022_16h07m27s_001_.png

In Games sieht es dann auch immer noch gut aus.
K1600_bfv_2022_04_28_16_11_18_244.JPG

Mein Monitor hat nur 120 Hz, daher kann ich sogar ein Limit mit 118 FPS einstellen und dann fällt die Leistungsaufnahme noch geringer aus. Ist natürlich auch vom Spiel abhängig.
K1600_Overwatch_2022_04_28_21_35_53_762.JPG
Mein Prozessor habe ich momentan seit ein paar Tagen nur noch mit 4,7 GHz am Laufen, weil diese Leistung für meine Games und meiner Grafikkarte vollkommen ausreicht und mein Prozessor so trotz 16 Kerne immer noch sehr gut und sparsam läuft. Aus diesem Grund sage ich... man muss nicht ständig Vollgas geben und weniger ist manchmal auch bereits ausreichend. Sollte ich dann doch mal die volle Leistung haben wollen, stelle ich einfach mein Profil im Bios dazu um.
 
Zuletzt bearbeitet von einem Moderator:
@IICARUS

Sehe ich ich genauso.

Meine Plattform läuft bis auf RAM ebenfalls nach Vorgaben von Intel oder MB da alles AUTO.

Nur RAM ist bei 4000 MHz sonst alles so belassen wie vorgesehen.
 
Das haben wir schon lange vor Igor herausgefunden, da kann man gerne auch mal unseren Benchmark verlinken:
...
Ich nahm das von www.igorslab.de, weil mir dessen gewählte CPU Kontrahenten stimmiger erschienen und ich keine Lust hatte bei euch zu basteln. ;)
Hätte es aber auch so machen können:
pcgh_KvsKSvs3DX_FPSproW.png

Den 1040F in allen Ehren, aber der passt Leistungsmäßig nämlich so gar nicht in eine FPS/Watt Tabelle mit den 5800x3d, 12900KS oder 12900k, "ihm" fehlt es schlicht an FPS. ;)

EDIT:
PS: Ich hoffe hier darf man www.igorslab.de noch verlinken, es gibt doch kein BEEF zwischen PCGH und igorslab?

Es gibt auch noch User die ein bisschen mehr mit ihrem System machen wie z.B. Code compilen.
Mögen die AMD Verehrer hier vielleicht nicht gerne lesen, aber der 5800X3D ist keine eierlegende Wollmilchsau.
Wenn du nicht gerade ein Build System betreiben willst, sondern "nur" hier und da einige Projekte programmierst, dann spielt die Kernanzahl eine eher untergeordnete Rolle. Bei einem "normalem" 1 Mann Workflow (edit-compile-run-repeat) wird idR mehr ge_linkt als compiliert und du wirst es nicht glauben _wollen_, aber da hilft Cache sehr. ;)
Begründung? In welchem Single Player RPG oder (Action)Adventure (und das ist nunmal was ich spiele) würde ich in UHD mit meiner 2080Ti denn mehr FPS sehen? Selbst mit einer 3090Ti wird das schwer.
Ich meinte deinen Anspruch als "realistischer "UHD-Spieler angesehen zu werden. ;) Sorry, finde es immer noch schräg. :/
 
Zuletzt bearbeitet:
Zurück