• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Ryzen 9 5950X und Ryzen 9 5900X im Test: Wie ein Phönix aus der Asche

D

DAU_0815

Guest
Ich sitze bereits dran, peile aber mal nicht vor Mittwoch an. Die Ergebnisse sind bis jetzt sehr spannend, der 5800X ist z. T. schneller als der 5900X.
Genau das habe ich in Spielen erwartet, ein Chiplet gegen zwei mit all der Latenz beim Kommunizieren. Prinzipiell ist mir der Achtkerner zu teuer und der 12 Kerner die klare Empfehlung, ich denke aber, oder ich erwarte es bei Deinen Tests, dass der Achtkerner sich ziemlich gut schlägt.

Ich brauche Deinen Test als Entscheidungsgrundlage, ob es ein Ryzen 7-3800XT, ein Intel 10700FK , ein 10850K oder ein Ryzen 9-5900 wird, oder doch ein 5800X, der eigentlich geplant war aber mit 600,-€ zur Zeit "etwas" überteuert ist. Also dann, Mittwoch. Danke für die Info!
 
Zuletzt bearbeitet von einem Moderator:

mistprice

Kabelverknoter(in)
Welchen Grund gib tes denn nicht das bessere Produkt zu kaufen?
Besser ist natürlich relativ, aber mal ehrlich.

Ein 5800X kostet obwohl noch nicht gut verfügbar bei Alternate 470 Euro. Der 10900k scon 530 Euro.

Nach unten muss sich in Tests noch ziegen, aber auch da scheint der 5600X eine bessere Wahl zu sein, als bei Intel, für 300 Euro.
Naja du hättest zum Vergleich auch einfach ein I9-10850k (430 Euro!) nehmen können, dann siehts für den 5800x nehmlich nicht mehr so viel besser aus.
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Naja du hättest zum Vergleich auch einfach ein I9-10850k (430 Euro!) nehmen können, dann siehts für den 5800x nehmlich nicht mehr so viel besser aus.
Wieso, der 5800x wird ja auch etwas mehr leisten, also darf der ja auch etwas mehr kosten, was bei 430 zu 470 Euro der Fall ist.

Weiter denke ich aber auch, das es noch einen 5700x geben wird, früher, oder später.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Wann ist leicht zu erklären, am Erscheinungstag, beziehungsweise frühestmöglich.
Das schadet NIE, denn so bist du bei der Liste des Händlers ganz weit oben.
Du musst bestellen egal wie der Lagerbestand ist, egal ob Lagernd oder im Zulauf, bei knappen Gütern wartest du sonst viel länger.
Wenn du dann auch noch Stammkunde bist, möglicherweise auch schon bezahlt hast, schadet das garantiert auch nicht - auch wenns keiner zugeben will, solche Leute bedient man eher als gerade registrierte Kunden die nicht bezahlt haben, die könnten auch bei mehreren Händlern bestellt haben, wo der erste der liefert gewonnen hat.
 

ChuXseN_

Schraubenverwechsler(in)
Jetzt darf ich es ja sagen. Die beiden "kleinen" Modelle sind bereits in der Redaktion angekommen, nur leider viel zu spät für den Launch-Test. Die Wahl mit dem 5800X war goldrichtig, in den ersten Benchmarks ist der teilweise schneller als der 5900X :cool:

Übrigens:
Anhang anzeigen 1341169

:devil:
Dem kann ich leider überhaupt nicht zustimmen. Trotzdem danke für dein Feedback! Meiner Meinung nach ist der 5800X zu teuer und damit preislich zu nah am 5900X dran. Bei den meisten Spiele-Benchmarks ist der 5900X schneller als der 5800X. Wenn man dann noch bedenkt, dass der 5900X 50% mehr Cores hat als der 5800X, ist der 5800X einfach zu teuer. Aus meiner Sicht muss sich ein Käufer bei den UVPs zwischen 5600X (Preis/Leistung) und 5900X (highend) entscheiden. Das Ganze kann man dann in einem 1/2 neu beurteilen, wenn sich die Marktpreise durchgesetzt haben. Denke der 5800X wird am meisten / schnellsten vom Preis sinken. Denke ca. 380 EUR wäre ein guter Preis für den 5800X.
 

PCGH_Dave

Redaktion
Teammitglied
Bei den meisten Spiele-Benchmarks ist der 5900X schneller als der 5800X.
Als Vorschau auf den Index, der morgen früh online geht, kann ich dir sagen, dass der 5800X gerade einmal 1,5 Prozent unterhalb eines 5900X liegt. Sicher, der 5900X hat mehr Kerne, kostet aber rund 100 Euro mehr für 1,5 Prozent mehr Spieleleistung. Jetzt könnt ihr euch darüber streiten, ob der 5800X zu teuer ist, weil er zu wenig Kerne hat, oder der5900X zu teuer ist, weil der Dodecacore kaum schneller als der Octacore ist :ugly:
 
G

Grestorn

Guest
@PCGH_Dave

Da sieht man mal, wie verschieden die Ansichten sind.

GamersNexus hat die 5800x in Grund und Boden kritisiert: Dort sagt man, wenn man nur zocken will, hätte die 5600 das wesentlich bessere Preis/Leistungsverhältnis und wäre praktisch immer fast genauso schnell wie die 5800. Wenn man dagegen die Kerne auch zum Arbeiten braucht, würde die 5900 einfach viel mehr für wenig Aufpreis bieten.

Ich möchte mich weder der einen noch der anderen Meinung völlig anschließen, die Wahrheit liegt hier extrem im Auge des Betrachters, aber es ist schon bezeichnend, wie weit die Meinungen da auseinandergehen!
 

PCGH_Dave

Redaktion
Teammitglied
Der Punkt ist, dass acht Kerne derzeit den Sweetspot treffen. Die meisten Spiele sind auf acht Kerne optimiert. Das hat AMD auch bemerkt und den Preis entsprechend gekennzeichnet. Davon ab ist meine offzielle Bewertung zu der CPU doch noch gar nicht online. Ich habe lediglich darauf hingewiesen, dass der 5800X praktisch gleichschnell zum 5900X arbeitet, auf Spiele bezogen.
 
G

Grestorn

Guest
Davon ab ist meine offzielle Bewertung zu der CPU doch noch gar nicht online. Ich habe lediglich darauf hingewiesen, dass der 5800X praktisch gleichschnell zum 5900X arbeitet, auf Spiele bezogen.
Ich hab Dich gar nicht kritisiert... Ich fand es nur lustig, wie heftig Stephen über die 5800x hergezogen ist. Etwas übertrieben in meinen Augen. Aber, klar, ich muss zugeben, wenn ich schon das Geld für eine 5800x hinlege, dann kann ich auch gleich ne 5900x kaufen. Der Preis unterscheidet sich dann nicht mehr so sehr, wenn man bedenkt, dass man immerhin in parallelisierbaren Anwendungen die 1,5fache Leistung bekommt.
 

ChuXseN_

Schraubenverwechsler(in)
Der Punkt ist, dass acht Kerne derzeit den Sweetspot treffen. Die meisten Spiele sind auf acht Kerne optimiert. Das hat AMD auch bemerkt und den Preis entsprechend gekennzeichnet. Davon ab ist meine offzielle Bewertung zu der CPU doch noch gar nicht online. Ich habe lediglich darauf hingewiesen, dass der 5800X praktisch gleichschnell zum 5900X arbeitet, auf Spiele bezogen.
Ich hatte vor dem Release die Idee, dass der 5800X den Sweetspot treffen würde, weil alle Kerne auf einer CCX sind und er durch ein Latenzvorteil in Spielen merkbar schneller ist als der 5900X (analog zum 3300X). Dann wäre es der Sweetspot gewesen. Aber er ist sogar langsamer als der 5900X (wenn auch im Prinzip nicht merkbar) und kostet fast das gleiche. Aufpreis 22%. Dafür ist der 5900X aber in allen produktiven Dingen dem 5800X haushoch überlegen.

Wenn es um Sweetspots in Sachen Gaming geht, muss ganz klar auf den 5600X verwiesen werden. Sweetspot für Produktivität und Gaming ist es der 5900X. Der 5800X wird erst zum Preis-/Leistungsgewinner in Sachen Produktivität und Gaming, wenn der Marktpreis um 70-100 EUR nach unten geht.
 
G

Grestorn

Guest
Wenn es um Sweetspots in Sachen Gaming geht, muss ganz klar auf den 5600X verwiesen werden. Sweetspot für Produktivität und Gaming ist es der 5900X. Der 5800X wird erst zum Preis-/Leistungsgewinner in Sachen Produktivität und Gaming, wenn der Marktpreis um 70-100 EUR nach unten geht.
Wobei auch die selben Leute, die NVidia wegen 8 GB schimpfen, mit dem selben Argument den 5600x wegen der nur 6 Kerne ablehnen sollten.

Denn: Genauso wie Spiele vielleicht in absehbarer Zeit mehr als 8 GB brauchen werden, so ist es auch wahrscheinlich, dass 8 Kerne zunehmend das Optimum stellen und 6 Kerne ins Hintertreffen geraten werden.
 

Mia-Grace-Miller

PC-Selbstbauer(in)
Der 5900x ist einfach der beste P/L Prozessor für Gaming und Anwendungen. Hab ihn selbst zwar noch nicht gekauft, aber zig³ Reviews im Netz gelesen. Sooo falsch können diese alle nicht sein, Dave. Nicht böse gemeint. Aber die Mehrleistung des 5900x im Verhältnis zum Preis des 5800x ist einfach signifikant. Sollte es um das Budget gehen, ist der 5600x der Sweety. Aber abwarten. Erstmal einmal Verfügbarkeit abwarten, dann Preisanpassung abwarten und dann kaufen.

Mal ehrlich: Klar ist neue Hardware nice-to-have und Benchmarkbalken sind "toll" - aber Geduld war schon immer eine Tugend.

Mein 1700x langt immer noch. Selbst in 5120 x 1440 @ Vega 56 @BF-V 80 fps + custom.
 

ChuXseN_

Schraubenverwechsler(in)
Wobei auch die selben Leute, die NVidia wegen 8 GB schimpfen, mit dem selben Argument den 5600x wegen der nur 6 Kerne ablehnen sollten.

Denn: Genauso wie Spiele vielleicht in absehbarer Zeit mehr als 8 GB brauchen werden, so ist es auch wahrscheinlich, dass 8 Kerne zunehmend das Optimum stellen und 6 Kerne ins Hintertreffen geraten werden.
Ja klar, ist schon ein Punkt. Zumindest ich persönlich hätte schon gerne so viele Kerne wie möglich, solange das sich nicht negativ auf die Latenz bzw. Gaming-Performance, Geldbeutel oder Wärmentwicklung/Stromrechnung auswirkt. Es gibt ja bereits Spiele, die von mehr als 8 Kernen profitieren (zB Total War: Troy; +22% fps auf 720p vom 5900X auf den 5800X). Mal sehen wie das in 2 Jahren ist.

Und ich gehöre zu der Fraktion, die NVIDIA hier einen kleinen strategischen Fehler unterstellen. Sie haben bei der RTX3080 auf den teuren GDDR6X Speicher gesetzt. Das führt dazu, dass man nicht mehr als 8 GB installieren kann, ohne dass der Preis aus dem Ruder läuft (siehe RTX3090) und das führt dazu, dass auch die RTX3070 nicht mit 16 GB GDDR6 ausgestattet werden kann. Sieht ja doof aus, wenn die günstigste Einsteiger-Karte mit dem doppelten Speicher kommt. Das Problem hat NVIDIA auch erkannt und hat zum Release direkt einen Guide an die Redaktionen verschickt, wo Argumente geliefert werden, dass 8 GB ausreichen (reservierter vs. tatsächlich genutzter Speicher, blabla). Wenn die Raytracing-Performance der neuen AMD Karten nicht unterirdisch ist, werde ich von NVIDIA zu AMD wechseln. Man will halt einfach nicht so viel Geld für Hardware ausgeben, die schon mit einem Mindest-Haltbarkeitsdatum versehen ist. Na klar, kann das länger gut gehen. Aber ich esse keinen Johgurt mehr, der seit zwei Wochen abgelaufen ist :D

Und man muss auch sagen, dass die ganzen Systems immer auf super cleanen, frisch installierten Systemen laufen. Kann mir gut vorstellen, dass der 12-Kerner auch mehr Potential übrig hat, um sich um ein zugemülltes System im Hintergrund zu kümmern. Kommt auch nicht selten vor, dass ich parallel zum Zocken noch den Browser oder andere Programme offen habe. Ist natürlich schwer nachzubilden und ist von mir nur reine Spekulation, aber ist einer der Gründe warum ich lieber zum 12-Kerner greife. Gerade wenn der Aufpreis nicht so wild ist.
 

Duvar

Kokü-Junkie (m/w)
Wem es um "Budget" geht, der sollte auf den noch kommenden 5600 NON X warten, denn der kommt definitiv noch.
Aktuell ist noch die Melkphase und anscheinend wird die etwas länger anhalten, weil der Andrang so riesig ist.
Einfach geduldig warten Leute.
 

Langsuan

Schraubenverwechsler(in)
Vielen Dank für das Test-Update inkl. der Eco-Mode Benchmarks. Ist echt erstaunlich, dass in Games die 65W TDP fast zu den gleichen Ergebnissen führt. Gut, war bei den Vorgängern auch schon so, aber die Leistung bei einem Verbrauch von einem 3600er trotzdem genial.
 

Olstyle

Moderator
Teammitglied
W1zzard hat sich den Übergang zum CPU-Limit Mal genauer angesehen und ein interessantes Ergebnis:
Gerade wenn es wechselt hat er mit Turing einen "Intel Bump", sprich es gibt einen Übergangsbereich wo die Intel CPU minimal mehr FPS liefert. Bei Ampere gibt es selbigen nicht. :what:
 

RyzA

PCGH-Community-Veteran(in)
Was haltet ihr hiervon:

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Der stellt angeblich fest das die neuen Ryzen in 4K einbrechen. Was ist da dran?:what:
Weil sonst habe ich noch nie irgendwo anders was davon gelesen.
 

Incredible Alk

Moderator
Teammitglied
Der stellt angeblich fest das die neuen Ryzen in 4K einbrechen. Was ist da dran?
Als Nutzer eines 5950X und 4K-TFTs kann ich dir sagen: Da ist bisher nichts und niemand eingebrochen. :schief:
Ist aber durchaus möglich dass der Einbruch in irgendwelchen fps-Regionen ist die ich eh nicht nutze. :ka:
 
Zuletzt bearbeitet:

RyzA

PCGH-Community-Veteran(in)
Ist aber durchaus möglich dass der Einbruch in irgendwelchen fps-Regionen ist die ich eh nicht nutze. :ka:
Der schwurbelt das auch im Video was von abgeschalteten CCD rum. Keine Ahnung was das soll.
Ab Minute 17. kommt das alles.
Ich weiß sowieso nicht ob der Typ seriös ist. :ka:
Bin mehr oder weniger durch Zufall da drauf gekommen.
 

Incredible Alk

Moderator
Teammitglied
Naja wenn man wirklich das Problem hat dass ein Spiel schlecht mit den 2 CCDs klarkommt weil Threads sinnlos verteilt werden (und die inter-CCD-Latenzen dann natürlich mies Performance kosten) kann man das machen. Der RyzenMaster kann auf Mausklick einen der beiden CCDs auf Wunsch abschalten. AMD nennt dieses Feature kurioserweise "Game Mode". Komisch. :haha:
 

RyzA

PCGH-Community-Veteran(in)
Das hat er ja im Video auch gemacht. Bei "Far Cry New Dawn" z.B. und "Rise of the Tomb Raider".
Nur komisch das die CPUs woanders überall gut performen in den Spielen in jeder Auflösung.
Aber er stellt da anderes fest. :ugly:
 

Incredible Alk

Moderator
Teammitglied
Ich habe da auch keine Erklärung dafür. Igor denkt sich das ja nicht aus (so seriös schätze ich ihn definitiv ein).
Er wird die üblichen Lösungsansätze sicherlich alle durchprobiert haben, er weiß ja schon was er da tut. Ich denke man wird da erstmal ein Statement von AMD abwarten müssen bevor wir da wild rumspekulieren.
 

RyzA

PCGH-Community-Veteran(in)
Ich ziehe für Informationen zur Hardware eher Tests in Textform vor.
Hardware-Channels auf YouTube verfolge ich kaum. Deswegen wusste ich das nicht.
Sonst kenne ich nur die HW-Videos noch von "DerBauer" welche ich ganz gut finde. :daumen:
 

Incredible Alk

Moderator
Teammitglied
Ja, Roman (8auer) ist fachlich ebenfalls sehr kompetent. Und zumindest bei ihm kann ich auch behaupten dass er auch sehr nett/menschlich voll ok ist... denn Roman kenne ich im Gegensatz zu Igor (er war vor seiner YT-/Caseking-Zeit ja mal in unserem Mod-Team hier).

Man kann YT schon als Quelle nutzen, dann aber sehr ausgewählte Channel. Leider sind die allermeisten YT-Videos die sich mit Hardware beschäftigen ziemlicher crap. Roman und Igor sind da rühmliche Ausnahmen. Von der Präsentation und den Auftritten der Personen kann man ja halten was man will aber da sind wenigstens die fachlichen Dinge sehr gut.
 

Gurdi

Kokü-Junkie (m/w)
Igor hat auch eine Website und ist so mit der angesehnste in der Branche, er berät sogar Bordhersteller und Kühlerherstelle wie Alphacool, Raijintek, MSI und Co.


Seine Ergenisse beruhen auf einem defekten Sample, mit dem Ersatz war alles in Ordnung.
 

Olstyle

Moderator
Teammitglied
Einfach mal den Text unterm Video lesen. Den Nachtest gab es afaik mittlerweile auch. Seine erste CPU war defekt.
Imo sollte @FormatC sich überlegen ob er das alte Video nicht offline nimmt.
 

PCGH_Dave

Redaktion
Teammitglied
Wollte nur schon einmal zum Protokoll geben, dass wir die Sache mit der Effizienz auflösen konnten. Ich muss (und habe bereits) viele CPUs neu einmessen, was Zeit kostet. Keine Sorge, die Leistung ist annährend die gleiche! Da aber andere Mainboards zum Einsatz kommen, können sich die Werte geringfügig verändern. Der Mega-Test in der Print wird die Ergebnisse bereits erfassen, online kommt aber noch extra etwas dazu. Nach den neuen Zahlen ist Zen 3 auf jeden Fall effizienter als Zen 2 und Comet Lake-S lange nicht so effizient, wie angenommen. Die Antwort ist ganz einfach: Der Sensor auf dem Sockel-1200-Testboard hat falsche Werte ausgespuckt und CX bedient sich ebenfalls an jenem Sensor. CX ist also nicht Schuld, sondern ich, da ich diesem Sensor vertraut habe. Merke: Traue niemals einem Sensor zu 100 Prozent :wall:

Mehr dazu innerhalb der nächsten Woche! Nun aber zurück zur Abgabewoche, denn der 12-Seiten-Mega-Test zu Ryzen 5000 ist noch nicht fertig. :kaffee:
 

Taxxor

PC-Selbstbauer(in)
Nach den neuen Zahlen ist Zen 3 auf jeden Fall effizienter als Zen 2
Das wundert mich beim 5800X etwas, ich hab ja auch mit meinem 3700X verglichen und komme mit dem 5800X genau auf die Werte von euch, also ein Bereich zwischen 75 und 80W(Eco-Mode).
Mein 3700X liegt in den gleichen Szenen allerdings zwischen 50 und 60W, der 5800X verbraucht also ca 35% mehr als mein 3700X und ist dabei 20-25% schneller.

Hier mal ein Beispiel
CX_2020-11-17_17-22-04_Kingdom Come  Deliverance_720p Low Preset - Rattay Walk.png

CX_2020-11-17_17-22-20_Kingdom Come  Deliverance_720p Low Preset - Rattay Walk.png



Hier verbraucht der 5800X im Schnitt 44% mehr als der 3700X und liefert dabei 22% mehr FPS
 

gaussmath

Lötkolbengott/-göttin
@blautemple und ich können die Verbräuche jenseits der 100W ebenfalls bestätigen. Der 10900K ist teils deutlich effizienter als der 5900X. Ich habe die CX Werte mit der Delta-Methode mehr oder weniger validiert. Ich gehe mittlerweile sogar davon aus, dass entweder das BIOS der Gigabyte Boards einen Bock schießt oder Igors Werte falsch sind.
 

blautemple

Lötkolbengott/-göttin
@blautemple und ich können die Verbräuche jenseits der 100W ebenfalls bestätigen. Der 10900K ist teils deutlich effizienter als der 5900X. Ich habe die CX Werte mit der Delta-Methode mehr oder weniger validiert. Ich gehe mittlerweile sogar davon aus, dass entweder das BIOS der Gigabyte Boards einen Bock schießt oder Igors Werte falsch sind.
Jap, irgendwas scheint da nicht ganz in Ordnung zu sein. In Anno 1800 verbraucht der 5900X fast doppelt so viel wie der 10900K bei geringerer Leistung. In anderen Titeln ist es nicht ganz so extrem, alles in allem ist es aber doch ein signifikanter Unterschied.
 
Oben Unten