AMD Ryzen 9 3900X: Performance auf B350 und X570 ausprobiert

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu AMD Ryzen 9 3900X: Performance auf B350 und X570 ausprobiert gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Ryzen 9 3900X: Performance auf B350 und X570 ausprobiert
 
klingt wie Ryzen 5600^^???, statt Ryzen 5 1600..^^:ugly:joa macht fast kein Unterschied in Games.. wenn man jetzt ein X300 Board mit verhältnismäßig starker Spannungsversorgung wie das Crosshair Hero 6 hat wirds wohl quasi keinen unterschied geben.

Edit:
Sehr interessantes Video.
Und noch immer bereue ich den kauf des C6H nicht:daumen: fehlende M.2 Slots kann man super mit Trägerkarte ausgleichen
 
Zuletzt bearbeitet:
Durchaus interessant. Bin am überlegen ob ich nicht doch eher zu einen x470 statt x570 greife. Letztlich denke ich hat man den größten Vorteil bei den x400er und x500er Boards im Bezug auf den Ramtakt in den Spielen, im Vergleich zu den 300er Board wo oft bei 2933 oder 3000mhz Schluss ist.
 
Das Gigabyte war damals schon mit dem 1800X leicht überfordert und musste minimal drosseln. Nach dem Video hier würde ich davon ausgehen, dass ein nur leicht besseres Board für den R9 3900X @stock reichen würde, damit die Leistungsunterschiede dem Rahmen der Messtoleranz entsprechen würden. :ka:
 
Cooles Video auf jeden fall.:) Interessant ist natürlich das die CPU leicht an Leistung bei einen typischen b350 Board verliert. Schade das ihr kein MSI, Asus oder Asrock Board genommen habt. Mich würde interessieren ob durch kühlere VRMs die Leistung steigen würde oder ob es wirklich nur an den 4 Phasen liegt.
 
wenn das Gehalt dermaßen gestiegen ist, dass man genug hat, um aus der Zukunft zurück zu reisen um sich nen schwächenern Prozzi für mehr Geld zu kaufen

das hätt ich auch gern :ugly:
 
Verstehe nicht so recht, was hieran ein CPU Limit anstelle des GPU Limits sein sollte ... klar, die Grafikkarte war nie voll ausgelastet, aber die CPU doch auch nicht ...

Sehr gute imho unlogisches Beispiel ist das Anno im Test: Da erreichen beides Systeme um die 40 fps, aber die CPU Kerne langweilen sich bei 10-20%, die Grafikkarte ist so bei 50-60 fps ... warum hat man da nicht viel höhere FPS?
 
ganz einfach: kein spiel lastet alle kerne/threads zu 100% aus, aber die grafikkarte schon. dh. umgekehrt wird ein schuh draus. wenn du also nicht ins gpu limit läufst (sprich die gpu nicht bei 97-99% hängt), dann bist du im cpu limit.
[ist jetzt vereinfacht gesagt, aber im grunde trifft das meistens so zu]
 
Zuletzt bearbeitet:
Krass, 50 Euronen MB zu 350 Euronen MB und nicht wirklich ein Unterschied. Ich finde es generell, auch wenn man mal die Umwelt in Betracht zieht, recht fein, daß man auch die älteren Bretter weiterverwenden kann.

Wenn allerdings so ne neue Generation rauskommt, welche auch noch gut Druck macht, dann legst halt auch mal 100+ Euronen hin, damit da auf Nummer sicher gehst. Wobei mir die Preise von den neuen Brettern auch nicht gerade geheuer sind.
 
Krass, 50 Euronen MB zu 350 Euronen MB und nicht wirklich ein Unterschied. Ich finde es generell, auch wenn man mal die Umwelt in Betracht zieht, recht fein, daß man auch die älteren Bretter weiterverwenden kann.

Für Games mag so ein B350 mit einfacher Spannungsversorgung ausreichen. Die Performenceunterschiede in 1-stelligen Prozentbereich sind geschenkt. Nur ist ein 3900 für Games völliger Overkill.
Soll der 3900 seine Stärken im Multithreading voll ausspielen, also volle Last auf alle 12 Kerne, wird es zu massiven Einbrüchen kommen, weil die Spannungsversorgung das einfach nicht mehr packen wird.
Für solche Kernmonster sind die B350 (und wohl auch B450 Bretter) einfach nicht ausgelegt. Evtl. wäre es besser gewesen die X50 Bretter nicht für die 3900er CPUs freizugeben.
 
Verstehe nicht so recht, was hieran ein CPU Limit anstelle des GPU Limits sein sollte ... klar, die Grafikkarte war nie voll ausgelastet, aber die CPU doch auch nicht ...

Sehr gute imho unlogisches Beispiel ist das Anno im Test: Da erreichen beides Systeme um die 40 fps, aber die CPU Kerne langweilen sich bei 10-20%, die Grafikkarte ist so bei 50-60 fps ... warum hat man da nicht viel höhere FPS?

Seit es Multicore CPUs am Markt gibt, ist der "100%" Zähler für Anwendungen die nicht alle Kerne zur selbgen Zeit zu "100%" auslasten fast unbrauchbar!
Z.B der 1600X ist in Rise of the Tomb Raider u. GTA V bei 30-46% Auslastung quasi vollausgelastet, Weil die Engines einfach nicht mit allen kernen Skalieren.
Für unter anderem diese CPU aus dem Artikel hier, muss erst noch eine spiele Engine Programmiert werden die alle Threads nutzt, ganz zu schweigen von 24 x 100%...:ugly:
Da sehr viele Spiele nur sehr wenig Kerne (die wir Heute zur Verfügung haben) wirklich auslasten, geschweige denn SMT/HT, wird bei steigender Kernzahl die angezeigt Auslastung sowiso immer geringer, wenn die Engines nicht auf mehr Kerne optimiert werden (können) es gibt natürlich Ausnahmen das Populärste wird wohl Assassins Creed Origins/Odyssey sein. Diese Arbeiten mit sehr hoher Vielkern Auslastung. Aber selbst da sieht man bei "nur" 6 Kernen auch keine 100% Auslastung. So 92/93% blitz da schon mal auf, das wars!

Deswegen:
Ist die GPU zu ca. 95-100% ausgelastet besteht ein GPU Limit.
Ist es weniger aber die FPS steigen nicht weiter ist es ein CPU Limit:) ( bei ausgeschalteten fps-Limitern natürlich^^)
 
Zuletzt bearbeitet:
Cooles Video auf jeden fall.:) Interessant ist natürlich das die CPU leicht an Leistung bei einen typischen b350 Board verliert. Schade das ihr kein MSI, Asus oder Asrock Board genommen habt. Mich würde interessieren ob durch kühlere VRMs die Leistung steigen würde oder ob es wirklich nur an den 4 Phasen liegt.
Schaus dir an
AM4 Vcore VRM Ratings v1.2 (2019-07-10) - Google Tabellen
Nur das Gaming 5 und K7 aus der X370 Reihe von Gigabyte sind brauchbar für den 3900X
 
Nur ist ein 3900 für Games völliger Overkill.
Soll der 3900 seine Stärken im Multithreading voll ausspielen, also volle Last auf alle 12 Kerne, wird es zu massiven Einbrüchen kommen, weil die Spannungsversorgung das einfach nicht mehr packen wird.

Sorry, aber das ist völliger Blödsinn.
Mein 1700X verbrauchte übertaktet auf einen B350-Board 160W. Warum soll das jetzt plötzlich mit Ryzen 3000 zu viel sein ???
Selbst der 3950X würde darauf locker laufen, wenn man nicht übertaktet, und erst recht, wenn man einen Top-Blower-Kühler hat, der auch noch die Luft um die MOSFET-Kühler austauscht.
 
Für Games mag so ein B350 mit einfacher Spannungsversorgung ausreichen. Die Performenceunterschiede in 1-stelligen Prozentbereich sind geschenkt. Nur ist ein 3900 für Games völliger Overkill.
Soll der 3900 seine Stärken im Multithreading voll ausspielen, also volle Last auf alle 12 Kerne, wird es zu massiven Einbrüchen kommen, weil die Spannungsversorgung das einfach nicht mehr packen wird.
Für solche Kernmonster sind die B350 (und wohl auch B450 Bretter) einfach nicht ausgelegt. Evtl. wäre es besser gewesen die X50 Bretter nicht für die 3900er CPUs freizugeben.

Naja rein Rechnerisch gibt es schon einige vor allem von MSI
Link

Und man sieht ja..Es läuft Super
 
Für Games mag so ein B350 mit einfacher Spannungsversorgung ausreichen. Die Performenceunterschiede in 1-stelligen Prozentbereich sind geschenkt. Nur ist ein 3900 für Games völliger Overkill.
Soll der 3900 seine Stärken im Multithreading voll ausspielen, also volle Last auf alle 12 Kerne, wird es zu massiven Einbrüchen kommen, weil die Spannungsversorgung das einfach nicht mehr packen wird.
Für solche Kernmonster sind die B350 (und wohl auch B450 Bretter) einfach nicht ausgelegt. Evtl. wäre es besser gewesen die X50 Bretter nicht für die 3900er CPUs freizugeben.

Schon mal was von 7nm Die Shrink gehört? Ist nur so ne Idee.

Aber ich sag dir was: Obs dir passt, oder nicht, ich werde trotzdem Kernmonster (3950X) aufs B350 Pro4 stecken, wenn sich die Möglichkeit bietet. Und ich werde sehr aktzeptabel damit fahren. Genauso wie mein Bruder mit dem X370 Gaming Plus und ich mit meinem X370-F.

Ich hoffe, das zerbröselt dir jetzt nicht deine Weltsicht.


Krass, 50 Euronen MB zu 350 Euronen MB und nicht wirklich ein Unterschied. Ich finde es generell, auch wenn man mal die Umwelt in Betracht zieht, recht fein, daß man auch die älteren Bretter weiterverwenden kann.

Exakt. Du hast es erfasst. Wozu ein neues Board, wenn das alte vollkommen ausreicht? Die Leute reden so, als ob die CPUs ineffizienter werden würden (Spannungsversorgung soll aus irgendeinem Grund nicht mehr reichen).
 
Schaus dir an
AM4 Vcore VRM Ratings v1.2 (2019-07-10) - Google Tabellen
Nur das Gaming 5 und K7 aus der X370 Reihe von Gigabyte sind brauchbar für den 3900X

In Deiner eigens verlinkten Tabelle stehen der Ryzen 9 3900X und der Ryzen 9 3950X unter 100 Ampere.
Die sind bei allen Boards, außer wenigen Ausnahmen, wie Boards, die vom Hersteller nur für 65W-CPUs freigegeben sind, dauergrün!

Die 150A und 200A werden nur erreicht, wenn die CPU übertaktet wird! (OC).
Wenn überhaupt, kann man sagen, dass man auf einem B350-Board schlechter übertakten kann. Dass es aber grundsätzlich ungeeignet für einen 3900X sei, ist einfach nachweislich völlig falsch.
 
Ich kann dir aus erster Hand sagen dieses "OC" ist schwachsinn. Die CPUs laufen immer am Limit und meine VRMs werden mit AVX2 Workloads 90°+ warm, mit einem Lüfter draufblasend, CPU Stock. Der Temp Sensor liegt ja nicht mal im VRM, sondern neben den VRMs. Gut wir hattens die Tage schön warm, aber von 40°/50° außentemps sind wir doch weit entfernt.
Außerdem, 140W mit 1,2V sind >100A, und wenn das theoretische Limit bei 150/200A liegt, dann glühen die Spawas, wie meine (Gaming 5/K7: 6x40A)
 
Für mein Asrock B350 Mainboard habe ich noch vor 8 Monaten 80€ bezahlt. Ich persönlich bin zufrieden mit meinen Mainboard, da ich auch nicht übertakten will. Und die Performance ist immer noch in einem grünen Bereich. Mit meinen Alpenföhn Ben Nevis komme ich in Spielen wie Assasins Creed Origins(sehr Cpu-lastig) auf eine Maximaltemperatur von etwas über 60 Grad(Silent Modus/Bios). Und Ryzen CPUs lassen sich in der Regel eh nicht gut übertakten. Trotzdem vielen dank für den Vergleich im Video.
 
Werde (hoffentlich) diese Woche auch noch aufrüsten. Hab mir sogar das Board aus dem Video bestellt (AX370 Gaming 3).
Dazu übergangsweise eine Ryzen 3 1200 CPU. Selbst die soll ja mit einem FX8350 noch den Boden wischen. Und in 1-2 Monaten wenn es ein ausgereifteres Bios gibt vllt auf einen 3600 aufrüsten.

Edit: ich hätte es besser gefunden wenn ihr statt eines B350 ein X370 genommen hättet. So ist das für mich kein reiner Generationen- sondern auch ein Klassenvergleich.
Ich habe mich bewusst für einen X370 statt B450 entschieden weil das nach meinem Verständnis leistungsfähiger ist.
 
Zuletzt bearbeitet von einem Moderator:
Ich vermute dieses B350 Brett wurde genommen, weil klar war das es schon mit dem 1800X hart an der Grenze, eigentlich sogar leicht darüber, war. Mit meinem X370 Gaming 5 mache ich mir jetzt jedenfalls erst recht keine Sorgen mehr, da kann der 3900X kommen, sobald der "will haben Faktor" Überhand nimmt. :D
 
Zurück