Ryzen 9 3900X und Ryzen 7 3700X im Test gegen Core i9-9900K: Zen 2 im PCGH-Benchmark-Parcours

wie seltsam das nur in diesen test die intel so weit vorne sind und bei anderen der 9900k nur 3% vor dem 3900X . manchmal frage ich mich ob man so stark seine simpatie zu intel zeigen muss oder ob man von intel bezahlt wird .

Oder ob man hier in der korrekten Auflösung von 720p testet und die anderen in Full HD oder WQHD, das erklärt es eher.
 
Klar, die CDU ist natürlich daran schuld, dass AMD, eine Firma aus den USA, ihre Preise erhöht hat. Eine der originellsten Verschwörungstheorien, die ich gehört habe und ich habe einen Kumpel, der an Schizophrenie litt (zum Glück behandelt worden), das will schon etwas heißen.

Nein, nein! Du hast mich missverstanden! Ich beziehe mich nicht auf die Preise, diese die Marktwirtschaft regelt, sondern auf die Einkommen und Vermögen, diese von unten nach oben hin sich immer weiter umverteilen. Von 2001 bis 2012 errechnete das Deutsches Institut für Wirtschaftsforschung eine Umverteilung von 33% und der Deutsche Paritätische Wohlfahrtsverband seit der Wende bis 2016 37%. Die schrödersche und merkliche Regierung haben hieran zu über 90% ihren Anteil.

Eigentlich steht die FDP im Ruf die Partei der Wohlhabenden und Reichen zu sein.

Eigentlich, wenn man diese Partei mit Delinquenten wie Guido Westerwelle in Verbindung bringt. Christian Lindner hat diese Partei reformiert und verdient von mir alle Ehre, ein Wahnsinnstyp!
 
Vorbestellt bei Alternate ok aber die Angabe "13.-15. Juli" wird wohl nur ein Platzhalter sein, die anderen Shops reden von 30. Juli.
Schade, der 3900X ist für meinen Workload wirklich ein brutales Gerät... und jetzt kann ich wieder Wochenlang auf den DHL-Mann warten. :rollen:
Caseking spuckt für alle CPUs den 10.07. aus. Außer für den Ryzen 5 3600...

Die CPU erreicht kaum den genanten Boost Takt.. es ist jetzt anscheinend der absolute maximal Takt.
Also quasi, wie es Intel seit jeher macht? Dort wird auch groß und werbewirksam "5GHZ!!!" drangeschrieben... Dass das genaugenommen nur für den SC-Turbo gilt, wird natürlich verschwiegen.

Wenn der 6 Kerner schon so heiß wird, was wird dann wohl mit dem 12 oder 16 Kerner :D
Ich würde da einfach mal abwarten. Nicht umsonst gibts ne TDP - der 3900X hat auch nur 105W TDP, da können 12 Kerne halt nicht maximal schnell takten.
Viel wärmer wird dort (vermutlich) nix.

Die CPUs sind ohne Frage stark, ausgehend von einem 7820X mit OC, schnellen Ram und optimierten Timings lohnt sich ein kompletter Plattformwechsel für mich jedoch in keinem Fall. Gut, dass ich ohnehin geplant hatte auf Cascade Lake-X zu warten. Taugt der was und wird der nicht zu teuer, wird es der wohl werden. Wenn nicht, bleibe ich erst mal beim 7820X.
Naja gut - bei allem was man sich von Ryzen 3000 erhofft hat - aber gegenüber einem 7820X OC da noch deutliche Vorteile zu erwarten ist dann doch etwas übertrieben gewesen, oder?

Weil man damit Geld verdienen kann. Es muss nicht alles sinnvoll sein was Kohle bringt... ;)
Warten wir mal die 12- und 16-Kerner mit OC ab.
Dass die Achtkerner abseits von PCIe 4.0 keine großartigen Nachteile auf X370/X470 haben werden ist nun kein großes Wunder. Gabs doch schließlich schon Achtkerner für die Boards.

Gerade mit OC dürften aber die ein oder anderen X470- und auch etliche B450-Mainboards spätestens mit dem 12-Kerner aber auf thermale Grenzen stoßen.

An alle, die den Umfang bemängeln:
Wir haben noch ein Heft :)
Naja gut, dass ihr das Heft noch habt ist die eine Sache. Der Testumfang ist leider doch ein bisschen zu dünn ausgefallen - es gibt ja leider nicht mal Temperaturwerte.

Wie man an den Namen erkennen kann, haben wir aber seit dem 1.7. einen neuen CPU-Fachredakteur, das hat die Testkapazitäten eingeschränkt. Schlechtes Timing, böses AMD ;-)
Willi ist ja jetzt auch nicht wahnsinnig über seine Sonntagsarbeit begeistert. In vielerlei Hinsicht war der Launch für euch ungünstig. :D
Darf man fragen, wer sich vorher um den CPU-Fachbereich gekümmert hat bzw. wer gegangen ist?

Bei Zen hat AMD gesagt, AM4-CPUs haben maximal 95 Watt und MSI hat 95-W-Mainboards designt
Bei Zen+ hat AMD gesagt, AM4-CPUs haben maximal 105 Watt und MSI hat 105-W-Mainboards designt.
Jetzt erzählt AMD, AM4-CPUs hätte maximal 105 Watt, aber schon der 12-Kerner verbrät gerne mal 140-150 W ohne manuelles OC (zum 16-Kerner habe ich hinter vorgehaltener Hand deutlich höhere Zahlen bei nicht gerade revolutionären Taktraten gehört) und MSI designt Mainboards von denen sie hoffen, dass die mit Ryzen 4000 nicht direkt wieder am Limit laufen.
Diese Vorbereitung für mehr gibt es aber nicht umsonst.
Naja, die Mainboards knapp auf Kante auslegen ist bei Boards und CPUs die prinzipiell OC erlauben generell blöd. Da braucht sich MSI nicht wirklich wundern wenn sie dafür kritisert werden. Mit B450/X470 hat MSI dafür ja auch ganz gute Arbeit geleistet...

Der8auer ist der Superguru.
Der8auer ist doch schon sehr stark durch seine Influencer-Rolle getrieben. Auch wenn er zweifelsfrei ne Menge Ahnung hat, aber aufgrund dessen würde ich mich nicht 100%ig auf ihn verlassen (sollte man eh nie, aber naja...).

Die finalen Taktraten sind für mich auch eher enttäuschend da ich ein paar Hundert MHz mehr erwartet hatte an "Luft" aber was solls.
Die Taktraten sind doch relativ latte (braucht ich dir nicht erklären, aber bist ja nicht der Einzige der hier liest :D).
Trotz deutlich geringeren Taktraten reicht Ryzen 3000 in Spielen relativ weit an Intel ran bzw. ist zum Teil sogar flotter. Selbst wenn Ryzen 3000 langsamer ist - er ist deutlich günstiger. In Anwendungen steht die Leistungsfähigkeit von Ryzen 3000 sowieso nicht zur Debatte, da sieht Intel jetzt schon alt aus. :D

Spätestens wenn die ersten 10nm-Desktop-CPUs von Intel auf den Markt kommen wird auch den Intelanern der Takt auf einmal nicht mehr so wichtig sein. :D
Da läufts nach aktuellem Kenntnisstand ja auch auf keine großartigen Leistungssteigerungen hinaus, da die angeblich recht hohen IPC-Steigerungen durch die deutlich geringeren Taktraten verpuffen.

Wurde erwähnt, dass die Intel CPUs nicht mit den aktuellsten Windows Patches getestet wurden?
Hier bei der PCGH oder wie?

Der 3000er bringt was versprochen wurde und nun ja die 7NM kann man halt nich so einfach kühlen, Fläche ist zu klein. Das ist auch der Grund wieso die 3000er Serie trotz extreme niedrigen Verbrauch also 3900X so warm wird.
Meinen Erfahrungen nach wird auch schon Ryzen 2000 mit OC ziemlich warm... Da bin ich extrem gespannt wie beim 3800X die Temperaturen mit meiner Wakü ausfallen (Heatkiller IV Pro + MO-RA 3 420 + 360er-Radi).
 
Ich bin von den Ergebnissen mehr als nur enttäuscht. AMD schafft es trotz Shrink auf 7nm und Optimierungen nicht, eine CPU mit 14nm zu schlagen, auch wenn die Intel CPU geringfügig höher taktet.

Das liegt hauptsächlich an den Taktraten. Ich wäre mal gespannt, wie der 9900K und 3700X bei gleichem takt (etwa beide auf den Basistakt von 3,6Ghz limitiert) agieren würden. Wahrscheinlich wäre der Unterschied im Messfehlerbereich, denn bei der IPC hat AMD seinen Rückstand wettgemacht.

Zudem muss man bedenken, dass dies nur bei Spielen gilt. Bei Anwendungen sieht ja sogar der 9900K gegen den 3700X kein Land, und das, obwohl der letztere deutlich weniger Strom verbraucht.

Die deutlich bessere Anwendungsleistung sowie der geringere Stromverbrauch werden bei Threadripper und vor allem Epyc interessant werden. Bei dem Leistungsunterschied in Anwendungen dürfte der Threadripper Intels HEDT dort zum Frühstück als Snack vernaschen. Und sollte dies sich auch für Serveranwendungen bejahen, dürfte Intel im Serverbereich stark in die Bredouille kommen. Mehr Leistung bei halben Stromverbrauch wäre dort ein absolutes KO Argument.
 
Oder ob man hier in der korrekten Auflösung von 720p testet und die anderen in Full HD oder WQHD, das erklärt es eher.

720p Test sind für´n Arsch :schief:. 1080p Low und ner 2080TI fertig.

@Maverick -> warte mal das neue agesa Update die tage ab, da kann sich noch so einiges tun.
 
Naja. Wenn du die CPU eh wieder für 5+ Jahre kaufst, dann sollten drei Monate ja jetzt auch nichts mehr machen, oder ist dein 5960X kaputt...?

Sagen wir mal so - ich benutze nicht freiwillig ne 8100er Kartoffel als CPU seit Januar. :ugly:
Der 5960X ist nicht kaputt - aber schon das 3. X99 Board in 4 Jahren und ich hatte keinen Bock mehr auf ein viertes. Damals hieß es noch Ryzen3000 im Mai also dachte ich das überbrückste mit deiner Rumpelkammer. Jetzt isses Juli und der Pile of Arbeit ist ziemlich hoch geworden da ein 8100er einfach keine Wurst vom Brot zieht.
Klar könnte ich auch noch bis September zögern aber ehrlich ich hab jetzt auch einfach keine Lust mehr und hab deswegen ein X570er Brett und den 3900X vorbestellt (alles weitere habe ich schon). Bin gespannt wie lange es dauert. :ka:

Die Taktraten sind doch relativ latte (braucht ich dir nicht erklären, aber bist ja nicht der Einzige der hier liest
biggrin1.gif
).
Stimmt. Ich hatte als Ryzen3000 angekündigt wurde auch im Hinterkopf "12-16 kerne bei 4 GHz und guter IPC und ich bin glücklich". Das ists am Ende ja auch geworden. Wenn das Ding unter meiner Arbeitslast die 4 GHz dauerhaft halten kann ist alles super. Alles drüber ist Bonus. :-D
 
720p Test sind für´n Arsch :schief:. 1080p Low und ner 2080TI fertig.

@Maverick -> warte mal das neue agesa Update die tage ab, da kann sich noch so einiges tun.
Ach einfach 8K Benchmarks. Wen interessiert schon wieviel Reserven eine CPU hat bei einem CPU Vergleichstest

@Test: schöne Ergebnisse :)

Der Test der CB ist aber leider trotzdem besser. Übersichtlicher und gleichzeitig umfangreicher (Etwa Einflussfaktor RAM Geschwindigkeit, Latenzen usw usf) AMD Ryzen 9 3900X, 7 3700X & 5 3600 im Test - ComputerBase . Vielleicht solltet ihr mal an eurem Design der HP arbeiten?
 
Die Taktraten sind doch relativ latte (braucht ich dir nicht erklären, aber bist ja nicht der Einzige der hier liest :D).
Trotz deutlich geringeren Taktraten reicht Ryzen 3000 in Spielen relativ weit an Intel ran bzw. ist zum Teil sogar flotter. Selbst wenn Ryzen 3000 langsamer ist - er ist deutlich günstiger. In Anwendungen steht die Leistungsfähigkeit von Ryzen 3000 sowieso nicht zur Debatte, da sieht Intel jetzt schon alt aus. :D
Damit hast du Recht. Was zählt ist die Gesamtleistung und die ist in Ordnung. Die Effizienz und P/L auch.
Das man Ryzen 3000 nicht groß übertakten kann damit habe ich schon gerechnet.
Der Bauer hat es auch in seinem Video erklärt wegen der hohen Transistordichte in 7nm werden die sehr heiss.
Aber muß man ja auch nicht.:)
 
Ich will BF zocken, theoretische Leistungen in Minimalauflösungen interessieren mich nicht, ich will nur sehen wie die Chips bei BF performen. Und da ist in der sehr stromsparende 3700x so schnell wie Intels Topmodell. Das ist Praxis, der Rest nutzlose Theorie. Und zusammen mit der 5700xt, die in dem Game in WQHD so schnell wie ne RTX 2800 ist, ist das nun mal aus Preis- und Stromverbrauchssicht die perfekte Kombination. Das wird die neue Kampfmaschine :-)
Ja, ich bin auch für CPU Tests mit einer 5700XT, am besten in UHD. Dort sind dann ab einem Ryzen 1600 alle CPU bei 48,5Fps im GPU Limit.
Hier der "hilfreiche" CPU Test von CB:
CB_R2.PNG
Demnach musst du dir einen i5 8400 kaufen. Toller Test, oder?
 
Oha, jetzt geht der "Guter Wein muss reifen"-Schwachsinn auch schon bei den CPU's los? Glaubt ihr da wirklich dran? Und da soll noch mal wer sagen AMD beherrscht kein Marketing.. :schief:

Viel sollte man nicht erwarten, doch die BIOSe sind wohl noch sehr Beta und inkonsistent (Hersteller übergreifend)
Gerade bei RAM bekommt man doch gerne mal 10%+ raus, wenn man gut optimiert (und die Anwendung drauf anspricht)
 
Das liegt hauptsächlich an den Taktraten. Ich wäre mal gespannt, wie der 9900K und 3700X bei gleichem takt (etwa beide auf den Basistakt von 3,6Ghz limitiert) agieren würden. Wahrscheinlich wäre der Unterschied im Messfehlerbereich, denn bei der IPC hat AMD seinen Rückstand wettgemacht.
Ich meine mich an einen Rekord von Roman zu erinnern, wo er mit einem Ryzen einen Intel geschlagen hatte, der 600-800MHz höher übertaktet war (AMD 5,2GHz vs Intel 6GHz?). Aber wo ich gerade drüber nachdenke, evtl. war es auch ein Multicore-Benchmark, und AMD gewann weil das HT dort etwas effektiver arbeitet (also schon 2017, ohne die ganzen Sicherheitslücken bzw. Patches bei Intel).

Ich denke jedenfalls auch nicht, dass die Instructions per Cycle bei Intel besser sind. Eher im Gegenteil.
 
Tatsächlich erstaunlich, wie resistent manche gegenüber dem Argument sind, dass 720p-Tests sinnvoll sind. Es geht nicht um die Auflösung, oder dass "Hans Müller" nicht in 720p spielt, "weil unrealistisch!!!11". Es geht darum die Grafiklast bzw. überhaupt den Faktor Grafikkarte so gut es geht zu minimieren, um sinnvolle Ergebnisse zu erhalten. Was bringt es mir zu wissen, dass heute bspw. zwei extrem unterschiedliche CPUs in 4K die "gleichen" FPS haben, weil hier die Grafikkarte limitiert (und somit die CPU keinen wirklichen Einfluss mehr auf die FPS ausüben kann)?
Da will ich doch lieber wissen, wie diese CPU in 720p performt, während evtl. 2 Grafikkartengenerationen weiter die Leistung so stark angestiegen ist, dass diese zukünftigen GPUs sich bei 1080p genau so sehr langweilen im gleichen Spiel, wie die heutigen in 720p. Und genau dann sehe ich den Vorteil, der besseren CPU - nämlich zukünftig, wenn dieser noch nicht zum Flaschenhals wurde, die andere CPU hingegen (in 4K "gleichschnelle") dann schon.

Brauchen hier manche noch irgendeine visuelle Darstellung in Form von Diagrammen oder ist das ein Kampf gegen Windmühlen? :ugly:
 
Ich meine mich an einen Rekord von Roman zu erinnern, wo er mit einem Ryzen einen Intel geschlagen hatte, der 600-800MHz höher übertaktet war (AMD 5,2GHz vs Intel 6GHz?).

Das sind aber wieder irgendwelche Benchmarks. Würde gerne mal einen 3700 gegen einen 9900K bei gleichem Takt in Spielen sehen.
 
Hast doch 6 Jahre gespart...da kann man(n) sich mal was neues aktuelles gönnen...:D 100% mehr Kerne 100% mehr Theads...es gibt wesentlich schlechtere Deals...und DDR4 RAM ist ja mittlerweile recht erschwinglich...
Ich muss nix sparen, der neue Unterbau fällt so nebenher mit ab;) Und wenn ich den ollen Haswell noch gut loswerde, is eh allet mehr wie in Butter...

Gruß
 
Jetzt muss ich doch mal hier nachfragen:


Im Stream wurde irgendwas gesagt von

der 3733Mhz Speicher ist die beste Option alles drüber würde die Interne MHZ der Infinitiv Bridge halbieren und so würde zb. ein 4000Mhz Speicher deutlich langsamer ?

Wie kann man sich das vorstellen ?

und warum dann überhaupt schnelleren Speicher Verbauen ?
 
Zurück