AMD Ryzen 7 5800X und Ryzen 5 5600X im Test: Intel auch hier geknackt?

Das Problem ist, dass sich diese derzeit nur über den Ryzen Master auslesen lassen. Tools erhalten erst in einigen Wochen ein Update. Das macht es schwierig einen realistischen Schnitt über den Benchmark zu erstellen.
Was ist das denn für ne billige Ausrede?

Mag dann zwar nicht 101% korrekt mit euren Methoden übereinstimmen, aber als groben Anhaltspunkt für den/die ersten Test(s) hätte man ja zumindest die temps aus dem RM mit aufführen können.
Gern dann auch mit einem Entsprechenden Hinweis.
Aber die temps im RM und die temps bei HWinfo werden ja keine 10° Differenz aufweisen... :nene::P
 
HWiNFO64 und CX können doch die Temps auslesen?!
Danke. HWiNFO64 hat gestern tatsächlich ein Beta-Update bekommen, sehr schön.
CX jedoch zeigt mir im Overlay keine Temps an, ich kann sie im Overlay-Tab auch nicht auswählen. Oder gibts schon die final 1.57 und ich habe auch das verpasst?

Aber das mit HWiNFO64 trifft sich sehr gut, dann kann ich endlich mal die Verbrauchswerte checken. :-)
 
CX vs. Ryzen Master. CX ist halt auf 0 Stellen gerundet.

1605105025960.png
 
Aber die temps im RM und die temps bei HWinfo werden ja keine 10° Differenz aufweisen... :nene::P
Das weiß ich ja eben nicht. Und bevor ich jetzt weitere handfeste Werte zu Zen 3 poste, würde ich die gerne erstmal gegenprüfen. Sonst steigt mir wieder jemand aufs Dach :ka:

@gaussmath
Danke. Ich habe ständig die einzelnen Core-Temps gesucht und gar nicht nach anderen Optionen geguckt.
 
Das weiß ich ja eben nicht. Und bevor ich jetzt weitere handfeste Werte zu Zen 3 poste, würde ich die gerne erstmal gegenprüfen. Sonst steigt mir wieder jemand aufs Dach :ka:
Handfest meinte ich ja auch nicht. Sondern mit einem "Warnhinweis" versehene "vorläufige" Werte zur orientierung.
Zumal man eigentlich fest davon ausgehen kann, dass AMDs eigene Software die eigenen Prozessoren relativ genau auslesen kann, im gegensatz zu 3rd-party-tools ;)
Hier haben doch schon 1-2 Wochen vor Verkaufsstart die leute nach nem passdenden Kühler gesucht.
Grade jetzt, wo AMD sich auch gerne mal den "boxed-Kühler" spart, wäre eine zumindest grobe Einschätzung gut gewesen mMn. :daumen:
 
Holy Macaroni, das ist ein echtes Brett. Während AMD in den letzten Jahren mehr Kerne zum Sieg brauchte, ist es dieses Jahr nicht mehr nötig. 6 AMD Kerne schlagen 10 Intel Kerne. Das muss man erstmal wirken lassen.
Dennoch würde ich bei 12 bleiben, da ich nebenbei ab und zu mal auch etwas streame. Da sind mehr Kerne immer gut.
 
Zumal man eigentlich fest davon ausgehen kann, dass AMDs eigene Software die eigenen Prozessoren relativ genau auslesen kann, im gegensatz zu 3rd-party-tools ;)
Da hast du natürlich recht :)
Ich habe mich Softwareseitig gerade mal auf den neuesten Stand gebracht und habe jetzt tatsächlich die besagten Werte vorliegen. Ich muss das erstmal auswerten, ich denke das wäre ein eigene kleine Meldung auf der Main wert, ala "wie heiß wird Ryzen 5000" oder sowas.
 
Zuletzt bearbeitet:
Dein Technik/Leseverständnis ist gleich null! Die geringste Farmetimevarianze entwicklet an 1440p ein 5950x, warum wohl? und was ist besser, eine hohe Framerate mit vielen Einbrüchen oder eine gleichbleidene Franertate mit minimaler Latenz?
Achja immer wieder diese Angriffe ins leere. Lesen sollte man den Test. Bei den Frametimevarianzen in WQHD ist bei Horizon Zero Dawn der 3600x vor dem 5950x. Die vielkerner dominieren hier ja klar :klatsch:
In Worldwar Z und Total War ist der 3900xt trotz mehr Kernen schlechter als der 5800x....
Deine Aussage die Kerne würden Entscheidend dazu beitragen sind so bereits klar und deutlich widerlegt.
Das der 5950x häufig so gut dasteht liegt schlicht an der Performance. Er hat die besten Chiplets und überall wo die CPU die FPS beeinflusst wird der daher auch wenige % besser abschneiden. Daher ist er auch bei den min FPS und damit bei der gesamten Schwankungsbreite meist ein klein wenig besser wie die anderen CPUs.
Vor allem wenn man sich die Frametime verläufe anschaut sieht man ja gerade das die Unterschiede meistens marginal sind und sich vieles eher im Bereich der Messtoleranz abspielt.
Wenn ein Netzteil allein durch die CPU belastet wird sieht die Verteilung der verfügbaren Energie, die in Leistungs umgesetzt werden kann völlig anders aus, als wenn eine GPU mit 200W und Gamingspeaks bis 400w auf mehren Schienen das System belastet.
Hast du auch mal Belege das sowas die Performance maßgeblich beeinflussen soll? Oder bleibt es bei der leeren Behauptung?
Es liegt an Leuten wie dir die dieses Verhältnis wegen dem eigenen Unverständnis immer wieder in Frage stellen und die glauben hohe Boosttaktraten könnten ein GPU Bootleneck beseitigen, das beiseitgen sie nicht - aber mehr Kerne können das derzeit zumindest sichtbar und direkt gefühlt kompensieren. Ein 3900x wird deutlich weniger durch das Energiemanagement limitiert als ein 5800x. Solche Zusammenhänge sind dem Großteil hier fremd.
Unverständnis präsentierst gerade du. Ich habe nie behauptet das ein hoher Boosttakt der CPU das GPU Limit aufhebt. Es kann keine CPU ein Limit auf der GPU aufheben und da kannst du jede CPU deiner Wahl nehmen, da die Unterschiede einfach gegen 0 gehen. Die 5% bei den min FPS die du mit dem 5950x besser bist, kann dann auch auf den mehr Takt zurückgeführt werden und spielt in der Realität halt keine Rolle solange du keine Spiele spielst in denen die Physik bzw. die Spielgeschwindigkeit von den FPS abhängt.

Es ist halt fraglich ob man sich eine CPU kaufen will die bereits in WQHD von der 3080 in die Schranken verwiesen wird. Je nach Umstand ist dann beim nächsten GPU kauf auch ein kompletter Plattformwechsel notwendig. Wenn ich das mit der aktuellen CPU verhindern kann hat sich das bereits mehr als gelohnt.
 
Handfest meinte ich ja auch nicht. Sondern mit einem "Warnhinweis" versehene "vorläufige" Werte zur orientierung.
Zumal man eigentlich fest davon ausgehen kann, dass AMDs eigene Software die eigenen Prozessoren relativ genau auslesen kann, im gegensatz zu 3rd-party-tools
Ne, das ist ein leidiges Vorurteil. Ryzen Master greift auf die gleichen Sensoren zu wie andere Tools auch. Was soll da anders sein? Die Entwicker des Ryzen Master Tools arbeiten genaus so mit der MSR Doku wie wir auch.
 
Könnt ihr bitte nochmal einen 10900K mit realistischen Werten testen. Wüsste gern mal wieviel Ryzen vorn ist wenn der Intel optimiert ist. Also 5,2 Ghz und B-Dies mit ordentlichen Timings.

Wäre für uns Intel Nutzer mal ganz interessant ob sie da auch ein Wechsel lohnt.
 
Könnt ihr bitte nochmal einen 10900K mit realistischen Werten testen. Wüsste gern mal wieviel Ryzen vorn ist wenn der Intel optimiert ist. Also 5,2 Ghz und B-Dies mit ordentlichen Timings.
Wenn wir das tun, dann optimieren wir selbstverständlich auch den passenden Ryzen dazu, sonst meckern hinterher auch wieder alle. Aktuell wurde Stock mit Stock verglichen. Ein Tuning-Artikel ist in Arbeit, aber das dauert nunmal seine Zeit.
 
Es ist halt fraglich ob man sich eine CPU kaufen will die bereits in WQHD von der 3080 in die Schranken verwiesen wird. Je nach Umstand ist dann beim nächsten GPU kauf auch ein kompletter Plattformwechsel notwendig. Wenn ich das mit der aktuellen CPU verhindern kann hat sich das bereits mehr als gelohnt.
Der 5800x wird nicht in die Schranken verwiesen, so wie der 3900x nicht (der aber 4C mehr hat und kann 8 T mehr verarbeiten in einem oder zwei Cycle), aber die 3080 erlaubt höhere Auflösungen was klar ins GPU Limit führt, es geht/ging um zukünftig und da macht in eine GPU investieren (im GPU Limit) viel mehr Sinn! Wo 50$ schon helfen können, so begann die Diskussion. Solltest du nochmal nachlesen und was den 5800x angeht wollte AMD da imo zuviel. Der rennt mit höheren (over 3600) Speichertakt selbst in ein Limit und schafft auch die 4000MHz nicht (IF limitiert), aber du kannst ihn gerne weiterempfehlen (früher Zen 2, wars der Boosttakt, heute eben der Speichertakt, ist ja immer irgendwas)

Übrigens, 4ms sind nicht weniger als 2. Sieh nochmal genau hin, was natürlich Spiele abhängig ist, zumal Intel mit den 14nm Gurken oft genug vorne ist, also bleibt (außer in 720p) was mich absolut nicht interessiert und den Rest auch nicht sollte. Horizon Zero Down liegt sogar der 3900x vorne und das ist eine aktuelle Engine.

Aber ihr könnt das hier gerne weiter celebrieren, es bleibt Stuß weil dieses Leistungsvermögen kann ich eben nur unter 720p abrufen. Ja ich weiß was das für Auswirkungen in der Spieleentwicklung hat und kenne die Szenarien. Du hast auch bisher selbst nichts wiederlegt, sondern nur Testergebnisse verlinkt die Testmethoden abbilden, nichts weiter. Gehe doch mal auf Techpowerup? Mal sehen ob dein Cherry Picking dann noch passt, eher nicht.

Also weiterhampeln...
 
Zuletzt bearbeitet von einem Moderator:
Wenn wir das tun, dann optimieren wir selbstverständlich auch den passenden Ryzen dazu, sonst meckern hinterher auch wieder alle. Aktuell wurde Stock mit Stock verglichen. Ein Tuning-Artikel ist in Arbeit, aber das dauert nunmal seine Zeit.

Wehe da ist der Copy unter 63k und die Latenz über 40ns.
Dann foid da Watschnbaum :motz:

@RichieMc85
Leider wird das sehr unschön werden für den 10900K. ;-(

Danke & Vg
 
Wenn wir das tun, dann optimieren wir selbstverständlich auch den passenden Ryzen dazu, sonst meckern hinterher auch wieder alle. Aktuell wurde Stock mit Stock verglichen. Ein Tuning-Artikel ist in Arbeit, aber das dauert nunmal seine Zeit.

Danke sollte auch keine Kritik sein... Stock vs Stock ist halt gerade bei ner OC Plattform immer etwas langweilig. Zumal RAM OC bei Intel schon einiges bringt. :-)
 
Kann mir jemand erklären, warum die Ryzens hier in RDR2 durch die Bank weg erheblich schneller als der 10900K sind und bei Gamers Nexus das das einzige Spiel war, wo der 10900K sich sichtbar von den Ryzens absetzen konnte? :huh:
 
Wehe da ist der Copy unter 63k und die Latenz über 40ns.
Dann foid da Watschnbaum :motz:

@RichieMc85
Leider wird das sehr unschön werden für den 10900K. ;-(

Danke & Vg

Naja nach 5 Jahren Skylake soll es AMD im dritten Anlauf gegönnt sein endlich mal vorn dabei zu sein :)
Kann mir jemand erklären, warum die Ryzens hier in RDR2 durch die Bank weg erheblich schneller als der 10900K sind und bei Gamers Nexus das das einzige Spiel war, wo der 10900K sich sichtbar von den Ryzens absetzen konnte? :huh:

Im ersten Review von Igor war der optimierte 10900K auch fast immer gut dabei. Hängt wohl auch von der Szene ab wo getestet wird. Guck die am besten 10 Reviews an und der Mittelwert sollte halbwegs passen...
 
Dass der 5900 die Wäre besser abführen kann ist logisch, er hat ja auch die gleiche Abwärme auf doppelter Fläche (2 Chiplets).

Aber wenn jemand ersthaft sagt die Cpus wären "schwer" zu kühlen möchte ich ihm fast jegliche Kompetenz absprechen. Denn mehr als nen beliebigen kompatiblen 30€ Kühler auf die CPU bauen muss man nicht um jeden ryzen5000 ausreichend zu kühlen. Schwer ist daran wirklich überhaupt nix.

Wir nutzen für alle Standard-Tests zwei Dual-Ranked-Module, bei den HEDT-Modellen entsprechend vier. Natürlich werfe ich auch ein Blick auf die Temperaturen und die sind im Falle des 5800X tatsächlich sehr hoch. Ohne Anpassungen erreiche ich beim Blender Benchmark die 90 °C, was die Obergrenze für diese CPU darstellt. Ich beschäftige mich gerade mit dem Tuning der CPU und erreiche den Allcore-Boost von ~4,5 GHz bereits mit 1,2 Volt (Auto: 1,35V). Der gleiche Benchmark läuft dann mit angenehmen ~68 °C bei rund 30 Watt weniger. Gekühlt wird mit einer 280er-AiO-WaKü.

Die Zahlen gelten jetzt allerdings für meinen privaten 5800X, welchen ich gerade im Homeoffice quäle :-)

Das mit dem schwer war auch eher dahingehend gemeint, dass er sehr heiß wird selbst mit sehr guter Kühlung - diese 90 °C eben.

Ich habe den Anspruch, dass mein PC quasi lautlos ist, zumindest solange ich keine Spiele spiele.
Momentan wird meine Grafikkarte sehr laut in Spielen, weil ich (sofern möglich) in 4K spiele und das treibt die GTX 480 scheinbar zur Weißglut. ;) In FullHD scheint Sie mir grundsätzlich leiser zu sein.
Wenn der 5800X allerdings ständig so heiß wird, dass auch der CPU Lüfter Vollgas gibt habe ich darauf keinen Bock. Aber vielleicht ist das auch nur ein Benchmark-Problem?

Ich überlege demnächst aufzurüsten. Der Intel i5-4570 sucht einen Nachfolger. Und die Graka dann auch.
 
Zurück