Ryzen 7 5800X3D ohne OC: Robert Hallock bestätigt

Es ist immer vom Spiel und User abhängig. Gefühlt jedes Survival oder Strategiespiel der letzten Jahre ist auch bei hohen Auflösungen noch CPU Limitiert. Klar ist das nicht die Mehrheit aber es gibt durchaus Leute die das interessiert und wenn ich mir die CPU Benchmarks angucke sind selbst niedrige 3 stellige fps Raten bei den letzten Titeln nicht mal eben so zu erreichen. Für alle User die mit mehr als 60Hz unterwegs sind ist es also auch in jedem Fall interessant.

Wenn die Games denn nur Single-Threaded laufen, klaro. Normal. Aber Du kommst mit dem Vorzeigegenre um die Ecke, welches meist eine Ausnahme ist. Okay, für die Zukunft, werde ich mir hier so einen Textbaustein wie in solchen AGB´s definieren, indem ich dann alle Ausnahmespiele inkludiere, damit man "meistens" ebenfalls einschränkt. Oh man. Langsam verkommt das echt zur Korintenkackerei, was hier abgezogen wird.

Also hört doch endlich mal auf so sinnlos zu verallgemeinern nur weil "euch" etwas nicht in den Kram passt. Das ist echt ätzend...
Wo das? Gibt nicht nur Ausnahmen, oder ist Deine Spielebibliothek eine einzige Ausnahme? Die Frage ist jetzt, ob Du jetzt nur verallgemeinerst. Mir passt alles in den Kram, wo bitte schrieb ich, dass das nicht so ist. Und wer sind eigentlich diese "ihr". Grabenkampf auf Krampf?
 
Zuletzt bearbeitet:
Mein Ryzen 2700 ist kein schlechtes Exemplar, der Variante ohne X fehlt aber PBO und sie leidet am niedrigen Grundtakt.
Unter normalen Bedingungen macht die CPU 3375 MHz unter Spiele-Last auf vielen Kernen. Es sind aber fixe 3900 MHz bei 1,17 Volt und 4100 MHz unter 1,3 Volt möglich.
Macht aber kaum einen Unterschied, da die X Variante bei mir 4 Kerne auf 4,2Ghz zog oder je nach einzelne auf 4,25Ghz und den Rest eben niedriger. Glaube wir hätten quasi bei selber GPU identische Frames gehabt.
Dazu gabs ja auch einige Tests. Erst wenn du den passenden RAM, den optimierst und dann fixen Takt hattest waren es immer noch einstellige Prozent gegenüber Stock. Klar hatten manche gute Modelle, aber ansonsten…
 
720p Spieler oder wieso sollte ein GPU nicht limitieren, zumindest bei höheren Auflösungen als 1080p?
Erklärt doch einfach, wenn ihr sowas in den Raum werft!
Ist jetzt nichts gegen dich, aber mir platzt allmählich schon die Hutschnur, wenn ich so was lese wie "Die CPU ist ja nicht so wichtig, die GPU limitiert ja eh fast immer". Zig Jahre PCGH, die Redakteure testen wie die Berserker, schreiben sich Finger wund und die Leute hauen so einen Unfug raus.

Ich habe ehrlich gesagt nicht die Lust, das großartig zu erklären. Es gibt zig Fälle, wo es eben nicht so ist: Strategiespiele, unoptimierte Titel im Allgemeinen, DX11 + Radeon Treiber, Indie Titel, unfallartige Ausrutscher wie Far Cry 6 mit einem Shitload an Tasks auf dem Renderthread, wenn Userdaten aktualisiert werden, Elden Ring mit Stuttering des Todes auf schwächeren Systemen.

Zu diesen ganzen Szenarien kommt ein wichtiger Aspekt hinzu: Glattheit der Frametimes/Stuttering/Frame Pacing. Average FPS und eine GPU Auslastung von über 95% sind ganz gute Indikatoren, aber das reicht manchmal bei weitem nicht, um den positven Effekt einer starken Spiele-CPU zu verdeutlichen.
 
..... wo es eben nicht so ist: Strategiespiele, unoptimierte Titel im Allgemeinen, DX11 + Radeon Treiber, Indie Titel, unfallartige Ausrutscher wie Far Cry 6 mit einem Shitload an Tasks auf dem Renderthread, we nn Userdaten aktualisiert werden, Elden Ring mit Stuttering des Todes auf schwächeren Systemen.
Danke für den Ausnahmentext für meinen Textbaustein. :P

Also ich weiß schon, das man mit einer vernünftigen Grafikkarte keine Gammel-CPU von annodazumal betreiben kann. Andersherum nützt mir die beste CPU nix, wenn die GPU von vor einer halben Dekade ist.
Es nützt aber beides nix uptodate zu haben, wenn die Software nicht mitspielt, Overhead vorhanden ist oder singlethreaded programmiert wurde, etc. Da gebe ich dir recht und meine es in einem anderen schon ähnlich geschrieben zu haben. Nur, auch wenn die jüngere Vergangenheit gezeigt hat, dass momentan nur Ramsch produziert wird in den Studios, ist das ja nicht unbedingt die Regel. Für Optimierungen nimmt sich dort doch niemand mehr wirklich Zeit.

Also für den Otto, der sich zwei Sätze merken kann, reicht es doch völlig aus , sich nicht in diesen Details zu verlieren, da die meisten Ottos sich ja doch nur an zwei, drei Indikatoren halten, um CPU oder GPU Limit zu identifizieren. Auch wenn da mehr rein spielt, als "CPU macht nur 25% Auslastung, kann ein Limit sein (bei nem 4 Kerner)", oder andersrum "nee die GPU läuft nur mit 70%, da stimmt irgendwas nicht mit der CPU". Aber deswegen wird ja nicht immer gleich alles falsch, die Aussagen sind ja eigentlich aus der Nähe betrachtet unvollständig oder zu einseitig betrachtet.
Nur meine unbedeutende Meinung.



GPU-Auslastung kleiner als 90-95% -> meist™ oder höchstwahrscheinlich ein CPU- Limit
CPU bei unter 10%- Auslastung , und die GPU ist bei >95% Auslastung -> es liegt ein GPU-Limit vor
-Ausnahmen bestätigen die Regel
 
Zwei einfache Gründe, die dagegen sprechen:
1. 3600 -> eBay -> 5800X3D
Auf die breite Masse trifft das vollumfänglich zu, allerdings bekommt man ja beispielsweise für einen Ryzen 3600, 3700X usw. auch noch Geld.
2.
Die Kompatibilität war zwar inoffiziell, aber auf vielen B550-Mainboards von z. B. MSI oder Asrock und den ersten X570-Modellen liefen die ersten Zen(+) CPUs doch noch (mittlerweile inkl. SAM/rBAR). Ich mag Gigabyte überhaupt nicht, gefolgt von Asus (bei AMD). :):kaffee:
Grüße

Gerade auf Asrock X570 lief Zen 1 längere Zeit nicht. Aber auch bei den anderen drein war während der 1.0.0.3a/b/b/a-Phase Waterloo. Natürlich konnte man alte Prozessoren auf den neuen Boards zum laufen bringen, wenn man sich ein altes UEFI geholt hat (ich hatte sie alle mit einem 1800X getestet, nur Asus hat dann leider auf neue UEFIs bestanden), um dann vor jedem weiteren Update zu warten, bis jemand die Tauglichkeit bestätigen konnte. Aber wie viele Anwender haben sich den Stress angetan, um viel Geld in ein altes System stecken zu können? Für die Verkaufssichten des 5800X3D spielt das keine nennenswerte Rolle. Da könnte man ebensogut darüber philosophieren, dass Z170-Besitzer kein Alder Lake kaufen, weil sie ja auf einen 9900K aufrüsten können: Stimmt, aber selbst hier in unseren Freak-Forum kann man ein Holzfäller die Kandidaten an einer Hand abzählen.


*) Die Werte muss man nicht unbedingt 1:1 auf den 8-Kerner übertragen können, der auch mit einem deutlich schmalbandigeren Speicherinterface auskommen muss, jedoch zeigen bereits die schon, dass es halt durch den Cache keinesfalls ein pauschales Leistungsplus gibt, sondern dass man hier weite Spannen zu erwarten hat und auf den Workload zu schauen hat.

Der 5800X3D hat pro Kern doppelt so viel Speichertransferrate wie ein Epyc 77XX. Ein 75XX kommt auf ein vergleichbares Verhältnis und erst kleine 74XX/73XX/72XX liegen spürbar vorn. Allgemein zeigen Übertaktungsergebnisse aber, dass in Desktopanwendungen und dieser Leistungsklasse eher die Speicherlatenz und weniger der Durchsatz limitieren. Da kann Cache sehr viel bringen – wenn die nötigen Daten reinpassen und korrekt als wichtig erkannt werden.


Das stimmt so nicht. Bei der ersten gen kam das immer auf die CPU an. Mein ryzen 1700 lief damals schon (mit Brechstange und Wakü) auf 4300 mhz.
Das es die 1% Chipgüten gibt, hab ich ja nicht ausgeschlossen. Aber die maße haben eher die CPU's bekommen die bei 3900 die brechstange schon war.

Das ist eher Selektion in Gegenrichtung: Der 1700 war seitens AMDs stark abgewertet und gegenüber den reduzierten Specs lassen sich natürlich leicht Verbesserungen zu erzielen. Beim 5800X3D reden wir aber von einem Modell an der Grenze des machbaren, Bezugspunkt für seine Übertaktungsreserven wäre also der Vollausbau von Zen 1. Da sind 4,3 GHz ziemlich Mau, denn der 1800X ging mit XFR 4,1 GHz über die Ladentheke und da sah AMD noch keinen Grund, Übertaktungsfunktionen zu begrenzen, sondern hat sogar damit geworben. Wenn es beim 5800X3D im Schnitt weniger als 200 MHz Reserven sind...
 
Je mehr ich hier lese umso mehr tendiere ich doch wieder zum 5900X als letztes Upgrade für meine Plattform.
Zur zeit spiele ich noch in 1440p werde aber auf 4k umsteigen. Von daher ist die Frage sicher berechtigt, was in Anbetracht des Zieles das System noch ein paar Jahre zu nutzen sinnvoller erscheint. Ein 12 Kerner oder ein schnellerer 8 Kerner?
 
Mit dem Curveoptimizer kann ich ein Offset reinbringen, aber der bringt nicht so viel. Bei -10, mehr geht nicht bei den 2 spitzen Kernen, geht der immernoch bis 1,490V hoch.
Der negative Offset im CO bewirkt, dass die CPU höher boostet und mehr Spannung anlegt. Bei negativem Offset steigt der Verbrauch.

Mein Problem an der ganzen Geschichte ist, das diese 1.5V immer wieder auch dann anliegen, wenn ich nur ein Video gucke oder hier im Forum surfe. Irgendwie muss bei mir im System ein Bug im Scheduler sein >_<...da andere behaupten, das das bei denen anders ist.
Es ist völlig normal, dass Zen 3 bei relativ niedriger Last eben bis zu 1,5V anlegt. Aber auch nur dann.

Wo das? Gibt nicht nur Ausnahmen, oder ist Deine Spielebibliothek eine einzige Ausnahme? Die Frage ist jetzt, ob Du jetzt nur verallgemeinerst.
Das lässt sich eben schlecht verallgemeinern. Jemand, der viel Anno, Cities Skylines oder Minecraft spielt, den interessiert es wenig, das der Großteile der Spiele GPU limitiert ist, da sein Nutzungsszenario anders aussieht.
 
@PCGH_Torsten
Du hast im Großen und Ganzen recht, aber möglich wäre es in mehr Fällen gewesen, wenn man zumindest von 1800X oder 3700X auf 5800X mit Gebrauchtverkauf springt. Auf eBay wird nicht eingegangen, dabei war das zu Zen 3 Release voller Ryzen 2600 und 3600. Nicht jeder ist direkt bei Zen 1 eingestiegen und AMD hat mittlerweile wieder die deutlich niedrigeren Plattformkosten.

Ein Mainboard bis 100€ kauft man sich eher mal zwischendurch neu als eines für 200-300€, wobei allgemein auch dieses dann leichter gebraucht verkauft werden kann. Man kauft eher ein gebrauchtes Mainboard für 50€ anstatt 150€ (Zielgruppe).

Ja, es gab Chaos bei AMDs BIOS-Versionen, aber später wurden hier oft wieder mehr CPUs unterstützt, zumindest von einigen Mainboard-Herstellern, die ich ab nun favorisiere.
Die späteren BIOS Versionen ab AGESA Combo AM4 v2 Pi 1.1.0.0 und dann wieder ab 1.2.0.0 erlaubten meist wieder einen Betrieb fast aller Zen-CPUs.
Letzten Endes hat sich AMD damit keinen Gefallen getan, volle Zustimmung, da hätten sie es lieber gleich verboten oder definitiv für einen späteren Zeitpunkt angekündigt.
 
Zuletzt bearbeitet:
Bin bereit zu wechseln doch seh ich grad kein sinn darin mein 3950x auszutauschen für 3-5 fps meinetwegen paar fps hin oder her.Das lohnt überhaupt nicht !
Betreib die cpu auch grade ohne SMT da sinnlos ,zock im moment nur damit leistung ist genug mit 16 Kernen ohne smt.
Klingt eher nach 3D Ente.
Ja logisch da der 5700g onboard Grafik hat ,da würd ich nix draufgeben was in cpuz steht
 
Zuletzt bearbeitet von einem Moderator:
Guten Morgen :kaffee:
Mir ist eben aufgefallen, dass die offiziellen Seiten seitens AMD online sind. Wie bereits vermutet wurde, ist der Ryzen 5500 ein 5600G "Cezanne" ohne iGPU, X370 Support wird aufgeführt:
Der Support von B350 und X370 fehlt bei den Angaben vom 5800X3D, also wird es wohl, wenn es funktioniert, auf ein BIOS im Beta-Stadium hinauslaufen bzw. evtl. nicht offiziell funktionieren. Gut, dass ich früh zu einem günstigen X470 wechselte: :ugly::(
 
Zuletzt bearbeitet:
[...] dass in Desktopanwendungen und dieser Leistungsklasse eher die Speicherlatenz und weniger der Durchsatz limitieren. [...]
Ein primär latenzabhängiges Verhalten ist ja gerade eine Workload-spezifische Eigenschaft. ;-)

Man darf aber auf jeden Fall gepsannt sein was es auf dem Desktop in konkreten Workloads bringen wird und wie das P/L-Verhältnis ausfallen wird. Mit dem Preis wird das Produkt sich jedoch vermutlich trotz der nur 8 Kerne eher in das Enthusiast-Segment einsortieren, während der Großteil des Marktes eher den Preisvorteil des regulären 5800X mitnehmen wird.
 
@PCGH_Dave
Danke, hatte wegen Müdigkeit Tomaten auf den Augen. :ugly::kaffee:
Der 5500 könnte ein günstiges Architektur-Upgrade für mich sein, auf X470 gibt es eh nur PCIe 3.0.
 
Zuletzt bearbeitet:
Zurück