AMD Ryzen 7 5800X3D: Spitzenleistung in erstem Spieletest

Der Test war abgesehen von AA/AF/AO mit Ultra Settings und die Auflösung durch Res Scale sogar noch unter 720p um ein GPU Limit auszuschließen. Warum das gemacht wurde solltest du eigentlich auch wissen ;)
Oh, entschuldige, wie konnte ich nur auf so einen dummen und vollkommen weltfremden Wunsch kommen, wissen zu wollen, was am Ende des Tages von der Mehrperformance auch in gebräuchlicheren bzw. typischerweise eher genutzten Settings tatsächlich übrig bleiben wird.
Aber natürlich, ich vergaß, 99,7 % aller Spieler spielen ja mittlerweile ausnahmslos im CPU-Limit, d. h. eine derartige Fragestellung ergibt sich ja grundsätzlich nicht. :hmm:

Als Tipp um dir zukünftige Entgleisungen dieser Art zu ersparen: Einfach mal unvoreingenommen lesen und deinen Bias außen vor lassen, dann passiert dir so ein Unsinn auch nicht mehr und vielleicht auch lernen einen Nebensatz nicht aus dem Kontext zu reißen, denn das "Schön gewesen wäre aber noch ein paralleler Test in bspw. 1440p und min. hohen Settings ..." stand da nicht ohne Grund und ebenso wurde auch die weiche Formulierung "schön wäre gewesen ... paralleler [also zusätzlicher] ..." gewählt. Niemand hat behauptet, dass der Test bspw. unsinnig oder wertlos war ... auch wenn dir deine Synapsen möglicherweise was anderes vorgegaukelt haben ...
 
Als Tipp um dir zukünftige Entgleisungen dieser Art zu ersparen: Einfach mal unvoreingenommen lesen und deinen Bias außen vor lassen, dann passiert dir so ein Unsinn auch nicht mehr und vielleicht auch lernen einen Nebensatz nicht aus dem Kontext zu reißen, denn das "Schön gewesen wäre aber noch ein paralleler Test in bspw. 1440p und min. hohen Settings ..." stand da nicht ohne Grund und ebenso wurde auch die weiche Formulierung "schön wäre gewesen ... paralleler [also zusätzlicher] ..." gewählt. Niemand hat behauptet, dass der Test bspw. unsinnig oder wertlos war ... auch wenn dir deine Synapsen möglicherweise was anderes vorgegaukelt haben ...
Mal als Tipp für dich: nachdenken bevor man postet. Es ist nicht schwer, sich überlegen, dass eben diese Performance zu erwarten ist, wenn man einer schnellere Grafikkarte verwendet oder einen zu Upscaler anwirft... oder beides kombiniert. Was viele nicht bedenken, nicht nur du übrigens, solche CPU-lastigen Performanceszenarien können schneller realistisch (eher GPU-bound) werden als man denkt.

Hab's für dich mal in 1080p mit 100% Renderscale wiederholt.

1649581438188.png
 
Noch mal als Tipp für dich, da es ja offensichtlich so extrem schwer zu verstehen ist: Wenn ich mir Messergebnisse ausdenken soll, brauch ich keine Benchmarks oder Testsoftware, denn dann reichen auch meine grauen Zellen.
Hier hatte ich dagenen einfach nur den Wunsch geäußert, dass in einem für mich (und absehbar viele andere auch) praktikableren Licht dargestellt zu bekommen, mit tatsächlichen Messwerten und nicht etwa mir das auf Basis von Bauchgefühl und Wunschdenken selbst zurechtzubiegen.
Da kann man jetzt hinten rum dran versuchen herumzuschrauben wie man will, das ändert nichts an der Legitimität meines initialen Wunsches und bspw. auch wenn ich einen Upscaler nutze, würde ich den nicht <= 720p nativ ansetzen lassen. Hier ging es nur darum eine fehlerbehaftete Extrapolation zu vermeiden, nicht mehr und nicht weniger.

Ergänzung zum nachträglich eingestellten Durchlauf/Screenshot: Danke, wäre nicht nötig gewesen, denn mittlerweile ging es mir eher um die krampfhafte Absicht meinen Post misszuverstehen.
Da du dir aber schon die Mühe gemacht hast, dann bzgl. der Nachreichung ein, zwei Anmerkungen: Ich vermute du hast nur die Auflösung geändert, also weiterhin Low-Settings, also weiterhin überwiegend im CPU-Limit. Ergänzend noch der Hinweis, dass hier 2x ADL dargestellt wird, das Augenmerk ist hier aber auf den 5800X3D und den V-Cache gerichtet. Und warum nun (in kleinen Schritten) hocharbeiten. Der Punkt ist am Ende schlicht, dass viele (insbesondere in diesem Forum hier mit den hochgezüchteten GPUs und hochauflösenden Monitoren) eher im GPU-Limit und eben nicht im CPU-Limit spielen und ... Naja, die Fragestellung war ja grundlegend schon im meinem ursprünglichen Post formuliert.
Und nein, nicht erneut falsch verstehen, das war keine Bitte oder gar ein Auftrag an dich; für die Nachreichung noch mal ein Dankeschön. Letzten Endes wird uns die PCGH sicherlich bei Verfügbarkeit eines CPU-Samples einen entsprechenden Testbericht bescheren.
 
Zuletzt bearbeitet:
Hier noch ein Update in 1440p mit DLSS Balanced. Man muss nur 1 und 1 zusammenzählen um abzuschätzen, wo man mit einer RTX 4080 (DLSS Quality) landen wird.

Ach und wegen "DLSS BaLAnCED nUtzT eH KeiNeR!!", doch, habe ich für Dying Light 2 tatsächlich genutzt. ^^

1649582433579.png


Da kann man jetzt hinten rum dran versuchen herumzuschrauben wie man will, das ändert nichts an der Legitimität meines initialen Wunsches und bspw. auch wenn ich einen Upscaler nutze, würde ich den nicht <= 720p nativ ansetzen lassen. Hier ging es nur darum eine fehlerbehaftete Extrapolation zu vermeiden, nicht mehr und nicht weniger.
Es geht doch bei einem ordentlichen CPU-Test genau darum, sich unabängig von der Grafikkarte zu machen. Das Gedankenexperiment mit der RTX 4080 und DLSS als "fehlerbehaftete Extrapolation" zu bezeichnen, zeigt nur, dass du nicht sehr viel praktische Erfarhrung mit Benchmarks hast, inbesondere bei einem Generationswechsel der Grafikkarte.
 
Zuletzt bearbeitet von einem Moderator:
@gerX7a
Wenn du CPU Tests im GPU Limit willst musst du dir einen GPU Test anschauen. Da kriegst du genau das geliefert. In einem CPU Test sind die Werte allerdings völlig nutzlos. Mit GPU Tests im GPU Limit und CPU Tests im CPU Limit sind alle Szenarien abgedeckt. Alles weitere ist einfach nur Zeitverschwendung und bringt keine weitere Erkenntnis…
 
Alles weitere ist einfach nur Zeitverschwendung und bringt keine weitere Erkenntnis…
Trotzdem haben wir einen Artikel dazu geplant. Nur wann der online geht, weiß ich nicht. Was ich aber bereits weiß ist, dass dieser Artikel auch nichts ändern wird. Zu allen CPU-Tests bei PCGH gehört dazu, dass sich die Leute über die Grafiksettings beschweren. Wir sind Gewohnheitstiere, ein Artikel mit einer Auflösungsskalierung ändert da nichts (ich meine, es ist nicht so, als hätten wir das nicht schon längst gebracht, aber das zählt offenbar nicht :ka:).
 
Es geht doch bei einem ordentlichen CPU-Test genau darum, sich unabängig von der Grafikkarte zu machen. Das Gedankenexperiment mit der RTX 4080 und DLSS als "fehlerbehaftete Extrapolation" zu bezeichnen, zeigt nur, dass du nicht sehr viel praktische Erfarhrung mit Benchmarks hast, inbesondere bei einem Generationswechsel der Grafikkarte.
"Es geht doch bei einem ordentlichen CPU-Test genau darum, sich unabängig von der Grafikkarte zu machen." - Ja, dann habe ich "reine" CPU-Testwerte, hat auch niemand bestritten (weder Sinn noch Nutzen), ich am allerwenigsten. Nur läuft eine CPU im Workload Gaming immer im Tandem mit einer GPU.

Das RTX 4080/DLSS-Beispiel zeigt vielmehr, dass dir nicht an richtigem Lesen gelegen war oder du dich schlicht "verzettelt" hast. *) Weder habe ich derartige Konstellationen zum Test vorgeschlagen, noch ist mir überhaupt an einem Test in Verbindung mit einem Upscaler gelegen.
Der ursprüngliche Test zeigte das untere Spektrum, wenn die Last nahezu ausnahmslos auf der CPU liegt und ich hätte gerne das obere Spektrum ergänzend sehen wollen, um einen Gesamteindruck zu erhalten, wie sich der V-Cache in diesem Workload unter diesen Bedingungen auswirkt, wenn die CPU zunehmend weniger zur Gesamtperformance beitragen kann.
Natürlich kann ich mir das mit einem gewissen Fehler selbst ausrechnen, denn die Zugewinne werden schlicht geringer. Da ich aber nicht der Typ "Bauchgefühl" bin, hätte ich das gerne in konkreten Messwerten gesehen, nicht mehr und nicht weniger ... und da ich bisher noch keine Erfahrtungen mit dem V-Cache habe, weil der komplett neu ist, hat das besonderes Potential für eine "fehlerbehaftete Extrapolation".

*) Ergäneznd dazu auch hier wieder zu viel in meinen Post reininterpretiert, denn dein reformuliertes "Das Gedankenexperiment mit der RTX 4080 und DLSS als 'fehlerbehaftete Extrapolation' zu bezeichnen ..." ist bei mir nirgends zu lesen und auf diese Konstellation nahm ich in meinem obigen Post auch keinen Bezug.

@blautemple: Hier geht es um den 5800X3D mit V-Cache und wie alle anderen auch, die nicht abwarten können und deshalb nicht auf einen "offiziellen" PCGH-Test warten und derartige "News" geflissentlich ignorieren, sondern frühzeitig alles über neue Pordukte wissen wollen und daher natürlich dankbar derartige Vorabeinblicke aufnehmen ...
Also, um das mal ganz plakativ und in seiner simpelsten Form darzustellen, weil eine so unglaublich einfache Fragestellung ja anscheinend so unsagbar viel Konfliktpotential zu haben scheint: Ein 5800X3D, kombiniert mit einem aktuellen GPU-Topmodell zeigt aufgrund des V-Caches welche effektiven Leistungszugewinne in Fps in bspw. 1440p mit Max-Settings? Oder um das ganze auf die Spitze zu treiben: In 4K und hohen oder Max-Settings?
Selbstredend wird hier die GPU mitgetestet, wie in jedem Gaming-Benchmark und hier zunehmend mehr, da die GPU nun eher limitieren wird. Aber die Frage ist hier nun, eigentlich naheliegenderweise, was bringt der V-Cache noch in dieser Konstellation an Mehrwert. Absehbar wird es immer noch schneller sein, halt nur wie viel? Lohnt sich bspw. ein Up/Sidegrade auf einen 5800X3D für einen HighEnd-Enthusiast-Gamer, der maximale visuelle Qualität will und möglicherweise gar Upscaling-Technologien weiterhin ablehnend gegenübersteht?
Offensichtlich wird sich hier ein fließender Verlauf bzgl. des Nutzens des V-Caches abzeichnen; die Frage ist halt nur, wie diese Kurve verläuft und ob die im oberen Spektrum eher zu einem "Nein" bzgl. der Frage "lohnt sich das" führt oder ob das weiterhin ein klares "Ja" bleiben wird? Da der V-Cache neu ist, nehme ich mir hier nicht heraus, dass selbst mit minimalem Fehler extrapolieren zu können, da fehlen schlicht Erfahrungswerte.

@Zer0Strat: "Mir gehen diese Diskussionen auf die Cojones allmählich." - Hättest du meinen ursprünglichen Post richtig gelesen und nicht mehr hineininterpretiert als da stand, wäre es nicht dazu gekommen. Grundsätzlich müssen dir solche "Diskussionen" aber auch nicht auf die Nerven gehen, denn die implizieren ja keine Handlungsanweisung in deine Richtung, d. h. dir steht es auch frei die zu ignorieren.
 
Zuletzt bearbeitet:
Schön gewesen wäre aber noch ein paralleler Test in bspw. 1440p und min. hohen Settings, denn gerade mal 720p und dann auch noch in low settings kommen schon eher einem syntheischen Benchmark gleich. ;-)

"Es geht doch bei einem ordentlichen CPU-Test genau darum, sich unabängig von der Grafikkarte zu machen." - Ja, dann habe ich "reine" CPU-Testwerte, hat auch niemand bestritten (weder Sinn noch Nutzen), ich am allerwenigsten. Nur läuft eine CPU im Workload Gaming immer im Tandem mit einer GPU.
"kommen schon eher einem syntheischen Benchmark gleich" aber dann andererseits "habe ich "reine" CPU-Testwerte, hat auch niemand bestritten (weder Sinn noch Nutzen)" ist schon lustig, wenn man das mal gegenüberstellt. :D

Du willst halt lieber GPU-Benchmarks, obwohl es hier um einen CPU Test geht. Sorry, da kann man dir leider nicht weiterhelfen.

Achso und Low Setting waren das keineswegs. Das waren Ultra Details und Ultra Schatten, also jene Settings, die stark auf die CPU gehen. AA/AF/AO und Post Processing ist praktisch nur GPU Stuff. Die paar Drawcalls auf der CPU, das ist im Vergleich zum Gesamtaufwand vernachlässigbar.

Was mir halt bei deinem Diskussionsstil auffällt, wenn man dich kritisiert oder dir gewichtige Argumente entgegenbringt, die dir nicht schmecken, dann geht's du leider über zu einem wenig nützlichen intellektuellen Hula Hoop.
 
Sag mal, jetzt treibst du es aber echt auf die Spitze. Stellst du dich jetzt absichtlich begriffsstutzig dar oder wie soll ich das deuten? Du willst mir jetzt erklären, dass du an der Software mitentwickeln kannst, aber derart einfache Sachverhalte nicht verstehen kannst/willst? Und kommst mir dann mit "intellektuellen Hula Hoop"? Btw., was ist an dem bisherigen Postverlauf "intellektuell"?
Es ging um den Nutzen des V-Cache im 5800X3D und wie der sich im Workload Gaming über unterschiedliche Nutzungsvarianten auswirkt. Das der, wenn man die GPU so weit wie möglich auszuklammern versucht, maximiert ist, ist offensichtlich und daher die meiner Meinung nach ebenso offensichtliche und leicht nachvollziehbare Frage, wie es sich verhält, wenn man sich in die andere Richtung bewegt, denn ein nennensweter Teil der PC-Gamer spielt halt mit eher visuell höherer Qualität und das bedeutet höhere Grafiksettings und ebenso eine höhere Auflösung.
Und nein, du hast keine "gewichtigen Argumente" gebracht, sondern als Antwort auf meinen ursprünglichen Post dir ein eigenes Setting ausgedacht (das an meinem vorbei ging) und daraufbasierend geantwortet, also vielmehr mit dir selbst diskutiert.
Sorry, aber spätestens jetzt verschwendest du meine Zeit.
 
Genau das ist ja die Frage. Wo beginnt der Nutzen des V-Cache, der ja einen beträchtlichen Zugewinn bieten kann, derart klein zu werden, dass eine Anschaffungsüberlegung diesbezüglich nicht mehr lohnenswert erscheint.
Überspitzt ausgedrückt, taugt der 5800X3D nur für CS:GO in 720p oder für mehr und wenn ja, für wie viel mehr bzw. bis wohin?
Die rein CPU-basierte Betrachtungsweise hatte schon der ursprüngliche Test vollends geklärt bzw. in zu erwartender Weise bestätigt. Zur Betrachtung von der anderen Seite ausgehend gibt es dagegen bisher noch keinerlei Aussagen und es ging nur darum auch hierzu ein paar handfeste Zahlen zu bekommen. Eigentlich ein triviales Anliegen. ;-)
 
Überspitzt ausgedrückt, taugt der 5800X3D nur für CS:GO in 720p oder für mehr und wenn ja, für wie viel mehr bzw. bis wohin?
Und das soll man jetzt in jeder möglichen Kombination aus GPU und Auflösung prüfen? Das ergibt einfach keinen Sinn. Genau deswegen macht man ja CPU Tests im CPU Limit und GPU Tests im GPU Limit. Was du gerade forderst ist das man dir vorkaut wo das CPU Bottleneck losgeht. Wenn man aber CPU und GPU im jeweiligen Limit testet braucht man diese Tests gar nicht, weil man die Daten schon hat . Völlig ohne weitere Tests oder irgendeinen Mehraufwand. Man muss einfach nur stumpf die jeweiligen Diagramme lesen ;)
 
Himmel, warum müssen manche immer alles ins Extrem ziehen? - Weder stand bei mir was davon, dass alles in infinitesimal kleinen Schritte durchgetestet werden sollte und erst recht nicht habe ich eine entsprechende Forderung geäußert.
Im Augenblick gibt es nur einen Messpunkt, keine weiteren Stützpunkte die einen Kurvenverlauf bzgl. der Leistung/des Nutzen des Caches über unterschiedliche Settings erahnen lassen, sodass man hier auch mit akzeptablem Fehler nicht sinnvoll abschätzen kann wie es bei Setting X, Y aussehen würde. Ein oder bestenfalls zwei zusätzliche Stützpunkte würde helfen besser abschätzen zu können was man konkret erwarten kann.

Konkret: Weder spiele bspw. ich irgendwas in 720p noch spiele ich irgendwas in low settings. Und da, wenn sich die Last mehr in Richtung GPU verlagert, der Zugewinn durch die CPU abnimmt, ist nun die Frage, wie stark diese Abnahme in Verbindung mit dem V-Cache mit steigender Qualität und Auflösung sein wird.
Am Ende wird sich Anwender X, bspw. ein AM4-400er-User mit einem 3700X fragen, ob mit seinen typischen Anforderungen bspw. ein Upgrade auf einen 5800X3D oder eher auf den 5800X lohnenwerter ist, denn wenn dieser Anweder eher im GPU-Limit spielt (dafür bedarf es noch nicht einmal 4K, eine kleinere GPU als die hier vielfach zitierten Topmodelle reicht schon aus), stellt sich das Bild für diesen Anwender durchaus anders dar und von den +X % bleibt vielleicht nicht viel übrig und dieses "vielleicht" ist der zu klärende bzw. zu konkretisierende Punkt.

*) Natürlich, ich kann mir jetzt das andere Extrem zusammenbauen und 4K nativ in absolut maximalen Grafikeinstellungen und am besten noch mit hochgradig forderndem Raytracing zusammenkonstruieren und werde damit den Nutzen des 5800X3D wahrscheinlich nahe 0 % gebracht haben (falls nicht sogar negativ aufgrund des geringeren Taktes?), nur ist dieses Extrem ebenso nur für eine sehr kleine Anwendergruppe relevant.
 
5800X PBO

4.9 with 3600cl14 xmp

4.9 with 3200cl14 "msi try it"

4.0-4.9 3800cl14 tuned

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Imgur. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.



the settings care much more about ram than cpu speed - no wonder more cache gives good results.
 
Im Augenblick gibt es nur einen Messpunkt, keine weiteren Stützpunkte die einen Kurvenverlauf bzgl. der Leistung/des Nutzen des Caches über unterschiedliche Settings erahnen lassen, sodass man hier auch mit akzeptablem Fehler nicht sinnvoll abschätzen kann wie es bei Setting X, Y aussehen würde. Ein oder bestenfalls zwei zusätzliche Stützpunkte würde helfen besser abschätzen zu können was man konkret erwarten kann.
Das ist ein Missverständnis. Eine CPU wird unabhängig der Auflösung vom Spiel immer gleich belastet.
Somit kann man durch einen unverfälschten Messpunkt eben schon auf die CPU- Leistung in allen anderen Auflösungen mit den gleichen Settings schließen.

Ich habe aber inzwischen auch schon herausgefunden, dass viele einem Denkfehler unterliegen. Nämlich dem, dass einige davon ausgehen, dass die CPU mit steigender Auflösung mehr Arbeit hätte, weil ja mehr Details zu berechnen wären.
Die Szenengeometrie, die von der CPU berechnet wird bleibt auflösungsunabängig aber im Normalfall gleich.
Der Vorgang, das dann in eine entsprechende Auflösung zu pressen nennt sich rastern. Das macht aber die Grafikkarte.

Die Arbeit der CPU bleibt in der Befehlskette auch gleich.
z.B. Zeichne Dreieck XY mit entsprechenden Koordinaten die in einem Verhältnis zur Projektionsmatrix stehen.
Den Rest übernimmt ja schon der Treiber.
Dieser Befehl läuft auf CPU Seite immer gleich schnell, da sich innerhalb des Befehls nur die Zahlenwerte ändern, wenn man mit anderen Auflösungen arbeitet.

Ich hab da mal vor einiger Zeit eine Messreihe erstellt, um das entsprechend nachzuweisen:

Somit kann man dem ganzen Vorgreifen und auch aus niedrigeren Auflösungen Schlüsse ziehen, wie sich die CPU dann in höheren Auflösungen verhält. Nämlich grundsätzlich immer fast gleich. Alles andere wäre dann wieder ein Grafikkartentest.
Als Setting für solche Tests nimmt man idealerweise also eine möglichst niedrige Auflösung bei möglichst hohen Detaileinstellungen, da diese im Gegensatz zur Auflösung tatsächlich die CPU belasten.

Also irgendwo hast Du schon recht. In gewisser Art und Weise macht man einen synthetischen Benchmark draus, der zeigt, was die CPU bei einem feststehenden Setting kann, wenn eine unendlich starke Grafikkarte dahinterstünde.
 
Zuletzt bearbeitet:
Ich dachte mittlerweile hätte das jeder verstanden, warum man eine CPU genauso testet wie man sie testet.
So hat man seinen Grundwert was die CPU maximal kann.
Mehr geht halt nicht, auch in höheren Auflösungen ändert sich daran nix.
 
Zurück