AMD Ryzen 9 7900X im Test: Der Zen-4-Lückenfüller ohne Identität

Preise im Schnitt 100-200€ runter, dazu die Boards im Preis halbieren und man kann über einen Wechsel nachdenken. So ist aber der 5800X3D einfach der Rebell, der alles kaputt macht und die sonstige Mehrleistung gegenüber den normalen Zen3 verpufft idR. eh im GPU-Limit. Ich werde wohl eher eine 4080 16GB nehmen (wenn der Preis stimmt) als meinen Unterbau zu wechseln, in 4K dürfte der olle Zen 2 auch nicht limitieren.
Da hast Du wohl recht. Für Gamer ist die CPU einfach genial, wozu braucht man da Zen4? Ist im schlimmsten Fall ein Downgrade. Naja, Zen4 X3D wurde ja schon in Aussicht gestellt.
 
Das hätte ich vor den Tests zu Zen 4 ehrlich gesagt nicht für möglich gehalten. Wenn wir uns jetzt vorstellen, es würde den X3D nicht geben, dann würde Zen 4 jeder feiern, weil die Mehrleistung zu Zen 3 schon recht hoch ist, obwohl im Fall der Ryzen 9 auch der Verbrauch gestiegen ist.
Definitiv, aber er existiert ja. Bin daher wiederum auf Raptor Lake gespannt und könnt so mein 3600er RAM weiter verwenden zum 13700k. Die z690 Boards reichen mir völlig aus und wenn ich dann für mein Gusto seh, dass ich 8700k auf z170 tausche, sind mir Sockel Langlebigkeit schnurz. Tausch eh so selten, dass das keine Rolle spielt und komplett verkauft wird. Nur meine 3080Ti bräuchte in Anno eben gern ne neue CPU
 
Sehr schöner Test! Eco Modus + Übertaktung wäre mal interessant ?
Ich habe bei meinem 5900x zusätzlich zum Eco Modus (35W TDP, 48W PPT) noch die Curve auf -22 sowie vSoC auf -0,225V und Vcore auf -0,2V gesetzt. PBO +200 und Scalar 10x. Ram auf 3200 CL14, welches erst eine niedrige vSoC zur ermöglicht. Ging auch gut Zeit ins Land ? Die CPU taktet immer noch bis 4.7Ghz pro Kern. Im Spiel und auf dem Desktop ist absolut keine Leistungsminderung zu merken, und die Kiste ist schön sparsam, kühl und vor allem Leise ??
Aber ich denke, die CPUs so auszulotende, würde den Zeitrahmen von David sprengen ?
 
Gerade in Anno lohnt sich viel L3-Cache :-D
Wie kommst du darauf? Die Daten von Igor geben das jedenfalls nicht her:

Anno 1800
720p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +3,8 % Fps

1080p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +3,7 % Fps

1440p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +1,5 % Fps

Darüber hinaus ist das mit dem V-Cache aber auch grundsätzlich ein zweischneidiges Schwert, denn einerseits deutlich teuerer und andererseits vielfach mit überschaubaren Fps-Zugewinnen. Und das mit dem Preis wird bzgl. der neuen Plattform voraussichtlich noch ein deutlich sensitiveres Thema, denn hier wird gleich alles bei der neuen Plattform deutlich teuerer. *)

Cyberpunk 2077
720p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +25,4 % Fps

1080p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +3,7 % Fps

1440p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +0,6 % Fps

Wenn man 720p zur neuen von Enthusiasten präferierten Optimalauflösung kürt, kommt das vielleicht noch alles hin, am Ende werden aber die wenigsten Spieler, die derart viel Geld für solche Hardware und die ganz neue Plattform in die Hand nehmen wohl kaum mit reduzierten Details oder gar mit niedriger Auflösung spielen wollen.

Abwarten wird man auch erst mal müssen, was der V-Cache der zweiten Generation in Verbindung mit Zen4 zu leisten vermag. Während der 5800X3D noch mit niedrigerem Takt auskommen musste **), scheint dies bei Zen4 gemäß vorläufigen Aussagen von AMD nicht mehr (oder zumindest weniger) der Fall zu sein, sodass man vermuten kann, dass der V-Cache hier relativ gesehen etwas mehr bringen wird, jedoch ebenso gesichert auch weiterhin keine Bäume ausreißen wird, wenn man nicht gerade in VGA spielt. ;-)

Im worst case wird der V-Cache AMD erneut nur dazu dienen, dass man eine Nasenlänge vor Intel bleibt (weil dies möglicherweise dem regulären Zen4 nicht gelingen wird). Ob das zutreffen kann, wird sich in wenigen Wochen zeigen, wenn man weiß wie Raptor Lake sich in typischen Consumer-Workloads, insbesondere dem Gaming, platzieren kann.
Erst wenn man die Effizienz wieder in die Betrachtung mit einbezieht wird das Pendel voraussichtlich deutlich zugunsten von AMD ausschlagen, jedoch auch hier wird es im Teillastbereich wie dem Gaming wieder erneut schwieriger für AMD, da die Unterschiede deutlich zurechtschrumpfen werden (wobei sich AMD mit seinen 170/230 W gar eher noch Intel angenähert hat).
Während ich Anfang des Jahres auf Basis des beschänkteren Wissensstandes noch von einer deutlichen Dominanz der kommenden Zen4-Plattform ausging, zeichnete sich gerade in den letzten paar Monaten ab, dass es doch eher wieder ein Kopf-an-Kopf-Rennen werden wird.
Und selbst bei der zukunftsträchtigeren AM5-Plattform macht es AMD einem gerade bzgl. der Feature-Kombinatiosmöglichkeiten zugunsten einer besseren Produktdiversifikation und höheren Margen schwer, denn im worst case bekommt man auf einer günstigeren AM5-Plattform nicht nennenswert mehr geboten als auf bspw. einer AM4-Bestandsplattform. Wenn man auf der noch einen Zen2 oder etwas wie einen 5600X betreibt wäre ein 5800X3D wohl in den meisten Fällen der sinnvollere Upgradepfad und man überspringt die ersten ein, zwei AM5-Generationen besser ob des überschaubaren Mehrwerts im Consumer-Segment und der signifikanten Kosten.


*) Interessant wird auch werden, ob es nun 2-CCD-V-Cache-Modelle geben wird (vermutlich ja, vielleicht nur den 16-Kerner, vielleicht aber auch beide Top-CPUs?), denn die werden aufgrund der doppelten Bestückung gleich nochmals zusätzlich teuerer, aber je mehr Threads/Cores der Käufer ins Auge fasst, desto unwahrscheinlicher ist es, dass er nur (oder überhaupt) Gaming im Sinn hat und da muss man schon nach Workloads suchen, die von dem V-Cache noch sinnvoll profitieren. Solange das Geld im Consumer-Segment eine Rolle spielt wird das ein sehr interessanter Balanceakt von/für AMD werden.

**) Hier würde ich mittlerweile nicht mal mehr gesichert davon ausgehen, dass es tatsächlich fertigungstechnische Gründe gab den 5800X3D taktechnisch so restriktiv zu beschneiden (auch wenn AMD das natürlich behaupten muss(te)). Mindestens ebenso wahrscheinlich erscheint mir mittlerweile, dass man es sich schlicht nicht leisten konnte den 5800X3D mit den gleichen Taktraten wie denen des 5800X rauszubringen, weil dann Zen4 stellenweise nicht mal an dem alten Zen3 vorbeigekommen wäre. ;-)
AMD hat es ja schließlich nicht umsonst gezielt vermieden in seinen zwei größeren "Reveals" zu Zen4 einen Vergleich zu deren aktueller Top-Gaming-CPU zu zeigen, schlicht weil ein derartiger Vergleich wohl eher für Ernüchterung gesorgt hätte.
 
Zuletzt bearbeitet:
Sehr schöner Test! Eco Modus + Übertaktung wäre mal interessant ?
Ich habe bei meinem 5900x zusätzlich zum Eco Modus (35W TDP, 48W PPT) noch die Curve auf -22 sowie vSoC auf -0,225V und Vcore auf -0,2V gesetzt. PBO +200 und Scalar 10x. Ram auf 3200 CL14, welches erst eine niedrige vSoC zur ermöglicht. Ging auch gut Zeit ins Land ? Die CPU taktet immer noch bis 4.7Ghz pro Kern. Im Spiel und auf dem Desktop ist absolut keine Leistungsminderung zu merken, und die Kiste ist schön sparsam, kühl und vor allem Leise ??
Aber ich denke, die CPUs so auszulotende, würde den Zeitrahmen von David sprengen ?
Die 7000er einfach auf ECO stellen reicht eigentlich völlig zu. Hab meinen auch lediglich auf 88W PPT gestellt und alles ist super
 
Wie kommst du darauf? Die Daten von Igor geben das jedenfalls nicht her:

Anno 1800
720p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +3,8 % Fps

1080p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +3,7 % Fps

1440p in Max Settings mit einer 6950XT
5800X vs. 5800X3D +1,5 % Fps
Hast du jemals Anno 1800 gespielt? Das wird im Endgame sogar in UHD zum CPU-Benchmark. Wir haben im CPU-Limit eine Mehrleistung von 34 Prozent gemessen (und +30 Prozent P1-Fps sind auch eine Ansage). Die wird natürlich auch in höheren Auflösungen erreicht. Was juckt mich da Igors Benchmark? Wenn eine schnellere CPU da keinen Vorteil bringt, dann testet er im (partiellen) GPU-Limit. :ka:

1665328437454.png
 
Hast du jemals Anno 1800 gespielt? Das wird im Endgame sogar in UHD zum CPU-Benchmark. Wir haben im CPU-Limit eine Mehrleistung von 34 Prozent gemessen (und +30 Prozent P1-Fps sind auch eine Ansage). Die wird natürlich auch in höheren Auflösungen erreicht. Was juckt mich da Igors Benchmark? Wenn eine schnellere CPU da keinen Vorteil bringt, dann testet er im (partiellen) GPU-Limit. :ka:
Danke für die Klarstellung. Nein, ich spiele heute noch ab und an gerne 1400, 2070 gefiel mir nicht mehr so wirklich und da war erst mal Schluss und mein Zeitkontigent für Gaming ist grundsätzlich begrenzt. ;-)

Aber wo du schon mal in Reichweite bist und diesen Artikel zitierst ... was heißt das "Maximal mögliche Details im CPU-Limit", denn nirgends findet sich dort eine Auflösung erwähnt. Habt ihr das irgendwo mal erklärt, wo ich das nachlesen kann? Denn nur um es noch mal herauszustreichen (vielleicht ist Anno 1800 hier tatsächlich sehr speziell [im Endgame]), aber bspw. bei Cyberpunk 2077 und auch allen anderen "nomalen" Spielen interessieren mich die +X % Mehr-Fps herzlich wenig bei 720p oder gar weniger, schlicht weil ich nicht in dieser Auflösung bzw. mit diesen Grafiksettings spiele und ich mich eigentlich eher in genau die entgegengesetzte Richtung auflösungstechnisch bewege. Entsprechend ist das immer noch eine Sache mit der Verwertbarkeit derart aufbereiteter Daten.
Ich weiß, wir müssen hier keine erneuten Grundsatzdiskussionen zum Thema CPUs in einem Workload anstoßen, der i. d. R. GPU-beschränkt ist, aber dieses ungreifbare "im CPU-Limit" macht es mir tatsächlich sehr schwer mit den Werten was anzufangen, insbesondere da es kein absolutes CPU-Limit in diesem Kontext gibt.
 
Die 7000er einfach auf ECO stellen reicht eigentlich völlig zu. Hab meinen auch lediglich auf 88W PPT gestellt und alles ist super
Das stimmt, allerdings habe ich die Erfahrung bei den 5000ern gemacht, das mit Undervolting, Curve und PBO die CPUs noch höher Takten und im Cinebench Messbar schneller sind, -innerhalb der PPT Vorgabe-. Kann man ja mitnehmen. Verbrauch bleibt ja bei 88W max. ?‍♂️?
 
Das stimmt, allerdings habe ich die Erfahrung bei den 5000ern gemacht, das mit Undervolting, Curve und PBO die CPUs noch höher Takten und im Cinebench Messbar schneller sind, -innerhalb der PPT Vorgabe-. Kann man ja mitnehmen. Verbrauch bleibt ja bei 88W max. ?‍♂️?
Ja, das dann noch dazu ist natürlich dann Perfektion ?
 
Im CPU Test von 3DMark habe ich bei 48W PPT gerade einmal 10% weniger FPS bei durchschnittlich 60% weniger Stromverbrauch. Aber man muss sich ein wenig Zeit nehmen, um den Sweetspot auszuloten. Bei 45W PPT bootet das System mit 2 aktiven CCDs nicht mehr. ?
 
was heißt das "Maximal mögliche Details im CPU-Limit", denn nirgends findet sich dort eine Auflösung erwähnt. Habt ihr das irgendwo mal erklärt, wo ich das nachlesen kann?
Das heißt, dass wir ein CPU-Limit garantieren, mit allen grafischen Details, die das zu testende Spiel zu bieten hat. Wir drehen also die Optionen herunter, die fast ausschließlich die Grafikkarte belasten, dazu gehört auch die Auflösung. Letztere wird daher nicht mehr angegeben, allein schon, um die x-te Diskussion um "in 720p zockt doch niemand" zu verhindern. Die Threads zu allen Zen-4-Tests waren bis jetzt herrlich sauber von dieser Art (unnötigen) Diskussion, was nicht nur die Moderation entlastet. Es bleibt daher beim Kern, im wahrsten Sinne des Wortes: Wir belasten die CPU in einem CPU-Test und anders sollte ein CPU-Vergleich auch nicht ablaufen. Raff testet Grafikkarten schließlich auch im GPU-Limit, teils in UHD, mit vielfachem AA, oder sogar noch höheren Auflösungen. Dazu verwendet er ein ebenso praxisfernes System, welches maximal übertaktet ist und nur die wenigsten so einsetzen (selbst hier im PCGHX-Forum machen das wenige). Da beschwert sich auch niemand, dass das praxisfern wäre.

Wir sind bei Prozessor-Benchmarks natürlich an die maximale GPU-Geschwindigkeit gebunden. Sollte sich damit also partiell ein Limit ergeben, so geben wir das im Fließtext zu den Tests an. Bei Zen 4 war das beispielsweise der Fall.
[...] insbesondere da es kein absolutes CPU-Limit in diesem Kontext gibt.
Richtig, irgendwas limitiert immer, aber wir versuchen, Limits für jene Bauteile auszuschließen, die wir im Test nicht testen wollen.
 
This. Und spätestens wenn der da ist, sind die 5800X3D-Nutzer nicht mehr so fröhlich, wie jetzt. Wir kennen doch das Spiel, was hier im Forum abläuft :ka:
Wer wegen ein paar % rumheult dem ist eh nicht mehr zu helfen. :ugly:

Aber ich denke das wird sehr spannend. Da werden sich Raptor Lake und Zen 4 3D nichts schenken.
Insgesamt gesehen sind das aber alles gute Gaming-CPUs welche sich nur minimal voneinander absetzen.
Eigentlich kann man mit keiner von denen was verkehrt machen.
Und wenn in höheren Auflösungen gespielt wird ist es eh fast egal.
 
Wer wegen ein paar % rumheult dem ist eh nicht mehr zu helfen. :ugly:
Hast du jemals den Kommentar-Thread zu einem CPU-Test bei uns verfolgt? Das ist hier Alltag. :ugly:
Der X3D wird gefeiert, weil er im unteren, einstelligen Prozentbereich mit Zen 4 schritthalten kann. Jetzt stell dir mal vor, Raptor Lake wird auch nur fünf Prozent schneller als Zen 4. Was glaubst du, was dann hier los ist? AMD ist dann unten durch und "kann nicht mal vernünftige CPUs bauen". Dann ist es auch egal, wie schnell der X3D plötzlich ist. Falls Raptor langsamer sein sollte, sind Intel die Doofen. Das wird immer so weitergehen, egal wie positiv oder kritisch ich den Test verfasse. :ka:
Und wenn in höheren Auflösungen gespielt wird ist es eh fast egal.
Richtig. Wir planen schon eine Reihe Spezial-Benchmarks zu diesem Thema, aber die gewöhnlichen Tests haben Vorrang.
 
Mich würde mal interessieren wieviel Cache 1 Kern nutzen kann? Also im Hinblick auf die 3D Cache Modelle, müsste der 7900 doch einen Vorteil gegenüber dem 7700 haben, da doppelter Cache.
 
@schnufflon84 @PCGH_Dave Damals beim Lesen des Anno 1800 Tests fiel als erstes die niedrige Auslastung auf allen Kernen auf, egal wie viele davon mit an Bord sind. Allerdings war die Framerate höher auf High End CPUs. Die Vermutung, Anno mag viel Cache, äußerte ich allerdings nur gegenüber einem Freund.

Den Sinn von 720p Benchmarks zu verstehen ist die eine Sache, allerdings braucht man auch Fans oder ein Team, das ein Minimum an Zeit mitbringt, um die für ein CPU-Limit geeignetsten Stellen im Spiel herauszufinden. Von daher macht PCGH da alles richtig und niemand kommt auf die Idee, ein i5-12400 ist genauso schnell wie ein i9-12900KS, wenn sowieso nur im GPU-Limit getestet wird und in einem Benchmark beide gleich viele FPS "generieren", im Prinzip aber trotz unterschiedlicher Möglichkeiten gleich lange auf das nächste Bild warten müssen. Mit Cherrypicking kann man dann Leute manipulieren, das nicht am besten geeignete Produkt zu kaufen. Es geht um Verbraucherschutz und um die Liebe zur Technik an sich.

In einer idealen Welt sind sich alle Leute sich dieser Umstände bewusst. Zwar ergeben sich dann Momentaufnahmen, die einige wenige Ergebnisse erzielen, aber dem Käufer wird immer noch mehr Arbeit überlassen. Um das zu vermeiden, gibt es eine genau auf diese Umstände abgestimmte Testmethodik. Maximal viele Draw Calls zu erzeugen ohne in ein Grafiklimit zu rennen mit dem Umstand, die CPUs können bei diesen Grafikkarten im Schnitt nicht gut ausgelastet werden, erfordert je nach Spiel eine andere Benchmarkszene und eine jeweils angepasste Auflösung. Spontan 720p war gestern und es war gut, aber ich finde auch gut, wenn man die Testauflösung nicht mehr mit angibt.
 
kann ich mal irgendwann billig bei Ebay einen alten 5900X oder 5800X3D nachkaufen
vorsicht! CPUs werden nie billig. Schau mal in die Bucht was alte CPUs kosten, die nicht mehr produziert werden. Ich wollte für mein Bastelsystem einen 2700k kaufen. Das wird ein teurer Spaß.

in 4K dürfte der olle Zen 2 auch nicht limitieren
so oll ist der gar nicht. Wie viele Spiele bringen dich mit deiner Hardware in ein CPU-Limit? :D

This. Und spätestens wenn der da ist, sind die 5800X3D-Nutzer nicht mehr so fröhlich, wie jetzt. Wir kennen doch das Spiel, was hier im Forum abläuft :ka:
Himmelhoch jauchzend zu Tode betrübt.

Der alte Kreislauf.
 
so oll ist der gar nicht. Wie viele Spiele bringen dich mit deiner Hardware in ein CPU-Limit? :D

In 4K aktuell keines. IN 1440p selten, in 1080p manchmal. Die 4090 prügelt zumindest einen 5950X in Ultra stellenweise ins CPU-Limit, gehe ich davon aus, dass die 4080 16GB ca. 25-30% langsamer sein wird dürfte ich fast eine Punktlandung machen. Jetzt muss ich mich nur noch überreden, warum ich denn die 4080 gebrauchen könnte...;D
 
Hast du jemals den Kommentar-Thread zu einem CPU-Test bei uns verfolgt? Das ist hier Alltag. :ugly:
Der X3D wird gefeiert, weil er im unteren, einstelligen Prozentbereich mit Zen 4 schritthalten kann. Jetzt stell dir mal vor, Raptor Lake wird auch nur fünf Prozent schneller als Zen 4. Was glaubst du, was dann hier los ist? AMD ist dann unten durch und "kann nicht mal vernünftige CPUs bauen". Dann ist es auch egal, wie schnell der X3D plötzlich ist. Falls Raptor langsamer sein sollte, sind Intel die Doofen. Das wird immer so weitergehen, egal wie positiv oder kritisch ich den Test verfasse. :ka:

Richtig. Wir planen schon eine Reihe Spezial-Benchmarks zu diesem Thema, aber die gewöhnlichen Tests haben Vorrang.

Vor allen Dingen merkt man von den paar Prozenten im realen Leben sowieso nichts :-) Da braucht es nur an anderer Stelle ein "Bottleneck" wie langsamer RAM oder eine "ungünstige" Temperatur im Gehäuse und schon "bricht" die Leistung ein.

Die aktuelle Hardware überragt die derzeitigen Standardanforderungen um ein Vielfaches.
Wer mir ernsthaft weismachen will, dass man einen Unterschied zwischen 300 und 500 FPS wahrnehmen kann (auf einem 240 Hz FHD Monitor, lol), der hat - mit Verlaub - nicht mehr alle Latten am Zaun.

Und die Personen, die in nativen 8K zocken, halten sich ebenfalls in Grenzen.
 
Zurück