Cache wichtiger als Kerne und Takt: Ryzen 7 5800X3D schlägt Ryzen 9 5900X

Solche Aussagen sind grundsätzlich unsinnig, da dies immer nur Momentaufnahmen in den letzten Jahren gewesen sind und für die kommenden paar Jahre auch gesichert sein werden. Wenn du nur ein paar Wochen wartest, bist du mit deiner gekauften Hardware immer nur noch im Rückspiegel zu sehen. ;-)
Raptor Lake wird wahrscheinlich Zen3 mit V-Cache hinter sich lassen, Zen4 wird Raptor Lake übertreffen, Meteor Lake wird voraussichtlich Zen4 übertreffen, Gerüchten zufolge könnte schon Ende 2023 dann Zen5 kommen und Arrow Lake wird das Design von Meteor Lake noch konsequenter fortführen und voraussichtlich dann Zen5 auch wieder überbieten ...
Völlig richtig. Und so ein echtes Tech-Race zwischen AMD und Intel mit ständigen Führungswechseln, garniert mit pcgh Forumskommentaren, schau ich mir deutlich lieber an als die Formel 1:-).
 
Ich beziehe mich in dem Post auf Spieleleistung, weil, wie gesagt, Spieleforum. Selbst bei Media Anwendungen würde ich darauf beharren, dass das Werkzeug nicht den Künstler macht, bzw. GPU Beschleunigung und Datenrate wichtiger sind.

Aktuelle Preise:

5600X = 215€
5800X = 340€
5900X = 449€

Dann verweise ich auch die Formulierung "bis zu 15% schneller als der 5900X" was im PCGH Leistungsindex gerne und schnell auf 8% auswäscht.

Überhaupt ist der PCGH Leistungsindex eine deutliche Warnung vor dem 5800X3D

5600X = 97% Leistung, 64% Preis.
5800X = 100% Leistung, 100% Preis
5900X = 105% Leistung, 130% Preis
58003D = bis zu 120% Leistung eines 5800X bei immer noch 130% des Preises.

Sorry, aber der 5800X3D ist ein leerer Hype ohne Mehrwert. Denn sind wir ehrlich, wenn eine 5800X zu schwach ist eine GPU der Zukunft anzutreiben, dann ist das auch eine "bis zu" 20% schnellere Version. Vom 5600X mal ganz zu schweigen.

Es ist auch eine Ironie sollte AMD mit "schneller als ein i9" werben, denn ehrlich gesagt ist auch der i9 nicht so der große Wurf gewesen und für 550€ leistet der im PCGH Index mal gepflegt gar nix gemessen am Preis.

 
Hätte ich bei AMD was zu sagen, würde ich den X370 Support offiziell machen, und offensiv den 5800XD als Upgrade dem Umstieg auf eine neue Intel Platform (CPU+Board+DDR5 RAM) gegenüberstellen.
Wurde er. AMD hat offiziell angekündigt das die 300er Chipsatz Reihe Ryzen5000 Support bekommt. Voraussichtlich im Mai2022 ist mit dem entsprechendem BIOS Update zu rechnen
 
Ich freu mich auf die cpu Stellt diese eine upgrade option in den raum um dann bei blackweell gh106 (rtx 50) in 3nm einzusteigen
Mir stellt sich nur diefrage wie lange die cpu im handel bleibt
Jetzt brauche ich diese nicht zwar wäre es nett die Rtx3060 mal auf 100% load zu bekommen (derzeit etwa 93%)
Aber das lohnt nicht.
Für encoden und co ist sie auch nicht zwingend nötig. Da dies deutlich durch codec Verbesserungen genug fps liefert.
Bliebe nur das haben wollen im Raum
Die alternative in 2 Jahren wäre gebr oder direkt zu ddr5 und neue Plattform was bei 32gb ram sich kaum lohnen wird.
Daher sehe ich den r7 580x3d als option in etwa 2 Jahren an.
Zu der zeit ich dann bei nen nvidia rtx5060 mit 60sm sehe etwas um die 30tf das wäre eine Verdreifachung der Leistung die ich aktuell habe.
Und das für grob berechnete 399€
So gesehen wird 2024/25 ein gutes Wechseljahr. Diese jahr wäre die option möglich aber nicht unbedingt notwendig.
Für alle die noch auf nen ryzen 2000 oder noch bei intels ci7 5th 6th 7th HEDT sind
Lohnt sich der Wechsel
Auch spannend wird threadripper 5000 pro
 
Ich dachte der l3 Cache ist bei den 5000er shared.

Ein 5800x hat 32mb
Ein 5900/5950x hat 64mb cache
Ein 5800x3D hat 96mb

Und trotz doppelten Cache sind die großen nur wenige Prozentpunkte schneller..
Sprich taktbereinigt eigentlich gleich schnell.

Theoretisch müsste man dann doch bereits bei gleichen Takt einen IPC Vorteil bei den größeren Modellen sehen.
 
Ich dachte der l3 Cache ist bei den 5000er shared.

Ein 5800x hat 32mb
Ein 5900/5950x hat 64mb cache
Ein 5800x3D hat 96mb

Und trotz doppelten Cache sind die großen nur wenige Prozentpunkte schneller..
Sprich taktbereinigt eigentlich gleich schnell.

Theoretisch müsste man dann doch bereits bei gleichen Takt einen IPC Vorteil bei den größeren Modellen sehen.

die caches sind über den fabric doch verbunden, deswegen bringt if oc mehr.
 
schon zu den alten pentium zeiten hat mehr cache leistung gebracht.
war beim k6 (oder k5? zu lang her) zu pentium 100/120 schon so, da war der cache noch als ic's aufm board und wenn man eines hatte mit 1024kb cache, statt 256kb, hatte man die nase vorn.
 
Ich beziehe mich in dem Post auf Spieleleistung, weil, wie gesagt, Spieleforum. Selbst bei Media Anwendungen würde ich darauf beharren, dass das Werkzeug nicht den Künstler macht, bzw. GPU Beschleunigung und Datenrate wichtiger sind.

Aktuelle Preise:

5600X = 215€
5800X = 340€
5900X = 449€

Dann verweise ich auch die Formulierung "bis zu 15% schneller als der 5900X" was im PCGH Leistungsindex gerne und schnell auf 8% auswäscht.

Überhaupt ist der PCGH Leistungsindex eine deutliche Warnung vor dem 5800X3D

5600X = 97% Leistung, 64% Preis.
5800X = 100% Leistung, 100% Preis
5900X = 105% Leistung, 130% Preis
58003D = bis zu 120% Leistung eines 5800X bei immer noch 130% des Preises.

(...)
Vorsicht bei der Interpretation von Zahlen. Der PCGH Leistungsindex gibt deshalb so einen praxistauglichen Überblick, weil er als Schnitt aus vielen Spielen berechnet wird.
Den Durchschnittsgamer gibt es so aber nicht, kaum jemand spielt alle Spiele aus dem Index, bei mir sind es selten mehr als 3.
Nun kann man sich natürlich genauer ansehen, wo der jeweilige Prozessor seine Stärken und Schwächen hat und zu dem Ergebnis kommen, das man trotz großem Vorsprung im Leistungsindex keine Spiele hat, die davon profitieren oder umgekehrt erkennen, dass er genau in den Spielen die man hat viel besser ist als im Durchschnitt.
Kurz: Es gibt eine Zielgruppe, die ist nur nie der Max Mustermann der alles und das gleich viel spielt.
Dafür gibt es auch einige, die von den 15% Mehrleistung nur träumen können weil Cache in ihren Spielen verpufft. Informiert ist, wer seine Anforderungen kennt.
 
Ich beziehe mich in dem Post auf Spieleleistung, weil, wie gesagt, Spieleforum. Selbst bei Media Anwendungen würde ich darauf beharren, dass das Werkzeug nicht den Künstler macht, bzw. GPU Beschleunigung und Datenrate wichtiger sind.

Aktuelle Preise:

5600X = 215€
5800X = 340€
5900X = 449€

Dann verweise ich auch die Formulierung "bis zu 15% schneller als der 5900X" was im PCGH Leistungsindex gerne und schnell auf 8% auswäscht.

Überhaupt ist der PCGH Leistungsindex eine deutliche Warnung vor dem 5800X3D

5600X = 97% Leistung, 64% Preis.
5800X = 100% Leistung, 100% Preis
5900X = 105% Leistung, 130% Preis
58003D = bis zu 120% Leistung eines 5800X bei immer noch 130% des Preises.

Sorry, aber der 5800X3D ist ein leerer Hype ohne Mehrwert. Denn sind wir ehrlich, wenn eine 5800X zu schwach ist eine GPU der Zukunft anzutreiben, dann ist das auch eine "bis zu" 20% schnellere Version. Vom 5600X mal ganz zu schweigen.

Es ist auch eine Ironie sollte AMD mit "schneller als ein i9" werben, denn ehrlich gesagt ist auch der i9 nicht so der große Wurf gewesen und für 550€ leistet der im PCGH Index mal gepflegt gar nix gemessen am Preis.


uuuiiihhh.
Aus P/L Sicht kann Deine Aussage stimmen.
Aber bis der 5800X wirklich zu schwach ist für irgend eine "GPU der Zukunft anzutreiben" dürfte eine verdammt lange Zeit vergehen.
 
3700x wird abgelöst?? Auf Zen4 warten wird mir zu Riskant bei den DDR5 Preisen und sicher werden die AM5 Boards auch erstmal nicht günstig sein. Die 20%~ nehm ich gern mit zum 800x, damals beim Intel Monopol haben sich leute über 5% upgrades/neu Anschaffungen gefreut und jetzt wird 20%+ teilweise schlecht geredet.

Komische Welt.
 
Ich beziehe mich in dem Post auf Spieleleistung, weil, wie gesagt, Spieleforum. Selbst bei Media Anwendungen würde ich darauf beharren, dass das Werkzeug nicht den Künstler macht, bzw. GPU Beschleunigung und Datenrate wichtiger sind.

Aktuelle Preise:

5600X = 215€
5800X = 340€
5900X = 449€

Dann verweise ich auch die Formulierung "bis zu 15% schneller als der 5900X" was im PCGH Leistungsindex gerne und schnell auf 8% auswäscht.

Überhaupt ist der PCGH Leistungsindex eine deutliche Warnung vor dem 5800X3D

5600X = 97% Leistung, 64% Preis.
5800X = 100% Leistung, 100% Preis
5900X = 105% Leistung, 130% Preis
58003D = bis zu 120% Leistung eines 5800X bei immer noch 130% des Preises.

Sorry, aber der 5800X3D ist ein leerer Hype ohne Mehrwert. Denn sind wir ehrlich, wenn eine 5800X zu schwach ist eine GPU der Zukunft anzutreiben, dann ist das auch eine "bis zu" 20% schnellere Version. Vom 5600X mal ganz zu schweigen.

Es ist auch eine Ironie sollte AMD mit "schneller als ein i9" werben, denn ehrlich gesagt ist auch der i9 nicht so der große Wurf gewesen und für 550€ leistet der im PCGH Index mal gepflegt gar nix gemessen am Preis.

Ich frage mich wie man zu der Annahme kommt l, dass ein 5800X mit seinen 8 Kernen und einer echt guten Architektur zu schwach wäre für die next Gen GPU's?
Ich habe bis dato einen 5600X mit einer RX 6900 XT sehr häufig verwendet und war sehr zufrieden mit dem Gaming Erlebnis. Habe nun einen 5800X mit B2 stepping für fast denselben Preis bekommen wie 5600X und moderne Games laufen jetzt noch runder und ohne jegliches Micro Ruckeln.
Die RX 6900 XT wird dann mindestens durch eine RX 7800 XT ersetzt, da ich ich endlich natives 4k mit 120fps erreichen will. Und wieso sollte das in Kombi mit einem 5800X nicht einwandfrei funktionieren :)
 
Ich frage mich wie man zu der Annahme kommt l, dass ein 5800X mit seinen 8 Kernen und einer echt guten Architektur zu schwach wäre für die next Gen GPU's?
Ich habe bis dato einen 5600X mit einer RX 6900 XT sehr häufig verwendet und war sehr zufrieden mit dem Gaming Erlebnis. Habe nun einen 5800X mit B2 stepping für fast denselben Preis bekommen wie 5600X und moderne Games laufen jetzt noch runder und ohne jegliches Micro Ruckeln.
Die RX 6900 XT wird dann mindestens durch eine RX 7800 XT ersetzt, da ich ich endlich natives 4k mit 120fps erreichen will. Und wieso sollte das in Kombi mit einem 5800X nicht einwandfrei funktionieren :)
Ja, eben weil äh ist kein Intel und Nvidia System ist, weil dings hier die kosten mehr und das bedeutet = besser,
so genau. :devil::devil:
Lass dir nichts erzählen ein 5800X wird noch lange in 4k sein Werk verrichten können.
Und die 6900 is auch fein, gibt schon Tests bei Hardware Unboxed und co das die sogar noch besser geworden
ist und deutlich besser "gealtert" ist als die gleich kostenden Nvidia Karten.
 
Mag ja sein, nur kann man ja nicht ewig weiter machen mit "die haben auch". Wie soll das denn enden?
Das Update gönne ich dir aber gerne. Das wird sicher spürbar.
Ich selbst hole ihn mir aus Spaß und Interesse. Einfach weil ich mir gern selbst ein Bild machen möchte wie er sich bei mir und meinen Anwendungen gegenüber meinem aktuellen 5800X schlägt. Kommt nichts dabei herum, bekommt meine Tochter dennoch den 5800X als Ersatz für ihren 1700X und freut sich. Nicht, dass ich den Tests unserer Lieblingsredakteure nicht traue, aber mein Systeme ist nicht Clean. Da laufen etliche Programme im Autostart mit. Zwischenzeitlich werden Updates auf die anderen Systeme im Heimnetz verteilt, Speicher verschlüsselt usw. Windows 11 ist keine Neuinstallation, sondern nur über 10 drüber gebügelt. Win 10 war aber ebenso nur über Win 7 gebügelt. Läuft dennoch und ich bin zufrieden. Da waren schon etliche GPUs beider Hersteller drin, ohne jedes Mal DDU drüber laufen zu lassen. Warum? Damit ich nur eine Karte rausziehen und die andere hinein stecken muss und die Treiber schon da sind. Tatsächlich funktioniert das zu fünfundzwanzig Prozent auch reibungslos. Nur selten gab's Probleme. Das Win 7 System wurde damals eigentlich auf Sockel 2011 installiert mit einem T-Power X-79. Zwischendurch war aber zweimal ein Wechsel auf ein rampage extreme dabei. Einmal das normale, einmal das black Edition.

Da sind also extrem viele Datenleichen und Treiber (Reste) unterwegs. Das muss das System folglich bei jedem Systemstart auf die Kette bekommen. Allein schon die verschiedenen Chipsätze und Soundtreiber...

Jetzt fragt ihr euch sicher warum der Cleriker so nen Mist baut und ich kann euch beruhigen... Dafür gibt es drei gute Gründe.

1. Ich hab keine Lust alles neu einzurichten und es läuft ja alles.
2. Machbarkeit. Ich finde es extrem spannend was sich diesbezüglich seitens Windows getan hat. Meine Ubuntu Geschichte auf dem Notebook ist da viel empfindlicher wenn ich Treiber installiere die es nicht braucht oder mag. Respekt an dieser Stelle nach Redmond.
3. Erfahrung. Das ist der wichtigste Punkt. Wie soll ich denn verstehen wo es bei anderen hakt, wenn ich selbst das nicht nachvollziehen kann. Ich brauche ja Erfahrung mit mindestens einem solchen System um halbwegs realitätsnah anderen helfen zu können, welche nicht gerade sonderlich affin sind. Einfach immer allen ein neu aufsetzen des Systems zu empfehlen ist mir zu doof. Zumal es ja eindeutig auch anders geht.
(4.) Ich hab ja noch einige andere Systeme hier und die werden regelmäßig neu aufgesetzt. Also ganz so fies bin ich nicht. Nur das eine System, das muss für alle Experimente herhalten. :nicken:
 
Ob ich das bemerken würde in 2160p und höchsten Settings die Mehrleistung oder muss ich doch wieder auf die 720p bei 43Zoll wechseln ?
Ganz einfach: In Anno/C:S/TW/etc. ja.
In FarCry/CP/etc. nicht.

Natürlich ist das zu stark vereinfacht, denn man hat ja ein Optionsmenü. Aber prinzipiell gilt, je nach Spiel fällt die Antwort anders aus (no shit Sherlock!)
 
Zuletzt bearbeitet:
Hmm mehr Cache liefert erstmal mehr Speicher, der am schnellsten zugänglich ist für die CPU (erstmal unabhängig vom Level).

Grundsätzlich ist das Problem beim effizienten Programmieren das sogenannte "Cache lining", also RAM-Daten so in den Cache laden, dass die für den aktuellen Berechnungsschritt erforderlichen Daten seriell im Cache vorliegen und erneutes Laden aus dem RAM nicht erforderlich ist. Das spart enorm viel Zeit bei großen Arrays, die evtl. nur einmal geladen werden müssten und führt letztendlich zu einer effizienteren Auslastung der CPU, ist aber schwierig wirklich immer zu realisieren, je nachdem wie die Arrays und Berechnungsschritte aufgebaut sind.

Angesichts dessen vermute ich, dass sich der 3D-Cache bei gering optimierten Spielen am stärksten auswirken wird, da so weniger RAM-Zugriffe erforderlich wären, unabhängig davon, ob jeder Datenblock seriell im Cache vorliegt.
 
Zuletzt bearbeitet:
Mich interessieren auch besonders die Temperaturen und der Verbrauch.
Wenn der 5800X3D bei 4,5Ghz kühl bleibt und schneller ist (vorallem als mein jetziger 5950X ohne Boost), würde ich vielleicht nicht nein sagen.

5950X Rant
Aktuell muss ich nämlich bei meinem 5950X den Boost ausschalten, weil der sonst andauernd, auch bei leichten Workloads oder gar surfen/idle, mit vollen 1,5V boostet und dabei 80-90°C warm wird (mit 280mm AIO) und >80W verbraucht.
Singlecore ist dann dieser biszu 50% wärmer als beim 100% Allcore Load!!!
Das ganze auch genauso im ECO-Mode!!!! (Eco-Mode ist übrigends nur ein ~80W Powerlimit, er boostet weiter mit 1,5V)

Ohne Boost mit 4,2Ghz und 1,1V manuellen Takt verbraucht mein 5950X nur HALB soviel Strom und wird auch nur halb so warm.
Dafür muss ich lediglich 10-15% Singlecore Leistung einbüßen....eben jenen Boost bis 5Ghz...
Allcore bleibt alles wie mit Boost, weil der Boost beim Allcore auch bis 1.1V runtergeht mit nur 3,8Ghz sogar.

Tl;dr Der Boost-Algorhytmus bei meinem 5950X ist broken. Und nein es gibt KEINEN Fix. Spannungs-Offset oder Powermanagment verschieben das Problem nur in die eine oder andere Richtung, lösen es aber nicht.

Für mich ist es halt wichtig bei den Komponenten KEINE Brechstange zu nutzen und diese effizient laufen zu lassen.

P.S. Verdammt ich sollte mich darüber doch nicht wieder aufregen...
 
Zurück