News AMD Ryzen 9 7950X3D: Der vergriffene Gimpfelstürmer profitiert auch von schnellem DDR5-Speicher

Ich finde den Titel passend ;)
PS: Sven Bauduin schreibt nun für PCGH? Was hab ich verpasst? Finde ich auch cool, habe bei CB immer nur mitgelesen, meist seine Beiträge. :)
Ich hoffe nur das die CB Community nicht mitkommt, die ist mir stellenweise zu toxisch.......

AMD macht bei CPU's alles richtig, vor allem weil Leistung immer mehr zum Verbrauch passt, wenn sie das jetzt bei GPU's auch wiederholen, dann wird mein nächstens System wohl eines wo nur noch AMD drin steckt.
 
Über 17% mehr Leistung durch besseren Speicher ist mal eine Ansage.

Stellt euch einfach mal vor, warum man keine Intel mit DDR4 neu kaufen sollte, nur um die letzten 100 Euro am Mainboard und Speicher zu sparen.
Das geht nunmal aufs ganze System und ist am Ende je nach Spiel wohl auch teurer erkauft als man denkt.
Vor allem jetzt würde ich sogar Aufrüstern raten, lieber den alten DDR4 Speicher zu verkaufen oder andersweitig einzusetzen, vor allem, wenn dieser wie üblich eher nur 3200 oder 3600er Geschwindigkeit hat.
Man muss ja mal gegenrechnen, was einige Leute bereit sind an Geld auszugeben, um bei Grafik auch nur 3% mehr Leistung bei Custom OC Designs herauszukitzeln, oder bei einer Ti oder Super Karte an Aufpreis für dann 10% gezahlt wird/wurde. Und bei Prozessoren ebenso, was da alleine in den Foren gestritten wird wegen fast vernachlässigbaren Unterschieden im einstelligen Bereich.
Wenn man aber durch absichtlich langsamen Speicher gefühlt den Leistungsunterschied der IPC meinetwegen zwischen Alder Lake zu Raptor Lake fast egalisiert oder genau die 10% Leistungsdifferenz zwischen dem 13600K und dem 13900K verschenkt, dann sollte man da ruhig mal drüber nachdenken dürfen, wo man am Ende bei den Gesamtkosten an den erreichten Frameraten herauskommt.
Ich finde, man sollte alten Speicher erst einmal lieber immer nur als Notlösung ansehen, nicht als sinnvolle Kostenersparnis und Schnäppchenmöglichkeit.
Schließlich muss man auch sehen,d ass der langsame Speicher irgendwann auf jeden Fall zum Bremsklotz wird, weild as System ja altert. Und wenn die CPU imemr mehr gefordert wird, geht das auch gleichzeitig mehr auf den Speicher.
Und wer z.B. von Alder Lake noch auf Raptor Lake mit vielleicht einer dann auch insgesamt besseren und teureren CPU aufgerüstet hat (weil man will ja noch einmal ausreizen was geht) und da noch immer Gammelspeicher drin hat, der wird das sehr wohl zu spüren bekommen, wenn eine dann auch neu gekaufte Grafikkarte wie z.B. eine 4090 die CPU und das restliche System aber so richtig fordert.
 
"Auch das dürfte seinen Teil zu der schlechten Liefersituation der mit 128 MiByte L2-Cache bestückten CPU beitragen."
Sind es nicht 128 L3 statt L2 Cache?
 
nicht erst seit heute, schade dass es nicht mehr Leute merken
Das "merken" ist nicht das Problem, sondern das die Leute sich mit einer Marke identifizieren und teilweise gefühlt wie Kreuzzüge im Mittelalter anmuten. Diese werden auch dementsprechend so verteidigt und Fakten durch einseitiges cherrypicking ignoriert. Dies hat in den letzten Jahren stark zugenommen und wird immer schlimmer.
JBO drückt das mit ihren Lied "Verteidiger des Blödsinns" hervorragend aus.
 
ich warte auf die Verfügbarkeit dieser CPU, um mir einen neuen PC zusammenzustellen.
Unter 5000€ komme ich nicht weg, es ist abartig, was man heutzutage für einen Top PC zahlen muss.
 
Edit:
Ist der Leistungszugewinn des CCDs mit 3D Cache eher vom Takt oder von den Timings abhängig?
 
Zuletzt bearbeitet von einem Moderator:
ich warte auf die Verfügbarkeit dieser CPU, um mir einen neuen PC zusammenzustellen.
Unter 5000€ komme ich nicht weg, es ist abartig, was man heutzutage für einen Top PC zahlen muss.
Teurer ja aber nicht abartig. Für 5K bekommst du heute nicht ein Top PC sondern ein Highend System, mit 24 Cores, Wasserkühlung SSD u.s.w., was früher nicht anders war nur mit dem Unterschied das aktuell die Grafikkarten extrem verteuert haben und Zeitgleich die CPU und Rampreise im vergleich gesenkt haben.
Klar ist die RTX 4090 extrem teuer, sie liefert aber auch 60% mehr Leistung als eine 4080 und hat keine direkte Konkurrenz . Früher hat man dafür ein SLI gebraucht oder hat gleich zu einer Titan gegriffen die kaum günstiger waren und die Performance so deutlich verbessert haben.
Auch darf man nicht ausser acht lassen das eine aktuelle Highend CPU mit 24 Kernen deutlich unter 1000 € zu haben sind und 2018 z.b. eine Top CPU mit 18 Kernen noch mindestens 2000.€ gekostet hat wenn man einen Core i9-9980XE Extreme Edition gekauft hat der damals der Top Prozessor war.

Ich habe weder damals so viel Geld ausgegeben noch würde ich das heute machen, wobei man heute zugeben muss das die Highend Teile doch deutlich mehr Leistung ausmachen als damals das beste was es gab.
Highend hat damals gekostete und kostet Heute immer noch, verschoben haben sich nur die kosten genauso wie die Leistung!
Ironischerweise sieht man das ganz gut bei den PCGH- Ratgeber-PCs.
 
Gibt es noch andere Benchmarks bzw ein Querschnitt derer? CP2077 zeigt zwar erstaunliche Zuwächse, aber ist dies Ausnahme oder Regel?

Das ist (vermutlich) eher die Ausnahme. @PCGH_Dave hat jedenfalls bislang nichts vergleichbares festgestellt und umgekehrt kann man Cyberpunk 2077 (genau wie Witcher 3) auf extreme Speicherlast trimmen. Ich habe für meine Mainboard-Tests zum Beispiel ein CPU- und GPU-schonendes Preset, da die Platine eben nur bei Streaming und RAM eine Rolle spielen kann. Damit messe ich auf Sockel-1700-DDR5-Platinen 27 Prozent bessere Frametimes als bei -DDR4-Modellen. Das ist wohlgemerkt @Intel-Spec, also nur DDR5-4400 gegen DDR4-3200 (38 Prozent mehr RAM-Takt) und trotz deutlich besserer Timings für das DDR4-System. (Ich glaube 18-20-20 zu 38-38-38, müsste aber nochmal nachgucken ob der verwendete DDR4-3600-RAM @DDR4-3200 nicht noch schärfere Werte fährt.)

Ich verstehe das Interesse, aber ich wollte jedoch einen eigenen Artikel mit diesen Infos und weiteren Benchmarks bringen alsbald.

Dann müssen wir die Eigenwerbung wohl erstmal als solche hinnehmen und abwarten, bis es Fakten gibt. Wenn 15 Prozent mehr RAM-Takt zu 22 Prozent mehr Fps führen sollen (CCD1-Messungen), müssen da jedenfalls noch einige andere Faktoren im Spiel sein und man kann aus den reinen DDR-Angaben erstmal überhaupt nichts ableiten.


Edit: Wie viele Hardware-Begriffe haben wir hier eigentlich als Usernamen? Wahrscheinlich kann ich nicht mal "@irgendwas" schreiben, ohne das automatisch jemand getaggt wird!
 
Zuletzt bearbeitet:
Gibt es noch andere Benchmarks bzw ein Querschnitt derer? CP2077 zeigt zwar erstaunliche Zuwächse, aber ist dies Ausnahme oder Regel?
Die gibt es schon seit fast einem Monat:

Ich habe CP 77 da mit Absicht nicht in den RAM-Benchmarks drin, weil es überproportional mit Speicher skaliert und damit eine Erwartung an andere Benchmarks schafft, die nicht erfüllt wird. Im Schnitt mit 11 Spielen (wo CP 77 dann auch enthalten ist, allerdings mit normierten Werten) sind es am Ende drei Prozent Mehrleistung von DDR5-5200 zu DDR5-6000. Deswegen habe ich da kein weiteres Fass aufgemacht.
 
Klar ist die RTX 4090 extrem teuer, sie liefert aber auch 60% mehr Leistung als eine 4080 und hat keine direkte Konkurrenz . Früher hat man dafür ein SLI gebraucht oder hat gleich zu einer Titan gegriffen die kaum günstiger waren und die Performance so deutlich verbessert haben.
Hmm also ich hab in der Verganenheit viel SLI gehabt...
GTX 295 = 500€
2x 8800GT = 500€
GTX9800GX2 520€
GTX 280m SLI (das ganze Notebook hat 1600€ gekostet)
2x GTX 460 = 500€
GTX 580M SLI (das ganze Notebook hat 2100€ gekostet)
2x GTX 970 = 700€
2x RX Vega 56 = 600€
2x GTX 1080 = 1000€ (das war mein letztes SLI System)



Mittlerweile kaufe ich einzelne Karten die wesentlich weniger Leisten als zwei und einen deutlich höheren Wertverlust haben! Stellenweise den Wertverlust eines ganzen SLI Systems aus der Vergangenheit... :schief:
Karten für Ü1000€ lohnen sich kein bisschen... 1x gemacht, knapp unter 1000€ lass ich mir noch gefallen aber das wars echt.

Die günstigste 4090 kostet aktuell 1739€ gemäß Geizhals und verlangt noch nach Versandkosten... !

Also "die kaum günstiger waren" trifft bei weitem nicht zu!
 
Hmm also ich hab in der Verganenheit viel SLI gehabt...
GTX 295 = 500€
2x 8800GT = 500€
GTX9800GX2 520€
GTX 280m SLI (das ganze Notebook hat 1600€ gekostet)
2x GTX 460 = 500€
GTX 580M SLI (das ganze Notebook hat 2100€ gekostet)
2x GTX 970 = 700€
2x RX Vega 56 = 600€
2x GTX 1080 = 1000€ (das war mein letztes SLI System)



Mittlerweile kaufe ich einzelne Karten die wesentlich weniger Leisten als zwei und einen deutlich höheren Wertverlust haben! Stellenweise den Wertverlust eines ganzen SLI Systems aus der Vergangenheit... :schief:
Karten für Ü1000€ lohnen sich kein bisschen... 1x gemacht, knapp unter 1000€ lass ich mir noch gefallen aber das wars echt.

Die günstigste 4090 kostet aktuell 1739€ gemäß Geizhals und verlangt noch nach Versandkosten... !

Also "die kaum günstiger waren" trifft bei weitem nicht zu!
Bei meiner Argumentation ging es um den Preis von 5000€ die aktuell für Highend gelten und nicht für einen Top PC wie er behauptet hat. Du hast eben auch nur die Mittelklasse gehabt und bist nicht bei den Ti oder Titan Karten eingestiegen die in ganz anderen Preisregionen liegen und auch immer überteuert waren.
Nvidia hat diesmal etwas ganz anders und vermutlich auch falsches gemacht, indem sie zuerst die größte Karte auf dem Markt geworfen haben und dann erst die schwächeren.
Die Karten ab 4080 oder 7900XTX und drunter sind im vergleich zu der Generation davor absolut überteuert, aber eine 4090 die in den Fußstapfen einer Titan läuft, ist da eher auf einen "Normalen preis".
Schau dir an was eine RTX 2080 gekostet hat und eine Titan RTX, da läuft es einen eiskalt über den Rücken.
 
Zurück