AMD Ryzen 7 5800X3D vs. Intel Core i9-12900KS: Wann der L3-Cache hilft - und wann nicht

Wie Alder Lake trotz Nachbrenner beim Microsoft Flight Simulator auf Granit beißt, obwohl der 5800X3D nur mit DDR4-3200 durch die Luft gleitet. Was wäre mit DDR4-3800 beim Cache-Monster noch drin? 5 bis 8%?
 
Wie Alder Lake trotz Nachbrenner beim Microsoft Flight Simulator auf Granit beißt, obwohl der 5800X3D nur mit DDR4-3200 durch die Luft gleitet. Was wäre mit DDR4-3800 beim Cache-Monster noch drin? 5 bis 8%?
Äh bringt gar nichts wurde schon getestet.
2% sind es und das ist schon Messtoleranz, großer Cache gleicht den Ramtakt aus.
Deswegen ist es praktisch egal wie schnell der Ram ist.
 
Bei Kingdom Come: Deliverance waren es bereits 3,5% die der 5800X3D zulegen konnte mit DDR4-3800 gegenüber DDR4-3200, ohne optimierte Timings wohlgemerkt. Falls der MFS besser skaliert wären 5% durchaus in Reichweite.
 
Bei Kingdom Come: Deliverance waren es bereits 3,5% die der 5800X3D zulegen konnte mit DDR4-3800 gegenüber DDR4-3200, ohne optimierte Timings wohlgemerkt. Falls der MFS besser skaliert wären 5% durchaus in Reichweite.
Dreht sich die Diskussion tatsächlich um messtolerante <=10% Zuwächse?

Bei 50 plus irgendwas könnte man ja vielleicht anfangen, aber so?

Das Ganze zeigt mir nur die Sackgasse, in die das Marketing die Hardwarebranche als Ganzes getrieben hat: marginale Ver(schlimm)besserungen als himmlische Erlösung zu preisen.

Und das dann noch garniert mit bis zu 420 Watt Leistungsaufnahme.

Grotesk.
 
Es geht um "manuelles Tuning" und was man damit noch herausholen kann. Ich persönlich optimiere ohnehin in die konträre Richtung -> Perfomance pro Watt.

Mein "Sommerrechner" - u. a. wegen der Hitze/Wärmeentwicklung - ist ein Ryzen-System auf Cezanne-Basis (Ryzen 5 5500) mit einer RX 6600. Exzellenter Idle- & Teillast-Stromverbrauch und auch unter Last noch ein sehr gutes Leistung pro Watt-Verhältnis:

Gesamtsystemverbrauch
Leerlauf: <11 Watt
Youtube-Playback: 20-28 Watt (je nach Auflösung)
3DMark TimeSpy: ~90 Watt (bei -15% GPU-Perfomance) / Stock = 150 Watt

Mein Raum heizt sich durch den Rechner kaum auf und die Leistung liegt auf RTX 2060-Niveau, also 15% über einer RTX 3050. Bin sehr zufrieden, hatte noch nie so niedrige Temperaturen im Zimmer wo der Rechner steht.
 
Zuletzt bearbeitet von einem Moderator:
Würden Sie lieber in mehr L3-Cache oder in schnelleren Arbeitsspeicher investieren? L3-Cache
Was glauben Sie, ist zukunftsfähiger? AMD
 
Ein Problem, das vielen nicht richtig bewusst zu sein scheint, sehr hohe RAM-Taktraten sorgen nicht nur für ein paar Watt Mehrverbrauch an den Speicherriegel, sondern auch am Prozessor, vor allem am IMC (= integrierter Speichercontroller) und evtl. weiteren Uncore- bzw. Soc-Bereichen. Durch deutlich höhere Spannungen und Bustaktraten an den entsprechenden Bereich der CPU.

Die CPU-Leistungsaufnahme kann durch RAM-OCing unverhältnismäßig stark ansteigen wie die Daten des 12900KS von PCGH_Dave hier im Test beweisen:

  • The Ascent + 17% Performance bei + 31% Leistungsaufnahme
  • Doom Eternal + 5% Performance bei + 17% Leistungsaufnahme
  • F1 2021 + 7% Performance bei + 12% Leistungsaufnahme
  • Total War Troy Saga: Mythos-DLC + 14% Performance bei + 21% Leistungsaufnahme
  • Anno 1800 + 13% Performance bei + 40% Leistungsaufnahme
  • Crysis 3 Remastered + 23% Performance bei + 17% Leistungsaufnahme
  • Kena: Bridge of Spirits + 7% Performance bei + 28% Leistungsaufnahme
  • Cyberpunk 2077 + 16% Performance bei + 20% Leistungsaufnahme
  • The Witcher 3 + 23% Performance bei + 3% Leistungsaufnahme
  • Microsoft Flight Simulator + 20% Performance bei + 11% Leistungsaufnahme

Im Schnitt (von 10 Spielen) legt der 12900KS 14% an Perfomance zu bei im Schnitt 20% höherer CPU-Leistungsaufnahme! Die höhere Leistungsaufnahme der RAM-Riegel, des Mainboards und der Spannungswandler (Netzteil) noch nicht mal berücksichtigt bzw. eingerechnet...

Die sensationell schlechte Effizienz des 12900KS (die sogar unter dem bereits miserablen 11900K liegt), wird durch RAM-OC nochmals schlechter, je nach Spiel sogar drastisch, siehe The Ascent, Anno 1800 oder Kena:BoS.

Jetzt mal Butter bei die Fische: Ich finde es gut und überfällig, dass die Energiepreise hochspringen, Dekadenz und Ignoranz soll in Zukunft kosten und wehtun. Ressourcen sind knapp/endlich und ihre Verfügbarkeit nicht selbstverständlich. Dieses Bewusstsein ist einigen in ihrer Wohlstandsverwahrlosung völlig abhanden gekommen. Und wie (System)Kriege uns jüngst zeigen, auch mit viel Geld kann man sich nicht alles kaufen.

Intel und Nvidia haben ob ihres Marktanteils (ca. 80%) eine gewisse globale Verantwortung und Vorbildfunktion in der Branche, allerdings sorgen beide seit einiger Zeit für einen fatalen Trend, die ungehemmte Anhebung der Leistungsaufnahme auf absurde Höhen, um wenige Prozent vor der Konkurrenz zu bleiben. Das ist bereits eine Kapitulation auf meheren Ebenen für Marktführer.
 
Zuletzt bearbeitet von einem Moderator:
Text lesen! Das ist nicht nur der RAM Takt der da erhöht wurde:
Das Profil mit DDR5-4400 stellt dabei die Einstellung "Ab Werk" vor, während die Konfiguration mit DDR5-6400 (CL34) eine übertaktete Variante darstellt. Letztere verzichtet zudem auf einen TDP-Lock, das bedeutet, dass der 16-Kerner nur noch durch das Mainboard und/oder die Kühlung limitiert werden kann.
Was natürlich jetzt direkt den nächsten Wunsch an @PCGH_Dave auslösen könnte mal nur RAM OC ohne die TDP Grenze zu lockern zu messen.
 
Zuletzt bearbeitet:
Jetzt mal Butter bei die Fische: Ich finde es gut und überfällig, dass die Energiepreise hochspringen, Dekadenz und Ignoranz soll in Zukunft kosten und wehtun. Ressourcen sind knapp/endlich und ihre Verfügbarkeit nicht selbstverständlich. Dieses Bewusstsein ist einigen in ihrer Wohlstandsverwahrlosung völlig abhanden gekommen. Und wie (System)Kriege uns jüngst zeigen, auch mit viel Geld kann man sich nicht alles kaufen.
Sagt der mit dem extra Sommerrechner :ugly:
 
Ich setze seit Jahren auf Intel HEDT und NVIDIA Highend........Mein System idlet zu 90%....maximaler CPU Verbrauch ist für mich das letzte Ausschlusskriterium.
Wenn ich 100 Stunden zocke liegen also 88 Cent (mein aktueller Tagstromtarif) zwischen desaströsem Intel und Stromsparwunder AMD....Ich lach mich schlapp - wie tief muss man im Wald stecken um die Bäume nicht mehr zu erkennen?
In der gleichen Zeit hat mein System ca 1000 Euro an Wert verloren.

Nur mal so als Gedankengank bei dem tollen Effizienzgefasel.
 
Text lesen! Das ist nicht nur der RAM Takt der da erhöht wurde:

Was natürlich jetzt direkt den nächsten Wunsch an @PCGH_Dave auslösen könnte mal nur RAM OC ohne die TDP Grenze zu lockern zu messen.
Ich habe den Text gelesen und ich haben mir sogar Gedanken dazu gemacht.

Wenn die CPU in der angeblichen Stock-Einstellung mit DDR5-4400 auch schon bereits 217 Watt (Total War Troy Saga: Mythos-DLC) zieht bzw. ziehen darf, was schlussfolgert man dann? Nämlich dass er in all den anderen Spielen auch schon nicht TDP-limitiert war.
Sagt der mit dem extra Sommerrechner :ugly:
Wenn man sowieso immer min. 3 Rechner verteilt auf 2 Wohnsitze hat, kein Problem.
Ich habe Hardware so gut wie nie weggeschmießen, oft im Bekanntenkreis weitergegeben wenn ich Komponenten nicht mehr selbst benötige.
 
Zuletzt bearbeitet von einem Moderator:
Wenn die CPU in der angeblichen Stock-Einstellung mit DDR5-4400 auch schon bereits 217 Watt (Total War Troy Saga: Mythos-DLC) zieht bzw. ziehen darf, was schlussfolgert man dann? Nämlich dass er in all den anderen Spielen auch schon nicht TDP-limitiert war.
"Normalbetrieb" beim KS sind wohl PL1=PL2=241W, bzw. Vielleicht ist Tau sogar richtig gesetzt, aber dafür muss die Bench Szene dann erstmal spürbar länger als 56 Sekunden dauern um den Schnitt runter zu bekommen. Was aber halt immer noch ein Limit ist. Ohne das wird er hier im Peak auch die 300W gerissen haben.
 
@PCGH_Dave
Tausend Dank für den Flugsimulatorbench, ihr seid echt spitze!
Ich erreiche mit meinem System etwa 74-78 FPS.
K1600_FlightSimulator_2022_08_04_15_56_54_278.JPG
K1600_FlightSimulator_2022_08_04_15_38_40_572.JPG K1600_FlightSimulator_2022_08_04_15_39_25_587.JPG

Habe aber keinen KS, sondern nur ein K Prozessor und der läuft auf Stock, sowie auch meine RTX 3080 Grafikkarte.
Es handelt sich hierbei um 3440x1440 P. Habe aber nur DDR4 verbaut, keine DDR5.

Laut dem Test sind es um die 74 FPS mit dem 5800x3d. Mit dem KS etwa 59-71 FPS (je nach Konfiguration).

Bester kauf seit langem der 5800x3d
Es ist eine gute Wahl, keine Frage, aber ob man es als besten Kauf ansehen kann, ist wieder eine andere Sache. ;)

Denn ein System sollte nach seinen Bedürfnissen aufgebaut werden und manchmal zählen nicht nur Games dazu. Es kommt auch ganz darauf an, wie ein System bei sich stehend laufen wird. Ich zum Beispiel nutze einen Monitor mit UWQHD und einen UHD Fernseher und daher läuft mein System dann auch mit meinen eigenen Settings und Bedürfnisse.
 
Zuletzt bearbeitet von einem Moderator:
Immer dran denken: es wird wohl eine extrem CPU la(ä)stige Szene gewählt worden sein, + max Settings um die CPU im "worst Case" abzubilden.

Wenn man nun eine andere Szene nimmt kann das wieder komplett anders aussehen (ebenfalls bei den anderen CPUs).

Deswegen ist es ja so toll, wenn man den exakt gleichen Weg, gleichen Laufweg und auch mit gleichen settings nachstellen kann. ;)

Edith:
man man man diese Autokorrekturen von Handys werden auch immer schlimmer..

Mit "CPU lästig" meinte ich tatsächlich die "arbeit" die Dave da reingesteckt hat um eben diesen "worst Case" abbilden zu können
 
Zuletzt bearbeitet:
Immer dran denken: es wird wohl eine extrem CPU lästige Szene gewählt worden sein, + max Dettingen um die CPU im im "wirst Case" abzubilden.
Auch mit Bedenken, dass solche Tests mit 720 P laufen und dadurch auch der Prozessor gemessen wird und die Grafikkarte möglichst gering belastet werden soll.

wenn man nun eine andere Szene nimmt kann das wieder komplett anders aussehen (ebenfalls bei den anderen CPUs)
Habe das Spiel einige Stunden durchgespielt und im Schnitt hatte ich um die 75 FPS.
Natürlich nicht mit 720 P. :D

Deswegen ist es ja so toll, wenn man den exakt gleichen Weg, gleichen Laufweg und auch mit gleichen settings nachstellen kann. ;)
Es geht mir nicht darum, denselben Test nachzustellen, weil meine Screenshots in einem Spielbetrieb entstanden sind, die gar nicht für dieses Thema beabsichtigt waren. Deshalb war mein System auch bezogen meiner Bedürfnisse (Monitor + Grafikkarte) eingestellt und nicht nur mit 720 P.

Das Bild ist auch schon ein paar Tage alt, diesen Test dazu habe ich erst heute gesehen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück