[PCGH Community-Benchmark] Hogwarts Legacy

Das ist das einzige (mir bekannte) Spiel, wo der X3D nicht alles an die Wand knallt. Wüsste gerne, woran das liegt. Zumal Darkearth ja nicht nur den dicken Cache auf seiner Seite hat, sondern auch wiesenflinken Speicher. Dennoch kommt er kaum von meinem 5950X weg. Anscheinend skaliert das Spiel bisschen mit mehr als 8 Kernen. Oder SMT bremst. Oder etwas anderes.

MfG
Raff
Nimm einfach mal den Takt..
Setz nen intel mit hohem Core Clock dran, dazu (beim 13k) den etwas größeren Cache und du weißt was die Unreal Engine macht.

War schon immer so, UE4 = shice auf AMD HW

Sieht man auch gut an der "Auslastung" der Kerne.
Einzelne werden gut beackert, während der Rest schläft.

Da hilft es halt, wenn ein Intel mit 5.5 oder 6GHz taktet und 8000er Speicher (oder 4400 mit DDR4) die Daten schnell bereit stellen kann.

AMD und UE werden keine Freunde ;)
(werde das Savegame von Dave aber noch mal gegen testen, nur für den Fall der Fälle und auch ein Quertest mit Windows 10)

Ach, übrigens, Screenshot vom Speicher OC vergessen oben.
1676670772358.png

So, dann hier nun der Nachtrag:

Mit dem "Davegame" und den Unterschieden zwischen Win 10 und 11
1676703581923.png

1676703666542.png
1676703710107.png

Gab übrigens heute morgen auch noch ein 350MB Update, das ist in beide Messungen aber eingeflossen, also gleiche Spielversion wurde genutzt.
 
Zuletzt bearbeitet:
Nur mal so für die Wissenschaft, ich lasse gerade RTX 3090 und 12900K durchlaufen, wie kann das hier sein? So ein krasser Ausreißer nach oben?

Edit: War der Tageszeitenwechsel! :-]

1676708092573.png


12900K@5.1GHz, E-Cores off, DDR5-6600 + opt Subtimings, RTX 3090, 1080p, DLSS Performance, Ultra Preset, Raytracing Ultra, rBAR on via NvProfileInspector
1676708605431.png


12900K@5.1GHz, E-Cores off, DDR5-6600 + opt Subtimings, RTX 3090, 1080p, DLSS Performance, Ultra Preset, Raytracing Ultra, rBAR off (default)
1676708829266.png


12900K@5.1GHz, E-Cores off, DDR5-6600 + opt Subtimings, RTX 3090, 1080p, DLSS Performance, Ultra Preset, Raytracing off, rBAR off (default)
1676709286750.png


Hier das Gesamtchart. Man sieht, dass man GPUs mit dem 13900K + schnellem DDR5 testen sollte, sonst bremst man die Topmodelle aus. @PCGH_Raff Ich habe mit Hardware Unboxed geschimpft deswegen, also auch mit dir. Besser die CPU wechseln für die GPU Tests. ^^
1676709631169.png
 
Zuletzt bearbeitet von einem Moderator:
Hier noch eine Session mit 12900K@stock und DDR5-4400. Die Werte sind ein paar Prozent höher als Daves Werte, weil die optimierten Subtimings greifen. Ungefähr 8% sind plausibel. @blautemple was meinst du?

1676711328963.png
 
Eat this Kitten Lake!

R9 7950X, 100MHz Offset + Curve Optimizer, DDR5-6000 + opt Subtimings, RX 7900 XTX@3GHz, 1080p, FSR Performance, Ultra Preset, Raytracing off, rBAR on (default)
1676742188146.png
 
Zurück