Dying Light 2 im Technik-Test mit GPU- und CPU-Benchmarks: Raytracing mit Next-Gen-Anforderungen

In Sachen Effizienz zeigt sich Intel von seiner besten Seite. Die RKL-CPU Core i5-11400F ist an ungewohnt hoher Stelle, der Sechskerner setzt sich zusammen mit seinem kleinen Bruder Core i5-10400F gekonnt vor AMD.

Haha, gekonnt den AMD Sechskerner Ryzen 5 5600X (in der Betrachtung) weggelassen, der das Feld bzgl. Effizienz von hinten aufgerollt hätte.

Die Takt/TDP-reduzierten "Sweetspot-Modelle" laufen immer effizienter als die schnellen High-TDP-Modelle. Für einen ersthaften und fairen/neutralen Vergleich muss der 5600X berücksichtig werden bevor man voreilige Pauschalbewertugen abgibt.
 
Zuletzt bearbeitet von einem Moderator:
Heute Mittag noch mit Patch 1.04 gedaddelt.
Vorhin mal wieder das Spiel angeworfen.
Knapp 300mb wurden als Patch geladen.

Es kommt mir so vor als hätte sich das Bild verbessert. Es ist irgendwie ruhiger und die Texturen gefühlt schärfer.
Die FPS sind auf jeden Fall mal niedriger.

Hab leider keine Screenshots zum Vergleich.

Ist das nur Einbildung oder kommt das noch jemandem so vor was das Bild betrifft ?
 
Ja nur warum nicht einfachen einen simplen Regler für den Texturcatch damit man einfach einstellen kann wie viel belegt werden soll. Allein über das LOD kann man doch schon so viel Regeln, erst recht bei den modernen APIs DX12 und Vulkan.
Solche Dinge hätte ich aber lieber im Treiberpaneel als im Game. (ala NV)
Kann man ja mal bei AMD auf die Wunschliste für kommende Treiber setzen.(als 6500-Käufer)

Wie ist denn eigentlich bei NV-Texture-LOD der Stand bezgl. cheating und bannen ?
Eigentlich müsste doch wg. der heutigen kleinen Grakas das "Bannen" nochmal überdacht, bzw. die Grenzen
dafür etwas anders festgelegt werden in Game XYZ.
 
Zuletzt bearbeitet:
Solche Dinge hätte ich aber lieber im Treiberpaneel als im Game. (ala NV)
Kann man ja bei AMD mal auf die Wunschliste für kommende Treiber setzen.(als 6500-Käufer)

Wie ist denn eigentlich bei NV-Texture-LOD der Stand bezgl. cheating und bannen ?
Eigentlich müsste doch wg. der heutigen kleinen Grakas das "Bannen" nochmal überdacht, bzw. die Grenzen
dafür etwas anders festgelegt werden in Game XYZ.
Vertust du dich da gerade? Wo im Treiber neu Nvidia kann ich denn mehr einstellen als die GameEngine hergibt?
Weniger weiß ich, aber mehr? Wo die 3080 noch hier neben mir im PC werkelt gab's das jedenfalls nicht. Mehr als das Spiel nativ mit max settings ausgegeben hat kam da nicht. Vielleicht habe ich mich auch schlicht zu dumm angestellt, aber daran hege ich doch Zweifel.
 
Ich meinte weniger. (wg der 6500, die auch sowas bräuchte)

Für mehr LOD muss man leider immer auf Game-Mods warten. (z.Bsp. CP2077@cinematic; geht Das noch?)
(manchmal steckts schon im Game drin und muss nur freigeschaltet werden im Startparameter)
 

Anhänge

  • Startparameter.JPG
    Startparameter.JPG
    21,2 KB · Aufrufe: 10
Zuletzt bearbeitet:
Dann hast du Gurdis post aber nicht richtig gelesen. Er schrieb, dass er für Karten mit genug Speicher einen Regler möchte, Der mehr erlaubt. Du antwortest dass es das bei Nvidia in Treiber gibt und AMD das auch mal machen könnte. Nun gut. Fehler passieren. Wichtig ist doch, wir sind uns einig. Noch wichtiger ist nur eines und zwar... dass ich mich nicht zu dumm angestellt habe. Kurz dachte ich wirklich, dass ich deppert war. Noch mal Schwein gehabt. :ugly:
 
Hallo zusammen.

Mittlerweile habe ich ca. 35h im Spiel versenkt. Das einzige womit ich nicht glücklich geworden bin, war die Unschärfe (vermutlich durch das interne Anti-Aliasing bedingt). Selbst in nativer WQHD Auflösung ohne DLSS ist es mir persönlich zu "verschwommen". Mit DLSS auf Qualtität wird es noch schlimmer. Da ich aber mit Raytracing (GI, AO und Sonnenschatten) bei ca. 60 fps bleiben möchte, komme ich nicht an DLSS vorbei. Und selbst das interne Nachschärfen bringt nur bedingt Abhilfe (eher neue Probleme).

Also habe ich etwas mit DLDSR im Nvidia-Treibermenü gespielt. Habe dort den Faktor 1.78 ausgewählt (diese Option gibt es erst seit dem vorletzten Treiber) und die Glättung auf 0 gesetzt. Diese "krumme" Auflösung habe ich im Spiel eingestellt. Dazu das spielinterne DLSS (Qualität) drüber gebügelt (doppeltes Deep Learning:devil:). Die Grafiksettings auf max. bis auf:
Kontaktschatten => hoch
Bewegunsunschärfe => aus
Reflektionen => hoch (kein RT)
Raytracing Taschenlampe => aus
Schärferegler => 45
Filmgrain => aus

Damit bleibt meine 3090 FE meistens bei den 60 fps bei einem wesentlich knackigeren Bild inkl. einiger RT-Optionen

Gibt viel zu testen in diesen Tagen...hat noch jemand Erfahrung damit?
 
Vielen Dank für den Test.

@PCGH_Dave ... Eine Sache verstehe ich jedoch nicht. Im Text steht folgendes:
"Das Spiel scheint zudem sehr stark auf die Singlecore-Leistung zu reagieren, da sich ein Core i5-11400F um fast 30 Prozent von einem Core i5-10400F absetzt und das, obwohl die Rocket-Lake-CPU unter Last 400 MHz niedriger taktet."

In den Benchmarks findet sich jedoch nur eine 4%ige differenz zwischen 10400f und 11400f. Was stimmt denn nun?
 
Du hast völlig recht. Ich habe den Wert des 10400F nachgeprüft und noch einmal neu eingemessen, da lief irgendwas schief. Den Text überarbeite ich gerade, geht gleich online :daumen:

Neue CPUs werden keine mehr dazu kommen, andere Dinge und die baldige Abgabe haben eine höhere Priorität. Da das Spiel aber angeblich fünf Jahre Support erhalten soll, schließen wir Nachtests natürlich nicht aus.
 
Solche Dinge hätte ich aber lieber im Treiberpaneel als im Game. (ala NV)
Kann man ja mal bei AMD auf die Wunschliste für kommende Treiber setzen.(als 6500-Käufer)

Wie ist denn eigentlich bei NV-Texture-LOD der Stand bezgl. cheating und bannen ?
Eigentlich müsste doch wg. der heutigen kleinen Grakas das "Bannen" nochmal überdacht, bzw. die Grenzen
dafür etwas anders festgelegt werden in Game XYZ.
Bei den LowLevel Apis steuert der Treiber nicht mehr den Vram Bedarf primär. Er kann regulierend eingreifen auf gewisser Ebene, was der NV Treiber auch sehr gerne macht bei so Borderlinern wie CP2077 oder WatchDogs, aber die grundsätzliche Zuweisung übernimmt die API von der Engine.

Entsprechend ist eine Treiberlösung ausgeschlossen, das muss schon der Entwickler definieren.

Die kleinen Speicherkrüppel soll man ja auch nicht abhängen, aber flexiblere Einstellungen auf dem PC sind kein Hexenwerk. Dann stellt man eben mit ner 6500XT niedrig ein, mit ner 3070 mittel und ner 6900/3090 Ultra und dann ist doch der Sache genüge getan.

Dieses beschissene Sponsoring der ganzen Titel von beiden Seiten ist nur noch peinlich und wird mehr und mehr zu einer negativen Entwicklung die unnötig polarisiert.
 
Ich könnte mir vorstellen, das einige Gameengines noch net SAM/rBar auf dem Zettel hatten.
(im worst case fehlen dann halt ein paar MB Vram, wo ein TextureLOD=97% schon helfen würde)
 
Es kommt mir so vor als hätte sich das Bild verbessert. Es ist irgendwie ruhiger und die Texturen gefühlt schärfer.
Die FPS sind auf jeden Fall mal niedriger.

Hab leider keine Screenshots zum Vergleich.

Ist das nur Einbildung oder kommt das noch jemandem so vor was das Bild betrifft ?
Witzig, dass du danach fragst. Ich dachte auch erst, dass ich mir das einbilde oder so. DLSS scheint tatsächlich qualitativ besser geworden zu sein. Hab jetzt leider fps nicht vergleichen können, aber scheint auch dahingehend mMn nicht niedriger zu sein.

Um deine Frage zu beantworten: Ja, mir kommt es auch vor, als wäre die Bildquali besser.
 
Ich könnte mir vorstellen, das einige Gameengines noch net SAM/rBar auf dem Zettel hatten.
(im worst case fehlen dann halt ein paar MB Vram, wo ein TextureLOD=97% schon helfen würde)

SAM betrifft ja eher das streaming aus dem Hauptspeicher mit Bezug VRAM, also Zusammenspiel CPU + GPU.
Mit der Texturmenge hat das meines Wissens nach nichts zu tun.
 
Wenn in dem Fall 256MB Vram dafür extra reserviert werden, dann fehlt das u.U. woanders.
Und wenn ein altes Game net damit rechnet, wird u.U. mit DX11 schon zu viel verlangt.
Uups, keine 4GB Vram praktisch nutzbar.
 
Zuletzt bearbeitet:
Naja gut 4GB sind auch einfach nicht mehr Zeitgemäß, das ist einfach nur ne Frechheit was AMD da rausgebracht hat mit der 6500
 
Solange die 3050 sooo wahnsinnig überteuert ist, gibts aber kaum Alternativen.
gebrauchten Schrott, der net nochmal 5 Jahre hält, mal außen vor

net Jeder kann mal so easy 150...200€ draufpacken
 
Zurück