Special Dragon's Dogma 2 im Ersteindruck: Vom tollen Rollenspiel, gewaltigem Aufruhr und gieriger Performance

Ach, wir sind doch alle hier abgehärtet, oder? Ich sage nur Cyberpunk 2077/The Last of Us usw. :-D
Am PC ist man doch inzwischen das alles gewohnt, findet ihr nicht? Leider.

Das komische bei mir ist, das Cyberpunk 2077 und The Last of Us bei mir besser liefen zum Releas als DD2 und dazu noch eine besser Grafik haben, selbst Horizon: Forbidden West läuft und sieht besser bei mir aus als DD2, aber dass ist wohl Ansichtssache :-)
 
...und dann reicht mein 5700x nicht mehr aus. Ist doch lachhaft der hat 16 kerne. So anspruchsvoll sieht das ja auch nicht aus. Einfach schlecht optimiert. Viel spass mit dem playstation Matsch.
 
Bei der (PC) Performance fand Capcom es auch noch gut RT (immerh Global Illum.) bei den Konsolen (auser XSS versteht sich) standart mäßig zu aktivieren.
Wer hat das denn bitte schön vor dem Release getestet? Das erinnert mich unerige an Jedi Survivor. Gefühlt läuft, seit dem die alte Konsolen Gen endlich Mal (fast) raus ist, Spiel so verdammt oft absolut besch*Eiden das es nicht mehr Heilig ist. Praktisch jedes Game, was zum Glück ja bisher nur eine Handvoll betrifft, welches auf den Konsolen mit 30 FPS max daherkommt, läuft am PC auch wie Grütze. Das letze Batman, Redfall, Starfield und jetzt DD2. Das kann doch nur Absicht sein, im Sinne der zufriedenstellung von Aktionären. Vor allem selbst max Out sieht das Game ja maximal nett aus. Ich dachte ja, aus 2023 hätten einige was gelernt, aber nee. Vor allem ist das Spiel super, aber sowas kann für den Ruf auch absoluter Must sein und das hat DD2 (inhaltlich) eigentlich nicht verdient.
 
Nicht nur mies mit dem einen Charakter und deren scheiß mikrotransaktionen, auch noch mies umgesetzt auf PC...

aber wundert mich nicht bei einem möchtegern Tripple A Game. Wir leben eben in einer zeit mit Miesen unfertigen schlechten Games. Perlen sind nur noch die absolute ausnahme.
...und dann reicht mein 5700x nicht mehr aus. Ist doch lachhaft der hat 16 kerne. So anspruchsvoll sieht das ja auch nicht aus. Einfach schlecht optimiert. Viel spass mit dem playstation Matsch.
Nein... ein 5700x hat 8 Kerne auf einem CCD.

Das Game ist nicht nur mies produziert, sondern auch mies umgesetzt, Stichwort ein Charakter und MT.
 
Hab gerade die CPU-Ergebnisse auf X gepostet. Die Leute achten nur noch auf den RAM, bzw. die unrealistischen JEDEC Settings. Gibt kein anderes Thema mehr. Ihr solltet das allmählich überdenken. Gerade DDR5-4400 für den 12900K ist schon brutal langsam. So betreibt das keiner.

@PCGH_Raff, @PCGH_Dave
 
Ich war Anfangs mit der Performance ja zufrieden. Nicht gut und natürlich nicht gut optimiert aber dank der Hardware lief es. Angefangen mit 120fps im Limit. Dann in den ersten Wäldern 80-90. Das erste Mal in Vermouth angekommen gingen die Frames das erste Mal auf unter 60 aber lagen noch bei 55-58.

Ich bin jetzt 20 Std. drin und es wird leider immer schlimmer. Irgendwas passt da nicht. In Vermouth mittlerweile 25fps maximal mal 33 und selbst außerhalb der Städte sehe ich selten mal stabile 60fps. Es scheinen mittlerweile in der Welt mehr NPCs unterwegs zu sein als Anfangs, evtl. liegt es daran. Aber es wird immer schlimmer.

Dabei liegt dann die CPU Auslastung bei 1% und die 4090 schläft bei 35%. Keine Ahnung was da falsch läuft. Game macht aber trotzdem Bock.
 
Ist das DLSS denn kein bröseliger Matsch mehr? Ich warte noch auf ein paar Patches und einen Sale und dann schau ich es mir auch mal an.
 
In diesem Benchmark mit maximaler Qualität versammeln wir ausschließlich Grafikkarten, die auch dazu in der Lage sind ...

Radeon 6700 XT und 7600 XT sind also in der Lage Raytracing darzustellen, die Intel Arc A770 aber nicht? :hmm:

... dabei ist diese sogar im Rasterizing speziell bei den P1s vor den beiden Radeons.
 
Wer i9 hat brauch sich null sorgen machen.
Wer eine halbwegs aktuelle CPU hat und OC RAM auch ;).
Schau dir mal den Abstand vom 14600 zum 12900k an.
Und das ist nur ddr5 5600 zu 4400 jeweils mit gammel Timings.
Selbst mein noch zusätzlich tdp kastrierter 13400f reicht mehr als locker in Kombination mit meinem DDR5 6200 CL30 plus optimierte sekundäre und subtimings.
 
Danke super Artikel.
Es fällt wieder einmal auf das die Entwicklung nicht genug Zeit hatte zum optimieren. Man verlässt sich wieder auf dlss oder fsr. Der Fakt das framegen nicht integriert ist und noch kommt, verweist darauf. Mach braucht diese ganzen Features heutzutage unbedingt da es sonst nicht gut läuft.
Ich hab einen 14700k auf 5700mhz oc und eine 4090. Ohne framegen (Mod) und dlss komme ich, in großen Städten unter 60fps. Das kann eigentlich nicht sein. Optimierung fehlt noch.... Ärgerlich!
 
Wer mit so alten Gurken versucht, moderne Spiele flüssig zu spielen, sollte sich aber langsam berechtigterweise fragen, warum man nicht endlich mal aufrüstet? Ich meine, es muss kein i9-14900KS sein. Es gibt gute und schnelle CPUs im Bereich von 200-300 Euro. CPU-Leistung war noch nie so günstig wie heute. Aber in den Steam-Foren/Rezensionen meckern, ist halt leichter :ka:
Dazu kommt noch, der 7700k ist auch nur ein 6700k gewesen.
Ich meine das ist 9 Jahre her. Da darf man schon mal aufrüsten wenn man die neusten Spiele mit höheren Ansprüchen spielen will.

Mein 6700k mit DDR4 3600 cl16 hat sich auf der anderen Seite sehr lange ausreichend geschlagen. Gerade wenn nicht alles Ultra sein muss.
76W long duration powerlimit, verbraucht nicht mehr als mein Ryzen 5 5600, ist aber viel schneller in Dragons Dogma.
Gute 50%. Bei den Min FPS ging es von 30 auf 60 hoch.

Ja, dort habe ich nur 55 Min FPS. Mit dem 5600 wäre es glaube ich unspielbar gewesen.
Kann ich so nur bestätigen.
Mein 13400f @50W ist mit dem DDR5 6200 cl30 (optimierte sekundäre/subtimings Timings) rockt... Den hohen Verbrauch bei pcgh in den Messungen kann ich nicht nachvollziehen. Meiner lag immer eher so auf dem Niveau wie bei igor's Test.

Auch Intel kann mit entsprechenden RAM konkurrenzfähig beim Verbrauch sein. Dafür darf der Kerntakt nur nicht zu hoch sein.

Dafür ist das aber leider auch nicht ab Werk so.
Das Streaming gehört zu den vielen Punkten, die nicht gut funktionieren. Handwerklich ist da vieles im Argen. Hässliche Texturen alle paar Meter, schlimme Abstriche beim LOD (nicht nur NPCs, sondern auch Texturen in hoher Entfernung), Dithering noch und nöcher, eckige Geometrie, fehlende Schatten bei Lichtquellen. Einiges davon ist "Optimierung", anderes ging wohl nicht besser. Wenn man direkt daneben Horizon Forbidden West hat und abwechselnd spielt, ist es wirklich verblüffend, wie geil und flüssig Horizon läuft. Outcast 2, das dritte und technisch wieder völlig andere große Spiel dieses Monats, liegt irgendwo dazwischen.

... und trotzdem ist Dragon's Dogma 2 ein tolles Spiel (und hat grafisch definitiv viele bildhübsche Momente), das vermutlich jeden hier irgendwie fasziniert und fesselt. :-)

MfG
Raff
Gibt es spürbare Unterschiede im streaming, mit beispielsweise einer 7900xtx und einer rtx 4000 mit 16GB? Ist euch dazu etwas aufgefallen?
 
Zuletzt bearbeitet:
Ich war Anfangs mit der Performance ja zufrieden. Nicht gut und natürlich nicht gut optimiert aber dank der Hardware lief es. Angefangen mit 120fps im Limit. Dann in den ersten Wäldern 80-90. Das erste Mal in Vermouth angekommen gingen die Frames das erste Mal auf unter 60 aber lagen noch bei 55-58.

Ich bin jetzt 20 Std. drin und es wird leider immer schlimmer. Irgendwas passt da nicht. In Vermouth mittlerweile 25fps maximal mal 33 und selbst außerhalb der Städte sehe ich selten mal stabile 60fps. Es scheinen mittlerweile in der Welt mehr NPCs unterwegs zu sein als Anfangs, evtl. liegt es daran. Aber es wird immer schlimmer.

Dabei liegt dann die CPU Auslastung bei 1% und die 4090 schläft bei 35%. Keine Ahnung was da falsch läuft. Game macht aber trotzdem Bock.
joa ist mir auch schon aufgefallen, anfangs 70-80fps um die Hauptstadt, seit einiger Zeit eiert das um 45-50 in der City rum, kurze drops in mittleren 30 Bereich und zieht sich komplett mit raus auch vor die Hauptstadt Umgebung 45-50ish fps. Ähnliche Spielzeit. vllt weil da ständig diese unnötigen Vasallen aus den Rifts umherstreifen, die keiner braucht und keinen Mehrwert geben. Bring die mittlerweile immer um wenn die Zielstrebig auf mich zulaufen um mich wieder nervig anzuquatschen.
Ich pausiere das jetzt erstmal, so macht mir das keinen Spaß mehr, sollen die ihre Rohkost erstmal fertig machen, da zock ich lieber das saubere Horizon Forbidden West.

Kleiner Tipp vllt. in Nvidia Controll Panel unter global den shader chache auf unlimitiert und nach Spielstart den Taskmanager und die Prio von dem Game auf Hoch, bringt ein bisschen was an Performance.
 
Mein 13400f @50W ist mit dem DDR5 6200 cl30 (optimierte sekundäre/subtimings Timings) rockt... Den hohen Verbrauch bei pcgh in den Messungen kann ich nicht nachvollziehen. Meiner lag immer eher so auf dem Niveau wie bei igor's Test.
Hast du denn mit den gleichen Messmethoden, die wir nutzen, gegengeprüft? Und auch mit derselben Last? Allein schon, weil du deine CPU mit PL betreibst, sollte es doch logisch sein, dass die Zahlen abweichen?
 
Durchschnittliches Spiel mit sehr schlechter Technik-Umsetzung. Kann man gut finden, muss man aber nicht.
Es gibt Spiele die wesentlich besser aussehen, aber weniger Rechner-Leistung fordern.
 
Zurück