Watch Dogs Legion im vorläufigen Techniktest: Die bisher beste Raytracing-Implementierung

ist mit dem Patch denn ernsthaft mit so einem massivem Performanceschub zu rechnen?

Habe im übrigen gesehen dass Geforce eben einen neuen Treiber herausgebracht hat
 
Kommen nach dem Patch noch Benchmarks mit ner 2060S oder 2070? Und wie sieht es mit Nischen-CPU's wie dem 3600 aus? ;)

Nur reine Neugierde. Nicht das ich auch nur eine Sekunde drüber nachdenken würde dieses stinklangweilig aussehnde generische Fließbandspiel zu kaufen.
Ich würde mich ja freuen, wenn die 2060 wieder aufgenommen wird. Ist ja immerhin die günstigste Einsteiger Raytracing Karte und auch die Beliebteste RTX Karte auf Steam. Auf Ultra wirds da mit dem VRAM natürlich knapp, aber Hoch mit RTX medium sollte ohne Probleme möglich sein und mehr braucht der Durchschnitts PC Gamer auch nicht. Generell würde ich mir mal mehr Tests mit der Mittelklasse und den entsprechenden Einstellungen wünschen. Die Detailskalierung ist da schon der richtige Ansatz, aber halt neben einer High End GPU wie der 3070 sollte noch eine 2060 oder niedriger kommen. Und noch dazu eine Detailskalierung mit optimiertem Raytracing (Beispielsweise Ultra, High, Very High, Medium, Low mit jeweils Raytracing medium.)

Gut finde ich aber, dass Raytracing Mittel getestet wird, das wird später noch eine große Relevanz haben.
 
Zuletzt bearbeitet:
Wir benchen dann natürlich eine ganze Menge Karten.

Der Punkt ist, dass wenn der Performance-Patch eintrifft, alle bisherigen Benchmarks nichtig sind (jedenfalls, wenn der Patch was bringt). Wir haben daher bislang nur eine Auswahl GPUs und CPUs gebencht, das müssen wir dann ja alles neu machen - da vorher 3 Tage in Benchmarks zu investieren, nur um einen Tag später wieder 3 Tage Arbeit da reinstecken zu müssen, ist einfach nicht sonderlich effizient ;)

Wir testen dann natürlich auch etwas schwächere und ältere Grafikkarten. :)
Ich bin mal gespannt. Prinzipiell müsste das ja auch mit einer RX 570 oder GTX 1060 recht ordentlich laufen, die Karten entsprechen schließlich ungefähr der Leistung der noch aktuellen Konsolen PS4 Pro und Xbox One X. Eigentlich müsste es sogar mit noch deutlich schwächerer Hardware halbwegs laufen, denn das sind ja schon die aufgemotzten Varianten.

Mal schauen. Generell werden die aktuellen Cross-Gen-Spiele wohl ganz interessant werden. Letztes Mal gab's da ja auch so ein paar kleine Auffälligkeiten...

Gruß,
Phil
 
Wow Ubi zeigt mal wieder, das sies nicht drauf haben, mit Ressourcen umzugehen.
Ist das die selbe Engine, wie Division? Division war noch richtig gut!
 
Wow Ubi zeigt mal wieder, das sies nicht drauf haben, mit Ressourcen umzugehen.
Ist das die selbe Engine, wie Division? Division war noch richtig gut!

Nein, The Division nutzt die Snowdrop-Engine die von Massive entwickelt wurde, Watch Dogs nutzt Disrupt.
Die war bisher auch immer sehr anspruchsvoll (und speicherhungrig, das war bei Watch Dogs 1 damals sogar eine relativ große Sache - das war übrigens auch ein Cross-Gen-Titel)

Gruß,
Phil
 
Mich würde mal interessieren weshalb die GPU limitiert obwohl deutlich unter ~97% Auslastung und der VRAM auch nicht voll ist, wie man bei den Ergebnissen von @blautemple auch gut sieht.
Entweder Ubisoft hat es so hart verkackt, dass sie 20% Leistung liegen lassen oder es ist eine Treiber Geschichte die mit dem neuen Treiber von Heute behoben wurde.
 
Mich würde mal interessieren weshalb die GPU limitiert obwohl deutlich unter ~97% Auslastung und der VRAM auch nicht voll ist, wie man bei den Ergebnissen von @blautemple auch gut sieht.
Entweder Ubisoft hat es so hart verkackt, dass sie 20% Leistung liegen lassen oder es ist eine Treiber Geschichte die mit dem neuen Treiber von Heute behoben wurde.
Ich hab nen 6700k und eine 3080 und ich spiel auf 3440x1440. Mit Ultra Settings und Raytracing ohne DLSS hab ich 40-45 Average FPS bei 97-98% GPU Load. Wenn ich DLSS Qualität dazu schalte sind es 45-50 Average FPS und 70% GPU Load und bei DLSS Balanced ändert sich an den FPS nix und die GPU Load sinkt auf 65%. Die CPU limitiert heftigst, weiß aber nicht obs am Spiel oder der alten CPU liegt.
Btw selbst mit Raytracing auf Ultra (ohne DLSS) kratzt das Game gerade so an den 8 GB VRAM Allocation bei mir, also ist da noch ordentlich puffer.
 
Ich hab nen 6700k und eine 3080 und ich spiel auf 3440x1440. Mit Ultra Settings und Raytracing ohne DLSS hab ich 40-45 Average FPS bei 97-98% GPU Load. Wenn ich DLSS Qualität dazu schalte sind es 45-50 Average FPS und 70% GPU Load und bei DLSS Balanced ändert sich an den FPS nix und die GPU Load sinkt auf 65%. Die CPU limitiert heftigst, weiß aber nicht obs am Spiel oder der alten CPU liegt.
Btw selbst mit Raytracing auf Ultra (ohne DLSS) kratzt das Game gerade so an den 8 GB VRAM Allocation bei mir, also ist da noch ordentlich puffer.

Schau dir mal das Video von Raff an. Da hat er ohne DLSS auch nur um die 80% Auslastung, ungefähr genauso mit DLSS.
Da sagt er auch explizit, dass der Unterbau 78 FPS schafft, sprich er war weit vom CPU Limit entfernt.
 
Ich präsentiere Watch Dogs Legion in Full HD inkl DLSS Ultra Performance ( das bedeutet es wird in 633x356p gerendert) Ultra Preset inkl. Ultra RTX mit der schnellsten Gaming Hardware die es gibt: https://www.capframex.com/sessioncollections/ef0210c8-549c-4252-81c5-04de178d5ee5

Und nein das ist noch nicht mal die maximale Einstellung. Das ist nur das Ultra Preset :D
Sag mal ... was ist denn da passiert, bei dem Spiel ?

In 1080p mit Ultra Performance DLSS soll das doch total "shice" schlecht aussehen ?
Wieso läuft das denn so dermaßen mies ?

Schaut mal die Werte an:

1.jpg


Ich seh' da jetzt gar nicht auf den ersten Blick, was überhaupt limitiert.

- Temps sind spitzenmäßig, bei GPU/CPU.

- Ram/Vram kein Problem. Da geht noch einiges.

- CPU Load ? Witzlos.

- GPU Load ? 75% ? ? ? Langweilt sich ja.

- zu viel Saft vielleicht ? Nope. 112W CPU, 258W(!) GPU. Da geht noch so einiges.

- GPU Takt zu gering ? Nope. Average 2GHz(spitze!).

Und was is das Ergebnis, von sich langweilender Spitzen-Hardware ?

90fps average bei 68 fps P1 ?


Hm ... :hmm:


Irgendwas kapier ich hier nich.

Mag es sein, dass in dem ganzen Einstellungswust da die ein, oder andere Option versteckt is, welche die Performance mal eben zerstört, "no matter what" ?



edit:

btw: Vielen Dank für die Werte, @blautemple ! :daumen:
Du hattest doch, wenn ich mich recht entsinne, in den Community Benchmarks eins der schnellsten Systeme überhaupt, die auf diesem Planeten herumwuseln !?

edit2: Zur Erklärung: Hab die Sigs aus und seh da nix, falls da was stehen sollte. :D
Sry. ;)
Aber ich glaub, ich erinnere mich an Top-Werte im KCD Community Benchmark.

Also das sind Werte, wo 99% der User hier wohl nie hinkommen werden. Nur mal so zur Erklärung, was ich meine.
 
Zuletzt bearbeitet:
Also ich habe in wqhd so um die 60 fps mit einer Vega 56.
Einstellungen sind natürlich etwas reduziert(hoch). Kann mich da trotzdem nicht beschweren für ein ubisoft Spiel :D
 
Das sollte ein CPU Limit sein, aber was die Engine da genau veranstaltet kann ich auch nicht sagen. Die GPU skaliert auch fast gar nicht mit geringeren Auflösungen.
Welches Setting genau die CPU so killt habe ich mir noch nicht angeschaut. Ich habe mir das Spiel auch nur mal kurz angeschaut weil es bei der 3090 dabei war. Richtig spielen werde ich es wohl nicht.

Ich will mir gar nicht ausmalen wie das mit „normaler“ Hardware läuft. Eik stark optimierter 10900K mit ner 3090 ist ja jetzt nicht gerade der Durchschnitts PC und selbst damit habe ich massive Probleme vernünftige fps Raten zu erreichen. Da muss Ubisoft definitiv noch mal ran...
 
Das sollte ein CPU Limit sein, aber was die Engine da genau veranstaltet kann ich auch nicht sagen. Die GPU skaliert auch fast gar nicht mit geringeren Auflösungen.
Welches Setting genau die CPU so killt habe ich mir noch nicht angeschaut. Ich habe mir das Spiel auch nur mal kurz angeschaut weil es bei der 3090 dabei war. Richtig spielen werde ich es wohl nicht.

Ich will mir gar nicht ausmalen wie das mit „normaler“ Hardware läuft. Eik stark optimierter 10900K mit ner 3090 ist ja jetzt nicht gerade der Durchschnitts PC und selbst damit habe ich massive Probleme vernünftige fps Raten zu erreichen. Da muss Ubisoft definitiv noch mal ran...

Sicher dass es überhaupt ein CPU Limit ist? Bei Raff war es auch kein CPU Limit trotz nur 80% GPU Load.
 
Danke für den Test.

Jetzt wundert es mich auch nicht warum das Game auf den Next Gen Konsolen "nur" mit dynamischen 4k, Raytracing und 30fps laufen soll. Kaum 60 Bilder bei sehr hohen Einstellungen zu holen.
Vermutlich zieht irgendeine Einstellung, wie bei den letzten Ubi- Games (volumetrische Wolken sei genannt) dann 20-30% der Framerate in den Keller.
CPU Auslastung ist auch wieder höher als bei ähnlichen Titeln.

Dass 8GB Vram schon zu knapp werden war jetzt echt kein Wunder. PS5/Serie X können zumindest um die 10GB nutzen.

Werde erst mal Patch abwarten und auf PC es dann über Uplay+ Abo antesten.
 
Mich würde mal interessieren weshalb die GPU limitiert obwohl deutlich unter ~97% Auslastung und der VRAM auch nicht voll ist, wie man bei den Ergebnissen von @blautemple auch gut sieht.
Entweder Ubisoft hat es so hart verkackt, dass sie 20% Leistung liegen lassen oder es ist eine Treiber Geschichte die mit dem neuen Treiber von Heute behoben wurde.
Das ist normal bei der 90er,die Shader werden nicht ausgelastet.Im grunde ist auch die Angabe 97% ein Fabelwert. Wenn die Shader richtig rattern auf dem Teil und auch die Bandbreite glüht merkst du das an anderen Sachen viel deutlicher als an dem gefuddelten Auslastungswert.
 
Das ist normal bei der 90er,die Shader werden nicht ausgelastet.Im grunde ist auch die Angabe 97% ein Fabelwert. Wenn die Shader richtig rattern auf dem Teil und auch die Bandbreite glüht merkst du das an anderen Sachen viel deutlicher als an dem gefuddelten Auslastungswert.

Naja, war aber eine 3070 bei Raff im Video.
Zumindest habe ich so etwas bisher sonst nicht gesehen.
Ich habe ehrlich gesagt auch noch nie davon gehört, dass es eine wirkliche Grenze gibt bis zu welcher Games mit Shadern skalieren.
Dass die 3090 die Rohleistung nicht auf die Straße bringt ist zwar klar, aber auch bei der Nutzung von Int32 sollte doch die GPU voll ausgelastet sein und auch so ausgelesen werden?
 
Zurück