Watch Dogs 2 PC: Technik-Test mit ersten Grafikkarten-Benchmarks

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Watch Dogs 2 PC: Technik-Test mit ersten Grafikkarten-Benchmarks

Die PC-Version von Watch Dogs 2 erscheint am 29. November, zwei Wochen nach dem Konsolen-Release. PC Games Hardware konnte sich vorab mit der Technik des Open-World-Spiels von Ubisoft beschäftigen und liefert erste Benchmarks - aktuell noch ohne Radeons, weil hier noch der nötige Treiber fehlt. Hat sich die Wartezeit auf die PC-Umsetzung gelohnt?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Watch Dogs 2 PC: Technik-Test mit ersten Grafikkarten-Benchmarks
 
Ich lese dann wieder in den Kaufberatungen - "Für Full HD reicht eine 1060 locker!" :D

Tut sie auch, nur nicht auf höchsten Einstellungen und in der 6GB Variante. Wer denkt, dass er für 250€ eine Grafikkarte bekommt, die 60Fps bei alle Reglern nach rechts liefern kann, dem ist nicht mehr zu helfen :D Die Zeiten sind leider vorbei

Eine RX 480 macht eine FuryX mit dem aktuellen Treiber nieder? Interessant :D
 
Wie die GTX 1080 nichtmal in 1440p die 60 FPS schafft...

Aber gut, der Titel ist halt sehr fordernd. Mal sehen, wie die Vergleiche zu Konsolen ausfallen. Die PC Grafik dürfte bei den Anforderungen schon ordentlich aufgewertet sein.

Wenn das so weiter geht, brauch ich nächstes Jahr für meine 2560x1080 tatsächlich noch eine neue GPU. Das ist schon ziemlich irre. Hätte ich nen 4K Monitor würde ich jetzt kotzen. Da sind mit ner GTX1080 wohl low Details angesagt, um an den 60 FPS zu kratzen. :ugly:

Aber was solls, ich hab Division schon nur mit "Hohen" Details gespielt, um in jeder Situation die 60 FPS zu halten und werde es hier wohl zu Gunsten von 60 FPS auch tun. Ganz ehrlich, bei den aktuellen Unterschieden zwischen den Detailstufen habe ich da nicht das Gefühl, grafisch was zu verpassen. Das war in älteren Titeln noch ganz, ganz anders. Wichtig ist nur, dass die performance ordentlich nach oben Skaliert, nicht so wie in Dishonored 2...
 
Eine RX 480 macht eine FuryX mit dem aktuellen Treiber nieder? Interessant :D

Allerdings nur in FHD, darüber relativiert es sich wieder. Dennoch bemerkenswert.

Man könnte nämlich meinen, dass das am VRAM liegt, da auch die 980 Ti merklich hinter der 1070 liegt. Der Abstand zwischen 1070 und 980 Ti schrumpft allerdings ebenfalls mit steigender Pixelmenge. Die einzige Erklärung, die mir dann noch einfiele, wäre die, dass das Streaming bei VRAM-Mangel in höheren Auflösungen automatisch die Details merklich runterdreht. Die Ergebnisse wären in den höheren Auflösungen dann nicht vergleichbar.
 
Wie die GTX 1080 nichtmal in 1440p die 60 FPS schafft...

Aber gut, der Titel ist halt sehr fordernd. Mal sehen, wie die Vergleiche zu Konsolen ausfallen. Die PC Grafik dürfte bei den Anforderungen schon ordentlich aufgewertet sein.

Wenn das so weiter geht, brauch ich nächstes Jahr für meine 2560x1080 tatsächlich noch eine neue GPU. Das ist schon ziemlich irre. Hätte ich nen 4K Monitor würde ich jetzt kotzen. Da sind mit ner GTX1080 wohl low Details angesagt, um an den 60 FPS zu kratzen. :ugly:

Aber was solls, ich hab Division schon nur mit "Hohen" Details gespielt, um in jeder Situation die 60 FPS zu halten und werde es hier wohl zu Gunsten von 60 FPS auch tun. Ganz ehrlich, bei den aktuellen Unterschieden zwischen den Detailstufen habe ich da nicht das Gefühl, grafisch was zu verpassen. Das war in älteren Titeln noch ganz, ganz anders. Wichtig ist nur, dass die performance ordentlich nach oben Skaliert, nicht so wie in Dishonored 2...

Naja, solange die Frametimes gut sind, wie z.b in Deus Ex ist es egal, da es extrem smooth läuf auch mit 50 fps! Dishonored 2 ist hingegen grüze, selbst mit 60 fps, da müssen schon 80 o 90 her dann wirds zauberhaft. Mein Preload is ready, i am glad to play this game tomorrow !
 
Naja, solange die Frametimes gut sind, wie z.b in Deus Ex ist es egal, da es extrem smooth läuf auch mit 50 fps! Dishonored 2 ist hingegen grüze, selbst mit 60 fps, da müssen schon 80 o 90 her dann wirds zauberhaft. Mein Preload is ready, freue mich !

50 FPS flüssig? Das erfordert einen G-Sync Monitor. Hat aktuell nicht jeder zur Hand. Und alle 1-2 Jahre will ich meinen Monitor jetzt auch nicht wechseln... :ugly: Meiner is halt auch noch nicht so alt...

Ich warte jetzt erstmal auf HDR und OLED. Dann gibts nen neuen incl. G-Sync.
 
Ich weiß warum ich noch nicht auf den 4K gaming al the way hipster train so schnell aufspringen werde. SLI wird wahrscheinlich auch wieder nicht an Bord sein.:schief:
 
50 FPS flüssig? Das erfordert einen G-Sync Monitor. Hat aktuell nicht jeder zur Hand. Und alle 1-2 Jahre will ich meinen Monitor jetzt auch nicht wechseln... :ugly: Meiner is halt auch noch nicht so alt...

Ich warte jetzt erstmal auf HDR und OLED. Dann gibts nen neuen incl. G-Sync.

Ok, ich nenne ein G-Sync Monitor mein Eigen, ich muss sagen, die besten 680€ die ich seit Jahren investiert habe. Man sollte auch beachten, das die Games oft richtig gut performen wenn man die Deatils mal von "Ultra oder Sehr Hoch", auf "Hoch" stellt. Dabei kaum Verlust hast bei der Optik. Es kommt bestimmt ein Patch oder die Perfomance wird deutlich besser auf niedrigeren Stufen bei kaum Quali Verlust bei der Optik.
 
Der Benchmark wird leider durch das HD-Pack ziemlich entwertet.
Alle älteren Karten, bis auf Grenada und GM200, werden so nicht auf ihre Leistung, sondern ihr Speichermanagment hin getestet.
Ein zweigleißiges Verfahren für <6GB Karten wäre wünschenwert gewesen.
 
Wird es auch Frametime Messungen geben :)?
Bestimmt & wie PCGH typisch wird eine Kernskalierung sicherlich auch noch folgen. Eine FuryX ist ja total abgeschlagen, aber vermutlich wird sich da per Treiber noch was bessern können, auch wenn je nach Settings die 4GB VRAM halt schon ein Bremsklotz sind und dies ist ja kein Einzelfall.^^
Ich geh doch mal stark davon aus, dass eine 1080er für 1440p, mit 2GHz GPU und 10,8GHz VRAM und das auch noch in Kombination mit GSync, ein schönes & flüssiges Empfinden jederzeit gewährleisten wird ...:D

Übrigens danke für die ersten Eindrücke ...:-)
 
Der Benchmark wird leider durch das HD-Pack ziemlich entwertet.
Alle älteren Karten, bis auf Grenada und GM200, werden so nicht auf ihre Leistung, sondern ihr Speichermanagment hin getestet.
Ein zweigleißiges Verfahren für <6GB Karten wäre wünschenwert gewesen.

Auf irgend ein Setting muss man sich ja einstellen. In der Regel werden halt die maximalen Einstellungen verwerdent. Was nützt es nun, nur weil einige Karte vermeintlich nicht genug Vram haben eine zweite Testreihe zu machen?
 
Zurück