Destiny 2 PC im Technik-Test mit Benchmarks: Die ultimative Version von Destiny 2 [Benchmark-Ticker]

Leider können mein Kollege und ich die EDZ(im speziellen den Bereich um die Kirche) nicht ohne MASSIVE Stotterer und Ruckler erkunden.
Die FPS sind augenscheinlich völlig in Ordnung, nur das es nach 5-10 Minuten äußerst zäh wird, und der Input Lag und die konstant heftigen Microruckler das spielen unmöglich macht.
Nach einem Neustart des Spiels, fängt das Spielchen von vorne an, aber nur in diesen einem Gebiet !
Alle anderen Gebiete(Titan/Spawn im Düsterwald) sind völlig unauffällig und laufen wie sie es sollen.
Das Problem lässt sich mit zwei verschiedenen Systemen reproduzieren, und auch in anderen Foren gibt es exakt die gleichen Meldungen.

Destiny 2 PC performance thread - Page 23 - NeoGAF

Ab Post Nummer 1109

Wäre schön wenn PCGH da vielleicht mal einen Blick drauf wirft, meinen Kollegen und mich macht das wahnsinnig !

Die beiden Systemspecs:

Ryzen R5 1600X @ 3,9GHz , GTX 1080 & 16GB DDR4 @2933MHz
Core i7 6700K@ 4,5GHz, GTX 980 & 16GB DDR4 @2800MHz

Jeweils @ 1440p
 
Ich hab das Gefühl, das man für kontinuierlich höhere Bildraten (im 100 FPS Bereich) in 2560x1440 einen sehr hohen CPU Takt benötigt.
Würde mich mal interessieren wie der 7700k vs 8700K mit dem Game klar kommt, hab irgendwie so die Vermutung das der 7700k dem 8700k in Destiny 2 überlegen sein könnte..
Ist da etwas dran?
 
Auch hier, solange die CPU nicht limitiert :) Ansonsten kann Vega erschreckend sparsam bei FHD sein (zumindest mit Power Save Modus).

Naja, nuckelt dann aber auch hinter einer 980Ti rum, weshalb das wieder komplett sinnfrei ist, oder nicht? :huh:

1923 find ich jetzt nicht so extrem bei Nvidia. Find eher die 970 bisher überraschend in Full HD, verglichen mit der 390 ist das mal was anderes ^^

Find ich ebenso realistisch. Meine outofthebox MSI Custom 1080Ti taktet bei Syndicate dauerhaft mit 1923
 
Naja, nuckelt dann aber auch hinter einer 980Ti rum, weshalb das wieder komplett sinnfrei ist, oder nicht? :huh:

Für Leute die nur einen FHD Monitor haben, ist es nicht sinnfrei (zu wissen) dass ihre Vega je nach Titel eine deutlich geringere Leistungsaufnahme hat als die UHD Messungen in den Reviews bezeugen.
Der springende Punkt ist, dass viele Leute (aus fehlender Überlegung/Erfahrung heraus) einfach den Rückstand von Vega in 1080p (durch CPU-Overhead) mit der gemessenen Leistungsaufnahme unter UHD kombinieren (in WQHD/UHD sagt Vega allerdings oft schon "arrivederci" zu den Pendants).
 
Zuletzt bearbeitet von einem Moderator:
Find eher die 970 bisher überraschend in Full HD, verglichen mit der 390 ist das mal was anderes ^^
Das ist nichts Neues. Die 390 hängt in FullHD im Overhead und wird daher nicht ausgelastet - wie so oft.

Sie verliert gerade mal 25% Performance beim Wechsel auf 1440p (53 > 40 fps) und liegt dann die üblichen 10 bis 15% vor der 970 OC.

In 4K sind es sogar 30% ohne dass der VRam der 970 limitiert (zumindest laut Artikel) - das ist dann wirklich mal was anderes.
 
Da bin ich mal gespannt, wie meine 5 Jahre alte 4770k @ 4.8 Ghz sich mit den aktuellen CPU´s schlägt ....bisher gab es ja keinen Grund für ein Upgrade.

Überrascht bin ich dann doch mal wieder, dass die 1080ti bei 4k wohl zu kämpfen hat, 60FPS sollte das Ziel sein...mal schauen, was man hier noch machen kann, wenn man mit den Settings spielt.
 
HBCC bringt wiedermal einen Schub laut CB (bis 8%), diesmal besonders in höheren Auflösungen. HBCC entwickelt sich langsam zu einem netten Feature, echt spannend was man da noch in Zukunft erwarten kann.
 
Das Video der Benchmarksequenz ist nun im Artikel, falls jemand unsere fiesen Werte nachprüfen mag. :daumen:
HBCC bringt wiedermal einen Schub laut CB (bis 8%), diesmal besonders in höheren Auflösungen. HBCC entwickelt sich langsam zu einem netten Feature, echt spannend was man da noch in Zukunft erwarten kann.

Wir haben da gerade eine große Messreihe am Laufen. Fixiert man den Takt der GPU, tut sich da meistens ziemlich wenig.

MfG,
Raff
 
Wir haben da gerade eine große Messreihe am Laufen. Fixiert man den Takt der GPU, tut sich da meistens ziemlich wenig.

MfG,
Raff

Wenn HBCC irgendwie/irgendwo (GPU, CPU oder Speicherbandbreite) entlastet und dadurch die FPS steigen, kann dem User (der nicht manipuliert mit Fixieren des Taktes oder Maximieren des Power Limits, wie es z.B. CB im Launch-Artikel gemacht hat) das aber egal sein :)

Edit: Kann man dann Schlussfolgern, dass HBCC (durch eine Art Entlastung) @Stock einen höheren GPU-Takt innerhalb des TDP-Spielraums/Power-Limits ermöglicht? Könnte ich mir gut vorstellen.
 
Zuletzt bearbeitet von einem Moderator:
Das Spiel hat finde ich wirklich hübsches Lighting und viel in Farbe und Buuund. Wirkt dadurch schön ansprechend.
Aber nach Details darf man nicht suchen, da findet man nur Matsche :X

Genau dasselbe habe ich auch gedacht, Beleucht TOP!, Details kann man in die Tonne treten. Alles wirk sehr Rechteckig und betagt, klar damit es auf der PS 4 pro mit 60 fps und der Ps in FHD mit 30 läuft kein Wunder, ist auch ein Konselnshooter. Ansonsten ein repetitives Gameplay das den Finger auf der linken Maustaste favorisiert ohne viel Anspruch. Heute 5 Std gespielt, leider jetzt schon langweilig.
 
Auch hier, solange die CPU nicht limitiert :) Ansonsten kann Vega erschreckend sparsam bei FHD sein (zumindest mit Power Save Modus).

Für Leute die nur einen FHD Monitor haben, ist es nicht sinnfrei (zu wissen) dass ihre Vega je nach Titel eine deutlich geringere Leistungsaufnahme hat als die UHD Messungen in den Reviews bezeugen.
...

Das setzt allerdings voraus, dass man die Karte im PowerSave Modus betreibt. Macht das jemand? Und eine 64er für FHD kaufen? Ich weiß ja nicht, wer zuviel Geld hat bitte, der kann dann aber auch ne 1080 Custom oder ne TI kaufen.

Generell erweckt Vega den Eindruck, man müsse erst einen Basis- und Aufbaukurs in Sachen GPU-Tuning belegen, um halbwegs vernünftig damit spielen zu können. Vielleicht bin ich da alleine, aber das erwarte ich grundsätzlich vom Hersteller als dessen ureigenste Aufgabe. Weshalb sind die Special-Features im Treiber standardmäßig deaktiviert? Man sollte nicht annehmen, dass die Käufer außerhalb von Nerd-Forum wie unserem hier das wissen.
 
Hab mal eine Session in Trostland mit meinem System aufgezeichnet. 1080p und Max Details. Da ja keine OSDs gehen, musste ich es mit OCAT und HWinfo machen. Läuft sehr gut und hier kann man nicht genug FPS haben.

Edit: falsche Datei gewesen. ^^
 

Anhänge

  • Destiny 2 Trostland Benchmark 1080p Max Details.png
    Destiny 2 Trostland Benchmark 1080p Max Details.png
    1,1 MB · Aufrufe: 115
Zuletzt bearbeitet:
Da hätte doch schon wieder fast jemand vergessen die Werte der SLI Benchmarks einzutragen... :D Habs mal schnell behoben. :ugly:
bench.png


PS: Ist vom FPS Counter abgelesen, da Fraps ja nicht geht... :motz:...mein 3930k scheint auch ein wenig zu limitieren...:D Bei nicht so CPU intensiven Bereichen ist es eher 80FPS+.
 
Zuletzt bearbeitet:
Da bin ich mal gespannt, wie meine 5 Jahre alte 4770k @ 4.8 Ghz sich mit den aktuellen CPU´s schlägt ....bisher gab es ja keinen Grund für ein Upgrade.

Überrascht bin ich dann doch mal wieder, dass die 1080ti bei 4k wohl zu kämpfen hat, 60FPS sollte das Ziel sein...mal schauen, was man hier noch machen kann, wenn man mit den Settings spielt.

Ich habe mit einer Msi Gtx 1080 no ti und einen i7 6700k alles auf hoch die Texturen auf Ultra und spiele in 4K fast immer mit 50 bis 60 fps eher 60


Gesendet von iPhone mit Tapatalk Pro
 
Das setzt allerdings voraus, dass man die Karte im PowerSave Modus betreibt. Macht das jemand? Und eine 64er für FHD kaufen? Ich weiß ja nicht, wer zuviel Geld hat bitte, der kann dann aber auch ne 1080 Custom oder ne TI kaufen.

Ich nutze den Power Save Modus :D Zumindest bis ich meine UVing Einstellungen rockstable ermittelt habe. Das bedeutet dann, wie es momentan aussieht, nochmals weniger Leistungsaufnahme bei höherer Leistung. Naja ich habe die Vega 56 gekauft, da ich das P/L-Verhältnis dort besser fand als bei (m)einer Wunsch RX 570 (ITX) für 300+ €...

Eine Vega 64 dürften tatsächlich nicht viele User mit FHD Monitor kaufen, aber die FHD-Benches werden ja dennoch regelmäßig zum Thema gemacht bzw. betrachtet, von daher ist es nicht verkehrt, darauf hinzuweisen, dass in diesem Fall die Leistungsaufnahme nicht zwangsläufig den UHD Messungen entspricht. So irrelevant die 1080p Werte für Vega 64 sein mögen, so oft werden sie AMD (zurecht) vorgehalten, aber dann muss man auch so fair sein und sich eingestehen, dass die Leistungsaufnahme in diesen Fällen auch deutlich niedriger sein kann.

Generell erweckt Vega den Eindruck, man müsse erst einen Basis- und Aufbaukurs in Sachen GPU-Tuning belegen, um halbwegs vernünftig damit spielen zu können. Vielleicht bin ich da alleine, aber das erwarte ich grundsätzlich vom Hersteller als dessen ureigenste Aufgabe. Weshalb sind die Special-Features im Treiber standardmäßig deaktiviert? Man sollte nicht annehmen, dass die Käufer außerhalb von Nerd-Forum wie unserem hier das wissen.

Vega ist tatsächlich kompliziert, bockig/überraschend und schwer zu durchschauen. Als jemand der am Spielen von Games kaum noch Freude hat, habe ich viel Spaß mit Vega-Experiementen bzw. -Untersuchungen.


Edit:
Hab mal eine Session in Trostland mit meinem System aufgezeichnet. 1080p und Max Details. Da ja keine OSDs gehen, musste ich es mit OCAT und HWinfo machen. Läuft sehr gut und hier kann man nicht genug FPS haben.

Edit: falsche Datei gewesen. ^^

OCAT muss ich mir auch mal anschauen, sind die Ergebnisse (vor allem Frametimes) mit denen vom Afterburner identisch (bei Titeln wo beide Methoden funktionieren)?

Was würdest generell empfehlen, reicht der Afterburner für Frametime-Messungen oder ist OCAT (mit FLAT) genauer?
 
Zuletzt bearbeitet von einem Moderator:
Zurück