Ghost Recon Wildlands Beta: Erste Grafikkarten-Benchmarks des Hardware-Fressers

Hm, werd das WE mal mit den Kumpels probieren, bisher recht guter Ersteindruck im Koop & Story. Allerdings schreit das Spiel förmlich danach, erst mit 12 Wochen Verzögerung gekauft zu werden = stabil, flüssig und günstiger :daumen:
 
High statt Very High und schon hat man mit einerRX 480 / GTX 1060 ~50 - 60 FPS. Sieht sicher immer noch um einiges besser aus als auf den Konsolen und dazu noch die doppelte Framerate.

Frage mich aber ob und falls ja inwiefern die Matchtexturen auf den Nvidias die Bildrate künstlich erhöhen.
 
Frage mich aber ob und falls ja inwiefern die Matchtexturen auf den Nvidias die Bildrate künstlich erhöhen.

Das frage ich mich schon seit Monaten bei mehreren Games (z.B. Doom mit GTX 970/780/1060 3G oder Hitman@DX12 oder die ersten Wochen/Monate@BF1 bis die Benchmarks werbewirksam durch sind).
 
Ist das Spiel noch auf DX11 aufgebaut oder schon DX12 bzw. Vulkan?

Krass, dass selbst eine 1080 mühe hat. Aber ist ja noch eine Beta.
 
Die Performance ist doch ein Witz. In 2560x1080 kann ich da mit meiner GTX 980 wohl auf medium Details gehen, um die 60 FPS halten zu können. Hätte ich einen 1440p Monitor könnte ich mich wahrscheinlich über low Details freuen.

Was machen jetzt leute, die sich nen 4K Monitor gekauft haben? Das ist doch schon seit Jahren Standard!!!11
 
Bei den Streaming-Problemen (Texturen) der Geforce-Karten ist es doch egal ob Low-, Medium- oder High-Details^^
 
Die Performance ist doch ein Witz. In 2560x1080 kann ich da mit meiner GTX 980 wohl auf medium Details gehen, um die 60 FPS halten zu können. Hätte ich einen 1440p Monitor könnte ich mich wahrscheinlich über low Details freuen.

Was machen jetzt leute, die sich nen 4K Monitor gekauft haben? Das ist doch schon seit Jahren Standard!!!11
Das Spiel nicht kaufen, ganz einfach.

Wieder mal ein riesen hype um nichts gemacht, Performance ist einfach nur grottig.

Quasi ein rohrkrepierer :D
 
High statt Very High und schon hat man mit einerRX 480 / GTX 1060 ~50 - 60 FPS. Sieht sicher immer noch um einiges besser aus als auf den Konsolen und dazu noch die doppelte Framerate.

Frage mich aber ob und falls ja inwiefern die Matchtexturen auf den Nvidias die Bildrate künstlich erhöhen.
Seit wann erhöhen Matsch-Texturen die Leistung, wenn genug Speicher da ist?
 
Die Performance ist doch ein Witz. In 2560x1080 kann ich da mit meiner GTX 980 wohl auf medium Details gehen, um die 60 FPS halten zu können. Hätte ich einen 1440p Monitor könnte ich mich wahrscheinlich über low Details freuen.

Was machen jetzt leute, die sich nen 4K Monitor gekauft haben? Das ist doch schon seit Jahren Standard!!!11

Hier ist einer mit nem 4K-Monitor.
Ich weiss nicht was ihr alle habt.

3840x2160
V-Sync aus
Frame-Limit 40 Fps
Auflösungsskalierung 0,8
Preset Very-High
TAA
SSBC
läuft zwischen 30-40 Fps. An vielen Stellen ginge auch mehr. Da sackt die Auslastung auf 60% ab.
Werde nachher noch mal n bissl tweaken, dann kann ich die Skalierung vielleicht wieder auf 0,9 stellen. TAA aus und/oder das Frame-Limit auf 50 setzen.
Ab 40 empfinde ich die Spiele meist flüssig.
Auf jeden Fall empfand ich das deaktivieren von V-Sync als sehr hilfreich. Vorher lief das SPiel unrund. Mit Frame-Limiter und V-Sync aus finde ich es gut spielbar.
Ich staune doch sehr dass die Benches hier ein derart niedriges Fps-Bild abliefern.

Und an die ganzen Schreihälse hier:

Habt ihr sonst keine Probleme?!
Das gezeigte weiss optisch wirklich zu gefallen.
Die aktuellen Performance-Probleme lassen einen wirklich glauben dass wir hier ne beta spielen.
Wollt ihr wieder ein Downgrade damit es auf jeder Karte Anno 2000 läuft?
Wenn euch die Performance nicht gefällt, dann lasst es. Hört auf es zu spielen/testen. Nutzt die Zeit für was anderes.
Die Beta war schließlich for free. Man kann reinschnuppern.
Die Demo genießen, feststellen wo was im Argen liegt (Hallo Performance), festgestellte Mankos im Ghost-Recon Beta-Forum kundtun und nicht woanders.
Und tut man es nicht da, sondern woanders (z.B. hier), dann geht das doch auch sachlich.
Man kann feststellen dass einem das Spiel gefällt oder eben nicht.

Manchmal wie im Kindergarten...
 
Also ich krieg es partout nicht gestartet. Der Screen bleibt einfach bloß schwarz.
Alles von Reparieren, Neuinstallation, installation auf eine andere Partition, neusten treiber, Hintergrundprogramme schließen ausprobiert...
 
Overhead bei nV und nicht AMD? Das kann doch garnicht sein, dass ist doch technisch völlig unmöglich!

Ernsthaft, es ist eine frühe Beta, da wird noch viel passieren, intern ist vermutlich schon die übernächste Fassung in Erprobung. Allerdings kann man bei Ubisoft schon von einem hakeligen Start ausgehen und große Day 1-Patches abwarten, bevor man es richtig spielen kann. Wäte nicht das erste Mal und wird auch garantiert nicht das Letzte sein. Aber Zeit zum Optimieren sollte man ihnen auch noch lassen, Beta heißt nunmal immer "noch nicht fertig"...
 
Mir hat der randlose Fenstermodus geholfen. Die GPU Auslastung ist von ca 53% auf 97-98% gestiegen und ich hab auf Hoch zwischen 55 und 70 fps mit einer 980.
 
Von einem Freund das Ergebnis in Full HD und sehr hoch.

IMG_0305.jpg

Ohne OC mit OC wäre hier auch locker mit der GTX1080 über 60FPs minimum drin.
 
Zuletzt bearbeitet:
Seit wann erhöhen Matsch-Texturen die Leistung, wenn genug Speicher da ist?

Dass ist ganz einfach. Wenn die Texturen niedriger aufgelöst sind, können diese schneller aus dem Speicher geholt werden und somit muss die GPU seltener auf den Speicher warten. Daher bringt das Speicher übertakten in der Regel auch etwas Leistung.

Wäre das nicht so, könnte man High End Karten wie eine 1080 auch einfach mit billigem 128- oder gar 64 Bit Speicher ausstatten, solange reichlich davon vorhanden ist.
 
Also ehrlich was hier in Full HD gemäßen wurde kann ich nicht bestätigen.

Interner Benchmark vs tatsächliche Spiele-Performance die Drölfhundertste ;) : Wir nehmen absichtlich keine mit einigen Spielen kommende Benchmarks, weil die ziemlich häufig stark von "echten" Spiele-Szenen abweichende Performance zeigen, um nicht zu schreiben: "nicht selten den reinsten Blödsinn ausgeben". Dazu kommt außerdem, dass Entwickler und Grafikkarten-Hersteller für solche Benchmarks gezielt optimieren können – mit einer von uns ausgewählten, nicht von GPU-Herstellern und Spiele-Entwicklern im Vorfeld absehbaren Spiele-Szene klappt das eher nicht so gut. Hier und Hier sind mal zwei Beispiele für völlig abwegige Werte, die so ein Benchmark ausspucken kann.

Im Falle von Ghost Recon: Wildlands gibt der interne Benchmark viel zu hohe Werte aus (um mal bei Tom Clancy und Ubi zu bleiben, der von The Division übrigens auch – locker 20 bis 30 %, was schon echt ne Nummer ist... Gut der Unterschied zwischen einer GTX 1070 und 1080 beispielsweise), er zeigt nicht die Streaming-Probleme und auch nicht die miesen Frametimes, die man beim Spielen dauernd vor Augen hat.

Gruß;
Phil
 
Zuletzt bearbeitet:
Zurück