Ghost Recon Wildlands Beta: Erste Grafikkarten-Benchmarks des Hardware-Fressers

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ghost Recon Wildlands Beta: Erste Grafikkarten-Benchmarks des Hardware-Fressers

Die geschlossene Beta von Ghost Recon Wildlands ist seit Freitag, 12 Uhr, spielbar. PC Games Hardware hat die offene Spielwelt bereits erkundet und präsentiert Ihnen hier erste Benchmarks und Eindrücke mit Technikfokus. Weitere Messwerte sind in Vorbereitung, wir bitten noch um etwas Geduld.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ghost Recon Wildlands Beta: Erste Grafikkarten-Benchmarks des Hardware-Fressers
 
Eine Titan X Pascal und die schafft nicht mal 60 fps auf 1080p. na hoffentlich tut sich da noch was in Sachen Performance, sonst sieht es sehr mau aus.
 
Die Probleme scheinen aber wohl mit den vielen Details und den großen Texturen zusammen zu hängen.

Ich spiele mit niedrigen/Mittleren Detail + einfache Umgebungsverdenkung und hatte noch keine großen Ruckler oder verwaschene Texturen.

Gerade genutztes System: i5-2500K, 12 GiB RAM, GTX 660 2 GiB, Spiel liegt auf einer SSD. Betriebssystem ist Win7 Pro x64!
* System mit der AMD Karte: i7-4770K, 20 GiB RAM, R9-380X 4 GiB, Spiel liegt auf WD Black 2TB. System ist Win7 Ultimate. *

Läuft mit 30-45 FPS, eine TitanX sollte dann wohl über 100 schaffen.


Edit: Interner Benchmark (wird nach und nach erweitert)
GTX 660 2 GiB: ~39,8 FPS (1920x1080)
R9-380X 4 GiB: ~41,4 FPS (1920x1200)
GTX 1050 4 GiB: ~60,3 FPS (1920x1080)

GRW 2017-02-03 18-13-33-17.jpg GRW 2017-02-04 02-26-31-48.jpg GRW 2017-02-06 11-42-40-44.jpg

Settings:

GRW 2017-02-03 13-36-58-17.png GRW 2017-02-03 13-37-06-82.png GRW 2017-02-03 13-37-09-80.png


Edit2: Alle 3 Karten gebencht. Die Benchmarkwerte sind auch so ähnlich im Spiel selbst zu sehen, dort aber aufgrund der lebhaften Welt aber nur schwer nachstellbar.
Das schlechte abschneiden der 380X kann ich mir nicht erklären. Liegt eventuell am etwas älteren Treiber, aber das sollte man dann ja bei der Vollversion und neuen Treibern merken.
 
Zuletzt bearbeitet:
Bei Ubisofts eigenes AO sprich SSBC kein Wunder. Gepaart mit einer riesigen Welt, mit einer menge Weitsicht, wundert es mich nicht, das die fps nicht allzu hoch ausfallen. Normal auf ssao oder dergleichen stellen und schon sollten auch die fps steigen.
Ich darf leider erst in 1 Stunde ran. :D
 
Die Probleme scheinen aber wohl mit den vielen Details und den großen Texturen zusammen zu hängen.

Ich spiele mit niedrigen/Mittleren Detail + einfache Umgebungsverdenkung und hatte noch keine großen Ruckler oder verwaschene Texturen.

Gerade genutztes System: i5-2500K, 12 GiB RAM, GTX 660 2 GiB, Spiel liegt auf einer SSD.

Läuft mit 30-45 FPS, eine TitanX sollte dann wohl über 100 schaffen.

Ich hab generell eher das LoD bzw. die Sichtweite (beim Preset "sehr hoch") in Verdacht. Die ist schon ziemlich hoch (und außerdem eins der optisch eindruckvollsten Features). Aber eventuell ist die wegen der zusätzlichen Draw-Calls auch sehr problematisch, dazu kommen noch ein paar Streaming-Problemchen. Die Textur-Fails treten offenbar nur mit Nivida-GPUs auf, wir konnten bislang jedenfalls keine dermaßen argen Fehldarstellung mit Radeons reproduzieren. Ruckeln und Stocken tut's aber auch mit AMD-GPUs.

Gruß,
Phil
 
Echt Krass das hier wieder einige Lappen unterwegs sind und bei den Grafikkarten die Schuld suchen... das ist doch ganz Klar schlecht Programmiert die dicksten Karten schmieren hierbei ab traurig Performance Patchen sonst wird das nichts 1080p ..... und so niedrige FPS
 
Das ist definitiv noch sehr BETA das Spiel, hoffentlich geht noch mehr Leistung, sonst braucht man Minimum ne GTX 1070.
 
Echt Krass das hier wieder einige Lappen unterwegs sind und bei den Grafikkarten die Schuld suchen... das ist doch ganz Klar schlecht Programmiert die dicksten Karten schmieren hierbei ab traurig Performance Patchen sonst wird das nichts 1080p ..... und so niedrige FPS

Wer mehr FPS braucht, kann ja einfach die Details reduzieren. Warum sollten die Entwickler die Grafik abspecken, nur weil die TitanX keine dreistelligen FPS schafft.
Schließlich kommt ja bald Vega und nächstes Jahr Volta. Da kann es nicht schaden noch ein paar Reserven für neue Karten zu haben.
 
Ich hab generell eher das LoD bzw. die Sichtweite (beim Preset "sehr hoch") in Verdacht. Die ist schon ziemlich hoch (und außerdem eins der optisch eindruckvollsten Features). Aber eventuell ist die wegen der zusätzlichen Draw-Calls auch sehr problematisch, dazu kommen noch ein paar Streaming-Problemchen. Die Textur-Fails treten offenbar nur mit Nivida-GPUs auf, wir konnten bislang jedenfalls keine dermaßen argen Fehldarstellung mit Radeons reproduzieren. Ruckeln und Stocken tut's aber auch mit AMD-GPUs.

Gruß,
Phil
Wie siehts denn allgemein mit dem Speicherbedarf oberhalb von FullHD aus? Oder liegt's bei der 1060 eventuell an was anderem, wodurch sie ab WQHD langsam aber sicher nach unten durchgereicht wird? Ist von den bisher getesteten Karten ja immerhin die einzige mit weniger als 8GB.

Die Performance sieht aber echt übel aus, das wird hoffentlich zum Release noch deutlich besser. Überrascht mich aber etwas, zuletzt war Ubisoft in der Hinsicht ja doch ziemlich gut unterwegs.
 
Wer mehr FPS braucht, kann ja einfach die Details reduzieren. Warum sollten die Entwickler die Grafik abspecken, nur weil die TitanX keine dreistelligen FPS schafft.
Schließlich kommt ja bald Vega und nächstes Jahr Volta. Da kann es nicht schaden noch ein paar Reserven für neue Karten zu haben.


Hat doch nichts mit Abspecken der Grafik zu tun man kann auch so Optimieren !?! 1080p und dann solche FPS sind einfach eine Frechheit Marktwirtschaft ankurbeln... dann müssen bald die Karten jedes halbe Jahr getauscht werden ach würde AMD / Nvidia sich doch freuen.
 
GR WL nutzt die Anvil Next 2.0 Engine... Da werden Erinnerungen an Assassins Creed Unity wach. Ubisoft Paris scheint die Engine nicht im Griff zu haben. Vielleicht sollten sie bei Ubi Quebec mal fragen wie man die Engine optimiert, die haben es bei AC Syndicate ja auch hinbekommen...
 
Eine neue Grafikbombe ist da und die Leute beschweren sich, ähnlich wie bei AC Unity das es nicht auf max mit 60 fps läuft. ^^
Ich hab damals Crysis 1 mit 15 fps durchgezogen, weil es nicht anders ging. :ugly:

Warten wir mal ab. Es ist nicht umsonst ne beta. 1 Monat haben sie noch. ;)

Hat doch nichts mit Abspecken der Grafik zu tun man kann auch so Optimieren !?! 1080p und dann solche FPS sind einfach eine Frechheit Marktwirtschaft ankurbeln... dann müssen bald die Karten jedes halbe Jahr getauscht werden ach würde AMD / Nvidia sich doch freuen.

Du bist zweifelsfrei erst seit der last Gen im PC Sektor unterwegs.
Das war früher stink normal. :D

Und bei einer closed Beta von Frechheit zu sprechen, ich weiß ja nicht. O.o
 
Zuletzt bearbeitet:
Eine neue Grafikbombe ist da und die Leute beschweren sich, ähnlich wie bei AC Unity das es nicht auf max mit 60 fps läuft. ^^
Ich hab damals Crysis 1 mit 15 fps durchgezogen, weil es nicht anders ging. :ugly:

Warten wir mal ab. Es ist nicht umsonst ne beta. 1 Monat haben sie noch. ;)



Du bist zweifelsfrei erst seit der last Gen im PC Sektor unterwegs.
Das war früher stink normal. :D

Und bei einer closed Beta von Frechheit zu sprechen, ich weiß ja nicht. O.o

Grafikbombe... Alles klar xD
 
Eine neue Grafikbombe ist da und die Leute beschweren sich, ähnlich wie bei AC Unity das es nicht auf max mit 60 fps läuft. ^^
Ich hab damals Crysis 1 mit 15 fps durchgezogen, weil es nicht anders ging. :ugly:
Dazu müsste es aber auch einen ähnlichen Wow-Effekt bieten und den habe ich seit eben Crysis nie wieder so gesehen.

Und egal wie es früher mal war, 1080p/60fps bei guter Optik auf Mittelklassegrakas sind heute ein muss, sonst macht man als Entwickler was falsch. Darauf kann man dann aufbauen, Skalierbarkeit heißt das Zauberwort.
 
Eine GTX 1080 mit 1,9 GHz ächzt schon in 1080p ... na klar :ugly:. Ubisoft zeigt sich wieder von seiner besten Seite. So eine Beta hat automatisch auch immer einen Werbeeffekt und wenn dann so eine Performance an den Tag gelegt wird, bleibt das in schlechter Erinnerung. An negative Sachen erinnern sich die Leute eher als an positive ;)
 
Grafikbombe... Alles klar xD

Ließ den Artikel, dann sollte dir zumindest so einiges klarer sein...

"Optisch ist Ghost Recon Wildlands definitiv ansehnlich, insbesondere die hohe Weitsicht, die schicke Beleuchtung und Verschattung sowie der hohe Detailgrad können beeindrucken - die weitgehend knackigen Texturen nicht zu vergessen..."

Spiel ist wohl ganz hässlich und Unity topt die Hässlichkeit wohl noch. :ugly:

Dazu müsste es aber auch einen ähnlichen Wow-Effekt bieten und den habe ich seit eben Crysis nie wieder so gesehen.


Und egal wie es früher mal war, 1080p/60fps bei guter Optik auf Mittelklassegrakas sind heute ein muss, sonst macht man als Entwickler was falsch. Darauf kann man dann aufbauen, Skalierbarkeit heißt das Zauberwort.


Das wird ja auch schwierig und wohl auch so leider nie wieder kommen. :)

Na gab es denn Vergleichvideos/bilder von mittleren/hohen/max Details?
Bislang sehe ich im Artikel nur Vergleiche bzgl. des Streamings, das wohl alles andere als sauber läuft. ;)

Es ist nu einmal bislang erst einmal noch eine beta.
 
Zuletzt bearbeitet:
Und egal wie es früher mal war, 1080p/60fps bei guter Optik auf Mittelklassegrakas sind heute ein muss, sonst macht man als Entwickler was falsch. Darauf kann man dann aufbauen, Skalierbarkeit heißt das Zauberwort.

Nur weil man das Maximum eben für künftige GPUs auslegt, heißt das ja nicht, das die Engine schlecht skaliert. Schließlich sieht das Spiel auch mit Hardware die gerade die minimalen Anforderungen erfüllt gut aus und läuft trotzdem mit mindestens 30 FPS.

Die Leute sind heute nur einfach verwöhnt.
 
Zurück