Star Wars: Battlefront im Technik-Test - Erste Benchmarks von der Vollversion

Die Konsolen sind ein festes System, auf dass man extrem effizient optimieren kann - der PC ist im Vergleich dazu ein Albtraum ;)
Das halte ich für ein Gerücht. Du kannst wie die Anno Entwickler Code schreiben, der nur auf Maxwell2 gut performt. Du kannst aber auch Programmcode schreiben, der auf jeder GPU gut performt, weil er sich an gewisse Vorgaben hält. Das ist der Unterschied zwischen einem schlechten und einem fähigen Entwicklerteam.

Battlefront läuft sicher nicht deshalb auf jedweder Hardware so gut, weil sich die Frostbite Entwickler mit 30 verschiedenen GPUs hingesetzt haben und den Programmcode an jede separat angepasst haben, sondern weil sie wissen, wie man vernünftig DX11 programmiert.
 
Unabhängig der vermeintlichen Treiberqualität, ist doch eine Grafikbibliothek, die aufgrund eines (imo sogar recht lächerlich anmutenden) Effekts die Gesamtperformance um 50% einbrechen lässt, total für die Würscht, oder etwa nicht? :daumen2:
Fallout 4 sieht allerdings ohne die GW-Effekte wirklich nur komplett gammelig aus, dann stellt sich endgültig Gamebryo-Feeling aka Oblivion 2006 ein. Für Godrays macht Tess wohl auch technisch Sinn. Ist jetzt die Frage, ob das nicht noch effizienter laufen könnte. Aber man hat ja die Wahl (notfalls per Config).
Ich versteh die Diskussion in dem Zusammenhang von BF aber nicht, das Spielt scheint kein einziges Feature von einem IHV spendiert bekommen zu haben und es läuft auf jeder Hardware anständig. Verschwendet doch nicht so eure Zeit...

Viel wichtiger ist doch, dass Mirror's Edge mit der gleichen Engine laufen wird. :D
 
Cool, das ihr die 6850 getestet habt (die entspricht ja ungefähr einer 5870). Wundert mich das die mehr als 20 FPS erzeugt. Da hat DICE mal in Punkto Optimierung mal ganze Arbeit geleistet.

*Räusper* Wir haben eine HD 6950 getestet. Die ist "etwas" schneller als und mit doppelt so viel Speicher bestückt wie eine HD 6850. Sorry. :ugly: Läuft aber trotzdem relativ gut auf dieser 2010er-VLIW-GPU.

MfG,
Raff
 
Zuletzt bearbeitet:
Kann irgendwie keinen wirklichen Unterschied zwischen den Detailstufen sehen. Den größten Unterschied machen die Wolken, die anders positioniert sind.

Wie wirkt es sich den auf die Performace aus, wenn man auf Mittel oder Niedrig geht? Vielleicht ist ja dann auch UHD drin.
 
Das halte ich für ein Gerücht. Du kannst wie die Anno Entwickler Code schreiben, der nur auf Maxwell2 gut performt. Du kannst aber auch Programmcode schreiben, der auf jeder GPU gut performt, weil er sich an gewisse Vorgaben hält. Das ist der Unterschied zwischen einem schlechten und einem fähigen Entwicklerteam.

Battlefront läuft sicher nicht deshalb auf jedweder Hardware so gut, weil sich die Frostbite Entwickler mit 30 verschiedenen GPUs hingesetzt haben und den Programmcode an jede separat angepasst haben, sondern weil sie wissen, wie man vernünftig DX11 programmiert.

Bei einem geschlossenen System liegen fixe Hardware- und Software-Spezifikationen vor. Bei einem PC musst du unterschiedlichste Hardware-, Software- und Treiberkonfigurationen, sowie deren Zusammensetzung untereinander beachten - der damit verbundene Aufwand ist kein Vergleich ;) Nicht zuletzt deshalb präsentieren die Last- und Current-Gen-Only-Spiele eine Optik, die wir angesichts der Hardware nicht oder nur teilweise erwarten würden =)
Ob und wie ein Entwickler (mit / ohne Vorsatz) optimiert und welches Kalkül dahintersteckt, ist ein anderes Thema ;)
 
Das LOD ploppt auf niedrigen Detailstufen wesentlich aggressiver rum, POM/Tess wirken flacher, das schlechtere Postprocessing nimmt etwas das Star Wars Film-Feeling.
Ansonsten sind halt Schatten flimmriger, SSAO ungenauer etc.
Höhere Details lohnen sich schon. Zumindest, wenn man genau hinschaut, wofür man in tatsächlichen MP-Schlachten natürlich irgendwann den Sinn verliert.
 
Fallout 4 sieht allerdings ohne die GW-Effekte wirklich nur komplett gammelig aus, dann stellt sich endgültig Gamebryo-Feeling aka Oblivion 2006 ein. Für Godrays macht Tess wohl auch technisch Sinn. Ist jetzt die Frage, ob das nicht noch effizienter laufen könnte. Aber man hat ja die Wahl (notfalls per Config).

Die volumetrische Beleuchtung muss man sich aber auch schön trinken.

Ich versteh die Diskussion in dem Zusammenhang von BF aber nicht, das Spielt scheint kein einziges Feature von einem IHV spendiert bekommen zu haben und es läuft auf jeder Hardware anständig.

Genau das ist doch der Punkt. ;)
 
1920x1080
texturen und filterung auf ultra,
restliche einstellungen auf hoch auch fxaa

skalierung auf 135%

Frames, Time (ms), Min, Max, Avg
1277, 20000, 57, 78, 63.850
 
Die volumetrische Beleuchtung muss man sich aber auch schön trinken.
Gesünder ist es, SweetFX zu benutzen, und etwa das Gamma damit vernünftig einzustellen etc.
Dann stimmt der Kontrast und die volumetrische Beleuchtung verleiht entsprechend Bildtiefe gegen den "Skyrim-Effekt".
Die nuklearen Stürme sehen mit GW schon richtig nett aus, ohne ist einfach nur die Skybox grün gefärbt.
 
Fallout 4 sieht allerdings ohne die GW-Effekte wirklich nur komplett gammelig aus, dann stellt sich endgültig Gamebryo-Feeling aka Oblivion 2006 ein. Für Godrays macht Tess wohl auch technisch Sinn. Ist jetzt die Frage, ob das nicht noch effizienter laufen könnte. Aber man hat ja die Wahl (notfalls per Config).
Ich versteh die Diskussion in dem Zusammenhang von BF aber nicht, das Spielt scheint kein einziges Feature von einem IHV spendiert bekommen zu haben und es läuft auf jeder Hardware anständig. Verschwendet doch nicht so eure Zeit...

Viel wichtiger ist doch, dass Mirror's Edge mit der gleichen Engine laufen wird. :D

DICE hat bei der entwicklung der Engine bzw allgemein viel mit AMD gearbeitet, und hier haben wir starke AMD karten (Natürlich läuft es auf allen ganz gut, aber TW3 war ohne explizit Hairworks auch auf AMD spielbar). Worauf ich hinaus will ist nur, dass Nvidia für sowas immer gehauen wird - Egal welches Spiel in letzter zeit rauskam, lief es nicht auf einer AMD Karte wunderfluffig gabs extrem kritik, egal ob GW genutzt wurde oder nicht. Arbeitet AMD mit und es läuft auf AMD Karten gut, ist dass hier der "Standard" - Und beim nächsten Spiel, wo Nvidia besser ist, wird das gleiche von vorne losgehen.
 
DICE hat bei der entwicklung der Engine bzw allgemein viel mit AMD gearbeitet, und hier haben wir starke AMD karten (Natürlich läuft es auf allen ganz gut, aber TW3 war ohne explizit Hairworks auch auf AMD spielbar). Worauf ich hinaus will ist nur, dass Nvidia für sowas immer gehauen wird - Egal welches Spiel in letzter zeit rauskam, lief es nicht auf einer AMD Karte wunderfluffig gabs extrem kritik, egal ob GW genutzt wurde oder nicht. Arbeitet AMD mit und es läuft auf AMD Karten gut, ist dass hier der "Standard" - Und beim nächsten Spiel, wo Nvidia besser ist, wird das gleiche von vorne losgehen.

Mit dem Unterschied, dass Nvidia nachweislich Tesselation in einem Maß verwendet das absolut unnötig ist (Wasser/Haare bei W3, Godrays bei Fallout 4, bestes Beispiel damals Crysis 2...) . Damit bremsen sie Ihre eigenen Karten + die Konkurrenz nur diese eben noch stärker. Man muss sich mal vorstellen dass ein Tombraider mit TressFX auf den "gammeligen" Konsolen läuft. Mit Hairworks undenkbar.

Falls jemand nicht weiß wovon ich spreche:*** 2 tessellation: too much of a good thing? - The Tech Report - Page 2[/URL]
 
Mit dem Unterschied, dass Nvidia nachweislich Tesselation in einem Maß verwendet das absolut unnötig ist (Wasser/Haare bei W3, Godrays bei Fallout 4, bestes Beispiel damals Crysis 2...) . Damit bremsen sie Ihre eigenen Karten + die Konkurrenz nur diese eben noch stärker. Man muss sich mal vorstellen dass ein Tombraider mit TressFX auf den "gammeligen" Konsolen läuft. Mit Hairworks undenkbar.

Falls jemand nicht weiß wovon ich spreche:*** 2 tessellation: too much of a good thing? - The Tech Report - Page 2[/URL]

Die Godrays lassen sich auch ohne ini-tweak niedriger schalten, um das Problem zu lösen. Mit den Haaren von Hairworks ist das sone sache, immerhin ist das schlicht abschaltbar. Und: NV hat für ihre Keplerkarten einen Patch veröffentlicht, der die relative performance wieder angepasst hat.
Wäre ich AMD, würde ich wohl auch keine Treiberoptimierungen machen, immerhin ist grundsätzlich Nvidia schuld, wenns dann Probleme gibt.

Tesselation: Mhmh. Mh. Teilweise wird in TW3 berichten auch von "set to 4x or 8x" geredet, was deutlich mieser aussieht, Imo. ob 64x es im vergleich zu 16x wert war, darf man bezweifeln. Das ist wie mit 4x vs 8x MSAA: Wenn es nach herstellern geht, ist 8x sowieso extrem wichtig. Aber: Tesseliert wird doch mittlerweile überall. Auch in Battlefront. Tesselationsleistung sollte allgemein nicht so hinterherhinken, man hätte auch hier sicher noch frames rauskitzeln können - Genauso könnte man ja nun schreien, wieso ist die Tesselationsstufe so gering, das ist doch nur damit AMD Karten besser aussehen - man kann alle möglichen Sachen in alle möglichen Richtungen drehen.

Um nicht nur Offtopic zu schreiben: Ich fand es Teilweise relativ Pixelig anmutend in der Beta, sofern man nicht den Resscale hochgedreht hat/Auflösung direkt erhöht hat. Allerdings kann man gegen die Optik allgemein nichts sagen.
 
1. Es ist sehr wohl eine Frage wie hoch die Tess Stufe sein muss um wenig oder gar keine optischen Einbusen zu haben: Siehe: 3DCenter Forum - Fallout 4 Benchmark & Tessellation analyse. Der ein oder andere Nvidia Nutzer mit schwächere Karte wäre wohl froh über AMDs Tess schalter im Treiber.
2. Selbst wenn du "nur" 32 x Tess hast bei Hairworks hast du ein nicht zu verachtendes + an Performance.
3. Das mit 64x tesselierte Wasser kanns du nicht einfach so abstellen (Außer durch AMDs Schalter)
4. Ist es laut Aussagen einiger Entwickler im 3d Center eher fraglich ob bei Haaren Tesselation überhaupt sinnvoll ist. Man denke an die ja was sind das eigentlich "Felle" in FC4. Das es ganz ohne Tess geht, gut aussieht und dabei noch weniger braucht beweist AMD mit Tress FX.

Imo wäre es für alle besser wenn Nvidia nicht auf Blöd immer und überall Tesselation @ max einsetzen würde sondern es sinnvoll verwenden würde. Das würde auch Nvidia Nutzern zu Gute kommen, warum man das verteidigen muss ... nun ja jeder hat seine Agenda.

Beispiele wie es richtig gemacht wird ist eben Battlefront oder auch Dragon Age. Beides Spiele die sowohl auf AMD als auch Nvidia gut laufen ohne das etwas abgestellt werden müsste.
 
Und eins der ersten Kommentare in deinem Link war, dass 32x bei nassen Haaren doch auffällt. Ich müsste jetzt viel mehr vergleichsbilder haben, als nur das standard-ding, dass man überall findet.
Aber, versteh mich nicht falsch: Dass überall alles mögliche maximal tesseliert werden muss, möchte ich nicht verteidigen. Ich möchte böse, superfiese Nvidiadevs bezweifeln. Hairworks kann ja auch ganz einfach schlechter als TressFX sein - auch das möchte ich nicht bezweifeln. Das ursprüngliche Argument war: läuft irgendetwas, das entfernt mit Nvidia zu tun haben könnte, nicht perfekt auf AMD, wird riesig rumgeschrien - Bei bekannten zusammenarbeiten mit AMD im falle von DICE/Frostbite und der guten Performance auf AMD schreit niemand.
Bei Fallout 4 linkt jemand in deinem Link direkt zu dem CB benchmark, welcher folgendes zu den Gameworks Godrays schreibt: [...] In der ComputerBase-Testszene verlieren die AMD-Grafikkarten zudem dadurch nicht mehr Geschwindigkeit als die Nvidia-Beschleuniger.[...] - Aber wehe es ist mal anders. Wie gesagt: AMD braucht garnicht optimieren, wenn es sowieso am ende NV´s schuld ist, wenn was nicht klappt. Das ist nicht viel besser, als wenn man Nvidia garnicht für die Tesselationen kritisieren würde. Im übrigen wurde bei TW3 noch ein Spielinterner regler für die Hairworks detailstufe und Anti-Aliasing hinzugefügt. Damit ist hairworks jetzt wesentlich gerechtfertigter.

Wie stark Tesseliert denn BF genau, weiß das wer?
 
Zurück