Star Wars Battlefront 2 - Unsere effektgeladenen und anspruchsvollen Singleplayer-Benchmarks zum Launch

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Star Wars Battlefront 2 - Unsere effektgeladenen und anspruchsvollen Singleplayer-Benchmarks zum Launch

Star Wars Battlefront 2 ist ein sehr ansehnliches und technisch beeindruckendes Spiel geworden. Die Frostbite-Engine zaubert eine prachtvolle Star-Wars-Atmosphäre auf das Display, die Bildraten sind hoch und die Performance stabil. In unserem neuen, besonders anspruchsvollen Benchmark zeigt Battlefront 2 eindrucksvoll, wie delikat ein moderner Shooter aussehen kann - falls man denn vor lauter Lootbox-Kontroverse und ausgesprochen aggressiver Monetarisierung im Vorfeld überhaupt noch Appetit verspürt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Star Wars Battlefront 2 - Unsere effektgeladenen und anspruchsvollen Singleplayer-Benchmarks zum Launch
 
Ah, sehr schön zu sehen dass Ihr erst die nVidia-Karten getestet habt und bei AMD auf den neuen Treiber, welcher zum heutigen Start zu erwarten war, gewartet habt.... äh Moment...

Spaß beiseite, warum habt Ihr wirklich nicht gewartet? Und gibt es ein zumindest ein Treibervergleich? Wenn ja, werden dann die neuen Werte auch mal in den original Artikel übernommen?

Gruß X
 
Ah, sehr schön zu sehen dass Ihr erst die nVidia-Karten getestet habt und bei AMD auf den neuen Treiber, welcher zum heutigen Start zu erwarten war, gewartet habt.... äh Moment...

Spaß beiseite, warum habt Ihr wirklich nicht gewartet? Und gibt es ein zumindest ein Treibervergleich? Wenn ja, werden dann die neuen Werte auch mal in den original Artikel übernommen?

Gruß X

Wir haben im Vorfeld natürlich bei AMD nachgefragt und man riet uns zum 17.11.1 (welcher immerhin nun WQHL'ed ist). Irgendwann verstreicht jede Deadline. Ordentliche Benchmarks ohne Treibermischmasch kosten sehr, sehr viel Zeit. Ich denke, ihr solltet wissen, dass man so einen Artikel nicht zwischen 12 und Mittag aus dem Ärmel schüttelt. Daher kann um 10 Uhr morgens man auch keine Treiber berücksichtigen, die am vorhergehenden Abend (nach allen Messungen) veröffentlicht wurden. ;) Das hat uns heute Morgen natürlich auch geärgert, es ist jedoch nicht davon auszugehen, dass der .2 etwas bringt, denn bereits der .1 ist "ready" für das Spiel.

MfG,
Raff
 
Also in Richtung, oder auch von Seiten Radeon muss die Kommunikation besser werden.
Passiert doch jetzt zum x-ten mal hier, dass nicht mit dem Release-Treiber von Radeon getestet wird.
Sehr ärgerlich- ein Nachtest von einer VEGA und Polaris mit dem 17.11.2 im laufe des Vormittags wäre da ein feiner Zug.

edit: da der 17.11.2 mit Support für Star Wars Battlefront 2 beworben wird, habe ich schon die Annahme von enthaltenen Optimierungen
 
Wie sieht es in eurer Szene mit 4GB Karten unter WQHD aus? Ich schätze da wird man VRAM bedingt schon etwas eingebremst?
 
In the making. :-)

Wie sieht es in eurer Szene mit 4GB Karten unter WQHD aus? Ich schätze da wird man VRAM bedingt schon etwas eingebremst?

Ja, da wird schon zäh gestreamt. Auf einer 8-GiB-Karte werden in Ultra HD übrigens circa 7 GiByte adressiert, woran sich die vom Spiel als optimal erachtete Kapazität ablesen lässt, bei der die Texturen stets voll sichtbar sind.

MfG,
Raff
 
Unter DX11 sieht man wieder das gleiche Bild wie immer. Da bringt die Vega die Leistung nicht auf die Straße. Das ist sehr schade. Ist ja eine wirklich gute Karte.
Hoffentlich werden mehr Spiele auf Vulkan kommen. Da sind ja die nVidia-Karten nicht schlecht und die AMDs können ihre Leistung besser entfalten.
 
Also ich gehöre ja wirklich nicht zu der Fraktion, die den Wert eines Spiels hauptsächlich an den Spielstunden festmacht.
Wenn eine gut gemachte Kampagne so knapp über 10h bietet, bin ich vollkommen zufrieden (s. Titanfall 2 z.B.).... schliesslich spiele ich ja nicht, um Zeit zu verbrennen, sondern um unterhalten zu werden.

Aber unter 5h ist jetzt wirklich ein schlechter Witz!
Besonders wenn man davon ausgehen muss, dass die Kampagne künstlich beschnitten worden ist, um später mehr DLCs zu verkaufen.

(sorry, ich weiß... hier sollte es eigentlich um die Technik gehen und nicht um den Spieleinhalt...
auf jeden Fall vielen Dank für den Hardware Test! :daumen:)
 
Merhkernoptimierung gut und schön, aber ein auf 3,0GHz limitierter Ryzen repräsentiert jetzt auch nicht unbedingt den unter Gamern üblichen CPU-Bestand von 4c/8t CPUs (typischerweise eher oberhalb der 4,0GHz).

Das wäre doch die spannende Frage: wie schlägt sich z.B. ein übertakteter 7600K oder 7700K gegen einen Ryzen 8 Kerner, welcher zwar erhebliche Nachteile beim Takt, aber dafür mehr Kerne hat. Nur so wüssten die Leute: lohnt es sich langsam aufzurüsten, oder kann auch mit 4c/4t noch lange weiter gezockt werden, so lang nur der Takt hoch genug ist.
 
Oh mann... wieder ein Titel der DX12 voll versemmelt.

War es nicht DICE die bei Mantle mitentwickelt bzw dieses sogar initiiert haben? Und wo ist jetzt der Vorteil dieser Erfahrung, warum ist Vega schon wieder vernichtend geschlagen?

Andere Frage:

Wie siehts mit der Kernskalierung AND vs Intel aus? Wie mit DX 12 AMD vs Nvidia?
 
Merhkernoptimierung gut und schön, aber ein auf 3,0GHz limitierter Ryzen repräsentiert jetzt auch nicht unbedingt den unter Gamern üblichen CPU-Bestand von 4c/8t CPUs (typischerweise eher oberhalb der 4,0GHz).

Das wäre doch die spannende Frage: wie schlägt sich z.B. ein übertakteter 7600K oder 7700K gegen einen Ryzen 8 Kerner, welcher zwar erhebliche Nachteile beim Takt, aber dafür mehr Kerne hat. Nur so wüssten die Leute: lohnt es sich langsam aufzurüsten, oder kann auch mit 4c/4t noch lange weiter gezockt werden, so lang nur der Takt hoch genug ist.

Bis zu "unter Gamern üblichen...." wollte ich zustimmen und dann kam plötzlich die Nennung einer CPU die noch kaum jemand besitzt und Taktraten die niemand erreicht...

Ich danke den Testern für den Test. Meine obigen Anregungen wären nur eine Erweiterung oben drauf aber nicht nötig. Die Mehrkernskalierung ist schon ordentlich.


Andere Frage an die PCGH: ihr habt vor wenigen Tagen ein Min vs Max Vergleichsvideo gepostet. Ich hatte da eine Frage zu einem womöglichen Bug/Einstellungsfehler die nie beantwortet wurde
 
4770K & co sind in meinen Augen schon typische Gamer CPUs, die noch viele besitzen, ich würde einfach nur nicht von PCGH erwarten extra nochmal ein Z87/97 System anzuwerfen um SWBF2 zu benchmarken, daher dann die Nennung der KabyLake CPUs, die ja sicher sowieso noch zur Genüge in der Redaktion/Hardwarelab am laufen sind.
 
Bis zu "unter Gamern üblichen...." wollte ich zustimmen und dann kam plötzlich die Nennung einer CPU die noch kaum jemand besitzt und Taktraten die niemand erreicht...

"CPU-Bestand von 4c/8t CPUs (typischerweise eher oberhalb der 4,0GHz)."

Was genau ist jetzt daran falsch?
Die 4c/8t sind noch sehr weit verbreitet und Taktraten von 4GHz erreicht doch jeder mit diesen CPU`s.
 
"CPU-Bestand von 4c/8t CPUs (typischerweise eher oberhalb der 4,0GHz)."

Was genau ist jetzt daran falsch?
Die 4c/8t sind noch sehr weit verbreitet und Taktraten von 4GHz erreicht doch jeder mit diesen CPU`s.

Reine Definitionssache. Im direkten Vergleich dürften 4c/4t CPUs deutlich weiter verbreitet sein. Was natürlich nicht bedeutet, dass 4c/8t Exoten wären...
 
Unter DX11 sieht man wieder das gleiche Bild wie immer. Da bringt die Vega die Leistung nicht auf die Straße. Das ist sehr schade. Ist ja eine wirklich gute Karte.
Keine der AMD Karten tut das - auch nicht die alten 300er - genaugenommen werden die 300er aufgrund des schlechteren Shedulers sogar noch schlechter ausgelastet als Vega.

@Testvideo
Coole Laub-Partikeleffekte. Sowas gab's früher nur mit GPU-PhysX (hat mich direkt an Sacred II erinnert - da blieb das Laub aber auch noch auf dem Boden liegen).
 
@Testvideo
Coole Laub-Partikeleffekte. Sowas gab's früher nur mit GPU-PhysX (hat mich direkt an Sacred II erinnert - da blieb das Laub aber auch noch auf dem Boden liegen).

Ist nicht vergleichbar. Die Laubeffekte in BF2 haben keinerlei spürbare Physik. Läufst Du 30x an der gleichen Stelle vorbei, hast Du fast immer den gleichen Effekt. Zumindest war es in der Beta so und fühlte sich meiner Meinung nach sehr unnatürlich an.
 
Grade in 4k ist die leistung ja wiklich nicht gut und da frage ich mich wie die X-Box One x da mithalten kann.

Jedenfalls brauch ich zwingend eine neue CPU dabei wolte ich eigentlich vor ca 6 monaten noch meine GPU updaten,

Auserdem macht es auch garkeinen sin sich ein 4k gaming monitor hinzustellen weil man 144HZ nur vernünftig mit einen Full HD monitor nutzen kann
 
Zurück