Borderlands 3 PC im Techniktest: Cel-Shading und Ruckel-DX12

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Borderlands 3 PC im Techniktest: Cel-Shading und Ruckel-DX12

Die Systemanforderungen von Borderlands 3 PC kritisch geprüft: Mit Borderlands 3 geht die schräge Loot-Shooter-Serie in eine neue Runde - derzeit exklusiv in Epics Game Store. Technisch gibt es viel Gutes, aber auch einige Probleme zu berichten. Welche Leistung populäre Grafikkarten und Prozessoren in Borderlands 3 erreichen, prüft PC Games Hardware anhand der aktualisierten Version 1.01.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Borderlands 3 PC im Techniktest: Cel-Shading und Ruckel-DX12
 
Schön, da mal was von euch drüber zu lesen.
Ich bin mit der Performance von BL3 noch nicht ganz zufrieden.
DX12 lässt bei mir die CPU frametimes zwar soweit sinken, dass ich nur noch im GPU Limit bin, die von euch angesprochenen Stocker haben mich aber wieder zu DX11 gebracht.
Hier ist die Performance stellenweise katastrophal, aber ich habe lieber FPS drops statt dieses nervige gestocke in DX12.
Die Ruckler beim Waffenzoom sind seit dem letzten Patch Gott sei Dank Geschichte, ich hoffe aber, dass da noch was kommt.
 
Ihr solltet vllt. mal die Grakas auf der jeweils passenden Plattform testen.

Für Navi würde ich mir X570@PCiE 4.0 mit DX12 wünschen. (Wer will denn auf RIS verzichten?)
(der DX11 Bench ist ja wohl NIX sagend)

Das NV keine gescheiten DX12-Treiber hat, ist halt Pech.
(verdoppelt den Aufwand für die Redaktion mit Bench@DX11)

Bei gamegpu ist Es zwar auch net PCiE4.0 aber man hat mal nen Eindruck von Navi@DX12:
 

Anhänge

  • B3@1440p.PNG
    B3@1440p.PNG
    51,7 KB · Aufrufe: 198
Zuletzt bearbeitet:
anderes Bild bei mir:

ich musste auf DX12 gehen weil keine 120fps erzielt werden konnten unter DX11, trotz 2080ti OC auf 2100 und 8700k auf 4.9Ghz. Erst unter DX12 kann ich die 120hz permanent halten und hatte in den 40 Stunden lediglich dann einen stocker, wenn entweder die Map geladen wurde oder ich von einem SMG auf einen Rocket Launcher gewechselt habe.

DX11 war für mich indiskutabel, hier wurden teils nicht einmal 100fps erreicht und die Graka langweilte sich.. Bis auf die völlig absurden Anforderungen an die Hardware um 120hz@1080p spielen zu können, bin ich mega zufrieden.
 
Hier ist die Performance stellenweise katastrophal, aber ich habe lieber FPS drops statt dieses nervige gestocke in DX12.
Das Gestotter dürfte daran liegen, dass die Unreal Engine ihre Shader bzw. Pipelines on demand compiliert, statt schon beim Laden des Hauptmenüs (wie z.B. id Tech-Spiele) oder wenigstens beim Laden des Levels (wie z.B. Rise/Shadow of the Tomb Raider).

Das funktioniert schon in Dx11 eher schlecht als recht und sorgt nach Treiberupdates gerne mal für Ruckeln, mit D3D12 und Vulkan fliegt man damit aber gehörig auf die Schnauze. Schade, dass die das immer noch nicht hinbekommen.
 
Kleiner Fehler im Artikel: Ihr habt im CPU Vergleich unter DX11 beide Male das gleiche Bild drin.

Vielen Dank für den Test!

edit: Nach dem Lesen des Tests:
Doch auch Vega macht eine gute Figur, während der vor seiner Ablöse stehende Polaris-Chip In Form der Radeon RX 590 und RX 570 etwas schwach performt.
Wieso performt die 590 schwach, wenn ihr sagt die Vegas performen gut und die 590 aber die üblichen 25% hinter der V56 liegt? Dieses Fazit ergibt keinen Sinn. Die 590 landet genau da wo sie soll und muss folglich ebenfalls gut performen, wenn man annimmt, dass die V56 eine gute Figur macht.
 
Zuletzt bearbeitet:
und wieder ein Beispiel wo die Vega 56 unoptimiert auf niveau der 1080 ist xD
Früher war die eigentliche Konkurrenz eine 1070 non ti. Saubere Produktpflege AMD :-D
 
und wieder ein Beispiel wo die Vega 56 unoptimiert auf niveau der 1080 ist xD
Früher war die eigentliche Konkurrenz eine 1070 non ti. Saubere Produktpflege AMD :-D

Ok, genau wie früher liegt die Vega 56 genau zwischen 1070 und 1080. Siehe als Beispiel in 4k, wie die drei entsprechenden Customs sich platzieren.

Würde über alle eigenschaften nach wie vor meine 1070 nicht gegen eine V56 eintauschen wollen. Habe ein paar mal über die V64 nachgedacht aus Bastelspaß.
Gibt übrigens auch immer wieder Beispiele die anders aussehen und im Mittel ist man da, wo man immer war.
 
Weird, ich hab BL3 auch, und mal aus Testgründen das Frametimes Overlay vom Afterburner/RivaTuner aktiviert - ich hab durchgehend glatte Frametimes und die FPS sind im Schnitt ~10 höher als in DX12. Abgesehen von dem Jahre dauerndem Loadscreen bei Spielstart ist mir nix negatives an DX12 aufgefallen. Die Ruckler von denen Ihr schreibt sind mir dagegen mit DX11 aufgefallen. Ich spiele auf einer Vega 64 Nitro + in FHD ebenfalls mit dem Ultra-Preset
 
Der Ryzen 7 3800X @ DX11 Graph muss noch nachgereicht werden. Wie man an der Bildunterschrift sieht, ist es der Core i9-i9900K @ DX11 Graph.

Dabei interessiert mich gerade der Vergleich Intel vs. AMD bei DX11 ohne diese Verzerrung durch die DX12 Probleme.

EDIT: zur selben Zeit wie der Autor geschrieben.
 
also bei mir war das game in dx11 besonders in kämpfen sehr ruckelig und während es sonst mit 70 fps bei meiner 1080 lief, ging es in kämpfen auf die 30 zu
dx12 hat da komplett abhilfe geschafft, durch dx12 lief es nach der langen ladezeit am anfang durchgängig mit 70-90 fps auf 1080p, sehr schön. Auch in den wildesten Kämpfen! von daher kann ich den Titel nicht nachvollzieren
 
Und ne uralte GTX 980Ti ist so schnell wie die Red Devil Vega 56. Und nu?
Saubere Produktpflege von Nvidia?

Du hast absolut recht die 980 ti ist bei diesem spiel wirklich gut. Das ist aber eher eine Ausnahme und bei der Vega 56 momentan eigentlich die Regel. Und nochmal als die Vega 56 releast wure, war sie im Schnitt gleichauf mit einer 1070. Heute sieht das Bild anders aus wir haben im Schnitt 20% mehr Leistung und bewegen uns unoptimiert schon auf 1080er Niveau und da geht bekanntlich noch viel mehr ohne das der Stromverbrauch explodiert weil die Karten ja bekanntlich zu viel Spannung per default haben.

Edit: wobei ich meine Aussage zurück ziehen muss. die 980 ti ist in den letzten test wie Wolfenstein oder F1 überhaupt nicht enthalten. Wäre durchaus interessant wie die 900er @max cores sich in den Spielen schlägt @pCGamesHardware vllt die 980ti absofort immer in den Tests aufnehmen und vllt in anderen ergänzen xD?

Grüße Tobi
 
Zuletzt bearbeitet:
Du hast absolut recht die 980 ti ist bei diesem spiel wirklich gut. Das ist aber eher eine Ausnahme und bei der Vega 56 momentan eigentlich die Regel. Und nochmal als die Vega 56 releast wure, war sie im Schnitt gleichauf mit einer 1070. Heute sieht das Bild anders aus wir haben im Schnitt 20% mehr Leistung und bewegen uns unoptimiert schon auf 1080er Niveau und da geht bekanntlich noch viel mehr ohne das der Stromverbrauch explodiert weil die Karten ja bekanntlich zu viel Spannung per default haben.

Edit: wobei ich meine Aussage zurück ziehen muss. die 980 ti ist in den letzten test wie Wolfenstein oder F1 überhaupt nicht enthalten. Wäre durchaus interessant wie die 900er @max cores sich in den Spielen schlägt @pCGamesHardware vllt die 980ti absofort immer in den Tests aufnehmen und vllt in anderen ergänzen xD?

Grüße Tobi

Die GTX 980 Ti sollte eigentlich immer im Bestand der aktiv getesteten Modelle sein. Sollten wir das mal vergessen, einfach Bescheid sagen. :-)

MfG,
Raff
 
Zurück