The Division 2 Open Beta: Zwischenfazit zur Technik - DX12 mit glatten Frametimes, Pascal rehabilitiert

Und einen Ryzen 7 1700 schon als sowas wie Low-End-Abfall zu bezeichnen (bei UHD-Grafiklast) ist ... argh, ich poste schon wieder. Sorry. Bin weg.

Naja, hab ich jetzt nicht gesagt, aber ein Ryzen 7 1700 ist bei einer TitanXP selbst in UHD auf lediglich 3GHz schon so etwas wie Low End, jap.
Das dürfte so in etwa i7 2600K @ stock Leistung sein.
Da würden mich schlechte Frametimes in Directx11 jetzt nicht unbedingt wundern.
Aber wie gesagt, ich verkrieche mich zum Launch wenn meine Aussage hier falsch ist. Aber 16GB braucht kein Mensch um das in 4K zu zocken - da verwette ich meinen Hintern.
 
Bezüglich überlaufendem VRAM/dass es selbst auf Vega 64 zu Problemen dann kommt und auf der VII läuft es dann aber:

wie macht sich HBCC bemerkbar?

Dass soll bei manchen Spielen mittlerweile ganz gut laufen (und bei anderen schlecht)
 
Bezüglich überlaufendem VRAM/dass es selbst auf Vega 64 zu Problemen dann kommt und auf der VII läuft es dann aber:

wie macht sich HBCC bemerkbar?

Dass soll bei manchen Spielen mittlerweile ganz gut laufen (und bei anderen schlecht)

HBCC würde mich auch interessieren in dem Spiel, das dürfte mal ein guter Testfall sein.
Die leidige Vram Debatte musste ja mal wieder angeschoben werden. Bedarf, Verbrauch, Settings hin oder her.

Knackpunkte heute ist eigentlich, das viele Spiele die Shader kompilieren beim ersten Start. Danach entscheidet die Engine nach Zuteilung. Natürlich läuft auf so einem Spiel mit einer 8GB Karte das Spiel dann auch super. Aber alles was dieses nervige Streaming eliminiert ist willkommen. Die ganzen Optimierungen am Speicherbedarf kosten Entwickler ohne Ende Zeit. Streaming versaut einem immer die Frametimes, egal wie gut es umgesetzt ist.

SWBF2 frisst nach dem kompilieren mit HBCC oder der VII auch mehr Speicher als wenn ich mit "nur" 8GB kompiliere. Das selbe bei Quake Champions, das adressiert bis zu 12GB in UHD wenn man es lässt.
Kompiliere ich das so mit HBCC habe ich einen Leistungsverlust, logisch, die Menge ist ja nicht vorhanden. Dafür habe ich aber alles auf der Map im Speicher. Streaming bei einem Onlineshooter zu eliminieren ist Goldwert. Apex adressiert bereits in WQHD mehr als 8GB. Klar läuft das Spiel auch mit weniger gut, aber jedes neue Objekt landet im Speicher und bleibt einfach da. In den Speicher rein streamen ist meistens auch gar nicht so tragisch für die Frametimes, verwerfen und neu adressieren merkt man aber eigentlich immer.

Ansonsten gut das die Pascals aus dem Overhead sind, das wäre wirklich ärgerlich gewesen für Besitzer solcher Karten. Sowas muss ein Titel wie Divison geregelt bekommen.

2019.03.04-18.10.jpg Screenshot (473).jpg 2019.03.04-21.07.jpg
 
Naja, hab ich jetzt nicht gesagt, aber ein Ryzen 7 1700 ist bei einer TitanXP selbst in UHD auf lediglich 3GHz schon so etwas wie Low End, jap.
Das dürfte so in etwa i7 2600K @ stock Leistung sein.
Da würden mich schlechte Frametimes in Directx11 jetzt nicht unbedingt wundern.
Aber wie gesagt, ich verkrieche mich zum Launch wenn meine Aussage hier falsch ist. Aber 16GB braucht kein Mensch um das in 4K zu zocken - da verwette ich meinen Hintern.

Aber das ist doch genau der Punkt von DX12. Ich nehme eine CPU die 65W Verbrät weil niedriger Takt und leiste, was eine CPU mit 150 W Verbrät, weil 5 GHz. Was ist daran schlecht?
Eigebtlich schön das Raff es aufzeigt, das mit DX12 Potentiell wesentlich kleine CPUs verwendet werden können.

Meine läuft auch gerade auf 3 GHz, reicht locker für 60 FPS in allen Spiel die ich spiele (außer KCD in Rattay)


Und bei der Wahl zwischen der Märchenstunde von dir oder Raff ist ganz klar wer die realistischere erzählt ;)
 
Zuletzt bearbeitet:
Wenn jetzt jedes Spiel mit hoher Speicherauslastung gleich zu einem AMD Titel wird, gibt es bald keine NVidia gesponsorten Spiele mehr.
4k + 8GB wurden schon vor etlichen Jahren von den ersten Spielen gesprengt.
Wenn jetzt 11 bzw. 12GB zum Flaschenhals werden können, wenn man alles sichtbare und nicht mehr wirklich sichtbare an Grafik herauskitzeln will, dann ist das der normale Lauf der Dinge und keine heimliche Verschwörung.
Wer 4K, Raytracing, Kantenglättung und alles an Shaderfunktionen bis in die vollen ausreizt und eine riesige Open-World erwartet, hat halt einige Daten "flüssig" zu halten.
Nicht umsonst hat AMD seit Jahren viel Speicher auf ihren Karten verbaut und neuerdings auch die Speicherverwaltung ordentlich optimiert, um besser mit dem Hauptspeicher agieren zu können, ohne gleich Mikroruckeln zu verursachen, wenns wieder mal eng wird.
Die schauen halt imemr ein wenig in die Zukunft,w as denen gerne als Negativpunkt angekreidet wird, weil viele Leute einfach nur hier und jetzt für diesen Tag die schnellste Karte haben wollen.
Wer ohne Weitblick arbeitet, so wie NVidia und ihre Fanboys, die müssen halt in den sauren Apfel beißen.
Wenn man gerne nur alte Spiele spielt und keinen Fortschritt erwartet, kann man gerne auf seinem Pentium 200 2D Plattformer zocken gehen.
Aber sich aufregen, dass Karten mit wenig Speicher nicht richtig funktionieren udn die anderen, die es richtig machen, Schuld daran sein sollen, das geht überhaupt nicht.
Man kauft sich ja auch kein E-Auto mit 300km Maximal-Reichweite , wenn man täglich 100 Kilometer fahren muss, und dann regt man sich drüber auf, dass man nur noch am Nachladen ist und die nächste Ladestation 30 Kilometer in die andere Richtung entfernt liegt.
Dummer Vergleich, gleiches Prinzip.

So einen Schrott habe ich schon lange nicht mehr gelesen. Wieviele Consumer Karten von AMD haben denn mehr als 8 GB RAM? Achso. Nur eine - und die ist zu teuer und zu langsam - und jetzt machst Du ein Faß auf?

War es nicht AMD, die mit der Fury eine Grafikkarte raus gebraucht haben, die gerade mal 4 GB hatte, nur weil AMD partout HBM Speicher verballern wollte? War da der Weitblick auf HBM, weil der sich flächendeckend durchgesetzt hat?

Ich kann Dir schon jetzt prophezeien, dass mit dem release 8GB RAM auf 4K vollkommen ausreichen werden. Dafür sorgt der Entwickler und nVidia, denn das kann sich Ubisoft wahrlich nicht leisten wenn 70-80 % aller potentiellen Spieler das Spiel wegen des Grafikrams nicht oder nur sehr eingeschränkt spielen können.
 
Kann mir gut vorstellen, dass die GTX1070 oder RTX2080 von Usern wie Jeretxxo oder Hawkins unter DX12 am zu geringen VRAM kripieren.
8GB sind je nach Setting dann vllt echt zu wenig. Wird sicherlich interessant nach Release dann mal zu bewerten, in wie weit der "fehlende VRAM" durch zusätzliches Streaming auf solchen Karten relativiert werden kann. Da wird treiberseitig bestimmt irgendwas gefixt. Nvidia wird sich ja nicht hinstellen und sagen "nene, spielt mal besser nur mit DX11". Wenn es unter DX11 überhaupt so viel besser aussieht.. (s.VRAM-Auslastung auf meinem Screenshot aus der private Beta mit DX11)

Ob die Bildqualität aber die selbe bleibt?
In den Settings lässt sich ansonsten zum Glück viel einstellen:
Zusätzliche Streamingdistanz (bis Stufe 10)
Objektdetails
Auflösung projizierter Texturen (bis 512)

Im Ultra-Preset ist hier glaub ich nur die Auflösung projizierter Texturen wirklich maxxed out. Ist aber eigentlich egal, wichtig entsprechend, dass es die notwendigen Schieberegler für kleinere VRAM-Budgets gibt.
Wenn man aber voll ausfahren kann und vor einem 4K Screen sitzt(ich leider non DCi -.-), dann fängt man bei diesem Titel echt an zu sabbern und denkt sich "Willkommen im neuen Grafikzeitalter"

Die Radeon VII kommt im Ultra-Preset unter DX12@4K richtig auf Touren. Und nennen wir es offenes Geheimnis, bestimmt will man hier zeigen was die Radeons drauf haben. Vega 10 profitiert vom HBCC und Vega 20, da weiß man eh bescheid.

Der HBCC arbeitet hervorragend in The Division.
vram_vega64_td2_dx11_3840x2160_customized_settings-jpg.1036401
 

Anhänge

  • VRAM_Vega64_TD2_DX11_3840x2160_customized_Settings.jpg
    VRAM_Vega64_TD2_DX11_3840x2160_customized_Settings.jpg
    1,5 MB · Aufrufe: 291
Aber wie gesagt, ich verkrieche mich zum Launch wenn meine Aussage hier falsch ist. Aber 16GB braucht kein Mensch um das in 4K zu zocken - da verwette ich meinen Hintern.
Da die Engine bestimmt technisch sehr ausgefeilt ist, wird es vermutlich auch mit weniger Vram ordentlich laufen. Ist die Frage, ob und wie häufig Details nicht in bester Qualität dargestellt werden.
 
Eigebtlich schön das Raff es aufzeigt, das mit DX12 Potentiell wesentlich kleine CPUs verwendet werden können.

Ich habe keine Ahnung was in dem Bench @ 4K limitiert. Kann die CPU sein, kann der Treiber sein oder was auch immer.
Prinzipiell sind unregelmäßige Frametimes unter Directx11 was neues und das wird sicherlich gefixed.
V-ram Belegung bedeutet auch nicht, dass man den V-ram benötigt, um zu sagen dass es 16GB Speicher in 4K @ ultra benötigt um das Spiel flüssig zu zocken, müsste man erst einmal so eine Karte einbauen und gegen die Titan X vergleichen.
Ein Speicherbug ist für mich erstmal kein Fortschritt und hier und da mal hochaufgelöste Texturen sind kein Grund den Speicherverbrauch derart explodieren zu lassen, denn die Bodentexturen, die Texturen von Müllresten, der Bänke und der Wände sind Durchschnittskost.
 
Du bist ein Lügner

Ich weiß gar nicht warum ich immer noch auf deinen Schund eingehe, aber du hast ja behauptet ich Lüge, als ich das wiederlegt habe, dass eher du lügst, kam nichts mehr, dat nenn ich mal ne gute Diskussionskultur, abstreiten das man was gesagt hat, den anderen als Lügner hinstellen und wenn das wiederlegt wird nicht mehr Antworten, so wird echt Zeit dich auf die Ignor Liste zu setzen
 
Meine Beobachtungen bestätigen ... wenn genug Speicher da ist, wird der auch genutzt.
Da die Beta abgelaufen ist kann ich leider keinen Gegentest machen, aber es gibt ja jetzt Möglichkeiten meiner Graka z.b. 10GB Speicher zu "klauen".
Wenn dann die FPS nachgeben, dann weiß ich dass sich die Leistung der Graka durch fehlenden Speicher nicht voll entfalten kann.

Und unter DX12 hab ich schon im Vorspann die 16GB fast voll, auch im grünen Lager wohlgemerkt.

Letztes Bild Vorspann.
thedivision2_2019_03_2jk4n.jpg

1. Bild Game.
thedivision2_2019_03_eyk8h.jpg
 
Zuletzt bearbeitet:
Übrigens genügen in Ultra HD unter DX12 mit maximalen Details phasenweise nicht einmal die 12 GiByte einer Titan X Pascal, 16 GiByte sollten es für absolut ruckelfreie Performance sein - ein Schelm, wer hier Optimierungen für die Radeon VII im Rahmen der AMD-Partnerschaft vermutet.

Fände ich suboptimal bis bescheuert, für wenige tausend Grafikkartenbesitzer auf der Welt dies so zu programmieren, denn sinniger wäre das Engineoptimum bei ~11GB gewesen (oder wird noch). Texturen hin oder her, es bleibt am Markt vorbei programmiert
 
Ich bin gespannt wenn ich das Spiel am 15. März mit 5 untersch. Karten mal anschauen kann, da bin ich gespannt ob dieser Test irgendeine Relevanz hat - ich tippe auf nein.

Und du mal wieder keine Bilder, Videos oder sonst einen Beweis für deine Aussagen bringst....Ist doch immer das selbe mit dir...Du behauptest was, was mit deinen 846 verschiedenen System so und so läuft, das und das verbraucht und wir müssen es dem lieben Herrn Schaffe glauben, da er keine Beweise in der oben genannten Form liefert.... Täglich grüßt das Murmeltier^^
 
@ Palmdale

Die Hardware hinkt der Software normalerweise immer Jahre hinterher.
Würden die Software-Buden nicht innovativ arbeiten, würde wir jetzt immer noch vor 386sx16 mit ISA-Grakas sitzen. Weil bräuchte ja niemand was schnelleres, denn ist am Markt vorbei programmiert wenn es mehr fordern würde.

Ich kann mich noch an 3DMark erinnern das irgendwie mit 15 FPS dahingeruckelt ist mit Highend-Hardware. Dagegen ist sowas wie Division2 ja geradezu massentauglich :-)

Ich glaub ich kann mich an den gleichen Aufschrei zu Crysis-Zeiten erinnern :-)
Aber generell ist es doch so das bei PC-Titeln immer ein paar Optionen vorhanden sind, die jede Mühle in die Knie zwingen.
 
Zuletzt bearbeitet:
Bei so viel VRam Diskussion bin ich mal gespannt ob ich das Spiel flüssig auf einer uralten 670 mit 2GB oder einer etwas jüngeren 970 mit 4 GB ans laufen bekomme.
Hat mit entsprechenden Regler Schubsen funktioniert, bei der 670 natürlich auch mit notwendigen zusätzlichen Auflösung reduzieren um Spielbare FPS zu erreichen.
Klappte tatsächlich in der Closed Beta und Open Beta.

Ein Wunderwerk der Technik diese Regler.
Besonders wenn man ohne Bild an Bild Vergleich im Blindtest bei vielen Dingen (allgemein gesprochen , nicht auf dieses Extrem Beispiel bezogen) nicht mal ein Unterschied sieht.
 
Wenn ich den Spiele-Code von AMD bekomme, schau ich es mir evtl. mal mit HBCC@32GB an^^
 
Dann bück dich schonmal...

Caching ist super aber irgendwann sollte man auch doch nicht/weniger oft verwendete Texturen rausschmeißen.
Ich lade später ein Bild von FC New Dawn hoch, das meinen gesamten Ram belegt. Gut gegen Ruckler aber ich habe nicht überprüft was passiert, wenn ich raustabbe und den Browser starte :ugly:
Noch steht bei Div Beta drauf, muss halt zu Release gefixt sein, wenns überhaupt ein Problem ist.
 
Deshalb hab ich ja Screenshot vom Game-Start angehängt in #51.
Ist Caching wirklich Caching, wenn es schon im 1. Bild vom Level 16GB VRAM-Füllung anzeigt? Dachte Caching kommt erst wenn man durch die Gegend rennt.
 
Zurück