The Division 2 Open Beta: Zwischenfazit zur Technik - DX12 mit glatten Frametimes, Pascal rehabilitiert

Deshalb hab ich ja Screenshot vom Game-Start angehängt in #51.
Ist Caching wirklich Caching, wenn es schon im 1. Bild vom Level 16GB VRAM-Füllung anzeigt? Dachte Caching kommt erst wenn man durch die Gegend rennt.

FC arbeitet ganz genauso, Gamestart > 11GB VRAM voll
ist halt schwer zu sagen "geht auch mit x GB", ich hab nur 11 mit TI Leistung^^

Caching muss ja nicht nur bereits genutztes Herhalten, wenn man will kann man ja grundsätzlich alles mögliche vorab in den Speicher schieben.
 
Wobei Gegentests gezeigt haben: Wenn die Graka schon "zu wenig" VRAM vorhält, dann regt man nur den Memorymanager von Windows zur Arbeit an (die er ja sowieso schon zu tun hat).
Eventuell passt der Test nur bei Grafikkarten die "zu viel" VRAM zu Verfügung stellen. Tests trotzdem gerne gesehen.
 
Deshalb hab ich ja Screenshot vom Game-Start angehängt in #51.
Ist Caching wirklich Caching, wenn es schon im 1. Bild vom Level 16GB VRAM-Füllung anzeigt? Dachte Caching kommt erst wenn man durch die Gegend rennt.

Ein Cache kann auch initial einfach komplett gefüllt werden. Ein Cache ist ja nur dafür da, um Daten schneller abrufen zu können.
Wie/wann man diesen füllt ist begrifflich irrelevant.
 
Wir nicht initial gefüllt, füllt sich im Laufe des Games noch weiter :-)
Hab schon fast 18GB auf der Uhr gesehen.

thedivision2_2019_02_sjkdx.jpg

Aber danke für die Aufklärung. Ich versuche das im Kopf zu behalten.
 
Es geht halt beim VRAM Bedarf nicht nur um die Optik sondern um die vielen hochaufgelösten Texturen: Flyer, Bilder etc. sehen alle super aufgelöst aus. Ich finde es auch quatsch da eine AMD Optimierung hineinzuinterpretieren, wenn AMD damit 95% des eigenen Grafikkarten Lineups schwächen würde. Die Texturen wurden gewiss nicht alle für eine AMD Optimierung erstellt.
 
In 4K? Das hab ich wo behauptet?
Link und Zitat bitte.

Ansonsten ein VRAM Blender wie ResEvil, wie konnte ich die Beta nur auf der 4 GB 470 flüssig spielen? Strange.

Erstmal Patches abwarten, ist ja noch nicht final.
Ansonsten merkt man die AMD Partnerschaft massiv, das ist noch offensichtlicher als bei manchen Gameworkstiteln.

Directx12 knallt einfach nur sinnfrei den Speicher voll und Raff bewirbt es als Fortschritt, typisch. ^^
Aber Gameworksgecrampe war ohne wirklichen Nutzen z. Bsp. wie Hairworks vollkommen gerechtfertigt?

DX12 macht es unter llv erst möglich, den VRAM auch mal voll auszunutzen.

Ums nochmal zu erklären, die Engine reserviert immer gleich viel Speicherressource, einfach mal den Manager aufrufen. AMD muss dann weniger über den PCIe Bus streamen, sowie unter DX12 dann gleichfalls die Frametimes glatter ausfallen können. Das hat nichts mit einer Optimierung für AMD zu tun, sondern ist Absicht um Spikes und Frameratendroops auszuschliessen.

Die Seven hat im Gegensatz zur 2080 einfach nur den grösseren VRAM, auf der Titan RTX versus Ti müsste es ähnlich aussehen.

Natürlich sind glattere Frametimes unter 4k ein Fortschritt.
 
Wobei Gegentests gezeigt haben: Wenn die Graka schon "zu wenig" VRAM vorhält, dann regt man nur den Memorymanager von Windows zur Arbeit an (die er ja sowieso schon zu tun hat).
Eventuell passt der Test nur bei Grafikkarten die "zu viel" VRAM zu Verfügung stellen. Tests trotzdem gerne gesehen.

Du beziehst dich sicher auf meine Posts im CB Forum.

Aber das ist so nicht ganz richtig. Selbst wenn ich ein Spiel starte, das weniger, als 4GB VRAM belegt und daher mit voller Performance läuft, führt der VRAM Allocator mit 3,3 GB Vorbelegung nicht dazu, dass die Peformance verringert wird.

Das was zu viel ist, wird einfach aus dem VRAM in den RAM geswappt, das ist in vermutlich <1 sec erledigt und ab dann ist der Performanceimpact durch den VRAM Allocator gleich Null. Im Endeffekt ist er zu keiner zeit Messbar.

Ich verstehe nicht, wie es sein kann, dass das Tool bei dir die Performance verschlechtern kann.


Das würde ja heißen, dass der Memory Manager bei dir priorisiert die Daten des Spiels in den RAM Swappt, anstatt die Daten des VRAM Allocators. Das kann ich mir irgendwie nicht vorstellen. Warum sollte das Memory management bei dir komplett anders arbeiten, als bei mir?
Zumal es allgemein wenig Sinn ergibt, Daten einer Anwendung im VRAM zu halten, auf die nicht zugegriffen wird. Es ist doch nur logisch, dass die Daten im Speicher bleiben, auf die zuletzt zugegriffen wurde oder die zuletzt verändert wurden. (also die Daten des Spiels) Wenn weder Zugriff noch Änderung passiert (was bei den Daten des VRAM Allocators der Fall ist), fliegen die Daten raus. Ganz einfach. Grundprinzip eines Cache.
Warum sollte das bei dir anders sein?
 
so viel zum Thema "Division 2 sieht grafisch genauso aus wie Teil 1" mimimimimmimimi

Wo liest du aus dem Test heraus das Teil 2 wesentlich anders aussieht als Teil 1 bis auf die Wetterlage?

Ich finde Teil 1 in einigen Bereichen immer noch etwas stimmiger. So viel mehr los ist bei Teil 2 auch nicht auf dem Bildschirm. Vorgänger hat noch 6GB Vram verlangt. Selbst wenn man Teil 2 20% bessere Technik zugesteht kann sowas kaum mehr als den doppelten Vram zum Vorgänger verlangen bei gleicher Engine.

Von mir aus kann ein Game in extremen Setting 16GB benötigen aber dann muss auch der optische Gegenwert stimmen. Tut es aber scheinbar bei Teil 2 nicht und ich habe Close und die jetzige Beta gezockt.
Vorallem wenn das Game dann die meisten Käufer mit 4 oder höchstens 8GB finden wird. Da darf es nicht bei hohen Settings gleich ins Stocken geraten. Sowas wäre eher am Markt vorbei programmiert.

Teil 1 konnte man noch in 4k auf einer PS4 Pro darstellen und die hat nur 5,5 bzw 6GB Gesamtspeicher zur Verfügung. Selbst wenn die PC Version 30% mehr Objekte zeigt können sowas nicht gleich über 12GB benötigen.
 
Zumal bei Teil 1 da auch ne Menge Kram rum liegt und das Spiel schon sehr detailliert ist. Ich habs an anderer Stelle schon geschrieben, ich habe Teil 1 gespielt und Teil 2 von der Alpha bis zur Open Beta und ich finde den grafischen Fortschritt nicht unbedingt eklatant.
 
Du beziehst dich sicher auf meine Posts im CB Forum.

Aber das ist so nicht ganz richtig. Selbst wenn ich ein Spiel starte, das weniger, als 4GB VRAM belegt und daher mit voller Performance läuft, führt der VRAM Allocator mit 3,3 GB Vorbelegung nicht dazu, dass die Peformance verringert wird.

Das was zu viel ist, wird einfach aus dem VRAM in den RAM geswappt, das ist in vermutlich <1 sec erledigt und ab dann ist der Performanceimpact durch den VRAM Allocator gleich Null. Im Endeffekt ist er zu keiner zeit Messbar.

Ich verstehe nicht, wie es sein kann, dass das Tool bei dir die Performance verschlechtern kann.


Das würde ja heißen, dass der Memory Manager bei dir priorisiert die Daten des Spiels in den RAM Swappt, anstatt die Daten des VRAM Allocators. Das kann ich mir irgendwie nicht vorstellen. Warum sollte das Memory management bei dir komplett anders arbeiten, als bei mir?
Zumal es allgemein wenig Sinn ergibt, Daten einer Anwendung im VRAM zu halten, auf die nicht zugegriffen wird. Es ist doch nur logisch, dass die Daten im Speicher bleiben, auf die zuletzt zugegriffen wurde oder die zuletzt verändert wurden. (also die Daten des Spiels) Wenn weder Zugriff noch Änderung passiert (was bei den Daten des VRAM Allocators der Fall ist), fliegen die Daten raus. Ganz einfach. Grundprinzip eines Cache.
Warum sollte das bei dir anders sein?

Du ... ich kann doch auch nur rumexperimentieren und dann die Werte die ich rausbekomme interpretieren. Nix anderes machst Du.
Unser "Wertepool" ist eventuell noch zu klein um mehr Rückschlüsse zu erlauben.
Ich werde das auch weiterhin beobachten und bei Gelegenheit auch testen und dann hoffentlich mehr Daten für Rückschlüsse erhalten.
 
Ich verstehe echt nicht, was die Leute gegen die gebotene Grafik haben. Auf meiner Vega 56 sieht das Spiel unglaublich aus. Eine Reflektionen sind leider etwas Matschig ab und zu. Aber ansonsten kann das Spiel bei allen anderen Games in Sachen Grafik mithalten. Es sieht auf jeden Fall auch besser aus als der erste Teil. Die Welt ist viel vollgestopfter mit irgendwelchen Sachen. Der erste Teil hatte nur den Vorteil mit dem Schneesetting. Das war sehr atmosphärisch. Und ich vermisse das auch ein bisschen.
 
Du ... ich kann doch auch nur rumexperimentieren und dann die Werte die ich rausbekomme interpretieren. Nix anderes machst Du.
Unser "Wertepool" ist eventuell noch zu klein um mehr Rückschlüsse zu erlauben.
Ich werde das auch weiterhin beobachten und bei Gelegenheit auch testen und dann hoffentlich mehr Daten für Rückschlüsse erhalten.

Das ist mir schon klar.

Mein Problem ist nur, dass meine Ergebnisse für mich absolut logisch erscheinen und meinen Erwartungen entsprechen (eben genau das, was ich in meinem allerersten Post zu dem Thema im CB Forum vermutet habe), während ich das Verhalten bei dir nicht wirklich nachvollziehen kann. Nochdazu ist es praktisch das gegenteilige Verhalten.
Deswegen eben der Unglaube meinerseits.

Aber letzten Endes hast du schon recht. Es werden mehr Tests notwendig sein, um sich ein Urteil bilden zu können...


Trotzdem, der Thread hier hört sich so an, als hätte man mit weniger, als 12GB VRAM in dem Game schlechte Framtimes oder nicht die volle Texturstufe.
Beim besten Willen, für mich ist das völlig absurd. Die Framtimes in der Closed Beta waren bei mir stets sauber und die Texturen waren knack scharf. Trotz 4GB VRAM. Mehr kann ich dazu nicht sagen. Ich kann nicht beurteilen, ob das die besten Texturen waren, genausowenig, wie der Rest hier beurteilen kann, inwiefern performance und Texturschärfe vom VRAM profitieren und ab welcher Speichermenge es zu Kompromissen kommt. Trotzdem kann ich mir nicht vorstellen, dass zumindest 8 GB nicht mehr locker reichen sollten...

Solange es dazu keine anständigen Tests gibt, glaub ich kein Wort. Gut, mit Glauben hat das wenig zu tun, die hier geposteten Screenshots zeigen nur die Fakten.
Aber ich denke, dass wir das ganze einfach nur völlig falsch interpretieren. Aber klar, jeder der viel VRAM auf seiner Karte hat, muss das natürlich rechtfertigen, sobald er belegt wird. Wie sollte es auch anders sein? Eine neutrale Sicht ist für jeden von uns fast unmöglich.
 
Aber letzten Endes hast du schon recht. Es werden mehr Tests notwendig sein, um sich ein Urteil bilden zu können...

Man könnte auch einfach bei Massive fragen, als Redaktion und Tech-Interview und so.

Trotzdem, der Thread hier hört sich so an, als hätte man mit weniger, als 12GB VRAM in dem Game schlechte Framtimes oder nicht die volle Texturstufe.
Beim besten Willen, für mich ist das völlig absurd. Die Framtimes in der Closed Beta waren bei mir stets sauber und die Texturen waren knack scharf. Trotz 4GB VRAM. Mehr kann ich dazu nicht sagen. Ich kann nicht beurteilen, ob das die besten Texturen waren, genausowenig, wie der Rest hier beurteilen kann, inwiefern performance und Texturschärfe vom VRAM profitieren und ab welcher Speichermenge es zu Kompromissen kommt. Trotzdem kann ich mir nicht vorstellen, dass zumindest 8 GB nicht mehr locker reichen sollten...

Solange es dazu keine anständigen Tests gibt, glaub ich kein Wort. Gut, mit Glauben hat das wenig zu tun, die hier geposteten Screenshots zeigen nur die Fakten.
Aber ich denke, dass wir das ganze einfach nur völlig falsch interpretieren. Aber klar, jeder der viel VRAM auf seiner Karte hat, muss das natürlich rechtfertigen, sobald er belegt wird. Wie sollte es auch anders sein? Eine neutrale Sicht ist für jeden von uns fast unmöglich.

Zumindest gilt:
Irgendwo muss es gespeichert werden.
Irgendwann muss es geladen werden.
VRAM ist am schnellsten.
Nachladen ist nicht umsonst.
Die Datenmenge steigt.

Wenn man sich andere Spiele anschaut, stellt man auch oft fest, dass man nicht die volle Texturauflösung sieht und erst nachgeladen werden muss. Das ist jetzt nichts besonderes, das ist eher schon üblich - immerhin dann noch ein paar GB VRAM frei... yay.
 

Wüsste nicht das DIII mehr als 4GB benötigt. Hier wird zu oft genutzter Vram durch Engine mit wirklich nötiger Vram zur Leistungsminderung durcheinandergebracht.

Zumal auch jede Grafikkarte und Speicherausbau anders arbeitet. Gleiche Game kann mit identischen Setting auf Karte A 3,9GB belegen und auf Karte B 4,5GB.
Wurde hier im Forum von Thorsten doch schon öfters erklärt.
Dann kommt noch der Faktor hinzu wie effizient ein Entwickler programmieren kann. Denn verschwenderisch programmieren sollte kein Problem darstellen. Dafür gibt es dann aber immer optisch gleichwertige Gegenbeweise wo etwas weniger braucht.
 
Aber Gameworksgecrampe war ohne wirklichen Nutzen z. Bsp. wie Hairworks vollkommen gerechtfertigt?

DX12 macht es unter llv erst möglich, den VRAM auch mal voll auszunutzen.

Ums nochmal zu erklären, die Engine reserviert immer gleich viel Speicherressource, einfach mal den Manager aufrufen. AMD muss dann weniger über den PCIe Bus streamen, sowie unter DX12 dann gleichfalls die Frametimes glatter ausfallen können. Das hat nichts mit einer Optimierung für AMD zu tun, sondern ist Absicht um Spikes und Frameratendroops auszuschliessen.

Die Seven hat im Gegensatz zur 2080 einfach nur den grösseren VRAM, auf der Titan RTX versus Ti müsste es ähnlich aussehen.

Natürlich sind glattere Frametimes unter 4k ein Fortschritt.

Ach was, in Benchmarks von Nvidia Titeln versteckte Bereiche einzubauen mit Hairworks und Tesselation ohne Ende ist doch völlig legitim :D
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Es bewahrheitet sich das, was man die letzten 15 Jahre gesehen hat: Neue Spiele brauchen mehr VRAM. Eine neue 6GB-VRAM-Karte in 2019 = geplante Obsolezenz. Jetzt drehen die Verfechter von 6GB sind genug druch, nachdem mit jedem neuen Titel außer Metro Exodus klar wird, dass der Prozess jetzt schon stattfindet.
 
Zurück