• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

The Division 2 Open Beta: Zwischenfazit zur Technik - DX12 mit glatten Frametimes, Pascal rehabilitiert

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu The Division 2 Open Beta: Zwischenfazit zur Technik - DX12 mit glatten Frametimes, Pascal rehabilitiert

Ubisofts The Division 2 ist beinahe fertig, in wenigen Tagen erscheint der bildhübsche Shooter als finale Version. Die gerade beendete Open-Beta-Testphase erlaubt eine gute Vorschau auf das, was uns am 15. März erwartet. PC Games Hardware erkundete erneut das virtuelle Washington, D.C. und hat dabei viele Verbesserungen gegenüber der Closed Beta entdeckt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: The Division 2 Open Beta: Zwischenfazit zur Technik - DX12 mit glatten Frametimes, Pascal rehabilitiert
 

Snowhack

BIOS-Overclocker(in)
Also mit Turing hatte ich nicht ganz so extreme unterscheide, was Performers und Frame-time angeht:

https://www.youtube.com/watch?v=y5vSM-Lsr0g

wie das bei euch wohl der Fall ist mit Pascal .
 

KuroSamurai117

BIOS-Overclocker(in)
Danke für den neuen Test.

Also haben wir jetzt neuerdings statt Gameworks das Vram-Gate.^^

Sorry, für gleiche oder nur etwas andere Optik zu Teil 1 über 12GB zu verballern kann fast echt nur PR-Partnerschaft sein. Aber vermutet auch PCGH hier mit einem Zwinkern.
Denn das Ergebnis steht nicht wirklich im Verhältnis.
Andere Games mit ähnlicher Optik kommen um 6 oder Maximal 8GB aus. Lass es hübscher werden und 10GB verbrauchen für extreme Setting.
Damit ist wirklich benötigen gemeint so dass es sonst ruckelt und nicht Engine die Vram füllen weil er da ist.

Bei meinen Setting im 3840x1600p bei 60fps zu stemmen lag ich aber um 9-10GB.
Drüber hinaus geht auch der 2080 Ti die Puste aus um 60 Bilder zu halten. Also geht jede weitere Optik auf Kosten der Leistung.
 

projectneo

Software-Overclocker(in)
Wie auch die closed Beta habe ich die Open Beta auch nur kurz gespielt, aber beraits da ist mir aufgefallen, dass DX12 besser lief.
Leider hatte ich das Problem dass es regelmäßig zu "Schluckauf" kam, sprich die Bildrate viel alle paar Minuten (oder auch beim überqueren irgendwelcher Streaminggrenzen?) ganz kurz Richtung 0.
Ich habe leider nicht testen können ob das unter DX11 ebenso ist. Ich hoffe hier noch auf Beserung bis Release.
 

projectneo

Software-Overclocker(in)
Danke für den neuen Test.

Also haben wir jetzt neuerdings statt Gameworks das Vram-Gate.^^

Sorry, für gleiche oder nur etwas andere Optik zu Teil 1 über 12GB zu verballern kann fast echt nur PR-Partnerschaft sein. Aber vermutet auch PCGH hier mit einem Zwinkern.
Denn das Ergebnis steht nicht wirklich im Verhältnis.
Andere Games mit ähnlicher Optik kommen um 6 oder Maximal 8GB aus. Lass es hübscher werden und 10GB verbrauchen für extreme Setting.
Damit ist wirklich benötigen gemeint so dass es sonst ruckelt und nicht Engine die Vram füllen weil er da ist.

Bei meinen Setting im 3840x1600p bei 60fps zu stemmen lag ich aber um 9-10GB.
Drüber hinaus geht auch der 2080 Ti die Puste aus um 60 Bilder zu halten. Also geht jede weitere Optik auf Kosten der Leistung.

Dem kann ich zustimmen, die grafische Qualität passt nicht zur gebotenen Leistung gerade im Vergleich zum Vorgänger. Optisch hat sich bei Dev2 höchsten punktell etwa getan, ohne ganau zu suchen könnte man auch meinen es hat sich gar nichts verändert. Auch hier sollte Massive noch nachlegen in Bezug auf Performance.
 

dambala

Komplett-PC-Käufer(in)
Texturen gehen nicht sonderlich auf die Performance WENN man den nötigen Speicher mit bringt. Ob es jetzt was mit der AMD Partnerschaft zu tun hat oder ein Ausblick in kommende Entwicklungen sein wird werden wir ca. nächstes Jahr feststellen können ;)
 

BxBender

BIOS-Overclocker(in)
Wenn jetzt jedes Spiel mit hoher Speicherauslastung gleich zu einem AMD Titel wird, gibt es bald keine NVidia gesponsorten Spiele mehr.
4k + 8GB wurden schon vor etlichen Jahren von den ersten Spielen gesprengt.
Wenn jetzt 11 bzw. 12GB zum Flaschenhals werden können, wenn man alles sichtbare und nicht mehr wirklich sichtbare an Grafik herauskitzeln will, dann ist das der normale Lauf der Dinge und keine heimliche Verschwörung.
Wer 4K, Raytracing, Kantenglättung und alles an Shaderfunktionen bis in die vollen ausreizt und eine riesige Open-World erwartet, hat halt einige Daten "flüssig" zu halten.
Nicht umsonst hat AMD seit Jahren viel Speicher auf ihren Karten verbaut und neuerdings auch die Speicherverwaltung ordentlich optimiert, um besser mit dem Hauptspeicher agieren zu können, ohne gleich Mikroruckeln zu verursachen, wenns wieder mal eng wird.
Die schauen halt imemr ein wenig in die Zukunft,w as denen gerne als Negativpunkt angekreidet wird, weil viele Leute einfach nur hier und jetzt für diesen Tag die schnellste Karte haben wollen.
Wer ohne Weitblick arbeitet, so wie NVidia und ihre Fanboys, die müssen halt in den sauren Apfel beißen.
Wenn man gerne nur alte Spiele spielt und keinen Fortschritt erwartet, kann man gerne auf seinem Pentium 200 2D Plattformer zocken gehen.
Aber sich aufregen, dass Karten mit wenig Speicher nicht richtig funktionieren udn die anderen, die es richtig machen, Schuld daran sein sollen, das geht überhaupt nicht.
Man kauft sich ja auch kein E-Auto mit 300km Maximal-Reichweite , wenn man täglich 100 Kilometer fahren muss, und dann regt man sich drüber auf, dass man nur noch am Nachladen ist und die nächste Ladestation 30 Kilometer in die andere Richtung entfernt liegt.
Dummer Vergleich, gleiches Prinzip.
 

Snowhack

BIOS-Overclocker(in)
Ein hoch auf die Leute die in den letzen Tagen bei der Palit GTX 1070 (289€) zugegriffen haben anstatt bei einer 1660Ti

Hat sich jetzt bereits ausgezahlt, und es wir ja nicht besser in Zukunft mit dem Speicher.
 

AlphaSec

Komplett-PC-Aufrüster(in)
Also mit Turing hatte ich nicht ganz so extreme unterscheide, was Performers und Frame-time angeht:

wie das bei euch wohl der Fall ist mit Pascal .

Beim PCGH Test wurde ein Ryzen 7 1700 genutzt, das dürfte der Grund für die niedrigen Min. Fps und die schlechten Frametimes unter DX 11 sein. Dein I9 wird das wohl schon ganz gut kompensieren. Bei den Frametimes sieht es aber auch in deinem Video unter DX 12 deutlich besser aus, obwohl die CPU weniger limitieren sollte.
 

Jeretxxo

BIOS-Overclocker(in)
Den Test kann ich so bestätigen, DX12 läuft deutlich besser und performanter, keine lästigen Framedrops, allerdings hab ich ein Memoryleak bemerkt, was nur unter DX12 auftritt und das Spiel nach einer gewissen Spielzeit ohne Vorwarnung schließt, da geht kurz die Anzeige über den eigentlich vorhandenen VRAM meiner Karte im MSI Afterburner Overlay und wirft einen auf den Desktop, unter DX11 gab es hingegen keine Abstürze, dafür schlechtere Frameraten und Frametimes.
Die ersten beiden Tage, der Open Beta hab ich unter DX12 gespielt und nach mehreren Abstürzen dann auf DX11 gewechselt, alle anderen Einstellungen blieben jedoch gleich.
 

Borkenpopel1

Software-Overclocker(in)
Finde die Performance für das gebotene eigentlich ganz i.O. (das Spiel an sich macht mich aber weniger an..). Hatte in WQHD@Maxed-Out@ DX12 teilweise knapp 11GB (Durchschnittlich 10-10,5GB) VRAM auf der Uhr. Mal schauen wie die ca. gleichstarke 2080 hier performt mit ihren 8 GB.
 

criss vaughn

Volt-Modder(in)
Bei dem Thema Speicher sollte man allerdings noch ein paar Dinge berücksichtigen:

- je nach Engine und Verfügbarkeit, werden Texturen vorgeladen und gepuffert
- eine Erhöhung des Speicherinterfaces (VRAM-OC) kann hier den Unterschied machen
- UHD, erhöhte Sichtweite und optischen Fortschritt gibt es nicht kostenlos

Scheinbare Detailverbesserungen kosten (unoptimiert) eine Menge Ressourcen. Man muss diverse Effekte ja nicht nutzen, wenn man nicht will.
 

Kitschi

PC-Selbstbauer(in)
mit meinem alten 4670K @4Ghz Traktor und einer RX480 konnte ich unter DX12 nicht spielen da es dauernd Freezes mit Blackscreen gab oder einfach CTD, 2 mal sogar Bluescreen

in der vorigen Beta lief alles flüssig und fein in 1920x1200 mit 60 FPS und sogar auf höheren EInstellungen als diesmal...
 

Hawkins

PC-Selbstbauer(in)
Bei mir mit der RTX 2080 lief die Open Beta auf Dx 11 deutlich besser als in Dx 12. In Dx 12 hate ich alle paar Minuten nen kurzen Ruckler für 0.5 sek. Dx 11 lief super flüssig ohne Probleme. Die FPS waren auch fast gleich.

Das Game als "Bildhübschen Shooter" zu bezeichnen: so toll sieht es selbst mit Max Details nicht aus. Die Welt ist mir dafür zu blass und farblos.
Spaß gemacht hat die Beta trotzdem aber grafisch ist es für mich nur 7/10. Kein Vergleich zu Anthem (nur Grafik, Gameplay ist viel besser).
 

Prozessorarchitektur

Lötkolbengott/-göttin
Nun bei mir unter dx12 in 1980-1080 max settings ohne msaa
lag der vram verbrauch bei max 5gb es ging einfach nicht mehr
An hauptspeicher sollte man min 16gb haben
Doie fps waren recht sprunghaftdraußen teils bei schlechten wetter um die 35fps bei guten 60fps und in innenräumen durchschnittlich etwa 50fps

In low settings (hier wird 60% scaling eingestellt) liegen die fps im schnitt bei 80
aber der vram bedarf sinkt rapide auf 2,5gb

zum glück konnte man streaming distanz und textur auflösung einstellen
texturen kosten keine leistung wenn diese passen 512 ging immer (6gb vram nie überschritten)
distanz eher ei problem je weiter was dargestellt wird desto mehr streaming ruckler ideal sind 5 automatisch waren 7 eingestellt
Bei 0 ploppen zu viele sachen zu nah auf.
Teilweise übernahm das spiel keine einstellung sondern legte dem njhutzer die einstellung fest, da gehen nur presets (ist aber ein bug)
Sehr nervend ist das alles nur mit Neustart des Spiels übernommen wird.(serveranmeldung bis zu 3 Minuten)
Extrem Reingehauen haben streaming distanz sowie Nebeldarstellung
Die Wetter Effekte haben was, sind aber oft ein Problem bei Gefechten insbesondere nachts
was auch nervt das man ständig in Gegner reinläuft.
Der storyanfang ist ok wird wieder mit logs erzählt

Wird von mir gekauft aber die frage ist wann. meine pile of shame ist einfach gigantisch.
ganz blöd ist, das man quasi immer online sein muss dazu gabs kein deutsch
ich konnte nicht feststellen ob die ingame Kommandos von Spielern kam oder ob diese generiert wurden.
Den in Gruppen habe ich mich nicht zusammengetan. Die medikits sind zu zeitaufwendig
Wie ich das support feature (heilstation) vermisst habe
oft in Gegnergruppen hineingelaufen
Die map ist definitiv kleiner oder die spielfigur laufen schneller.
Meine bench sind recht am Anfang white haouse und den ersten Missionen Sonniges Wetter daher durchschnitt 60fps später bei nachts und nebel gehst Richtung 50
dv2-demo-png.1036351
 

Anhänge

  • dv2 demo.png
    dv2 demo.png
    435,8 KB · Aufrufe: 616

MircoSfot

Freizeitschrauber(in)
Bei mir mit der RTX 2080 lief die Open Beta auf Dx 11 deutlich besser als in Dx 12. In Dx 12 hate ich alle paar Minuten nen kurzen Ruckler für 0.5 sek. Dx 11 lief super flüssig ohne Probleme. Die FPS waren auch fast gleich.

Das Game als "Bildhübschen Shooter" zu bezeichnen: so toll sieht es selbst mit Max Details nicht aus. Die Welt ist mir dafür zu blass und farblos.
Spaß gemacht hat die Beta trotzdem aber grafisch ist es für mich nur 7/10. Kein Vergleich zu Anthem (nur Grafik, Gameplay ist viel besser).

Bei mir war es genau so! DX12 Ruckler alle paar Minuten bis hin zum Crash to Desktop. DX11 angeschmissen und siehe da, keine Probleme mehr. DX12 hat schon im ersten Teil nicht richtig funktioniert. Ich muss aber dazu sagen, dass ich noch einen alten GPU Treiber verwende (416.81)
 
L

Laggy.NET

Guest
Nun bei mir unter dx12 in 1980-1080 max settings ohne msaa
lag der vram verbrauch bei max 5gb es ging einfach nicht mehr
An hauptspeicher sollte man min 16gb haben
Doie fps waren recht sprunghaftdraußen teils bei schlechten wetter um die 35fps bei guten 60fps und in innenräumen durchschnittlich etwa 50fps

In low settings (hier wird 60% scaling eingestellt) liegen die fps im schnitt bei 80
aber der vram bedarf sinkt rapide auf 2,5gb

Genau das. Max Settings FullHD 5 GB. Max Settings UHD laut PCGH über 12 GB.
Nun ist das game aber auch GPU Seitig ziemlich fordernd. Sobald man ein paar Settings zurückdreht, um die Performance auf ein spielbares Niveau zu bringen (bei nem Shooter min. 60 FPS), sinkt auch der VRAM Bedarf rapide.

Und trotzdem beschweren sich die Leute hier über Karten mit 8 GB VRAM, obwohl bei Settings die die GPU auch flüssig darstellen kann nichtmal die 8 GB voll werden.
Mittlerweile kosten halt nicht nur Texturen, sondern auch einzelne Grafiksettings und vor allem die Auflösung sehr viel VRAM. Aber genau das sind eben Dinge, die auch die GPU Performance drücken und dann im Zweifel selbst auf den HighEnd Karten runtergeregelt werden müssen. Nicht wegen dem VRAM, sondern wegen der GPU-Leistung.
 
S

Schaffe89

Guest
@Schaffe: Wie war das? 6gb reichen immer und mehr bringt nix bzw. So gut wie nie Vorteile?

In 4K? Das hab ich wo behauptet?
Link und Zitat bitte.

Ansonsten ein VRAM Blender wie ResEvil, wie konnte ich die Beta nur auf der 4 GB 470 flüssig spielen? Strange.

Erstmal Patches abwarten, ist ja noch nicht final.
Ansonsten merkt man die AMD Partnerschaft massiv, das ist noch offensichtlicher als bei manchen Gameworkstiteln.

Directx12 knallt einfach nur sinnfrei den Speicher voll und Raff bewirbt es als Fortschritt, typisch. ^^
 
Zuletzt bearbeitet:

perupp

Software-Overclocker(in)
In 4K? Das hab ich wo behauptet?
Link und Zitat bitte.

Ansonsten ein VRAM Blender wie ResEvil, wie konnte ich die Beta nur auf der 4 GB 470 flüssig spielen? Strange.

Erstmal Patches abwarten, ist ja noch nicht final.
Ansonsten merkt man die AMD Partnerschaft massiv, das ist noch offensichtlicher als bei manchen Gameworkstiteln.

Also wenn du den Artikel gelesen und verstanden hättest, reichen 6 GB auch unter Full HD nicht unbedingt...

Und als ich letztes mal dir geschrieben habe, das Mirror Edge bei 6 GB Grafikspeicher Probleme hat und Details weglässt, hast du link mit einem völlig nichtssagenden Benchmark Balken geschickt, das 6 GB völlig reichen, seit wann geht aus einem Benchmark Balken hervor, ob Details ausgeblendet werden?

Und du hast mir immer noch nicht auf die Frage geantwortet...

Deswegen stell ich Sie hier noch einmal und hoffe endlich auf eine Antwort...

Du sagst mehr als 6 GB Speicher braucht man nicht, da es nur wenige Spiele gibt, die daraus einen Vorteil ziehen....

Okay, stimmt, sind nicht sehr viele Spiele, die gibt es aber...

Aber du sagst Raytracing ist das Killer Feature was jeder braucht und äh, wie viel Spiele benutzen es? Ganze 2... und eins davon, da reden wir lieber nicht über die Umsetzung...

Also warum ist bei AMD ein Feature unwichtig weil es sagen wir nur 15 Spiele gibt die daraus einen Vorteil ziehen (ich bin sogar sicher das es mehr sind)

und bei Nvidia ist ein Feature total wichtig weil es ganze 2 Spiele unterstützen??

Kannst du diesen Missstand aufklären?

Danke
 

AlphaSec

Komplett-PC-Aufrüster(in)
Erstmal Patches abwarten, ist ja noch nicht final.
Ansonsten merkt man die AMD Partnerschaft massiv, das ist noch offensichtlicher als bei manchen Gameworkstiteln.

Unter DX12 gibt es ziemlich sicher ein Problem mit dem volllaufenden Vram. Die Radeons schmieren trotz 8GB in höchsten Einstellungen ab. Das wäre schon ziemlich kontraproduktiv, wenn die eigenen Karten allesamt Probleme haben bis auf die kaum verbreitete VII. Ich finde den immensen Vram-Bedarf angesichts des gebotenen aber auch nicht gerechtfertigt. Da muss noch was passieren. Ich bin zwar auch ein Verfechter von großzügig dimensioniertem Vram und finde die RTX 2060 beispielsweise unterbestückt, wenn Spiele aber Unmengen an Vram verschlingen, sollte das auch mit deutlich sichtbarem Optikgewinn einhergehen.
 
Zuletzt bearbeitet:
K

Killer-Instinct

Guest
Texturvielfalt und hohe Auflösung der Tapeten ist Fortschritt. Ihr müsst halt auch mal hinsehen. =)

MfG,
Raff
Vor allem kostet das keine Extraleistung wie Anti-Aliasing, RTX, DSSL etc. und ist einer der Hauptgrundlagen, die Grafik überhaupt zu verbessern. Mit niedrigaufgelösten Texturen als Grundlage machen die besten Bildverbesserungstechnologien der Welt keinen Spaß, daher bessere Texturauflösung => Fortschritt wie du sagst.
 

NotAnExit

Software-Overclocker(in)
Habs am WE kurz angespielt, aber nur kurz, hatte nach Closed Alpha + Closed Beta keinen Bock mehr, das zum dritten Mal zu spielen. Werde ich in der Final ja ohnehin wieder machen.

Aber stimmt schon, die Performance ist auf meiner GTX1080 gestiegen, das hat sich richtig gut gespielt. Mit etwas gutem Willen ist sogar DSR auf 1440p drin.

Allerdings musste ich eine Datei bearbeiten, weil es ansonsten nicht gestartet ist. Irgendeine Settings-Datei. Dort DX12 und Fullscreen auf true gestellt. Ansonsten ist es mit einem schwarzen Bildschirm gestartet.
 

hanfi104

Volt-Modder(in)
Ist doch top, wenn der VRAM endlich genutzt wird, statt immer leer zu bleiben.
In Farcry New Dawn belegt das Game sofort 11GB, es würde sicher auch mit weniger laufen aber so gibts weniger Probleme beim Streaming.
Mit Heli unterwegs stopft FC sogar 32 gB RAM voll.

Division habe ich selbst nur 20 min gespielt auf meiner RX480. Sah schon geil aus, nir die 480 ist doch zu schwach für UHD in Max :ugly:
 

h_tobi

Lötkolbengott/-göttin
Unter DX12 gibt es ziemlich sicher ein Problem mit dem volllaufenden Vram. .................

Das scheint bei NV ein generelles Problem zu sein, ist mir schon bei mehreren Spielen aufgefallen,
dass es gelegentlich zu kurzen Aussetzern kommt. :hmm:

Miscreated z.B. fällt dann kurzzeitig auf 5-8 FPS ab, auch bei anderen Spielen kommt es zu Mikrorucklern.
Die älteren Treiber vor der 400er Serie waren wesentlich besser und weniger auffällig.

Ich hoffe der neue Treiber bringt mal wieder mehr als die letzten Paar. :rollen:
 
S

Schaffe89

Guest
Also wenn du den Artikel gelesen und verstanden hättest, reichen 6 GB auch unter Full HD nicht unbedingt...

Wie gesagt, was soll diese Unterstellung, ich habe das auch nicht für Full HD behauptet, sondern explizit gesagt dass es eine Hand voll Titel gibt wo 6GB für max nicht unbedingt reichen.
Ich weiß ja nicht was du liest, aber du liest definitiv nicht das was ich schreibe.
Und als ich letztes mal dir geschrieben habe, das Mirror Edge bei 6 GB Grafikspeicher Probleme hat und Details weglässt, hast du link mit einem völlig nichtssagenden Benchmark Balken geschickt, das 6 GB völlig reichen, seit wann geht aus einem Benchmark Balken hervor, ob Details ausgeblendet werden?

Du bist eben ein Lügner, ich habe keinen Benchmarkbalken verlinkt, sondern einen kompletten Test des Spiels auf Computerbase.
Und ich weiß ja nicht wie du das siehst, aber bei PCGH fällt einem dieser ganz besondere Speicherfetisch schon massiv auf, auch hier wieder.
Das ist einfach typisch Raff, einer der größten Speicherfetischisten die man so im Netz kennt - klar dass diese Tests dann immer etwas einseitig sind.
Ich kann mir übrigens kaum vorstellen, dass das finale Spiel soviel V-ram benötigt und ob Directx12 wirklich bessere Texturen bietet und nicht einfach den Speicher vollknallt, möchte ich schon selbst mit der finalen Version des Spiels überprüfen.

Und du hast mir immer noch nicht auf die Frage geantwortet...

Ich wüsste nicht was es da zu beantworten gibt, ich habe nie daran gezweifelt dass es hier und da Beispiele gibt wo 6GB wenn man mit der Lupe hinguckt in Full HD nicht reichen mögen.
Aber dieses Spiel hier ist wieder vergleichbar mit Black Ops vor 4 Jahren, das fraß bei Matschtexturen damals schon extrem viel Speicher, hier ist es dasselbe, scheinbar nur unter Directx12 - aber das wird wie immer ausgeblendet.
Das Spiel ist noch nicht einmal fertig draußen und es kommt wieder diese alberne V-ram Hysterie.

Du sagst mehr als 6 GB Speicher braucht man nicht, da es nur wenige Spiele gibt, die daraus einen Vorteil ziehen....

Das man das nicht "braucht" habe ich nie behauptet, ich sagte, dass es keinen "großen Unterschied" macht, ob eine GPU heute 6 oder 8GB Speicher hat.:rollen:
Danach habe ich das für die Zukunft als klaren Vorteil benannt.

Aber du sagst Raytracing ist das Killer Feature was jeder braucht ...

Wie gesagt, auch hier wieder schlicht und ergreifend erfunden.
Raytracing ist kein Killerfeature, sondern eine wünschenswerte Weiterentwicklung die man mMn supporten muss, was anderes habe ich nie behauptet.
Du wirst so einen Kommentar von mir nirgends finden.

Also warum ist bei AMD ein Feature unwichtig weil es sagen wir nur 15 Spiele gibt die daraus einen Vorteil ziehen (ich bin sogar sicher das es mehr sind)

Ich habe es nicht als unwichtig hingestellt, sondern als Nachteil.:rollen:

Unter DX12 gibt es ziemlich sicher ein Problem mit dem volllaufenden Vram. Die Radeons schmieren trotz 8GB in höchsten Einstellungen ab.

Wie gesagt, ich hab das Spiel in 3440x1440 auf einer 4GB RX 470 in der Beta gezockt und habe keinen Texturmatsch gesehen.
Das ist ein klarer Bug - und kein technischer Fortschritt wie mit der Brille im Artikel argumentiert.

Texturvielfalt und hohe Auflösung der Tapeten ist Fortschritt. Ihr müsst halt auch mal hinsehen. =)

Sorry, aber die AMD Märchenstunde ala Raff ist mir zu unseriös.;)
 
Zuletzt bearbeitet:
L

Laggy.NET

Guest
Texturvielfalt und hohe Auflösung der Tapeten ist Fortschritt. Ihr müsst halt auch mal hinsehen. =)

MfG,
Raff

Dann macht doch mal Vergleiche.

z.B.

1. Bild: Maxed Out 1440p auf ner Titan.
2. Bild: 1440p, und die Settings so, dass eine RTX 2070 die 60 FPS schafft
3. Bild: 1080p und die Settings so, dass eine RX570 oder GTX 980 mit 4GB die 60 FPS schafft.

Und dann schauen wir uns die VRAM Belegung und die Texturen an. (GGf. das ganze nochmal für DX11)

Dann würden wir sehen, ob die enorm hohe Speicherbelegung auf der Titan den besseren Texturen geschuldet ist.


Das Problem ist halt, dass ihr immer maxed out (in UHD) Testet und dann teilweise sagt, dass bei Speichermangel die Texturen reduziert oder nicht richtig geladen werden. Ja, das ist einleuchtend.
Das hat aber nix mit der Realität zu tun, wenn die sogenannten VRAM Krüppel die Auflösung und Settings aufgrund der GPU-Last eh nicht stemmen würden und bei reduzierten Auflösungen und Grafikdetails locker genug VRAM hätten, um die allerbesten Texturen darzustellen.

Sorry, aber mir ist das ein bisschen zu undifferenziert und an der Realität vorbei. Die Kritik müsst ihr euch jetzt gefallen lassen. :P
Letzten endes weiß ich ja selber nicht, was Sache ist. Aber ihr anscheinend auch nicht bzw. stellt das eben nicht da.

Ihr sagt halt, dass maxed Out mit 12 GB VRAM Befüllung die Texturen super waren. Ich sage, dass mit reduzierten Settings mit 4GB VRAM die Texturen auch knack scharf waren.
Und jetzt? Woher wollen wir jetzt wissen, ob man 12 GB VRAM braucht, um die bestmöglichen Texturen darzustellen, oder ob auch 4GB reichen, wenn man andere Settings runterdreht (was ja unbedingt notwendig ist, um auf solchen schwächeren Karten überhaupt höhere Framerates zu erreichen.


Der Punkt ist eben, dass man keinem sagen kann, dass 4GB, 6GB oder 8 GB nicht reichen würden, wenn das aufgrund der Auflösung und den Grafiksettings nur für unspielbare Framerates gilt.
Genau deswegen sagt hier auch jeder was anderes, denn selbst mit HighEnd Karten ist man in hohen Auflösungen zur Detailreduktion gezwungen. Wodurch die besten Texturen eben im Speicher platz haben sollten.

Aber wie gesagt, letzten Endes alles nur Mutmaßungen. Ohne genauere Analyse wird hier auch weiterhin jeder was anderes behaupten und wahrscheinlich auch recht haben.
Klar, es mag sein, dass ihr auch nie die intention hattet eine VRAM Empfehlung für das Spiel abzugeben. Aber wenn ihr sowas schreibt, ist das halt nicht für jeden nachvollziehbar, wenn die Werte dann in der Praxis bei spielbaren Settings so enorm abweichen.

Da stellt sich dann auch die Frage, was ihr mit euren Tests überhaupt erreichen wollt. Wollt ihr einen Guide bzw. Überblick für uns Spieler machen, damit wir urteilen können, wie das Spiel bei uns laufen wird bzw. welche Hardware wir kaufen sollten oder wollt ihr nur das Spiel selbst auf Referenzhardware testen und schreiben, wie toll es doch aussieht und wie es technisch funktioniert und dabei demonstrieren, dass alle Karten außer vielleicht der stärksten erhältlichen viel zu langsam für maxed out 4k sind?
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Sorry, aber die AMD Märchenstunde ala Raff ist mir zu unseriös.;)

Einfach mal die Bildergalerie durchklicken. Die Beweise liegen auf dem virtuellen Tisch. Zu behaupten, dass das Gezeigte eintönig oder in Spielen Standard ist, das wäre unseriös. Hinzu kommen Dinge, die man nicht sieht (Puffer für Beleuchtung etc.). Und hinzu kommen Dinge, wir wir als Laien nur oberflächlich bewerten können (Effizienz des Streamings).

MfG,
Raff
 
S

Schaffe89

Guest
Ihr sagt halt, dass maxed Out mit 12 GB VRAM Befüllung die Texturen super waren. Ich sage, dass mit reduzierten Settings mit 4GB VRAM die Texturen auch knack scharf waren.

Also ich muss sagen, ich glaube Raff hier leider nicht, der Artikel hat so einen "ich gucke nur durch eine bestimmte Brille" Ambivalenz die ich nur in den V-ram Threads von Gurdi fand.
In 4K maxed out, aber dann nur unter Directx12 und angeblich besseren Texturen als unter Directx11? Wieso sollte das so sein? Vergleichsbilder? I dont believe.

Schlechte Frametimes in Directx11? Hm.. vielleicht mal den ollen Ryzen 1700 rauswerfen.
Ich kann ja grundsätzlich nicht kapieren, wie man als Titan XP Nutzer diese lahme CPU (auf 3GHz) im System haben kann und dann damit Benchmarks durchführt oder damit in der Praxis zocken kann.
Die CPU ist mit den Taktraten vielleicht halb so schnell ( bei dem 1% lows) wie ein i7 8700K @ 4,8GHz in Spielen.

Also mit dem System irgendwelche Tests durchführen, verursacht beim Lesen schon ein wenig Schmerzen.
 

Edelhamster

Software-Overclocker(in)
In der private Beta hat es sich auf meiner Vega64 mit leicht angepassten Settings in DX11 knapp 11GB VRAM gegönnt. (HBCC enabled)
Das Ultra-Preset nimmt sich mit DX12 in der open beta jetzt 13-14GB (scheinbar wenn es kann!) und händisch maxxed out (Objektdetails,Reflexionen, Schatten) gehts auf 15GB hoch.

Grundsätzlich würde ich sagen, dass sich die hohe VRAM Auslastung aber auch in der Darstellungsqualität des Spiels wiederspiegelt. Die Texturen gefallen mir wahnsinnig gut. Die Objektqualität und deren Vielfalt ebenso.
Lauft mal durch die Kornfelder auf Arras in BF V und dann zum Vergleich durch eine Straße Washington´s in the Division 2 ;)

DX12 läuft auf meinem System ansonsten wohl bis zu 40-50% schneller als DX11. Gut möglich, dass die Ryzen CPU´s hier besonders von DX12 profitieren. Ich kann PCGH´s Angaben bzgl. Performancegewinn auf solch einem System jedenfalls nur bestätigen.

Schade, dass ReLive während der OpenBeta @ DX12 gezickt hat -.-
 

Anhänge

  • TheDivision2_DX12_MaxxedOut_3840x2160.jpg
    TheDivision2_DX12_MaxxedOut_3840x2160.jpg
    273,8 KB · Aufrufe: 92
  • VRAM_Vega64_TD2_DX11_3840x2160_customized_Settings.jpg
    VRAM_Vega64_TD2_DX11_3840x2160_customized_Settings.jpg
    1,5 MB · Aufrufe: 71
Zuletzt bearbeitet:

perupp

Software-Overclocker(in)
Wie gesagt, was soll diese Unterstellung, ich habe das auch nicht für Full HD behauptet, sondern explizit gesagt dass es eine Hand voll Titel gibt wo 6GB für max nicht unbedingt reichen.
Ich weiß ja nicht was du liest, aber du liest definitiv nicht das was ich schreibe.


Du bist eben ein Lügner, ich habe keinen Benchmarkbalken verlinkt, sondern einen kompletten Test des Spiels auf Computerbase.
Und ich weiß ja nicht wie du das siehst, aber bei PCGH fällt einem dieser ganz besondere Speicherfetisch schon massiv auf, auch hier wieder.
Das ist einfach typisch Raff, einer der größten Speicherfetischisten die man so im Netz kennt - klar dass diese Tests dann immer etwas einseitig sind.
Ich kann mir übrigens kaum vorstellen, dass das finale Spiel soviel V-ram benötigt und ob Directx12 wirklich bessere Texturen bietet und nicht einfach den Speicher vollknallt, möchte ich schon selbst mit der finalen Version des Spiels überprüfen.



I)
Ich bin ein Lügner?
Dann nehme ich mal dein Zitat auf meinen Post, das Mirror Edge mit 6GB Probleme hat
Wie kann man aus diesem Link, dieser Seite die du verlinkt hast was auf das Speicherproblem schließen? Der Test geht darauf gar nicht ein, oder sehe ich das falsch?
Mirrors Edge?

Mirror's Edge Catalyst: Benchmarks mit 10 Grafikkarten (Seite 2) - ComputerBase

6GB sind da kein Problem, nope.

Also Mirror Edge regelt Ditails runter und wird sogar schneller und du kommst als gegenbeweis mit einfachen benchmarkbalken?
 

perupp

Software-Overclocker(in)
Sorry Schaffe, aber dein Text schreit geradezu nach "Egal, was du schreibst, es ist falsch", dass ich keine weitere Arbeitszeit mit Diskutieren verschwenden werde.

Grafikspeicheranalyse 2019 -> PCGH 05/2019 (WIP).

MfG,
Raff

Danke, ich werde mir jetzt auch die Zeit sparren, sinnlos mit Ihm zu Diskutieren, er hat seine vorgefertigte Meinung, daran kann man nicht rütteln
 
S

Schaffe89

Guest
dass ich keine weitere Arbeitszeit mit Diskutieren verschwenden werde.

Apropos Arbeitszeit, wieso testet man nicht das finale Spiel, damit man auch vernünftige Aussagen treffen kann?
Ich sehe keinen Sinn darin ausschließlich 4K maxed out zu testen und sich dann auf Directx12 zu fokussieren.
Jedes andere System hat wohl diese schlechten Frametimes in Directx11 wohl unter Umständen gar nicht.

Danke, ich werde mir jetzt auch die Zeit sparren, sinnlos mit Ihm zu Diskutieren, er hat seine vorgefertigte Meinung, daran kann man nicht rütteln

Da hast du sogar recht, ich habe eine vorgefertigte Meinung wenn es darum geht irgendwelche Kirschen-Vram-Hysterie zu verbreiten.
Ich bin gespannt wenn ich das Spiel am 15. März mit 5 untersch. Karten mal anschauen kann, da bin ich gespannt ob dieser Test irgendeine Relevanz hat - ich tippe auf nein.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Apropos Arbeitszeit, wieso testet man nicht das finale Spiel, damit man auch vernünftige Aussagen treffen kann?
Ich sehe keinen Sinn darin ausschließlich 4K maxed out zu testen und sich dann auf Directx12 zu fokussieren.
Jedes andere System hat wohl diese schlechten Frametimes in Directx11 wohl gar nicht.

Wenn ich nachts privat an meiner Kiste teste, ist das eben keine Arbeitszeit. ;) Dabei sollte klar sein, dass ich da keine 8-Stunden-Messreihen fabriziere. Und einen Ryzen 7 1700 schon als sowas wie Low-End-Abfall zu bezeichnen (bei UHD-Grafiklast) ist ... argh, ich poste schon wieder. Sorry. Bin weg.

MfG,
Raff
 

perupp

Software-Overclocker(in)
Apropos Arbeitszeit, wieso testet man nicht das finale Spiel, damit man auch vernünftige Aussagen treffen kann?
Ich sehe keinen Sinn darin ausschließlich 4K maxed out zu testen und sich dann auf Directx12 zu fokussieren.
Jedes andere System hat wohl diese schlechten Frametimes in Directx11 wohl unter Umständen gar nicht.



Da hast du sogar recht, ich habe eine vorgefertigte Meinung wenn es darum geht irgendwelche Kirschen-Vram-Hysterie zu verbreiten.
Ich bin gespannt wenn ich das Spiel am 15. März mit 5 untersch. Karten mal anschauen kann, da bin ich gespannt ob dieser Test irgendeine Relevanz hat - ich tippe auf nein.

Wenn dich der Test nicht interesiert weil es eine Beta ist, warum diskutierst du darüber überhaupt? macht doch keinen Sinn über was zu diskutieren was keinen Sinn macht, oder?
 

Xeandro

PC-Selbstbauer(in)
Den Test kann ich so bestätigen, DX12 läuft deutlich besser und performanter, keine lästigen Framedrops, allerdings hab ich ein Memoryleak bemerkt, was nur unter DX12 auftritt und das Spiel nach einer gewissen Spielzeit ohne Vorwarnung schließt, da geht kurz die Anzeige über den eigentlich vorhandenen VRAM meiner Karte im MSI Afterburner Overlay und wirft einen auf den Desktop, unter DX11 gab es hingegen keine Abstürze, dafür schlechtere Frameraten und Frametimes.
Die ersten beiden Tage, der Open Beta hab ich unter DX12 gespielt und nach mehreren Abstürzen dann auf DX11 gewechselt, alle anderen Einstellungen blieben jedoch gleich.

Bei mir lief es nahezu identisch ab (Vega 64; Xeon 1230v3 @ 1440p). Wobei bei mir noch ein "Aufblenden" eintrat. Das Bild wurde immer heller bis es nahezu komplett weiß wurde. Erst der Wechsel auf DX11 hat geholfen. Dieses "Aufblenden hatte ein Freund wenige Wochen vorher in der Clsed Beta mit einer GTX1060 @ 1080p. Auch da wurde es erst besser nach der Umstellung auf DX11.

Leider hat mir die Zeit gefehlt mich mit dem Thema und dem Spiel mehr auseinander zu setzten. Aber bald ist da Spiel ja da :D
 

Mitchpuken

Software-Overclocker(in)
Wenn man bedenkt wie lange es schon DX12 und Grafikkarten mit 8gb gibt, dann ist eine Empfehlung auf DX11 zu spielen im Jahre 2019 schwer zu verdauen :ugly:
 
Oben Unten