Special Finger weg von 8 GiByte, reloaded: Dragon's Dogma 2 reduziert eigenmächtig Details

Und dann siehste Spieler sich beschweren, wie scheiße ein Spiel doch aussieht.. Und nutzen dann ne 3070 8 GB oder so weil die war ja mal "HighEnd" die kanns ja nicht sein..

VRAM is immernoch bei dem Großteil der Spieler völlig unbekannt, die wissen gar nicht was der eigentlich macht. Hauptsache hohe FPS, lange Balken.
 
wobei das Game halt auch einfach echt Grütze optimiert ist, ich mein 8gb ist halt allmählich nicht mehr Zeitgemäß, aber ebenso wenig auch die Grafik von DD2 in Relation zur Performance. Das sieht im Schnitt aus wie Elden Ring, als ich das erste mal aus der Hauptstadt bin und die Weizenfelder sah dachte ich mir WTF sind das für 2010 Texturen.
20240324113703_1.jpg

vor allem eben neben Horizon Forbidden West und das kommt gut mit 8gb zurecht... der eine kann der andere nicht. Manche Entwickler Studios sollten vielleicht mal Schulungen geben.
 
Dieses Vergleichen zwischen HFB und DD2 halte ich nicht für sinnvoll..

DD sieht mir in den Bildern was ich so sehe, irgendwie immer bröselig aus. Spielen alle nur mit niedrigen Auflösungen oder nutzen DLSS was nicht toll sein soll? Aber an sich ist die Grafik schon überlegen, was Effekte und Assets angeht. Außerdem kommt bei DD noch RTGI hinzu.

HFB ist sicher ein schönes Spiel, aber es blendet einen über viel hinweg. Die Beleuchtung ist immer und überall total künstlich und sieht steril aus. Vieles wird auch einfach gnadenlos regelrecht überstrahlt und blendet einen über so manches hinweg. Die Cutscenes haben natürlich immer Scheinwerfer überall platziert, als ob die Charactere auf nem Filmset sind und man sieht dem Spiel klar das Alter an.

Wenn ich ein reines Rasterspiel auswählen müsste was für mich am besten aussieht bisher, dann ist es nach wie vor The Last Of Us Part 1.
 
Das Raytracing in DD2 kann man knicken. Das sieht mit und ohne gleich aus. HFW ist imho hübscher, hat aber auch generell einen anderen Grafikstil und eine andere Bildsprache. DD2 ist halt mehr so Ton in Ton. Also das grafische Äquivalent eines beigen Rentnerpärchens. =)
 
Finde so einen Ansatz eigentlich gar nicht schlecht, solang es auch klar und deutlich für den Spieler nachvollziehbar ist, was das Game da grade veranstaltet. GForce experience macht sowas in die Richtung ja auch. Hardware auslesen und entsprechende Grafiksettings setzen, wenn man das will. Wenn es sowas auch ingame gäbe mit sozusagen "FPS-Profilen" wo z.B. für 30/60/100... FPS automatisch Settings angewandt werden, von mir aus auch adaptiv, fände ich schon fortschrittlich. Oder generell mehr adaptive Techniken. Bei der Qualitätssicherung der die Spiele in der Regel unterliegen, wird das aber wohl Wunschdenken bleiben. :D
 
Ja das ist halt das "Problem" in solchen Spielen. Es läuft zwar mit wenig VRAM, sieht aber aus wie Matsch.
Viele Openworld Spiele nutzen so ein Texturstreaming.
Ja, nur ist es hier noch mehr. Die Polygone werden auch weniger. Das ist büchstäblich der Aufhänger, insofern hat es nicht viel mit den Spielen zu tun von denen du redest.
 
Das Problem hast du doch schon länger. Reicht der Speicher nicht wird die Qualität reduziert. Zeiten in denen Speichermangel sofort zu in den Messungen zu erkennen ist gibts ja schon länger nicht mehr.
Ist tendenziell schwierig, geht aber.

Ich arbeite gerade an einem Heft-Artikel dazu.
Da hab ich tatsächlich morgen noch Dragon's Dogma 2 auf dem Plan, das soll da auch rein. Wie ich DAS Spiel allerdings sinnvoll messen soll, das weiß ich bislang nicht genau. Eventuell muss ich die Details manuell anpassen, bis sie angeglichen sind - ich muss/will eh auf Performance tunen, also "lebensnahe" Settings nutzen, die auch in der Realität Verwendung finden würden (wobei "flüssig" bei DD2 schwierig wird – I already tried.).

Es ist nicht sonderlich naheliegend, einem Besitzer oder auch Kauf-Interessenten einer RX 5500 XT oder RTX 4060 zu verklickern, dass Cyberpunk in 4K mit Pathtracing aber von 16 GiByte VRAM profitiert – das interessiert die nicht, wenn sie Cyberpunk spielen, weil sie natürlich kein 4K mit Pathtracing nutzen. Sondern entsprechend angepasste Details, die dann auch weniger Speicher benötigen.

Aber es interessiert eventuell, dass man mit einer RX 5500 XT/8G Horizon mit mittleren Einstellungen und FSR Quality auf recht saubere 60 Fps bekommt - während man mit dem 4-GiByte-Modell auf rund 40 Fps absackt und mit nervigem Rucken zu tun bekommt.

(RX 5500 XT/4G und RX 5500 XT/8G. Beides Full HD, FSR Quality und Detail-Preset Medium/Mittel)

1711568826474.png

Ich hab dazu noch mehr Daten/Benchmarks im Heft, sodass man wirklich gut erkennen kann, dass der Performance-Unterschied am Grafikspeicher (und eventuell dessen Anbindung) liegt.

Zum Beispiel so:
Das ist dieses Mal nur die RX 5500 XT/4G. Beim oberen Beispiel sind die Texturen um eine Stufe verringert, alle anderen Settings sind haargenau gleich.

(Full HD, maximale Details, untere Messung Texturen "Sehr hoch", oben Texturen "Hoch")

1711568129169.png

Und ja, den Unterschied merkt man auch. Bei dem großen Ausreißer da startet eine Zwischensequenz. Da wird bei jedem Kamera-/Perspektivenwechsel ein fetter Batzen Texturen/Assets reingestreamt. Beim 8-GiByte-Modell sind die in dieser gewaltigen Form in den Frametimes gar nicht erst vorhanden. Es gibt diese Ausschläge zwar in allen Messungen, die sind im Grunde immer da – auch mit potenten Geforce-Karten, aber im Vergleich sind sie beim 8-GiByte-Modell winzig (eher 60 ms denn 300 ms). Das ist im Grunde ein Traversal-Stutter – nur ist der "Traversal" hier keine Wanderung durch die virtuelle Landschaft – das wäre der erste Teil der Messung bis ca. Sekunde 40. Danach laufe ich in einen Skript-Trigger für eine Ingame-Zwischensequenz. Der "Traversal" ist also im Grunde der Übergang von Gameplay in Ingame-Cutscene. Aber gewissermaßen technisch ähnlich, auch da muss auf einen Schlag massig in den Speicher gestreamt werden.

Das bis ca. 30 ms ausschlagende "Microruckeln" tritt im Übrigen nicht auf allen Karten auf, sondern interessanter Weise nur bei den beiden RX-5500-XT-Modellen. Ansonsten keiner anderen GPU, weder AMD noch Nvidia und auch nicht mit einer RX 7600 in WQHD. Die hat auch 8 GiByte (und ist obendrein Bandbreiten-beschnitten). Das kommt nicht vom Speicher, das ist irgendwas anderes, eventuell ein weniger gut optimierter Vulkan-Renderpfad für die älteren Radeons.

(Full HD, maximale Details, orangefarbener Verlauf Texturen "Sehr hoch", grüner Verlauf Texturen "Hoch")

1711568441783.png
Im Artikel sieht man es dann (hoffentlich) sehr eindeutig, Frametimes inklusive. Ist eine metrische Bumstonne Arbeit, aber ich denke, es lohnt sich auch. Da sind auch andere Karten dabei, andere Auflösungen von Einsteiger- bis Oberklasse, Full HD bis 4K. Aber alles mit jeweils "sinnvollen" Settings.

Dragon's Dogma 2 könnte allerdings knifflig werden. Aber irgendwie bekomm ich das schon hin, denke ich.

EDIT: Ich sehe gerade, dass ich komplett unabhängig von Raff (das ist auch ein komplett anderer Spielstand) beinahe die exakt gleiche Szene für die Horizon-Messungen genutzt habe, wie er für die Grafikkarten-Benches im Online-Artikel. Ich sprinte statt reite, messe 90 Sekunden statt 20 und laufe ein wenig anders (den Weg entlang, inklusive Kurven, um das Streaming zu quälen), aber es ist fast exakt die gleiche Stelle. (Raff läuft anders, ich renn in die Pampa, nicht in das Lager da, aber trotzdem sehr ähnlich).^^

Das ist kinda funny. Riesige Open World und wir messen an der fast exakt gleichen Stelle - spricht für die Benchmarks, wenn zwei Fachredakteure unabhängig voneinander die nahezu gleiche Szene zum Grafikkarten-Testen (wenn auch mit leicht unterschiedlichen Testabsichten) auserwählen, schätze ich.^^

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gruß,
Phil
 
Zuletzt bearbeitet:
Und dann siehste Spieler sich beschweren, wie scheiße ein Spiel doch aussieht.. Und nutzen dann ne 3070 8 GB oder so weil die war ja mal "HighEnd" die kanns ja nicht sein..

VRAM is immernoch bei dem Großteil der Spieler völlig unbekannt, die wissen gar nicht was der eigentlich macht. Hauptsache hohe FPS, lange Balken.
Ich glaube, die Entwickler nehmen immer weniger Rücksicht auf 8GB Grafikkarten. Die Frage die sich mir stellt ist, ob das Spiel mit ein wenig Pflege, nicht doch mit 8GB auskommen würden?

Ist tendenziell schwierig, geht aber.

Ich arbeite gerade an einem Heft-Artikel dazu.
Da hab ich tatsächlich morgen noch Dragon's Dogma 2 auf dem Plan, das soll da auch rein. Wie ich DAS Spiel allerdings sinnvoll messen soll, das weiß ich bislang nicht genau. Eventuell muss ich die Details manuell anpassen, bis sie angeglichen sind - ich muss/will eh auf Performance tunen, also "lebensnahe" Settings nutzen, die auch in der Realität Verwendung finden würden (wobei "flüssig" bei DD2 schwierig wird – I already tried.).

Es ist nicht sonderlich naheliegend, einem Besitzer einer RX 5500 XT oder RTX 4060 zu verklickern, dass Cyberpunk in 4K mit Pathtracing aber von 16 GiByte VRAM profitiert – das interessiert die nicht, wenn sie Cyberpunk spielen, weil sie natürlich kein 4K mit Pathtracing nutzen. Sondern entsprechend angepasste Details, die dann auch weniger Speicher benötigen.

Aber es interessiert eventuell, dass man mit einer RX 5500 XT/8G Horizon mit mittleren Einstellungen und FSR Quality auf recht saubere 60 Fps bekommt - während man mit dem 4-GiByte-Modell auf rund 40 Fps absackt und mit nervigem Rucken zu tun bekommt.

(Beides Full HD, FSR Quality und Detail-Preset Medium/Mittel)

Anhang anzeigen 1456569
Ich hab dazu noch mehr Daten/Benchmarks im Heft, sodass man wirklich gut erkennen kann, dass der Performance-Unterschied am Grafikspeicher (und eventuell dessen Anbindung) liegt.

Zum Beispiel so:
Das ist dieses Mal nur die RX 5500 XT/4G. Beim oberen Beispiel sind die Texturen um eine Stufe verringert, alle anderen Settings sind haargenau gleich.

(Full HD, maximale Details, untere Messung Texturen "Sehr hoch", oben Texturen "Hoch")

Anhang anzeigen 1456562
Und ja, den Unterschied merkt man auch. Bei dem großen Ausreißer da startet eine Zwischensequenz. Da wird bei jedem Kamera-/Perspektivenwechsel ein fetter Batzen Texturen/Assets reingestreamt. Beim 8-GiByte-Modell sind die in dieser gewaltigen Form in den Frametimes gar nicht erst vorhanden. Es gibt diese Ausschläge zwar in allen Messungen, die sind im Grunde immer da – auch mit potenten Geforce-Karten, aber im Vergleich sind sie beim 8-GiByte-Modell winzig (eher 60 ms denn 300 ms). Das ist im Grunde ein Traversal-Stutter – nur ist der "Traversal" hier keine Wanderung durch die virtuelle Landschaft – das wäre der erste Teil der Messung bis ca. Sekunde 40. Danach laufe ich in einen Skript-Trigger für eine Ingame-Zwischensequenz. Der "Traversal" ist also im Grunde der Übergang von Gameplay in Ingame-Cutscene. Aber gewissermaßen technisch ähnlich, auch da muss auf einen Schlag massig in den Speicher gestreamt werden.

Das bis ca. 30 ms ausschlagende "Microruckeln" tritt im Übrigen nicht auf allen Karten auf, sondern interessanter Weise nur bei den beiden RX-5500-XT-Modellen auf. Ansonden keiner anderen GPU, weder AMD noch Nvidia und auch nicht mit einer RX 7600 in WQHD. Die hat auch 8 GiByte (und ist obendrein Bandbreiten-beschnitten). Das kommt nicht vom Speicher, das ist irgendwas anderes, eventuell ein weniger gut optimierter Vulkan-Renderpfad für die älteren Radeons.

(Full HD, maximale Details, orangefarbener Verlauf Texturen "Sehr hoch", grüner Verlauf Texturen "Hoch")

Anhang anzeigen 1456563Im Artikel sieht man es dann (hoffentlich) sehr eindeutig, Frametimes inklusive. Ist eine metrische Bumstonne Arbeit, aber ich denke, es lohnt sich auch.

Dragon's Dogma 2 könnte allerdings knifflig werden. Aber irgendwie bekomm ich das schon hin, denke ich.


Gruß,
Phil
Ist es schon absehbar, wie Nvidia Karten (8GB) mit dem Spiel umgehen? Diese sollen ja mit dem Speicher besser haushalten. Die Vergleich-Shots im Artikel betreffen ja nur AMD Karten.
 
Da die Texturen immer realistischer werden usw. wird halt der Grafikspeicherhunger größer.

PCGH sagt schon seit fast einem Jahr das 8GB nicht mehr Zeitgemäß sind, diese Meinung teile ich.
Das haben ja viele Belächelt und meinten ach das reicht schon.

Vor der jetzigen Karte hatte ich eine RTX2060 mit 12GB, als eine neue Karte her mußte war klar min 16GB.
Wenn der BUS dazu passt min. 12GB(192bit) und 16GB(256bit) ist man auf einem guten Weg.
 
Ich glaube, die Entwickler nehmen immer weniger Rücksicht auf 8GB Grafikkarten. Die Frage die sich mir stellt ist, ob das Spiel mit ein wenig Pflege, nicht doch mit 8GB auskommen würden?


Ist es schon absehbar, wie Nvidia Karten (8GB) mit dem Spiel umgehen? Diese sollen ja mit dem Speicher besser haushalten. Die Vergleich-Shots im Artikel betreffen ja nur AMD Karten.

Nein, das habe ich noch nicht gecheckt. Ich weiß auch noch nicht, ob ich Morgen schon dazu komme, ich hab aktuell keine 8-GiByte-Geforce im Test (allerdings haben wir natürlich welche da). Die sind eingeplant, aber ich warte noch auf ein 16-GiByte-Modell der 4060 Ti, mit dem ich das 8-GiByte-Modell vergleichen kann. Die anderen treten mit 12/16 GiByte in 4K an.

Ich komm morgen allerdings eventuell mit den restlichen Messungen durch, je nachdem, wie gut es läuft und wie viel Trouble mir Dragon's Dogma macht. Eventuell komm ich also zumindest zum Checken.

Gruß,
Phil
 
Hieß es nicht vorher "Finger weg von 12gb..."? Was ist eigentlich daraus geworden, ansscheinend garnichts, außer man möchte in uhd damit arbeiten.
 
Mit einer 6750xt 12Gbyte und einen Ryzen 9 7950X3D 32GB A Speicher geht das game bei knapp 8GB in den gelben bereich ohne raytrace es werden nur 10Gb erkannt von der Grafikkarte. Das alles auf hohen Details weisst auf Fehler hin die auftreten können in der Darstellung . Läuft aber flüssig bei 120-240 FPS. Allerdings verstellt sich die Auflösung und ds Antializing einfach und muss manuell öfters neu gesetzt werden.
 
Zurück