Ob der Speicher "wirklich benötigt" wird oder nur das Spiel schlecht optimiert ist spielt aber leider keine Rolle, denn wenn es ruckelt ruckelt es. Es sei denn du willst nur noch wirklich optimierte Spiele spielen (also sowas wie Doom Eternal), oder fragst beim Entwickler freundlich an ob du selbst Hand anlegen kannst.
Oder man lässt halt den Algorithmus der Engine arbeiten und bildet sich ein auf maximalen Details zu spielen obwohl das LoD ab 5 Meter die ersten Objekte aufploppen lässt.
Leicht OT: Wie geht man mit sowas eigentlich in Tests um? Theoretisch hätten Karten mit weniger VRAM bei einem solchen Spiel dann ja sogar einen fps Vorteil, weil sie für die gleiche Sequenz dann weniger rendern müssen?
Na ja, ist das nicht unter anderem eine Daseinberechtigung für technikorientierte Spieletests?
Nur so ne Idee...
Sicherlich, selbst wenn man weiß dass Spiel XYZ schlecht optimiert ist, kann man kaum direkt etwas daran ändern.
Man kann sich aber dazu entschließen so ein Spiel nicht zu kaufen.
Oder zumindest auf die altbekannten Patches zu warten...
Cyberpunk hatte auf der PS4 letzten Endes ein ähnliches Problem,
auch wenn das mitunter dem Alter der PS4 geschuldet ist... Sagt man zumindest so...
Trotzdem wussten die Kunden von den Problemen und hatten dann die Wahl, und darauf kommt es an.
Und wenn ich mich recht erinnere, hatte auch Witcher 3 anfangs Probleme mit der Streaming-Engine.
Was ich hingegen nicht machen würde, ist mir wegen der Schlamperei eines Spieleentwicklers,
der mal eben mit nem' schnellen Port noch mehr Knete aus einem Spiel zu pressen versucht,
mir eine im Zweifelsfall wesentlich teurere GPU zu kaufen, nur weil die dann 20% mehr Speicher hat...
Auch wenn ich zugeben muss, selten in diese Bredouille zu kommen...
Abgesehen davon kann man doch schon fast froh sein, dass seit 2015 die Speicherbestückung
der GPU's wesentlich weniger stark gestiegen ist als die Jahre davor...
2010-2015 lag der noch bei nem' Anstieg von 4x-8x bzw. bei 6x 2005-2010.