Das stimmt schon, aber der Witz an der Geschichte ist ja, dass die meisten Spiele den VRAM Bedarf nach Patches doch zügeln konnten. Bei The Last Of Us ist es ein Unterschied wie Tag und Nacht zwischen der Release Version und der heutigen Version.
Natürlich soll das nicht den Geiz an VRAM bei Nvidia und AMD entschuldigen, aber ich denke schon, dass in letzter Zeit doch sehr verschwenderisch mit VRAM umgegangen wird.
Ich würde nicht sagen "verwenderisch" sondern eher völlig unoptimiert und komplett schlampig.
Ich denke das liegt schlicht daran, dass diese Games zumeist Ports von ursprünglich für Konsolen entwickelte Games sind.
Und die aktuellen Konsolen haben eines gemeinsam - sie haben keinen dezidierten VRAM sondern nur einen systemweiten Ram in Höhe von 16gb (oder 12 bei der Series S) für CPU+GPU - oder besser für die APU - und ich nehme daher mal stark an, dass die Speicherverwaltung dieser Games ursprünglich daher nicht auf die Nutzung eines dezidierten Vram wie sie in PC-Graka vorhanden ist, optimiert waren. Da kann mir ja kein Mensch erzählen, dass ein PC mit zB 16GB System-Ram eine Mittelklasse-GPU mit 8GB Vram, nicht deutlich mehr Speicherkapazität und Performance aufweist als eine Konsole mit insgesamt nur 16GB System-Ram...und auf diesen PC's bekommen die unoptimierten Teile dann Probleme..bitte...
Kurioserweise zeigen die meisten Games nach einem entsprechenden Patch deutlich weniger Vrambedarf bei deutlich besseren Texturen - das muss man halt auch mal sacken lassen.
Hab mir letztens ein Vergleichsvideo pre- und nach Patch bei Digital Foundry angeschaut - und z. B Forspoken braucht nach dem Patch DEUTLICH weniger Vram bei massiv verbesserten Texturen ???
Und ich kann mich nur wiederholen - was das für Aufregung und Sh*tstorms in der PC-Community ausgelöst hat, inkl. hysterischen Reviews über die rtx 4060 ti oder rx 7600 weil ein paar wenige Games einfach unoptimiert rausgeworfen wurden - das kannste echt nicht erfinden.
Ich meine das ging soweit das sich die Hersteller gezwungen sahen Statements abzugeben, weil sie es gewagt haben GPU's mit 8GB Vram zu veröffentlichen.
Ja klar, wer stets 4K und 120fps bei Superultra-Settings haben will, soll gerne eine GPU mit 16GB+ kaufen, aber gleich allem was drunter liegt die Exsistenzberechtigung abzusprechen und dubiose, nicht prüfbare Aussagen über angeblich so hohe Anforderungen "zukünftiger" Games, tätigen die dann mit 8GB nicht mal mehr in 1080p ordentlich performen würden...no way!