Special Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar

Wir haben eine Kolumne aus dem Mai 2022 mit der aktuellen Realität abgeglichen. Spiele werden schöner, Hardware wird schneller - es ist ein ewiges Wettrüsten. Alle paar Jahre sorgt eine neue Konsolen-Generation für einen besonders großen Schub bei allen Multiplattform-Entwicklungen. Oder auch nicht. In seiner Kolumne gestand PCGH-Grafikkartentester Raffael "Raff" Vötter im Mai seine etwas voreiligen Schlüsse, wird im Februar 2023 aber bestätigt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar
 
Bei Forspoken liegt der Grund sehr wahrscheinlich daran dass das Spiel AMD sponsored ist, denn die Texturen sehen wahrlich nicht so aus als würden sie viel Vram rechtfertigen.

Bei Hogwarts Legacy sieht es anders aus, die Texturen sind von sehr hochwertiger Qualität, da sollte es für Nutzer von 8GB Karten nicht so dramatisch sein die Textursettings eine Stufe zurückzuschalten, die Texturen sehen weiterhin sehr gut aus (vermutlich auch kaum schlechter).
 
Ich war noch nie so zufrieden, wie aktuell mit meiner RTX 3090, was auch am Speicher liegt. Davor hatte ich eine 2070 Super, die war mit 8 GiByte gerade noch so im Rahmen, die 1070 davor war mit 8 GiByte sehr gut bestückt und das Zocken hat immer Spaß gemacht. Würde ich jetzt kaufen, wären 16 GiByte mein Minimum.

Ansonsten: Traut euch ruhig mal ein Ketzer zu sein und die Texturen einige Stufen nach unten zu drehen. Der Unterschied ist gar nicht soo groß. Warum immer Ultra?
 
Als ich meine Radeon R9 390 im Jahr 2015 gekauft hatte, dachte ich, dass ich für Jahre extrem gut aufgestellt bin und erstmal 10 Jahre oder mehr nicht mehr VRAM benötigen würde, nachdem ich mein VRAM-Budget verachtfacht hatte (Upgrade von Radeon HD 5870 mit 1 GiB VRAM). Da habe ich aber auch nur in Full HD und auf Mittel-Hoch gespielt - und damalige Spiele halt.

Heute sehe ich das anders. Heute modde ich meine Spiele, spiele in 3840x1600 oder in UHD und nutze wenn möglich DL-DSR, falls Ressourcen vorhanden sind. Da kann es einfach nicht genug VRAM sein. Nachdem ich jetzt meine zweite GPU mit 24 GiB VRAM besitze, bin ich auch nicht mehr dazu bereit in der Zukunft eine Grafikkarte mit weniger Videospeicher zu kaufen. Nein, eher noch mehr.
 
Ich wiederhole mich: HAAHAAA! :lol:Es ist einfach eine Frechheit von nvidia.
hab mir herbst eine 3080 geholt, die war zuum glpck DOA und ich hab sie retourniert und bei nbb eine 6900xt nitro+ geholt. beste entscheidung ever. sorry aber nvidia hat für mich überhaupt keinen wert mehr.
Ich unterstütze aktiv nicht mehr nvidia mit ihrer Preispolitik. Da wird zu wenig VRAM verbaut und Preise explodieren ohne Grund. Es liegt an uns Kunden darauf zu reagieren. Wer dennoch nvidia kauft, unterstützt diese Entwicklung nur., darüber muss man sich im Klaren sein. Es ist einfach so.
 
NVidia hat bei ampere einfach die Mittelklasse verkackt!

Wer sich ne 3090 geholt hat ist fein raus.

Die Different vom Top Modell 24GB vram zur "zweitbesten" mit 10GB VRam war von anfang an merkwürdig.

Während die einen zum Zocken "unnötig viel" speicher abbekamen, bekamen die anderen zuwenig.
4GB weniger bei der 3090, dafür 4GB mehr bei der 3080 und es wäre ausgewogen gewesen.
 
Ich würde ja eher dahin vermuten, dass auch eine miese Optimierung der Spiele eine Rolle spielt. Warum die Speicherverwaltung optimieren, wenn doch VRAM im Überfluss da ist? 1-2 Patche später wird auch Hogwarts Legacy mit 10 GB zurechtkommen.
 
Ich würde ja eher dahin vermuten, dass auch eine miese Optimierung der Spiele eine Rolle spielt. Warum die Speicherverwaltung optimieren, wenn doch VRAM im Überfluss da ist? 1-2 Patche später wird auch Hogwarts Legacy mit 10 GB zurechtkommen.
Das bezweifle ich mal stark. Irgendwann ist halt mal Schluss und es zeigt sich wie nvidia hier mit Speicher gegeizt hat. Und das rächt sich eben nun bei Spielen, die eben auch mal mehr Speicher wollen.
 
Das bezweifle ich mal stark. Irgendwann ist halt mal Schluss und es zeigt sich wie nvidia hier mit Speicher gegeizt hat. Und das rächt sich eben nun bei Spielen, die eben auch mal mehr Speicher wollen.
Ich glaube, dass die Leute mittlerweile verstanden haben, dass Du Nvidia nicht magst (9 Deiner letzten 10 Beiträge handeln davon). Konzentriere Dich doch einmal auf die positiven Dinge. Du hast doch eine tolle Karte (komplett ernstgemeint), alles fein. :)
 
Da 90% der Spieler keine Grafikkarte mit mehr als 8 GB haben und die Treiberpatches erst noch kommen, gehe ich davon aus, dass der VRAM-Verbrauch von Hogwarts Legacy in ein paar Tagen kein Thema mehr sein wird. Naja, und Forspoken ist mittlerweile ein DOA-Game geworden, von daher: Not a lot of people do care.

INSGESAMT gesehen werden 8 GB aber wohl langsam zu wenig, insbesondere in WQHD (und höher sowieso).
Ich denke, Raff ist schuld, der schreibt das schon seit Jahren herbei -> Self-fulfilling prophecy... :-)

Ich hoffe mal, dass ich als Full HD-Spieler noch eine Weile mit meiner GPU auskomme!
 
Zuletzt bearbeitet:
Bei Forspoken liegt der Grund sehr wahrscheinlich daran dass das Spiel AMD sponsored ist, denn die Texturen sehen wahrlich nicht so aus als würden sie viel Vram rechtfertigen.

Bei Hogwarts Legacy sieht es anders aus, die Texturen sind von sehr hochwertiger Qualität, da sollte es für Nutzer von 8GB Karten nicht so dramatisch sein die Textursettings eine Stufe zurückzuschalten, die Texturen sehen weiterhin sehr gut aus (vermutlich auch kaum schlechter).
Klar AMD hat den Entwickler Studio sicher gesagt erhöht den VRAM verbrauch.
Fast alle neuen AAA Titel haben ein hohen verbrauch und erst recht die NextGen Porte, das hat nichts mit Nvidia oder AMD zu tun. LUL
 
Konnte im Spiel jetzt nicht genau erkennen, wo die 10+gb VRAM hingehen. In die schwammigen Bodentexturen sicher nicht. Sehe hier keine grafische "Revolution" oder irgendeine grafische Darstellung, die das rechtfertigt.

Auch wenn eine 7900XTX in den nächsten Wochen geplant ist, so ist hier mMn. der Entwickler in der Bringschuld. Für mich ein mieser Port, wie die meisten der letzten 3-4 Jahre. Dazu ruckelt es auch oft beim betreten neuer Gebiete (Shadercache?).

Dazu ist RT Ambient Occlusion irgendwie verbuggt, sodass Vegetation usw. keinerlei Schattierungen bekommt. Sieht aus wie Crysis 2007 auf low. Außerdem sind die RT Reflexionen echt mies mMn. sehr pixelig und low res. Das hab ich schon besser gesehen.
 
Zurück