Special Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar

Muss man nicht die reißerische Ansage etwas relativieren ?
Ich meine, es kommt ja weiterhin darauf an, ob jemand nur mit Full HD spielt, oder eben mit mehr.
Eine 3070 wird mit Ihren 8GB auch mit Hogwarts Legacy mehr als ausreichen, wenn der- oder diejenige nur in der FHD Auflösung spielt. Beweist mal das Gegenteil....
 
(...)Ich denke, Raff ist schuld, der schreibt das schon seit Jahren herbei -> Self-fulfilling prophecy... :-)

(...)
Naja, weil es immer stimmt.
Wer vor 2 Jahren gekauft hat wird sehr wahrscheinlich immernoch spielen wollen aber genauso wahrscheinlich keine neue Karte kaufen wollen. Hat er oder sie ja erst vor 2 Jahren.

Wer sich damals für 8 oder 10GB entschieden hat, muss aber langsam anfangen Details zu reduzieren. In FHD.

Es steht doch im Artikel. Lies nochmal die letzte Frage, die nicht ohne Grund rhetorisch genannt wird.

Es geht nicht um jetzt und nicht um Menschen die jedes Jahr neu kaufen, es geht explizit um um die Zukunft und Ruhe, bis tatsächlich die Leistung nichtmehr reicht.
 
Ich war noch nie so zufrieden, wie aktuell mit meiner RTX 3090, was auch am Speicher liegt. Davor hatte ich eine 2070 Super, die war mit 8 GiByte gerade noch so im Rahmen, die 1070 davor war mit 8 GiByte sehr gut bestückt und das Zocken hat immer Spaß gemacht. Würde ich jetzt kaufen, wären 16 GiByte mein Minimum.

Ansonsten: Traut euch ruhig mal ein Ketzer zu sein und die Texturen einige Stufen nach unten zu drehen. Der Unterschied ist gar nicht soo groß. Warum immer Ultra?

Das eine hat ja nicht wirklich mit dem anderen zu tun.
Wenn ein Spiel nicht so läuft wie man will lebt man der Konsequenz und oder dreht die Details runter.
Erst wenn mehrer Spiele nicht mehr so laufen wie man will fängt man an an einem HW Update nachzudenken.
Das Ultra Details bei einigen Dingen bzw. Spielen fast nur Makulatur ist sollte auch bekannt sein.
(Nur beim Studiern von Bildschirmfotos ein Unterschied zu finden)

Die 1070 / 1080 hatte ja auch einfach nur die "Tradition" weitergeführt deutlich mehr / doppelt so viel Speicher zu haben wie die Vorgängergeneration.
Das die RTX 2070 / 2080 genauso viel RAM hatte war ja schon nicht toll.
Das die 3070 & 3080 nicht / kaum mehr Speicher hatte war dagegen mehr als nur traurig.
Wurde auch schon beim erscheinen der Karten bemängelt.
 
Was kommen denn noch für Spiele in nächster Zeit, die "anspruchsvoller" sind ?
Sehe da nicht wirklich viel, was da optisch der "Knaller" werden sollte. ( PCGH Roadmap )
Es könnte ja auch jetzt sein, dass die nächsten Monate bei neueren Spielen weiterhin 8- 10 gb problemlos reichen und Hogwarts und Forspoken erstmal eine Ausnahme bleiben.
Aber Nvidia hat doch sicher einen Ass im Ärmel. Im Notfall wird mit dem Treiber " geschummelt" :-D
 
Bisher kam es ja auch immer auf die jeweilige Nutzungsdauer an. Wenn du dir (bei Nvidia) alle 2-4 Jahre ne neue Karte gekauft hast, war der kleine Speicher der grünen (Pascal war hier DIE löbliche Ausnahme) meist das letzte Problem. Der Chip ansich war dann eher zu lahm.

Aber klar, Spieleentwickler nutzen nunmal vorhandenen RAM aus, sei es beim Arbeitsspeicher oder eben beim VRAM. Warum auch nicht, die Erde dreht sich weiter, Stillstand ist der Tod und aktuell würde ich ebenfalls ne Karte mit 16, besser 24GB VRAM kaufen/empfehlen...

Gruß
 
Ich nutze meine Karten auch normalerweise über mehrere Jahre (4+) hinweg. Dabei bevorzuge ich jedesmal ein VRAM-Upgrade. Das kommt noch von "damals", als ich eine Geforce2-MX400 (?) mit 64MB anstatt 32MB erwarb. War so ein Gefühl seinerzeit, da auch kaum Erfahrung oder Wissen vorhanden war. Und das hat dann in der Praxis ca. 2 Jahre länger gehalten für meine Bedürfnisse - bei entspannten Mehrkosten von ca. 30 € . Spätesten seitdem hab ich eigentlich immer mindestens verdoppelt. Aber das war auch schon vorher öfter der Fall.
Aktuell ist's eine RX570 mit 8GB. Die nächste sollte eigentlich 16GB haben. Aber die Preise sind mir immer noch zu hoch. Daher wirds vermutlich - wenn ich jetzt kaufen würde - eine 12GB Karte vom Schlage der RX-6700 XT.
Da ich passionierter Retro-Gamer bin und viele kleinere Titel mir mehr geben als AAA-Games bleibt die Karte aber wohl noch eine Weile. Bis dahin gibts dann auch 16GB für meinen Geldbeutel.
 
Im Artikel steht:

"Oder sehen Sie das anders? Gehören Sie zum Team "Nummer sicher", "Öfter aufrüsten" oder gar "Warum immer Ultra-Details"? Diskutieren Sie mit!"

Großartig! So kommt sich niemand mehr alleine gelassen bzw. veräppelt vor, da mehrere Positionen legitim sind und man als Redakteur standhaft bleib und keine Meinung von vornherein ausschließt. Damit wird auf die Qualität des Schriftguts der Presse geachtet und das ohne jedwede Einschränkung.
 
Altes lied neu aufgespielt das ist wie mit ram kann man nie genug haben. Was taugen wirklich grafikarten zwischen 8-12Gb im Jahre 2023 garnicht weil Spiele brauchen mehr der Puffer ist auch wichtig keine technik wird das auch am ende rausholen können. Viel geblende der Industrie und ihr kleinen scheisserchen blässt meistens im gleichen Horn. Mehr ist mehr ein Spruch der Amis(schade das Nvidia da sich nicht dranhält) und so ist es das neue must have ist 64GB als ram und mindestens 16Gb an grafikspeicher allses andere ist gesprochen ala Industie
 
Ich würde weniger sagen, dass wir jetzt in der Zukunft angekommen sind, sondern dass uns viel eher ein Problem der Vergangenheit heimsucht:
Forspoken und Hogwarts Legacy haben keine bessere Grafik als Titel des letzten Jahres, nicht im Geringsten. Sie sind einfach nur Paradebeispiele für miserabel portierte Konsolenspiele!
Die Ports sind in den letzten Jahren immer besser geworden, insb. Sony Titel wie Horizon oder God of War zeigen, wie man sauber portiert.
Der überhöhte RAM Verbrauch und die FPS Einbrüche der beiden neuen Titel sind hoffentlich nicht das, was wir im Jahr 2023 erwarten können - zumindest nicht in Kombination mit guter aber eben keineswegs herausragender Grafik...
 
Da meine Karten immer lange im Einsatz sind bevorzuge ich klar die sichere Seite.
Deswegen hast du bereits eine 7900XTX, veralber doch die Menschen nicht.
Diese News ist reißerisch,. natürlich wird der hohe V-ram Bedarf noch gefixed.
Davon abgesehen ist es wirklich nicht so dramatisch einen Regler von vielen runterzustellen.
Solche Möchtegernprobleme hätten die Menschen in der Türkei jetzt gerne, zocken wahrscheinlich in den eingestürzten Wohnhäusern Legacy, eingequetscht zwischen Stahlbeton und Einrichtungsgegeständen und hier kauft man jede Generation eine neue Grafikkarte und sagt gleichzeitig sie müssen lange halten.:-$
 
Zuletzt bearbeitet:
Jop, Clickbait Klassiker mal wieder.
Muss man nicht die reißerische Ansage etwas relativieren ?
Ich meine, es kommt ja weiterhin darauf an, ob jemand nur mit Full HD spielt, oder eben mit mehr.
Eine 3070 wird mit Ihren 8GB auch mit Hogwarts Legacy mehr als ausreichen, wenn der- oder diejenige nur in der FHD Auflösung spielt. Beweist mal das Gegenteil....
Ist allgemein kompletter Schwachsinn das Getöse, hauptsache der Speichergoblin hat was zu palabern.

Wahrscheinlich handelt es sich eher um VRAM als auch RAM leaks welche man durch den Transition Layer verursacht und ansonsten noch keine Optimierungen vorgenommen hat,
speziell um RT, DLSS usw. neuerer UnrealEngine 4 Revisionen noch mit reinzunehmen. Das ist alles, ich denke nicht das man in Panik geraten sollte.

Allerdings schon verständlich das man auf Krampf etwas Werbung für die Radeons machen möchte welche auf ultra ebenfalls komplett abkacken weil die Memoryleaks eben mit gewissen Einstellungen einhergehen, nicht weil es "Übertexturen" oder sonstiges hat.
 
Was intressiert mich die Vram / Arbeitsspeicher last . Ich Rüste immer so auf das ich lange ruhe habe . Und mal überlegen der Ryzen ist von 2020 und da hab ich den Ram verdoppelt , und ende nov hab ich mir noch ne neue Graka gegönnt da es mit der rtx 2080 nicht zu machen war .... Und natürlich habe ich dabei auf Stalker 2 - richtung Crysis 4 / UE 5.1 aufgerüstet das ist kein gehheimnis . Aber wenn man aufrüstet sollte man immer eine verdopplung der hw im kopf haben den 2 x kaufen macht wenig sinn . Und es wird bei jeder CPU / Board / Ram Aufrüstung eine verdopplung geben , den Arbeitsspeicher oder genug CPU Kerne kann man nie genug haben . Aber da es aktuell keinen Prozessor für die 4090 gibt dürfte auch da ein 14900 K / Ryzen 8 XXX Serie die richtige wahl sein mit 64 gb ram :P 2x 32gb ram 2 stk eben . Ich finde das ich nicht unter druck stehe ,Spiel ich halt PS 5 wenn es gar nicht geht . So ging das schon immer wobei die PS 5 für Exklusive Games ist / sind gedacht ist . Aber was man auch zugeben muss , die Zeiten von HL ² und Doom und Far Cry sind auch langsam vorbei ich würde mir ein hl ³ oder irgend was andres inovatives Wünschen das zeigt was geht auf dem PC und warum man soviel mehr Geld für HW ausgibt . Ich würde am liebsten ein neues Counter Strike oder Half Life sehen oder ein Soldier of Fortune 2 mit mods eben neu auf UE 5.0 Basis meinet wegen auch ein neues Metel Gear Solid auf einer solchen Engine einfach coole Games .... neues Perfekt Dark oder Ocarina of Time den letztlich geht es um den fun beim Zocken . Und vielleicht das mit einander in Socom oder Rainbow Six 3 und nicht darum andre mit seiner HW zu ärgern . Das mit einander co-op zocken fehlt mir Joint Operrations Typhon Rising Black hawk dawn , socom sowas halt ....
 
Zuletzt bearbeitet:
Deswegen hast du bereits eine 7900XTX.
Immer noch, ich hab ja auch mehrere Rechner. Die passen nun mal nicht alle in die SIG hier.
Meine 6800XT wird sich wohl auch eher mit dem Spiel auseinandersetzen dürfen, da die Kinder da sicher mitspielen wollen und die Karte muss dann auch UHD stemmen.
 
Immer noch, ich hab ja auch mehrere Rechner. Die passen nun mal nicht alle in die SIG hier.
Meine 6800XT wird sich wohl auch eher mit dem Spiel auseinandersetzen dürfen, da die Kinder da sicher mitspielen wollen und die Karte muss dann auch UHD stemmen.
Wird sie, mit kleineren Anpassungen. Was auch für die RTX3080 gelten wird, Jensen wird schon in seinem Öfchen was zusammenbacken:D

Sonst, ich hab nix gesehn, was die Kinnlade runterfallen und vierstellige Grakas nötig erscheinen lässt...

Gruß
 
Gehören Sie zum Team "Nummer sicher", "Öfter aufrüsten" oder gar "Warum immer Ultra-Details"?
Mittlerweile eindeutig Letzteres. War früher mal anders, da musste es immer ne fette Graka und Ultra sein, aber naja, man wird älter, und der Graka-Markt perverser, und die Spiele schlechter.

Sollte meine 2070/8GB demnächst mal komplett abstinken, werde ich einen alten Trick nutzen, den kaum jemand in unserer High-End-Community kennt: Ich werde die Texturen von Ultra auf hoch stellen. Da, wenn ich mich nicht irre, der Speicherbedarf von Texturen quadratisch zur Auflösung steigt, sollte mir das sehr, sehr viel Zeit verschaffen. Raytracing kann ich mit der Karte eh vergessen, und das ist mir auch ganz sicher keine vierstellige Summe wert.

In Zeiten von DLSS & Co. kann mir eh kaum noch jemand erzählen, dass er es groß merken würde wenn die Texturen etwas matschiger sind.
 
Zurück