Special 8 Gigabyte Grafikspeicher: Einfach nicht mehr zeitgemäß, finden mehr als die Hälfte aller PCGH-Leser

Natürlich für WHQD/4K reicht 8GB nicht mehr, zumindest wenn alles Max sein soll, das ist aber für viele Käufer gar nicht das Ziel. Am Ende entscheidet der gewünschte Preis und unter 1000 Euro ist 8GB/FHD eben noch zeitgemäß.
8 GiB reicht tlw. auch in FHD nicht mehr, wie einige Spiele dieses Jahr bewiesen haben (bspw. Hogwarts Legacy, RE4R usw.). Wie bereits geschrieben: 8 GiB hat so lange überlebt, weil Entwickler noch Spiele für last gen Konsolen entwickelt haben und sich deren technischen Gegebenheiten anpassen mussten. Die PS4 kam 2013 (also vor zehn Jahren!) mit 8 GiB shared memory und einem halben GiB für Sytem pp. raus. Dass GPU-Hersteller immer noch 8 GiB-Karten bringen, ist daher lächerlich - selbst im low budget Bereich.

Ausgehend von der Konfiguration der Konsolen sollten es derzeit selbst im low budget Bereich wohl mindestens 10 GiB VRAM sein. Jedenfalls die Series X mit ihrer dezent merkwürdigen Speicherkonfiguration verfügt über 10 GiB schnell angebundenem Speicher für Grafik und 6 GiB langsam angebundenem Speicher. Bei der PS5 sind's wohl realistisch gesehen etwa 12 GiB, die für Grafik zur Verfügung stehen. Da Konsolen bzw. shared memory auch deutlich effizienter sind als CPU/RAM/GPU-VRAM auf dem PC, sehe ich eher 12 GiB als das an, was heutzutage Mindeststandard sein sollte. Klar, vielleicht kommt man auch gerade noch so mit 8 GiB aus, wenn die eigenen Ansprüche niedrig sind. Aber der Preis für diese 8 GiB ist nicht gerade gering - insbesondere, wenn man auch die Zukunftsfähigkeit im Auge hat.
 
Abgesehen davon, wird Auflösung eh überschätzt. Ich spiele zwar im Moment auch in 4k, weil's meine Karte packt, aber hohe Einstellungen und FPS sind mir deutlich wichtiger, so dass ich auch mit FHD oder WQHD nicht wirklich unglücklich wäre.
Das ist Geschmackssache und glücklicherweise kann das ja beim PC auch jeder mit sich selbst ausmachen. Allerdings kommen höhere Auflösungen ja schon durch den Monitor mit einer entsprechenden Hürde daher, was den hohen Anteil an FHD mit erklären dürfte.
Aber bei den Preisen die wir heutzutage bei Grakas zahlen und bei der Haltbarkeit, welche man sich wünscht und durch DLSS etc. in die Länge gezogen wird, möchte ich doch lieber gerne laaange Ruhe haben und in der Mittelklasse(!) nicht schon bei Neukauf Einschränkungen hinnehmen.
Mein Problem mit der Aussage ist, dass man selbst im High-End schon beim Kauf Einschränkungen hinnehmen muss.
 
Ja. Wirklich schade, dass es keine sub-400€ Einsteigerkarte gibt, mit denen man aktuelle Titel(!) auf max Settings(!) mit 60fps+(!) spielen kann.
Kleiner fachmännischer Tip: Genau dieser Fall stellt die Existenzberechtigung von High-End Karten dar.
Moderne Games auf WQHD oder gleich UHD mit max Settings und hohen fps lassen sich eben nur mit 1000€+ GPUs darstellen.
TLDR: Wenn ihr max Settings in hoher Auflösung flüssig spielen wollt, holt euch keine Einsteiger- oder Mittelklasse Karten.
Wer sich trotzdem eine solche zulegt, der möge bitte einfach die Settings im Game herunterschrauben, bis es passt.
 
Es gibt einen Unterschied zwischen "ich hab ne alte rtx3060ti, da passt das schon noch irgendwie mit 8gb vram" und "ich kaufe mir für sehr sehr viel Geld eine >500€ Gpu und will da entsprechend Leistung fürs Geld". Ich bin nicht bereit so viel Geld für so wenig Ram zu zahlen. Da behalte ich einfach meine alte 3060ti und überspringe die aktuelle gen bis vielleicht die rtx5070 endlich min. 16gb vram hat für 500-600€. Für meine gtx1070 hatte ich vor dem mining Wahnsinn auch nur 280€ bezahlt und selbst die hatte schon 8gb vram. Sorry aber 2023 will ich mehr als vor vielen Jahren bei meiner 280€ Karte.
Wie du sagst, wer 2023 viel Geld für eine Karte ausgibt, der sollte nicht mit enger und niedriger Speicherkapazit/Anbindnung vornerein schon eingeschränkt werden, so dass neuen Spielen sogar in FullHD die Luft aus geht.
Die 2060 6GB, 3070 8GB und 3080 10GB sind als mahnende Beispiele zu nennen, was Karten sofort, oder über die Zeit passieren kann, obwohl das eigentlich tolle Produkte sind.
Bei maximal 250 Euro und einem damit angepasstem Erwartungsbild an Grafikpower und den verwendeten Spielen sieht das dann schon wieder anders aus.
Vor allem mit einer gebrauchten 1080 8GB für vielleicht maximal 150 Euro wird man auch jetzt noch wunderbar etwas ältere AAA-Spiele von Ubisoft wie z.B. Farcry 5, AC Odyssey und Watch Dogs 3 zocken können.
Die meisten Indie und Casual Games laufen zudem ja auch in der Regel.
 
Die 4060 ist bei 280 Euro angekommen, die 7600 bei 263 Euro. Also haben sie die 250 Euro beinahe erreicht. Bleibt nur noch die 4060ti 8GB wo der VRAM dann in Relation zum Preis zu knapp ist.
 
Ja. Wirklich schade, dass es keine sub-400€ Einsteigerkarte gibt, mit denen man aktuelle Titel(!) auf max Settings(!) mit 60fps+(!) spielen kann.
Kleiner fachmännischer Tip: Genau dieser Fall stellt die Existenzberechtigung von High-End Karten dar.
Moderne Games auf WQHD oder gleich UHD mit max Settings und hohen fps lassen sich eben nur mit 1000€+ GPUs darstellen.
TLDR: Wenn ihr max Settings in hoher Auflösung flüssig spielen wollt, holt euch keine Einsteiger- oder Mittelklasse Karten.
Wer sich trotzdem eine solche zulegt, der möge bitte einfach die Settings im Game herunterschrauben, bis es passt.
Schon Schade das man jetzt für 60 FPS 1080P gute 1200€ oder mehr für ein einziges Teil ausgeben muss, was vor Jahren noch für gut 600€ ging. Aber hey. in 2 Jahren sind es 3000€ für 60 FPS :)
 
Schon Schade das man jetzt für 60 FPS 1080P gute 1200€ oder mehr für ein einziges Teil ausgeben muss, was vor Jahren noch für gut 600€ ging. Aber hey. in 2 Jahren sind es 3000€ für 60 FPS :)
Ja, die Preise haben sich ziemlich krass nach oben bewegt.
Aber so ganz stimmt deine Rechnung nicht:
Für 60 fps in FHD MIT MAXIMALEN DETAILS mag das stimmen.
Aber das ist genau der Punkt, auf den ich hinaus wollte:
Für 60 fps in FHD mit mittleren Settings reicht eine 400 € Karte völlig aus. (Vor wenigen Jahren waren das nur 200 €)
Allein schon eine reduzierte Texturgröße ist ein exzellentes Mittel, um auf Mittelklasse Karten gute Ergebnisse zu erzielen, insbesondere, wenn man von vornherein bereits über das Wissen verfügt, dass der Speicherausbau bei den billigen Geräten das schwächste Glied in der Kette ist.
High-End ist nicht nur für UHD da, sondern eben auch für Ultra-Settings, selbst in QHD oder neuerdings eben auch FHD.
 
Ja, die Preise haben sich ziemlich krass nach oben bewegt.
Aber so ganz stimmt deine Rechnung nicht:
Für 60 fps in FHD MIT MAXIMALEN DETAILS mag das stimmen.
Aber das ist genau der Punkt, auf den ich hinaus wollte:
Für 60 fps in FHD mit mittleren Settings reicht eine 400 € Karte völlig aus. (Vor wenigen Jahren waren das nur 200 €)
Allein schon eine reduzierte Texturgröße ist ein exzellentes Mittel, um auf Mittelklasse Karten gute Ergebnisse zu erzielen, insbesondere, wenn man von vornherein bereits über das Wissen verfügt, dass der Speicherausbau bei den billigen Geräten das schwächste Glied in der Kette ist.
High-End ist nicht nur für UHD da, sondern eben auch für Ultra-Settings, selbst in QHD oder neuerdings eben auch FHD.
Funktioniert leider nicht immer so einfach.

Bestes Beispiel Call of Duty Modern Warfare 2019.
So 4-5 Monate vor Release von MW2 habe ich Warzone gespielt und hatte bei 1440p etwa 60-80 FPS. Mit einer 3070ti und Hohen Details.
Stelle ich alles auf Low..bleibt es bei 60-80 fps (habe 144hz Monitor und keine fest eingestellten FPS)
Je nachdem wie gut oder Scheiße das Spiel Programmiert ist bringen Grafiksettings manchmal gar nichts.

Dann widerum ganz am Anfang von Warzone hatte ich eine 2080 Super. Und da hab ich bei 1440p etwa 130 bis 160 fps in dem Spiel gehabt.
 
Mit meiner Vega komme ich mit 8 GB und dem hbm Cache gut rum , Far Cry 6 und ultra Textur Paket zwinker. Aber bei neuen Karten mit raytracing sind 8 GB eben nichts mehr, je nach Karte würde ich da schon auf 16 GB Schielen. Denn gute Texturen kosten nur Speicher und bringen unter dem Strich doch so viel!
 
Wenn es jedes einzelne Game betreffen würde, dann würde ich dir zustimmen.
Andere Spiele müssen ja nicht auch im CPU-Limit sein, nur weil ein Spiel das ist.
Aber ich bin vom I7 8700k (5ghz OC mit Flüssigmetal) auf den 5800X umgestiegen in diesem Jahr.
War noch immer das selbe Problem. Es sei denn der 5800X ist viel zu Schwach für ne 3070 ti.
Also im gleichen Spiel keine Veränderung? Dann liegt es doch an irgendwas ganz anderem. Bei einem CPU-Upgrade hätte sonst die Performance steigen müssen.
 
Andere Spiele müssen ja nicht auch im CPU-Limit sein, nur weil ein Spiel das ist.

Also im gleichen Spiel keine Veränderung? Dann liegt es doch an irgendwas ganz anderem. Bei einem CPU-Upgrade hätte sonst die Performance steigen müssen.
Es liegt zu 100% an CoD.
Weil mit jedem Patch wurde die Performance langsam aber sicher Schlimmer.
Angefangen bei Patch 1.30 mit der Inclusion von Cold War.
Sogar DLSS hat kaum Auswirkungen auf das Spiel gehabt. Einfach nur Rotz.
 
Auch für Full HD reichen 8GB nicht mehr in jedem Spiel für Max Details. Tatsächlich ist der VRam Bedarf in 1080p kaum niedriger als in 1440p. Sicherlich kann man mit 8GB noch Alles spielen, das meiste auch auf Ultra aber es ist trotzdem nicht zu empfehlen sich heute noch eine 8GB Karte neu zu kaufen, außer es geht finanziell einfach nicht anders.
Dann kann man genau so gut anders herum argumentieren.

Unter der RT Leistung der 4060ti sollte man nichts mehr kaufen.

Ergebnis ist, das du dann gar nichts mehr bis 550-600€ kaufen kannst. Alles darunter entspricht der Mindestanforderung.

Ich persönlich halte eine 4060ti für ausgewogener, als eine 6750XT. Letztere kackt bei RT Last zu sehr ab. Da ist es Latte, ob man mit der 4060ti in 1/10 großen Titeln nicht die maximalen Texturen nutzen kann. Wenn auf der anderen Seite steht, das man in 3/10 großen Titeln RT nutzen kann.

Ist nur Beispielhaft gemeint.
 
Meine nächste Karte wird wohl 12 Gb Vram haben.
Aber ich habe es im Moment nicht eilig.
Die Spiele die ich habe laufen mit meiner RX 580 8GB in FHD noch ganz gut.
RT ist für mich noch Luxus den ich nicht einsehe extra zu bezahlen.
 
Zurück