News Grafikspeicher 2024: Wie gut sind PCGH-Leser auf die Unreal Engine 5 vorbereitet?

Ich denke 16 GB werden noch paar 2-3 Jahre reichen.
Sag das mal Nvidia in 2030. ;-)


16GB reichen knapp, 20+GB sind besser.
16GB reichen zur Zeit wirklich für alles, auch für 4k ohne knapp.
Und das wird sich vorerst nicht ändern.


Warum reden hier eigentlich alle über den Grafikspeicher, inklusive dem Beitrag. Man benötigt auch eine potente GPU für die Engine... Ich wette eine hypotetische RTX 4090 mit 16GB (Böse Zungen würden sagen RTX 5080) würde auch ne gute Leistung abgeben. :ka:
Ziemlich starker fokus auf den VRAM.
 

Wenn man nicht alle Regler rechts hat reicht eine RTX 1080 durchaus für 4K und low-medium und schaut damit ähnlich aus wie die PS5 oder XBox. Was aber gänzlich fehlt ist Raytracing dann und natürlich hat man an Alan Wake 2 gesehen, dass bereits Featuresets fehlen.

Mich wundert, dass sich in den letzten 5 Jahren die Denke bei den Leuten komplett geändert hat. Haben 2019 noch 8GB scheinbar locker gereicht und als üppig betrachtet wurden sind alle Karten unter 20GB inzwischen scheinbar Rohrkrepierer und nur kurze Zeit brauchbar. Gerade bei der Unreal-Engine wundert mich die Umfrage sehr, weil die doch oft deutlich sparsamer ist als vorhergehende Unreal Engine 4. Bei Unreal Engine 5 glaube ich eher, dass mein Speicher verhungert, weil nie Daten darin abgelegt werden.


Warum reden hier eigentlich alle über den Grafikspeicher, inklusive dem Beitrag. Man benötigt auch eine potente GPU für die Engine... Ich wette eine hypotetische RTX 4090 mit 16GB würde auch ne gute Leistung abgeben. :ka:
Ziemlich starker fokus auf den VRAM.

Eine hypothetische 4090 existiert bereits als 4080. Leistung wäre quasi on par.
 
Zuletzt bearbeitet:
Die games von unreal engine 5 müssen ja erst noch erscheinen damit man von ausreichend oder nicht schreiben kann. Ich bin wohl gemerkt noch immer mit einer gtx 1650 4 GB unterwegs. Bis die Spiele kommen wird es mit sicherheit noch ein Jahr vergehen. Dann kann ich noch immer die Details runter stellen. Es gibt bestimmt Wege raytracing ganz weg zu lassen, auf 1080p bzw 720p reduziert auch noch die Hardware Anforderung und so ein paar settings stelle ich automatisch ab weil es mich nur stört als nüzt wie z. B Nebel, Ambient oculution oder die ganzen Unschärfe Effekte. Und schon wird ein game ohne das es für mich schlechter aussieht, dennoch gut aussehen.
Damit komme ich gut zurecht. Das es CPU limtierend ist naund, ich habe ne gute CPU. Soll sie doch., hat sonst die meiste Zeit eh zu wenig zu, tuen.
Da wo sie viel zu tuen hat da könnte es dann knapp werden. Aber gut ich kenne auch keinen der videoumwandelt und gleichzeitig zockt. Dann wird zocken langsam echt eng werden.
 
UE5 benötigt nicht viel VRAM, das rennt sogar in 4k mit 8-10GB gut. Hier wird eher mehr GPU Leistung benötigt, 4k native ist für eine 4090 oft schon zu viel.

Verstehe daher den alleinigen Hype um VRAM auch nicht...
 
Wenn man nicht alle Regler rechts hat reicht eine RTX 1080 durchaus für 4K und low-medium und schaut damit ähnlich aus wie die PS5 oder XBox. Was aber gänzlich fehlt ist Raytracing dann und natürlich hat man an Alan Wake 2 gesehen, dass bereits Featuresets fehlen.
Schön und gut aber die Konsolen sind viel schneller als eine 1080.
 
Manche haben eben die Prio ihre Kohle ausschließlich in den Rechner zu pumpen. Ich werd schon immer doof angeguckt, wenn Freunde mein Bequiet 801 Gehäuse sehen. Hallo Ich arbeite in der IT, also muss das Ding so groß sein :fresse: Irgendwann tausche ich die 3070 auch mal aus, aber derzeit reichts für die meisten Spiele in 1440.
 
ja, allerdings dann nur mit stark resuzierten Auflösungen und Details
in 7 Jahren ist sie 9 Jahre alt.
Rein vom Alter entspricht das heute einer 980 Ti. Der Vergleich hinkt aber, die Tempofortschritte wurden kleiner, dafür kam RT und AI Upscaling hinzu. Spieln kann man mit dr 980 Ti tatsächlich wohl noch alles
4-5 gebe ich ihr aber auf jeden Fall noch, denn vor der neuen Konsolengeneration (2028??) wird man auch nicht oft mehr RT Einsetzen als die 4090 hat

stimmt.
Aber das Forum ist halt auch eine Bubble

Ich habe ja grundsätzlich die Hoffnung, das zum Beispiel die PS5 Pro den Anfang eines Schubes setzt, der die Basis anhebt.
Wenn die PS5 Pro wirklich 40-50% mehr RT Leistung hätte, die allgemeine Basis sich auch um 40-50% nach oben verlagert.
Sprich die Masse der Spiele mehr RT bekommt. Von einer höheren Basis, wird es auch oben raus mehr geben.

Das dürfte reichen um mehr Spiele wie CP77, oder Alan Wake 2 zu veröffentlichen...

Eine derartige Entwicklung würde ich sehr begrüßen ;)
 
Klar Vram reicht oft, was aber nicht beachtet wird, ist das der Grafik Treiber und Engine die Details reduzieren, bevor es zu einem kompletten Zusammenbruch kommt. Das fällt vielen gar nicht auf.

Gestern Abend noch Avatar gespielt im 3ten Gebiet angekommen und da war meine Karte mit 18GB-19GB belegt und effektiv knapp über 16GB in Benutzung. Mit einer 12GB Karte hätte hier schon Anpassungen stattgefunden.
Ich habe ja grundsätzlich die Hoffnung, das zum Beispiel die PS5 Pro den Anfang eines Schubes setzt, der die Basis anhebt.
Wenn die PS5 Pro wirklich 40-50% mehr RT Leistung
Unmöglich. Die haben Glück, wenn die generelle Leistung um 40% steigt. Woher soll das herkommen aus Rdna 3 mit 200 Watt Power Budget für das ganze Teil? Unmöglich und einen Chip einer 7900 werden sie aus Kostengründen nicht hernehmen können, der extrem runtergetaktet und limitiert wurde, würde das schaffen aber sonst nicht möglich. 7800 mit maximal 150Watt Korsett für die Gpu auf der Apu, schneller ja aber um wie viel müsste mal wer testen was dabei herauskommt 40%? Klingt realistisch.
 
Naja ob 4090 oder nicht , ich denke die jetztigen Systeme reichen eh nicht für alle schiebregler nach rechts . Ich denke an :
-Wichter 4
-Crysis 4
- Und Zukünftige Titel da dürfte dann sehr wichtig sein , wie der rest des Systems aussieht . Wieviel CPU Kerne und wieviel Ram man hat . Ka ob ne 4090 in 25 noch lebt oder es für Zukünftige Titel reicht abwarten Tee trinken .

Bei den beiden und auch nahezu allen anderen kommenden Titeln werden die CPU und der RAM mit an Sicherheit grenzender Wahrscheinlichkeit nicht der Flaschehhals sein, wenn man alle Regler nach Rechts schiebt, es sei denn Du spielst in 1080p oder niedriger.

Wer sich eine 4090 gönnt wird wohl kaum noch mit 16GB Ram oder einer schwachen CPU rumdümpeln, ebenso wird eine 4090 wohl kaum in Full HD, sondern fast immer in UWQHD oder 4K betrieben. Da ist man nahezu immer im GPU-Limit bei Max Details.
 
Manche haben eben die Prio ihre Kohle ausschließlich in den Rechner zu pumpen. Ich werd schon immer doof angeguckt, wenn Freunde mein Bequiet 801 Gehäuse sehen. Hallo Ich arbeite in der IT, also muss das Ding so groß sein :fresse: Irgendwann tausche ich die 3070 auch mal aus, aber derzeit reichts für die meisten Spiele in 1440.
Wenn denjenigen der mit Geld umgehen kann, ist auch ein Oberklasse bis High End PC fürs Gaming kein teures Hobby.

Wer jede Gen aufrüstet und die nicht mehr verwendete Hardware veräußert kommt ganz gut dabei weg und bleibt stets oben dabei.

Der zahlt nur 40-50% des Kaufpreises, beim Update. Nach der ersten Investition sind die Kosten, zum aufrüsten relativ gering.

4090 = 1700€
14600kf + DDR5 7400 CL34 + Board, oder 7800X3d +DDR5 6200 CL30 + Board = um 650 - 700€ möglich
Laufwerke müssen selten gewechselt werden, genau wie Netzteile und Gehäuse.

Für GPU und CPU inkl. Plattform würden man bei den Updates "nur" um 960 bis 1200€ drauf zahlen, auf ca. 24 Monate.

Das sind nur 50€ im Monat!

Und das ist bei weitem nicht nötig.

Eine 7900XTX, R5 7600 Kombi, oder eine 4080, I5 14600 Kombi tun es auch locker und sind weit dicker, als das womit die meisten zocken.

Da liegt man aber auch schnell nur noch bei 720- 900€ auf 24 Monate und damit bei "nur" 30 bis 37,50€ pro Monat.

Da ich jetzt auch keine Koryphäe im Umgang mit Geld bin, gab es bei mir auch nur die 4070ti, bzw. zuletzt due 4070ti super und einen 13400f.

Aber wer einen Plan hat, ist stets im Vorteil ;)

Da braucht man nicht das Gerücht befeuern, das PC Gaming ein teures Hobby wäre ;)
Bei den beiden und auch nahezu allen anderen kommenden Titeln werden die CPU und der RAM mit an Sicherheit grenzender Wahrscheinlichkeit nicht der Flaschehhals sein, wenn man alle Regler nach Rechts schiebt, es sei denn Du spielst in 1080p oder niedriger.

Wer sich eine 4090 gönnt wird wohl kaum noch mit 16GB Ram oder einer schwachen CPU rumdümpeln, ebenso wird eine 4090 wohl kaum in Full HD, sondern fast immer in UWQHD oder 4K betrieben. Da ist man nahezu immer im GPU-Limit bei Max Details.
Gab doch bei den letzten Spielen wieder die Situation, das die CPUs limitiert haben (allesamt).

Eine hohe RT Last wird in kommenden Titeln wohl auch die CPU Last in die Höhe treiben. Deswegen hoffe ich das die neuen Ryzen wirklich so große IPC Steigerungen hinlegen.

Auch wenn die NPCs endlich schlauer werden sollten, oder KI´s mehr Einzug erhalten wird das für CPUs und Ram eine harte Nuss.
Klar Vram reicht oft, was aber nicht beachtet wird, ist das der Grafik Treiber und Engine die Details reduzieren, bevor es zu einem kompletten Zusammenbruch kommt. Das fällt vielen gar nicht auf.

Gestern Abend noch Avatar gespielt im 3ten Gebiet angekommen und da war meine Karte mit 18GB-19GB belegt und effektiv knapp über 16GB in Benutzung. Mit einer 12GB Karte hätte hier schon Anpassungen stattgefunden.

Mir zu allgemein, da spielt so vieles noch rein aktuell. Aber ja, 24 gegen 12Gb wollen wir doch mal hoffen, das es da auch mal Vorteile für 24GB gibt ;)
Unmöglich. Die haben Glück, wenn die generelle Leistung um 40% steigt. Woher soll das herkommen aus Rdna 3 mit 200 Watt Power Budget für das ganze Teil? Unmöglich und einen Chip einer 7900 werden sie aus Kostengründen nicht hernehmen können, der extrem runtergetaktet und limitiert wurde, würde das schaffen aber sonst nicht möglich. 7800 mit maximal 150Watt Korsett für die Gpu auf der Apu, schneller ja aber um wie viel müsste mal wer testen was dabei herauskommt 40%? Klingt realistisch.

Da ähnliche Technik genutzt wird und wenn die generelle Leistung um 40% steigt, dann doch auch die RT Leistung. Die ist ja davon nicht entkoppelt.

Ich denke das man dem GPU Teil schon bis zu 180W gönnen könnte, da die CPU Seite nur mit 35W rum eiert.

Systemverbräuche um 240-250W wären ja noch ok.
 
Zuletzt bearbeitet:
Ambient Occlusion abschalten, echt?
Ich finde das trägt extrem stark zu einem realistischen, immersiven look bei. Ohne wirkt alles falsch für mich.
Wieso stört Dich das?
Naja das sieht ja jeder anderst. Es macht alles dunkler, als ich es abgeschaltet hatte wurde es da dann heller. Sieht besser aus wie ich finde. Leistung kostet das ja auch noch. Das spare ich mir dann auch ein. Sogar hdr lasse ich aus weil es wirkt die Farben übertrieben. Das Fake hdr bei einem alten game habe ich erst garnicht eingeschaltet. Obwohl es das game so alt ist, zieht es sogar leistungs starke gpus mit runter. Und zwar unnötig.
Naja ich bin somit im Vorteil.
 
Naja das sieht ja jeder anderst. Es macht alles dunkler, als ich es abgeschaltet hatte wurde es da dann heller. Sieht besser aus wie ich finde. Leistung kostet das ja auch noch. Das spare ich mir dann auch ein. Sogar hdr lasse ich aus weil es wirkt die Farben übertrieben. Das Fake hdr bei einem alten game habe ich erst garnicht eingeschaltet. Obwohl es das game so alt ist, zieht es sogar leistungs starke gpus mit runter. Und zwar unnötig.
Naja ich bin somit im Vorteil.
Ich weiß noch, das ich bei BF3 damals glaube ich auch mit der Option gespielt habe, an aus... Aber ehrlich, selbst wenn ich mich an das eine, oder andere über die Jahre auf den ersten Blick kurz gewöhnen musste, so würde ich heute für nichts auf der Welt mehr darauf verzichten wollen.


Alternativ könnte ich auch immer noch CoD4 spielen. Aber ich spiele auch online Shooter mit max Details, mir egal ob andere einen Vorteil mir gegenüber dann haben. Bisher kam ich stets noch gut zurecht.
 
Zurück