News Forspoken: 8 GiB Grafikspeicher können zur "spürbaren Verschlechterung der Texturqualität" führen

Was soll ich sagen. Das Spiel interessiert die Masse dich erst, sobald es im Sale verramscht wird. Bis dahin ist wahrscheinlich 16 GB mindestens Standard.
 
Ich hab so oft gehört das Spiel sei mittelmäßig in der Grafik. Also was macht das Spiel mit soviel Leistung wenn am ende ich nicht Blind bin zum ende wie bei einen Atompilz den ich zu lang betrachtet habe
 
Wat will man auch mit 8GB Vram…das ist so 2016, wir sind aber 6 Jahre weiter.
Meine (immer noch laufende) 1080 Ti hatte auch 2016 schon 11 GB :P
Wenn man sich letztes Jahr für viel Geld eine geholt hat und das Spiel damit nicht auf high läuft. Dann hat man schon Grund um sich aufzuregen. Finde ich schon.
Schreib am besten einen Brief an Jensen und äußere dich wie enttäuscht du bist. Und danach direkt den nächsten Speicher und IO Krüppel kaufen, irgendwie muss man die Kunden ja bei der Stange halten.
Nur weil das Spiel technisch kompletter Müll ist, ist die GPU nicht schlechter.
Sorry, aber das geht an der Realität vorbei. Im Zeitalter von 1500€ Grafikkarten geben Konsolen den technischen Fortschritt in puncto Grafik vor, denn bei reinen High-End-PC-Titeln wäre das Zielpublikum zu klein.

Und realistisch interessiert es nicht ob Doom Eternal nun mit 500 fps läuft oder nicht, die Konsolenports sind die Grafikknaller, also sollten die auch auf entsprechenden High-End PCs laufen. Darauf hat sich der GPU-Entwickler einzustellen, ob der Port nun schlecht ist oder nicht.
 
Das Problem bei den Radeons mitz 16GB und 20GB VRAM sind ja falls man nicht seinen eigenen Strom erzeugt, die laufenden Betriebskosten. Will man sich irgendwann nochmal eine neue Karte kaufen, aber nur falls, ist die 4070 Ti der angenehmere Wegbegleiter. Alleine die Ergebnisse mit der 3050 Mobile können sich ja schon sehen lassen...es gibt viel zu tun. :devil:
Es gibt nicht nur die 7000er Radeons. ^^ Meine 6900XT hat auch 16 GB VRAM.

Wat will man auch mit 8GB Vram…das ist so 2016, wir sind aber 6 Jahre weiter.
So siehts aus.
 
Zuletzt bearbeitet:
Im Spiel, gemessen mit einer 4090 benötigt das Spiel im Innenbereich oder Ruinen mit Ultra Settings und DLSS Quality sowie Auflösung 5120x1440 - 12-14GB, in Außenbereichen 15-16GB, nach gewisser Spielzeit sind es dann bis zu 18GB Vram
 
Da hatte doch mal jemand die Spekulation geäußert, dass stark auf Direct-Streaming optimierte Konsolentitel auf dem PC wie Grütze laufen könnten (zumindest relativ zur gebotenen Grafikqualität), wenn der Entwickler so faul ist, das Speichersubsystem einfach 1:1 zu übernehmen...
Nach allem was ich so gehört habe, muss das Spiel aber auch auf der PS5 stellenweise massive Framerate Einbrüche haben und auch im allgemeinen technisch kein schönes Bild abliefern.
 
Ich kann nur von der Demo ausgehen, die weder DLSS noch FSR unterstützt, aber sie läuft mit Ultra-Preset in FHD und maximaler Speichernutzung für Texturen auf meinem System flüssig, heißt mit 50 fps bis 60 fps ohne Ruckler. 9900K, 32GB RAM, 960 EVO und eine RTX 2080.

Die Frage wäre da nun, wie verlässlich die Demo als Leistungstest für das eigentliche Game herhalten kann.
 
Mit anderen Worten das Spiel sieht auf einer High End karte vom letzen jahr aus wie ein Game von 1998.
Müssen die sofort die Texturen von ultra auf very very low runterschalten wenn der VRAM nicht reicht? Nur noch Match?

Ich meine da gibts doch zwischen stufen, oder ander Möglichkeiten Kompression z.B.

:-*
 
8GB reichen doch völlig die nächsten Jahre ,würde 2020 oft gesagt Grade im Zusammenhang mit der 3070 und der 3080?
Die genannten Herren sollen Mal ein aktualisiertes Statement dazu abgeben.
Die genannten Herren hatten doch Recht! Es ist jetzt Anfang 2023 und damit sind - aus Sicht 2020 - die nächsten Jahre doch gut gewesen mit 8GB. Sie sind nun halt vorbei. Wer kann heute schon sagen, was in 2-3 Jahren von (schlecht optimierten) Spielen so benötigt wird? Und ne 4090 wird in 3 Jahren auch nur noch Mittelklasse sein...
 
Im 2 Monitor Betrieb mit einem Samsung UHD 60Hz und Gigabyte WQHD 144 Hz, das finde ich ganz ok. Die vorherige RX 5700 XT hat im selben Setting gut 35 Watt Idle verbrauch gehabt.
Ich bin hier bei 3,5 Watt im Idle für die Grafikkarte, also die Werte sind ohne Details zu kennen, identlisch mit der 4070 Ti. Allerdings arbeitet der externe Monitor hier auch "nur" mit 75 Hz und das in 1080p. Die iGPUs von Intel landen beim Nichtstun bei 0,000 bis 0,002 Watt, sind also nochmal um Faktor 1.000 effizienter.
 
Nun, ich habe die Demo gestern gespielt. I7 4771 auf einem MSI Z87 G45 GAMING mit 16 GB DDR3 1600 MHz installiert auf eine M.Sata auf dem MB und die Asus Strix Vega 64 OC lief OHNE das Grafikkarten Update (mein Treiber der Vega ist aus Oktober 2022) auf hohen Einstellungen ganz gut. Aber es gibt viele Baustellen im Game. Zudem finde ich diese Demo echt MIST!
Die genannten Herren hatten doch Recht! Es ist jetzt Anfang 2023 und damit sind - aus Sicht 2020 - die nächsten Jahre doch gut gewesen mit 8GB. Sie sind nun halt vorbei. Wer kann heute schon sagen, was in 2-3 Jahren von (schlecht optimierten) Spielen so benötigt wird? Und ne 4090 wird in 3 Jahren auch nur noch Mittelklasse sein...
? Lustig bis FUNNY ?! Die RTX 4090 WIRD bereits gegen Ende 2024 zum Alten Eisen gehören so wie wir zugeschmissen werden von der Egomanisch gierigen Chip Industrie wie es sie überall und nun auch bereits in Jerusalem Intel Chips produziert.
 
Das Problem bei den Radeons mitz 16GB und 20GB VRAM sind ja falls man nicht seinen eigenen Strom erzeugt, die laufenden Betriebskosten. Will man sich irgendwann nochmal eine neue Karte kaufen, aber nur falls, ist die 4070 Ti der angenehmere Wegbegleiter. Alleine die Ergebnisse mit der 3050 Mobile können sich ja schon sehen lassen...es gibt viel zu tun.
Ist das so gravierend? Meines Erachtens nehmen sich die beiden Grafikkarten aus energetischer Sicht nicht so viel, so dass ein erheblicher Unterschied auf der Stromrechnung entsteht.
 
Nach allem was ich so gehört habe, muss das Spiel aber auch auf der PS5 stellenweise massive Framerate Einbrüche haben und auch im allgemeinen technisch kein schönes Bild abliefern.
Der Anfang vom Spiel lief auf der PS5 eigentlich richtig gut (Ich spiel IM Qualitätsmodus).
Jetzt auf dem Weg nach Süden kommt es teilweise zu Problemen. Ich tippe darauf, dass die Entwickler teilweise bei der Levelgeometrie übertrieben haben und sich zusätzlich zu sehr darauf verlassen habe, dass die dynamische Auflösung schon ausreichen wird. Die Landschaft ist in der Vollversion nämlich wesentlich ansprechender und komplexer als was man in der Demo gesehen hat. Ich finde die Demo ist nicht sonderlich repräsentativ für die Vollversion.
Vielleicht hätten die Entwickler besser auch nur einen statt drei Grafikmodi auf der PS5 umsetzen sollen und das Spiel auch tatsächlich während der Entwicklung selber spielen sollen. Durch Anpassung/Optimierung der Level hätte man sicher die Performance Probleme verhindern können.
Die Künstler wollten wohl einfach zu viel, so wie damals bei Assassin's Ceed Unity.
 
8GB reichen doch völlig die nächsten Jahre ,würde 2020 oft gesagt Grade im Zusammenhang mit der 3070 und der 3080?
Die genannten Herren sollen Mal ein aktualisiertes Statement dazu abgeben.
Du meinst die Leute die nur in 1440p spielen und sich deswegen auch keine Custom RTX 3090 für 2000€ gekauft haben?
Tja...die haben sich für weit weniger Kohle eine Custom RTX 3070 und eine RX 6800 gekauft. Jetzt die RTX 3070 gegen eine RTX 4070Ti getauscht.

Die spielen weiterhin in 1440p und haben auch weiterhin keine VRam Probleme (unoptimierte Einhörner gibts immer).
Die haben jetzt eine Karte mit der Leistung einer RTX 3090 ...nur mit halben Verbrauch....und kommen mit der RX 6800/RTX 4070Ti immer noch günstiger weg.

Ist das genug, oder willst Du noch mehr wissen :P
Es gibt nicht nur die 7000er Radeons. ^^ Meine 6900XT hat auch 16 GB VRAM.
Meine RX 6800 hat auch 16GB...das hindert den VRam Krüppel RTX 4070TI aber keineswegs sie aber sowas von zu vernaschen.
Ausserdem steh ich nicht auf 300W+....unter 200W....da müssen die Dinger abliefern :hail:
 
Zuletzt bearbeitet:
Naja.. die Rambestückung bei den rtx3000er war von Anfang an fragwürdig..
3070/3080 stehen nun da und schauen bei immer mehr spielen in die Röhre bei 1440p was high Texture settings angeht..
Framedrops und Spielabstürze sind die Folgen (mw2)
Das war aber abzusehen...
Klar wurden die Treiber dahingehend optimiert um da entgegen zu wirken aber langfristig gesehen hat man nun mit Ner 3070/3080 da das nachsehen

Da waren die AMD Karten tatsächlich die bessere Wahl für diejenigen die ihre Karte Mal eine Generation länger laufen lassen wollen.

Das gleiche Problem sehe ich bei der neuen rtx4070ti 12gb.. noch ausreichend.. langfristig gesehen allerdings arg auf kante genäht. Die Karte hat durchaus Power (3090ti Niveau) aber der RAM und das Speicherinterface könnte diese Karten sehr schnell altern lassen.

Wenn jetzt alles darunter noch weniger vram hat dann wird's bitter.. ne 4070 mit 8/10 GB steht halt wieder genauso mies da wie ne 3080/10gb

Klar behaupten jetzt viele sie sehen ja bei den meisten spielen kaum VRAM Auslastung..
Da ist allerdings auch viel Treiber Vodoo dabei der versucht das ganze Grade zu biegen..
Hinzukommt das so manche engine eigenständig Details reduziert wenn's Mal knapp wird.. was vielen im Detail aber nicht direkt ins Auge fällt.

Will jetzt kein AMD vs Nvidia Fass aufmachen.. beide Herrsteller haben ihre eigenen unlogischen Macken.

Für mich war die ramfrage der Grund warum ich zur 4080 gegriffen habe obwohl sie mir eigentlich zu teuer war und die Leistung der 4070ti ausgereicht hätte.



Die Leute denken auch ganz gerne ein Spiel was wenig VRAM/RAM nutz wäre gut optimiert..
Gut optimiert ist es wenn es den vorhandenen Vram/RAM auch benutzt anstatt dauert nachzuladen
 
Zuletzt bearbeitet:
Zurück