News Forspoken: 8 GiB Grafikspeicher können zur "spürbaren Verschlechterung der Texturqualität" führen

Ich sehe in Jahr 2023 sollten bei Mittelklasse gpu 16gb und bei Highend min 32gb Ram eher Standard sein. Bei diesen Wucherpreisen ist es seitens gpu Herren eine Frechheit Karten mit so wenig Ram zu verkaufen.
 
Ich sehe in Jahr 2023 sollten bei Mittelklasse gpu 16gb und bei Highend min 32gb Ram eher Standard sein. Bei diesen Wucherpreisen ist es seitens gpu Herren eine Frechheit Karten mit so wenig Ram zu verkaufen.
Dann ab zu Intel. Mir ist VRAM ja egal, aber wer unbedingt 16GB Videospeicher benötigt, hat ja einige Optionen am Markt, wobei da natürlich die RTX 4080 mein Favorit wäre. Viele Grüße
 
Es mag klar einen Optimierungsbedarf geben, mir fallen allerdings direkt die Aussagen vom letzten Jahr ein:
"Die 3060 hat mehr VRAM als für die Rechenleistung sinnvoll wäre." :ugly:
 
Es mag klar einen Optimierungsbedarf geben, mir fallen allerdings direkt die Aussagen vom letzten Jahr ein:
"Die 3060 hat mehr VRAM als für die Rechenleistung sinnvoll wäre." :ugly:
Das ist aber auch die letzte gpu Generation. Also wenn ich sehe dass eine rtx 4070ti fast tausend € kostet und nur 12gb Ram hat dann idt dies definitiv zu wenig.
Die hat genug Rechenpower für locker 16gb also 4k in hohen Auflösungen.
Ich habe aktuell die rtx3060ti mit 8gb. Bei der ist 8gb die Schmerzgrenze. Der hätte man schon schon 12gb spendieren können.
 
Das ist aber auch die letzte gpu Generation. Also wenn ich sehe dass eine rtx 4070ti fast tausend € kostet und nur 12gb Ram hat dann idt dies definitiv zu wenig.
Die hat genug Rechenpower für locker 16gb also 4k in hohen Auflösungen.
Ich habe aktuell die rtx3060ti mit 8gb. Bei der ist 8gb die Schmerzgrenze. Der hätte man schon schon 12gb spendieren können.
Sind die Leute nicht bereit entsprechende Summen zu bezahlen, dann spielen sie lieber Games mit niedrigen maximalen Hardwareanforderungen. Egal wie lange man dann Aufrüstungen hinaus zögert oder wie im Fall des Lockdowns Kaufverzicht geleistet werden musste, wird es immer ein Missverhältnis von VRAM, Rasterleistung, Preis, Funktionalität und Effizienz geben.

Wenn die 4070 Ti sowieso schon so gut ist, warum dann nicht noch 400€ drauf packen für die RTX 4080 oder eine Intel Arc770 dazu? Dann hat man seine 16GB VRAM. Wegen Verlusten bei Effizienz und Herstellungskosten ist von Nvidia zumindest kein Einlenken zu erwarten. Das bedeutet im Umkehrschluss auch, dass eine 8GB Karte wie sagen wir 4050 bis 4060 Ti für viele Leute der ideale Wegbegleiter sein wird, weil sie es gar nicht erst versuchen, Spiele mit absurd hohen Einstellungen zu spielen. Für Live Streaming als Einnahmequelle ist das etwas anderes: Da spielt auch die Leistungsaufnahme keine große Rolle und es kann zu den ganz großen Produkten gegriffen werden. Ist der Markt da allerdings gesättigt, kann man mit kleiner Technik punkten und zeigen was geht und wie günstig der Einstieg in solche Welten wirklich sein kann.

Das sind Erkenntnisprozesse, die bei den Leuten mit der Zeit reifen. Beachte ebenfalls das Speicherinterface: 16GB bei einer 4070 Ti und 12GB bei eine 3060 Ti ergeben technisch keinen Sinn, jedenfalls nicht mit den verbauten Chips im (Speicher-) Vollausbau wegen 192 Bit und 256 Bit Intereface. Dafür bräuchte es dann andere Chips als AD104 und GA104.
 
Forspoken ist katastrophal optimiert und Dead Space schlecht. Daran jetzt gleich eine Diskussion aufzuhängen, ob 10 oder 12 GB Grafikspeicher ausreichend sind, halte ich für verfrüht.
 
Forspoken ist katastrophal optimiert und Dead Space schlecht. Daran jetzt gleich eine Diskussion aufzuhängen, ob 10 oder 12 GB Grafikspeicher ausreichend sind, halte ich für verfrüht.
Bei absurd hohen Ultra Einstellungen in 4K dann den Grafikkarten die Schuld zu geben anstatt der Software und dem Benutzer am Computer selbst, das finde ich hanebüchen.
 
Ich spiele auf einer 3070 mit Ultra.
Und ja, ich habe mich über die Texturen an manchen Stellen gewundert.

Ich teste das mal. Aber spannenderweise wird mir angezeigt, dass nur 4GB des VRAMs genutzt werden...?

In welcher Auflösung spielst Du denn?

In WQHD und "High" Grafiksettings in der Demo waren die 8GB meiner RTX 3070 voll ausgelastet.
 
Ich weiss es nicht, darum frage ich mal in die Runde.

Das Absenken der Textur Qualität beobachtete ich zum ersten Mal zur Zeiten der GTX970 und war somit ein NVidia "Phänomen.

Ist es hier generell der Fall?
 
Auf der anderen Seite muss man nicht allgemein ultra-hohe Einstellungen anwenden, nur weil sie da sind.
Insbesondere wenn es optisch gar nicht bemerkbar ist, jedoch 10fps kostet.
Alle Regler nach rechts ist aber bei vielen auch einfach 'ne Kopfsache. Wie oft liest man Sätze wie "Ich kauf doch keine 4090, um Regler nicht max out zu stellen". Und in einer idealen Welt, wo Games alle super optimiert wären, würde ich da ja sogar mitgehen, aber die Realität sieht halt leider anders aus.

Forspoken ist miserabel optimiert und rechtfertigt optisch kein bisschen den Leistungshunger. Man vergleiche dazu gerne, was ein Toaster namens PS4 mit RDR2 noch hinbekommen hat...
 
Das sind Erkenntnisprozesse, die bei den Leuten mit der Zeit reifen. Beachte ebenfalls das Speicherinterface: 16GB bei einer 4070 Ti und 12GB bei eine 3060 Ti ergeben technisch keinen Sinn, jedenfalls nicht mit den verbauten Chips im (Speicher-) Vollausbau wegen 192 Bit und 256 Bit Intereface. Dafür bräuchte es dann andere Chips als AD104 und GA104.
mit der GTX 970 war man ja kreativ
 
also ich spiele mit gtx1080 sli , in 4k, mit 64gb ram , in ultra , hab quasi keine probleme mit grafik, ausser das manchmal etwas träge reagiert , das ist aber so selten , das macht bei 16h ca 2 min aus
 
Sind die Leute nicht bereit entsprechende Summen zu bezahlen, dann spielen sie lieber Games mit niedrigen maximalen Hardwareanforderungen. Egal wie lange man dann Aufrüstungen hinaus zögert oder wie im Fall des Lockdowns Kaufverzicht geleistet werden musste, wird es immer ein Missverhältnis von VRAM, Rasterleistung, Preis, Funktionalität und Effizienz geben.

Wenn die 4070 Ti sowieso schon so gut ist, warum dann nicht noch 400€ drauf packen für die RTX 4080 oder eine Intel Arc770 dazu? Dann hat man seine 16GB VRAM. Wegen Verlusten bei Effizienz und Herstellungskosten ist von Nvidia zumindest kein Einlenken zu erwarten. Das bedeutet im Umkehrschluss auch, dass eine 8GB Karte wie sagen wir 4050 bis 4060 Ti für viele Leute der ideale Wegbegleiter sein wird, weil sie es gar nicht erst versuchen, Spiele mit absurd hohen Einstellungen zu spielen. Für Live Streaming als Einnahmequelle ist das etwas anderes: Da spielt auch die Leistungsaufnahme keine große Rolle und es kann zu den ganz großen Produkten gegriffen werden. Ist der Markt da allerdings gesättigt, kann man mit kleiner Technik punkten und zeigen was geht und wie günstig der Einstieg in solche Welten wirklich sein kann.

Das sind Erkenntnisprozesse, die bei den Leuten mit der Zeit reifen. Beachte ebenfalls das Speicherinterface: 16GB bei einer 4070 Ti und 12GB bei eine 3060 Ti ergeben technisch keinen Sinn, jedenfalls nicht mit den verbauten Chips im (Speicher-) Vollausbau wegen 192 Bit und 256 Bit Intereface. Dafür bräuchte es dann andere Chips als AD104 und GA104.
Weil schon fast tausend € für eine rtx 4070ti Wucher sind. Wird reden immerhin für eine Grafikkarte der gehobenen Mittelklasse. Für die Gtx1070 hab ich damals 280€ bei Mediamarlt gezahlt. Und nun kostet die xx70 ti schon das 3 fache? Kosten cpu's auch bald da 3fache? Muss ich 2024 6000€ für einen Zocker PC hinlegen. Hat sich mein Gehalt seid der gtx1070 auch verdoppelt- verdreifacht? Wo bleibt die Relation?
 
hab eine 3080 10GB und ständig matschige Texturen egal welches preset... nur wenn ich DLSS auf Performance stelle und RT deaktiviere werden die Texturen vernünftig geladen... sehr schade und eine 4080 ist noch zu teuer :/
 
hab eine 3080 10GB und ständig matschige Texturen egal welches preset... nur wenn ich DLSS auf Performance stelle und RT deaktiviere werden die Texturen vernünftig geladen... sehr schade und eine 4080 ist noch zu teuer :/
Naja da mangelt es halt an VRAM.
Aber ob Forspoken jetzt für die Zukunft der Spiele steht was VRAM Nutzung angeht mag ich zu bezweifeln.
Aber es Zeigt mal wieder auf das Nvidia einfach unnötig am VRAM gespart hat bei der 3000 Gen.
 
Es ist echt schade. Ich habe jetzt 18h gespielt und finde das Game an sich richtig nice. Das Kampfsystem macht Bock. Aber diese Texturen... Ich zocken auch mit einer 3080 und dank DLSS hab ich in 4k zwar zwischen 50-60fps. Aber die Texturen sind Matsch. Das trübt die Stimmung )o:
 
Zurück