News Forspoken: 8 GiB Grafikspeicher können zur "spürbaren Verschlechterung der Texturqualität" führen

Für mich war die ramfrage der Grund warum ich zur 4080 gegriffen habe obwohl sie mir eigentlich zu teuer war und die Leistung der 4070ti ausgereicht hätte
War wohl ein Fehler....wie ja laufend bewiesen wird geht unter einer RTX 4090 nichts...da sind 16GB VRam echt low :ugly:

PC Gaming nur noch für die PC XXXX Gamer :banane:

Solange ich noch ins Menü komme und Ingame ab und zu ein Bild angezeigt wird............läuft
 
War wohl ein Fehler....wie ja laufend bewiesen wird geht unter einer RTX 4090 nichts...da sind 16GB VRam echt low :ugly:

PC Gaming nur noch für die PC XXXX Gamer :banane:

Solange ich noch ins Menü komme und Ingame ab und zu ein Bild angezeigt wird............läuft
Ja gut.. was'n das für ne Auflösung?

In 1440p haste in der Regel mit ner 4090 ganz andere Probleme wie der Vram (CPU Limit)

Klar mehr ram ist nie verkehrt. Das Budget ist halt das andere^^

Ich hab bewusst keine 4090 genommen weil es mich mit nem 5950x ins CPU Limit haut.. und 600€ mehr gekostet hätte..

Und die 4080 weil die AMD Karten diese Generation kacke sind und die 4070ti mir Zuwenig vram hatte
 
Zuletzt bearbeitet:
Find's lustig wie die Leute auf den VRAM herumreiten wenn mal wieder ein schlecht optimiertes Spiel erscheint das einfach die GB vollballert und dann nicht mal grafisch High-end liefert...

Frag mich aber eh was die Leute mit ihren 24gb speicherkrüppeln wollen, rtx6000 ada mit 48gb ist the way to go, also worauf warten ;-)
 
Am neuen Dead-Space kann erkennen, dass V-Ram sicherlich wichtig ist. Das zeigt der Artikel auf CB.
Ein YTer hat Dead-Space in verschiedenen Szenarien auf einer 3050 getestet.
Ich bin der Meinung, dass ein geringer Vorrat an V-Ram gar nicht so kritisch zu sehen ist.
Dank DLSS kann man das Bild in einer geringen Auflösungen rendern und nachher wieder hochskalieren lassen.
Das bringt viel Einsparung beim V-Ram, zeigt sich auch im Video ab 2:40:00 ca.
Man hat durch DLSS sicherlich etwas Qualitätseinbuße - aber man muss heutzutage dank DLSS nicht gleich
zur neusten Karte wechseln und viel Geld ausgeben. Ich verstehe aber wenn Leute nativ spielen wollen,
ohne diese Bild-Manipulation.

Hier das besagte Video am Bsp. vom anspruchsvollen Dead-Space_Remake.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Find's lustig wie die Leute auf den VRAM herumreiten wenn mal wieder ein schlecht optimiertes Spiel erscheint das einfach die GB vollballert und dann nicht mal grafisch High-end liefert...

Frag mich aber eh was die Leute mit ihren 24gb speicherkrüppeln wollen, rtx6000 ada mit 48gb ist the way to go, also worauf warten ;-)

Genau, drücken Sie durch das Gaspedal!
 
Ich spiele auf einer 3070 mit Ultra.
Und ja, ich habe mich über die Texturen an manchen Stellen gewundert.

Ich teste das mal. Aber spannenderweise wird mir angezeigt, dass nur 4GB des VRAMs genutzt werden...?
Man hat durch DLSS sicherlich etwas Qualitätseinbuße - aber man muss heutzutage dank DLSS nicht gleich
zur neusten Karte wechseln und viel Geld ausgeben. Ich verstehe aber wenn Leute nativ spielen wollen,
ohne diese Bild-Manipulation.
Meine Erfahrungen mit DLSS sind eigentlich eine vollkommen andere.
Ich gehöre eigentlich zur Fraktion "Augenkrebs", denn ich spiele immer noch auf 1080p.
In 1080p hat man schon mal gerne etwas mehr Kantenflimmern usw. Ich sehe das besonders stark bei Cyberpunk und Horizon.
Bäume, Sträucher, Gras, Stromleitungen usw. all das flimmert und ist ein unschöner Pixelbrei (in der Entfernung).
Mache ich jetzt DLSS dazu, habe ich ein wunderbar ruhiges Bild, ohne Kantenflimmern.
Ich kann ja demnächst mal ein Vergleichsbild machen. Für mich persönlich ist DLSS ein Grafik-Godmode. Besseres Bild+höhere FPS.
 
Zuletzt bearbeitet:
Hab noch nicht viel von Forspoken gesehen, aber das, was ich gesehen habe, hat mich jetzt nicht sonderlich beeindruckt.
Und noch weniger beeindruckend, wenn man bedenkt, dass das Spiel nicht unbedingt besser aussieht als FF15, welches die gleiche Engine als Unterbau nutzt und weniger hohe Systemanforderungen hat.

FF15 hatte allerdings zumindest rein optisch auch noch eine nette Open World zu bieten. Forspoken sind so generisch aus, wie jeder x-beliebige Asia Grinder.
 
Ich spiele auf einer 3070 mit Ultra.
Und ja, ich habe mich über die Texturen an manchen Stellen gewundert.

Ich teste das mal. Aber spannenderweise wird mir angezeigt, dass nur 4GB des VRAMs genutzt werden...?

Meine Erfahrungen mit DLSS sind eigentlich eine vollkommen andere.
Ich gehöre eigentlich zur Fraktion "Augenkrebs", denn ich spiele immer noch auf 1080p.
In 1080p hat man schon mal gerne etwas mehr Kantenflimmern usw. Ich sehe das besonders stark bei Cyberpunk und Horizon.
Bäume, Sträucher, Gras, Stromleitungen usw. all das flimmert und ist ein unschöner Pixelbrei (in der Entfernung).
Mache ich jetzt DLSS dazu, habe ich ein wunderbar ruhiges Bild, ohne Kantenflimmern.
Ich kann ja demnächst mal ein Vergleichsbild machen. Für mich persönlich ist DLSS ein Grafik-Godmode. Besseres Bild+höhere FPS.
Ja ganz persönlich habe ich die gleichen Erfahrungen gemacht, im wesentlichen eine echte Aufwertung, bis auf Shadow of the Tomb Raider, da habe ich in dunklen Höhlen manchmal einen Rasterfilm über der Textur liegen, was etwas Flimmern verursacht. Ansonsten macht DLSS eine echt gute Figur.
 
Sag' ich ja, 1 Titel wo sie besonders effizient agiert.

Weil ich eh gerade The Outer Worlds spiele in WQHD auf Ultra mit 100% 3D Auflösung und einer FPS Begrenzung von 144 Ingame.
Auch hier ist der Verbrauch unter 200 Watt ohne UV und mit Radeon Chill (75-144 Watt).

Pendle so zwischen 150 und 190 Watt. :) Sinds schon 3 Titel wo sie gut Effizient ist, hehe. ?

Verwende den 23.1.1. Treiber.

1674902466223.png
 
Nach dem Trailer und 5min. Gameplay hab ich wieder ausgemacht. Hey, ich kann euch gar nicht sagen wie ich diese Blitzkacke Hasse. Sollen wir alle Epileptiker werden ?

Wäre ich jetzt 12 Jahre alt wäre ich wohl hin un weg. NEXT!
 
Es ist wirklich schade das Spieleentwickler es heutzutage nicht schaffen die zur Verfügung stehende Hardware sinnvoll zu nutzen.
Es mag zwar zum aufrüsten animieren und vieleicht ist das auch die Absicht dahinter?
Für eine Konsolenportierung fehlt mir aber dafür jegliches Verständnis.
 
Find's lustig wie die Leute auf den VRAM herumreiten wenn mal wieder ein schlecht optimiertes Spiel erscheint das einfach die GB vollballert und dann nicht mal grafisch High-end liefert...
Naja.. was ist dir lieber..
Wenig Vram Nutzung und dauert nachladegeruckel oder wenn das Game den vorhanden vram auch tatsächlich nutzt als Zwischenspeicher

RAM /VRAM ist dafür da auch benutzt zu werden.

Mich kotzt es eher an wenn man tonnenweise von beiden hat (16gb VRAM/32GB RAM) und das Game dann nur minimal davon nutzt (5gb VRAM/5GB RAM)
Gleichzeitig aber ständig am Texturen nachladen ist was auf SSD und CPU Leistung geht.
Mache ich jetzt DLSS dazu, habe ich ein wunderbar ruhiges Bild, ohne Kantenflimmern.
Ich kann ja demnächst mal ein Vergleichsbild machen. Für mich persönlich ist DLSS ein Grafik-Godmode. Besseres Bild+höhere FPS.
Kann ich so leider auf 1440p nicht nachvollziehen..
Ich hab bisher kein einziges Spiel gesehen wo DLSS quality (egal welche Version) so gut /besser wie nativ aussieht.

Klar man kommt schon teilweise nah dran.. und es ist besser wie die renderess runterzudrehen aber so gut wie nativ ist es für mich nicht.

Was ich allerdings sehr gut finde ist DLAA.. das macht richtig knackiges AA in game
 
Zuletzt bearbeitet:
War wohl ein Fehler....wie ja laufend bewiesen wird geht unter einer RTX 4090 nichts...da sind 16GB VRam echt low :ugly:

PC Gaming nur noch für die PC XXXX Gamer :banane:

Solange ich noch ins Menü komme und Ingame ab und zu ein Bild angezeigt wird............läuft
Sagte ich ja, 16 ist auch nichts halbes und nichts ganzes. Direkt zu 24 gegriffen.

"Aber aber 10 reichen locker und reserviert ist nicht verwendet........." darf man sich anhören.
 
Mit anderen Worten das Spiel sieht auf einer High End karte vom letzen jahr aus wie ein Game von 1998.
Müssen die sofort die Texturen von ultra auf very very low runterschalten wenn der VRAM nicht reicht? Nur noch Match?
Könnte man, macht aber zusätzliche Arbeit in der Entwicklung, und da die Konsolen das Problem nicht haben müssen die PC-Spieler eben sehen wie sie klarkommen.
Ich meine da gibts doch zwischen stufen, oder ander Möglichkeiten Kompression z.B.

:-*
Kompression macht man ja schon, aber wirklich effiziente Formate kann man halt nicht verwenden weil die GPU ja im Zweifel schnell drauf zugreifen muss. Ein vernünftiges LoD System wäre das Mittel der Wahl, aber das ist gar nicht so leicht wie man denkt, besonders wenn das System sich automatisch auf die verfügbaren Ressourcen optimieren soll - kein Ding der Unmöglichkeit, und die "großen" Engines haben da natürlich eine Menge Vorarbeit geleistet, aber es macht halt Arbeit, und kostet ergo Geld in der Entwicklung.

Verschwörungsmäßig hinzufügen kann man an der Stelle natürlich auch, dass die PC-Version in Partnerschaft mit AMD entstanden ist, deren Grafikkarten in den letzten Jahren quasi immer mehr VRAM geboten haben als ihre nVidia Konkurrenz. AMD hat also wenig Interesse hier zu optmieren, denn zumindest in den letzten zwei Generationen (also das was im Zweifel im Benchmark auftaucht) würde es hauptsächlich Team Grün nutzen, während die eigenen Karten kaum profitieren würden.

Quasi wie vor ein paar Jahren als einige nVidia Spiele unnötig hohe Tesselation Stufen benutzten, einfach weil es auf AMD Karten deutlich langsamer lief als auf nVidia Pendants.
 
Das Spiel ist grotte programmiert , 70 % Cpu und Graka last ist einfach zuviel für so eine Grafik .... Aber mir egal bleibt es bis zum Sale liegen juckt mich nicht .
 
Zurück