Special The Last of Us Part I im Nachtest: Wie läuft der VRAM- und CPU-Fresser nach 11 Updates?

"DDR5 nimmt hier eine besondere Rolle ein, denn das Spiel ist dazu in der Lage, die höhere Bandbreite in mehr Fps zu verwandeln. Wie üblich, stellen die X3D-Prozessoren die Speerspitze bei AMD-Prozessoren dar, noch schneller sind dann nur noch Intels Core i7-13700K und i9-13900K."

Sieht man ja auch, da die 2 INTEL´s mit 5600´er und der 7800X3D mit 5200`er RAM gebencht wurde.
 
Ist schon hart eigentlich plane ich ja die 4070 als neukauf, aber die 7900XT wird mit jeder Auflösungstufe schneller. In 4k 70 %. Das macht die 4070 auch wieder etwas unintressanter. Liegt das wirklich nur an der Menge des Videospeichers? Oder auch an der Bandbreite?
 
Ist schon hart eigentlich plane ich ja die 4070 als neukauf, aber die 7900XT wird mit jeder Auflösungstufe schneller. In 4k 70 %. Das macht die 4070 auch wieder etwas unintressanter. Liegt das wirklich nur an der Menge des Videospeichers? Oder auch an der Bandbreite?
Es liegt am Verhältnis aus Cache und Speichertransferrate, wie in den Tests der Ada-Grafikkarten erläutert. Schau am besten mal hier (unten): https://www.pcgameshardware.de/Gefo...-Release-Specs-Founders-Edition-1417027/3/#a5

MfG
Raff
 
Ne Option um das Textur-Streaming einzustellen?
Ich frage mich immer, ob es nicht möglich ist, dass das Spiel beim Start einmal "wirklich" abcheckt, wie viel RAM und VRAM zur Verfügung steht, geschwiege denn wie hoch die Monitorauflösung eingestellt ist.

Mit automatischer Erkennung hat das in noch keinem gut funktioniert, da kommt zu allermeist ordentliche Grütze bei raus.

Ich würde mich freuen wenn mich da ein Programmierer mal aufklären kann.

Bsp. Anno 1800: Kann sehr viel RAM fressen. Hat es geschafft von meinen 32GiB mal 30 zu belegen (inkl. sonstiger Programme die so liefen).

Habe dann aus Spaß mal auf 64GiB aufgerüstet, um zu sehen, was es sich so nehmen würde wenn mehr da ist. Bin dann mal auf ne Nutzung von 34Gib gekommen (inkl. Hintergrundscheiß).

Interessanterweise nutz es seit dem letzten Update aber nicht mehr als 26GiB, hängt sich dafür aber häufiger mal auf und ruckelt bei Wechsel der Zonen manchmal.

Also: wieso kann ein Spiel nicht einfach die verfügbaren Ressourcen ausnutzen? Ist das wirklich so schwer zu programmieren?
 
Definiere "gute Ports". :-)

Horizon Zero Dawn: Verschlang anfangs sehr viel VRAM, Patches halfen (Klassiker!).
Uncharted 4: Diverse Probleme mit Maus-Input und ein paar andere, kleine Wehwehchen (u. a. langes Shader-Compiling).
Spider-Man Remastered: Erhielt in den ersten Wochen sehr viele Patches, war also bei Release nicht fertig.
Returnal: Litt an Stuttering bei Release (UE4 eben), Patches halfen.
Sackboy: Ganz gemeines Shader-Stuttering bei Release (UE4 ...), mittlerweile prima.

Ohne jegliche Beanstandung lief aus dem Stand nur God of War, so weit ich das aus dem Gedächtnis hervorkramen kann. Bitte nicht falsch verstehen, ich bin zufrieden und glücklich darüber, dass wir diverse Sony-Werke am PC erleben dürfen, aber da geht noch was. Umso gespannter bin ich auf das in zwei Wochen startende Ratchet & Clank: Rift Apart, auf das ich mich sehr freue. Das portiert wieder Nixxes (Spider-Man) - sollte was werden. =)

MfG
Raff
Naja, ich habe darauf reagiert:
"...typischer Fall von ultra-schlechtem (Sony-)Konsolenport..."
Das hört sich so an, als ob alle Sony Spiele wie Last of Us abliefen.

Ich kenne wie gesagt nur Days Gone, weil ich das selbst spiele und der Port ist ein Traum. Läuft auf Windows und auch auf Linux wie gesagt sehr gut und es gibt auch keinerlei Probleme mit Stuttering oder Maus Probleme.

Und die anderen Spiele haben auf Steam alle gute Bewertungen, daher hat mich das nur gewundert.
Solange die Spiele gefixt werden, finde ich es nicht so schlimm. Bethesda ist da kein Stück besser, eher im Gegenteil. Bei Bethesda spürt man noch Jahre nach dem Release die Unzulänglichkeiten der PC Version. Ich kaufe Spiele erst wenn sie ausgereift sind und bekomme von den frühen "Beta-" Launch Problemen dann weniger mit. Na gut in den Foren, den News und von Freunden dann schon eher. ;)
 
Ne Option um das Textur-Streaming einzustellen?
Ich frage mich immer, ob es nicht möglich ist, dass das Spiel beim Start einmal "wirklich" abcheckt, wie viel RAM und VRAM zur Verfügung steht,
Das war auch mein erster Gedanke. Wenn der Nutzer ein Textursetting und die Auflösung wählt sollte es für das Spiel eigentlich sehr simpel sein daraus die Größe des Streaming Buffers zu bestimmen. Wenn man halt nicht gleich dynamisch bis kurz vor VRAM voll geht.
 
Definiere "gute Ports". :-)

.....

MfG
Raff
Hallo Raff,
nach Eurer Berichterstattung zu HP, Jedi Survivor und The Last of Us hab ich mir überlegt meine 4070 Ti zu verkaufen und auf die 4080 wegen mehr Speicherausstattung zu gehen. Aber das tut natürlich finanziell weh.
Meinst Du, dass ich die nächsten 2-3 Jahre mit der 4070 Ti in WQHD gut hinkomme? Ich spiel die Spiele meistens eh nicht zu Release sondern warte immer gerne etwas ab. Es müssen auch keine Ultra Details sein...

LG
 
Sieht man ja auch, da die 2 INTEL´s mit 5600´er und der 7800X3D mit 5200`er RAM gebencht wurde.

Hmm, woran das nur liegen könnte?
Siehe Raffs Beitrag.

Die Typen bei der PCGH sind einfach zu dämlich, ein XMP zu laden!

MfG
Raff

P. S.: Spezifikation ist König.
Einfach mal die rote Brille abnehmen und in die Spezifikationen gucken.
Das wurde doch mittlerweile schon so oft erklärt.
 
Artikel Zitat:
"Achtung: Die neue AMD Software 23.7.1 reduziert die Radeon-Leistung in The Last of Us Part I um bis zu 20 Prozent!"

Vielen Dank das etwas erwähnt wird. Ich hatte schon den Verdacht, mein PC hätte einen Schaden mit meiner neuen RX 6700 XT. In Full-HD läuft das Spiel bei mir praktisch in ein Bottleneck an einigen Stellen. Das passiert unter Windows 11 als auch 10. Auf den Gedanken verschiedene Treiber Versionen zu testen, ist mir nicht dabei in den Sinn gekommen, da es unter Linux die Einbrüche nicht gibt. Dafür aber das an einigen Stellen nicht richtig gerendert wird. Wie z. B. die Parolen an den Häuserwänden. Nervig das ganze.
 
Eigentlich läuft es bei mir relativ gut.

Eigentlich weil: es bringt manchmal den AMD GPU-Treiber zum Absturz (offensichtlich Treiber Timeout). Aktuell ist noch 23.4.3 bei mir installiert, da die nachfolgenden Treiber ja im Endeffekt keine Verbesserungen für die RX 6XXX-Karten brachten.

Ansonsten finde ich die langen Ladezeiten nach wie vor als störend.
 
Ich habe jetzt seit gestern 7 h gespielt und hatte keine Ruckler, keine Grafikfehler und auch keinen Absturz. Spiele in 21:9 /3440:1440. Für mich läuft es mit Maus und Tastatur besser als mit Gamepad. Die Steuerung mit Pad ist mir zu träge. RTX 2080 Super, Intel i9-10900K, 32GB Speicher und die meisten Einstellungen auf Hoch sowie Ultra. Vor Spielbeginn habe ich gewartet bis die Shaderberechnung abgeschlossen war. Hat so 20 min gedauert. Das warten hat sich also gelohnt.
 
Zurück