Special The Last of Us Part 1 im PC-Test: Absturzfreudiger VRAM-Fresser mit fantastischer Atmosphäre

Die Texturen sehen super aus, aber wie verhält sich der Speicherbedarf auf Medium
Taxxor spielt Last of us mit einer RTX 4090 mit Texturen auf high...was laut ihm keinen visuellen Unterschied macht.
Wohl aber beim VRam Verbrauch. Auflösung.....ich glaube 3440x1440p und ~8GB VRam Verbrauch.
 
Glaube aber der Shitstorm kommt wieder hauptsächlich von Nvidia-Leuten mit zu wenig VRAM und Leuten, die das Shader builden nicht abwarten konnten.
Das glaube ich auch. Wenn man sich den Marktanteil anschaut von nvidia, wundert einen da auch nicht der große shitstorm. All die mit ihren 8 GB Karten, was ja meisten wohl 3060/3070 sein werden, haben schlechte Karten.

Bei 3Dcenter wird im direkten Vergleich klar, wie viel ausgewogener AMD hier ist.

2023-04-01_09-59-15.png
 
So ist es. Nvidia dominiert den Markt und bei Gamern dominieren Midrange-Karten den Markt.
Die meisten werden also mit 8Gb bestückt sein, was für dieses Game mit entsprechenden Grafikeinstellungen definitiv zu wenig ist.
Ob es jetzt gut oder schlecht portiert wurde, sei mal dahingestellt, aber es ist eben erstmal so.
 
Also alles unterhalb der 4080 sind keine echten Gamer? :stupid:
so in etwa unter 16GB kauft man in 2023 nicht mehr und wenn doch dann eine 3060-12GB für 330 anstelle einer 4070 für 900 welche schon jetzt im Speicherlimit hängt die 4080 ist nun mal der einstieg in WUHD wenn es denn Nvidia sein muss. Kaufen tun die aber auch nur geizige Gamer die 4090 ist kaum teurer und hat deutlich mehr Leistung.

abgesehen davon kannst ja auch AMD kaufen da gibt 16GB fürs halbe geld
 
Jetzt werden die Shader mal vorkompiliert und es wird immer noch gejammert ?.

Auch das geheule vieler auf Steam über die hohe CPU-Last im Spiel und dass es ihre CPU killt und diese ins Temp-Limit läuft und/oder der Rechner sogar einen Shutdown macht.

Zugegeben, die Kompilierung dauert länger als man es gewohnt ist, aber immerhin läuft sie über mehrere Worker, die dann auch alle CPU-Kerne nutzen (sonst würde der Prozess noch länger dauern). Die Entwickler haben nur den Fehler gemacht, den Kompilierungsprozess nicht zur Pflicht zu machen, bevor das Spiel überhaupt gestartet werden kann. Das hätte viel weiteren Frust noch vermieden.

Und genau da liegt das Problem. Die meisten haben ihrem Rechner noch nie einen Stresstest unterzogen (Prime95 oder Furmark).

Teilweise gebe ich den MOBO-Herstellern die Schuld, die die CPU standardmäßig unlocked laufen lassen (Stichwort Multicore-Enhancement) und dann z.B. den PL1-Wert zu hoch einstellen (was die CPU technisch verkraften kann, aber für entsprechende Kühlung gesorgt werden muss).

Egal, ob die hohe Last gerechtfertigt ist oder nicht - ein System muss so konfiguriert sein, dass es auch unter Volllast stabil läuft.
 
Selbst auf 1440p kann man mit FSR noch mit einer RTX 3070 zocken...es reicht die Schatten von maximiert auf hoch zu stellen. Die Speichervorraussage ist ja mal direkt ein Witz.
Laut CB muss man mit der RTX 3060TI/3070 schon in 1080p die Texturen zurückstellen, oder auf Raytracing verzichten. Ansonsten stürzt das Spiel innerhalb von Sekunden ab...möööp :lol:

1080p nativ und 1440p/FSR2
Anhang anzeigen 1422407Anhang anzeigen 1422408Anhang anzeigen 1422409
Also dir Mikroruckler sehr ich auf deinen Bildern nicht. Und auch tritt die Höhe VRAM Auslastung ehr dort auf wo z.B. viele Grbäude sind... Es ist übrigens nicht nur CB die davon berichten!
 
Und genau da liegt das Problem. Die meisten haben ihrem Rechner noch nie einen Stresstest unterzogen
Genau, trotzdem gibt es immer wieder hier oder in anderen Foren, die behaupten Prime95 ist useless, da es in der Praxis nie auftritt.

Was ich aber nicht genau verstehe, sobald es hohe CPU Last gibt, scheint es ehre zu "ruckeln" als wenn ein GPU Limit anliegt. trotz hoher FPS


Und wann kommt denn nun hier mal das komplette Review inkl. Benchmarks?! Lieber en 1. April Artikel schreiben lul.... :D
 
Zuletzt bearbeitet:
so kurz das Game ?
Je nach Schwierigkeitsgrad... Ist klar auf Easy und Rush durch durch die Abschnitte ist kein können Notwendig.

Auf Grounded (mit oder ohne Permadeath), kann man mehr als 12 Std in TLOU verbringen.

Hab ca. in TLOU 1 (Schwierigkeitsgrad Grounded) und in TLOU 2 (Schwierigkeitsgrad Grounded Permadeath) ca 80 Std+ insgesamt verbracht.
 
Naja ich will geschmeidig da durch und mich nicht durchsterben.

Stört den Spielfluss ungemein.

Habs auf normal gespielt reicht.
 
Die PC Version ist schlicht eine Frechheit. NDog hat damit den schlechtesten PC Port aller Zeiten verbrochen.
Das Spiel ist zu 99% die original PS5 Version + 1% JIT Compiler. So gut wie alle Grafik Optionen verwenden simples Dithering für die Abstufung der Qualität. Tatsächlich haut dir das Programm, zw. den Szenen, jedesmal das komplette Grafik Asset in den VRAM rein. Warum? Weil die CPU in den Spiel - Szenen, mit der Compilierung und Ausführung des Codes, bereits Schwerstarbeit verrichten muss.

Test abgesicherter Mode (stürzt während Ladevorgängen nicht sporatisch ab, juhu)
Grafik alles auf min
Screen Res. 1280x720
Renderer Res. 640x360

Selbst in der winzigen Prolog Umgebung ackert meine CPU konstant zw. 90% u. 100%. Die GPU, avg. = 20% und peak = 30%, leiert nichtmal den Lüfter an. VRAM ist ab dem Gamemenü konstant mit 6gb (+- 100mb) geladen .

Alle Qualitätsstufen, die über oder unter, der PS5 Qualität liegen, werden vorm Rendern, upgescaled bzw. gedithered. Unterhalb der nativen Anzeigeauflösung verliert das Bild stark an Details. Das spart Speicherbandbreite(aber völlig sinnfrei) und erhöht die FPS. VRAM spart der kleinerer Frame aber kaum.
Über der nativen Res. ists genau so sinnlos.Die Details werden minimal verfeinert. Kantenlinien erscheinen etwas glätter. Im Gegenzug steigt der Speicherbandbreiten-Bedarf enorm und die FPS purzeln runter.

Aus meiner Sicht kann ich 75% aller potenziellen Käufer, derzeit von dem Spiel abraten. Zumindest für 1 -2 Jahre, denn bis dann, ist entweder, die HW leistungsfähig genug, oder der Code weitgehend optimiert. Den anderen 25% kann ich den Kauf nur empfehlen, denn ihre HW überrollt die unterirdischen Technik einfach, so dass ihr letztlich ein top Spiel geniesen könnt.
 
Als Laptop Zocker mit ner 3060 und 6GB VRAM auf 1080p (bzw. 720p DLSS-Quality) fühl ich mich langsam verarscht.

Der VRAM bedarf hat gefühlt die letzten 3 Monate um 200% angezogen. Keines der großen neuen Spiele läuft mehr unter 20GB RAM und selbst bei 1080p, unter 8-12GB VRAM.

Wenn andere über 8GB VRAM bei ihren nvidia mittelklasse oder einsteigerkarten jammern, kann ich nur sagen: was soll ich erst sagen?!

Es ist ja bei Laptops nicht so, dass man hier relativ preisgünstig auf mehr VRAM kommen könnte. Zum einen ist im Laptopbereich Nvidia quasi Monopolist. Zum anderen steigen hier die Preise für GPUs mit mehr VRAM ungleich mehr an als im Desktop bereich.

Laptops mit ausreichend VRAM für TLOU1 oder Hogwarts Legacy sind zum bsp die mit einer 4080 und 4090 und die liegen preislich beide oberhalb der 4000€ (!!) Marke. Alles darunter hat erst gar nicht genug VRAM dafür.

Nvidia geizt abartig mit VRAM in ihren nach wie vor total überteurten Karten und gleichzeitig steigen die VRAM requirements der Spiele plötzlich ins unermessliche. Logische Schlussfolgerung: Immer mehr werden zu Konsolen wechseln und am PC spielen können sich immer weniger mit genügend geld für Luxus leisten.
 
Nun angespielt quasi nur fürn bench und die stelle im spiel am anfang läuft ohne zu meckern aber
Die kompilierung der shader dauert udn wird bei jeden neuen patch udn jeden neuen treiber wiederholt.
Ws ziemlich nervig ist es kamen bisher 3 patches rausdas erste mal etwa10 min daszweite etwa 5min der dritte etwa gleich
Zum spiel optisch ist von low bis ultra kaum sichtbar
Das auffälligste ist ssr das deaktiviert ist auf low
Ansonsten sieht low vs maxed ziemlich ähnlich aus.
dafür diese perf unterschiede
low
1680409282580.png

ultra
1680409309537.png


vram einmal low etwa 4,9gb von 12gb und 19,6gb ram
und einmal ultra 9,18gb von 12gb und 19,8gb ram

Der Speicherbedarf ist groß und folgend ist auch klar das eine 8gb vram gpu nur mit low Texturen sauber laufen wird.
Das kratzt am ego ich hoffe aber das naughty dog nicht nachgibt und die settings im spiel anpasst, den wenn man es richtig einstellt gibt es keine Probleme mit rucklern und mausstottern.
Die abstürze sind aufgrund bei nvidia von Microsoft schuld da das OS auf einen Treiber fixiert wurde seitdem stürzen jeweilige spiele einfach ab.
Der Grund liegt an folgenden Modul ntdll.dll und seltener nvdmxxx
Die Ursache ist Ms eingriff beim gpu Treiber und dem gui vom OS.
Lösung für nvidia bis win 10/11 23h2 kommt DCH 512,95 und ältere gpu standard 472,12 alles andere macht Probleme.
amd ist da schon sicherer von denen hört man auch kaum was von Problemen bei dem spiel.
 
Die abstürze sind aufgrund bei nvidia von Microsoft schuld da das OS auf einen Treiber fixiert wurde seitdem stürzen jeweilige spiele einfach ab.
Der Grund liegt an folgenden Modul ntdll.dll und seltener nvdmxxx
Die Ursache ist Ms eingriff beim gpu Treiber und dem gui vom OS.
Lösung für nvidia bis win 10/11 23h2 kommt DCH 512,95 und ältere gpu standard 472,12 alles andere macht Probleme.
Das ist ja ne ziemlich wilde Theorie die du bestimmt auch belegen kannst?
 
Zuletzt bearbeitet:
so in etwa unter 16GB kauft man in 2023 nicht mehr und wenn doch dann eine 3060-12GB für 330 anstelle einer 4070 für 900 welche schon jetzt im Speicherlimit hängt die 4080 ist nun mal der einstieg in WUHD wenn es denn Nvidia sein muss. Kaufen tun die aber auch nur geizige Gamer die 4090 ist kaum teurer und hat deutlich mehr Leistung.

abgesehen davon kannst ja auch AMD kaufen da gibt 16GB fürs halbe geld

Als Laptop Zocker mit ner 3060 und 6GB VRAM auf 1080p (bzw. 720p DLSS-Quality) fühl ich mich langsam verarscht.

Der VRAM bedarf hat gefühlt die letzten 3 Monate um 200% angezogen. Keines der großen neuen Spiele läuft mehr unter 20GB RAM und selbst bei 1080p, unter 8-12GB VRAM.

Wenn andere über 8GB VRAM bei ihren nvidia mittelklasse oder einsteigerkarten jammern, kann ich nur sagen: was soll ich erst sagen?!

Es ist ja bei Laptops nicht so, dass man hier relativ preisgünstig auf mehr VRAM kommen könnte. Zum einen ist im Laptopbereich Nvidia quasi Monopolist. Zum anderen steigen hier die Preise für GPUs mit mehr VRAM ungleich mehr an als im Desktop bereich.

Laptops mit ausreichend VRAM für TLOU1 oder Hogwarts Legacy sind zum bsp die mit einer 4080 und 4090 und die liegen preislich beide oberhalb der 4000€ (!!) Marke. Alles darunter hat erst gar nicht genug VRAM dafür.

Nvidia geizt abartig mit VRAM in ihren nach wie vor total überteurten Karten und gleichzeitig steigen die VRAM requirements der Spiele plötzlich ins unermessliche. Logische Schlussfolgerung: Immer mehr werden zu Konsolen wechseln und am PC spielen können sich immer weniger mit genügend geld für Luxus leisten.
Mit Laptop zocken ist so eine Sache. Es geht natürlich schon jedoch zahlst du weitaus mehr Geld um halbwegs doe Leistung einens Desktop zu kriegen. Die "normalen" Laptops kommen immer mit "beschnittener" Hardware daher. Die richtig guten Gaming Laptops wiederum sind so riesengroße Klopper das die quasi kaum noch "mobil" sind. Ich würde daher einfach jedem zum Zocken per Lappi abraten zumal man 0 aufrüsten kann. Aktuell reicht beim Desktop das Grundgerüst mit CPU/Ram über viele Jahre und man muss nur ab und zu mal die GPU tauschen. Beim Lappi ist immer ein komplett Tausch nötig.
Für mich kommt kein Lappi mehr ins Haus.
 
Das ist ja ne ziemlich wilde Theorie die du bestimmt auch belegen kannst?
Ich glaube ich muss noch mal ein ernstes Wort mit dem Spiel und dem Treiber reden. Bei mir ist noch nichts abgestürzt. Allerdings habe ich auch eine Ada GPU und bei Nvidia sollen die Probleme laut Nvidia ja bei Ampere GPUs auftreten.

Ich lehne mich allerdings auch mal ganz weit aus dem Fenster und behaupte das viele der Abstürze bei der Kompilierung der Shader schlicht an instabilen Systemen liegen. Systeme gehen nicht einfach aus oder schmieren mit Bluescreen ab nur weil ein Spiel vermeintlich instabil ist. Da muss dann irgendwas anderes im Argen sein.

Das Wichtigste was aktuell meiner Meinung gefixt werden muss ist die Maussteuerung.
 
Zurück