News Systemanforderungen für The Last of Us Part 1: RX 7900 XT und RTX 4080 für 4K + Ultra mit 60 Fps

Ich bin fast vor Lachen vom Stuhl gefallen. Da für eine AMD Karte FSR 2.2 für das 4K Ultra Preset verlangt wird, haben wir auch in 4K eine Eingangsauflösung von 1440p. D.h. man benötigt etwa 220 Prozent (!) mehr Rasterleistung nur für den Sprung von Hoch auf Ultra — ohne Raytracing? :haha:

Auf dieses unglaublich hardwarefressende Ultra bin ich gespannt.
Der Auflösungssprung um das 1,78-Fache (FHD zu 1440p) im selben Preset (Hoch) ist von 6600 XT auf 6750 XT moderat bzw. eigentlich richtig gut.

Möchte man derzeit auf einer aktuellen Konsole halbwegs vernünftig spielen (60 FPS bzw 48 FPS + VRR), bekommt man selbst bei älteren, optimierten Titeln (z.B. Jedi Fallen Order) höchstens eine 1440p Auflösung. Die meisten spielen am PC heute noch in FHD. 4K ist seit Jahren nur Marketing und wird es auch noch eine ganze Weile bleiben.
Eigentlich schade, wenn man sich überlegt was aus manchen Titeln hätte werden können, wenn man auf 1440p statt 4K optimiert hätte.
 
Es war doch zu erwarten, dass das Spiel auf höchsten Einstellungen/Auflösungen extrem viel Rechenleistung erfordert. Das Remake sieht schon auf der PS5 extrem gut aus. Nur sehr wenige Spiele wie God of War und Horizon können sich was die Grafik angeht überhaupt damit messen.
Das Remake ist außerdem noch ein ganzes Stück hübscher und detaillierter als Part 2 geworden.
Die Cutscenes, die jetzt in Echtzeit laufen und teilweise absurd detailierte Assets nutzen, sehen besser aus als die vorgerenderten Szenen (=Ladebildschirme) der originalen PS3/PS4 Fassung.
Die Szenen sind sogar so gut geworden, dass sie teilweise das CGI von Hollywood+Blockbuster alt aussehen lassen.
 
Erst kürzlich hat Sony gesagt das sie davor angst haben das Microsoft CoD künstlich auf der Playstation schlechter laufen lassen könnte.
Was spricht also dagegen das sie selber solche Praktiken praktizieren wie in diesem fall ?
Was wäre das für eine Werbung wenn das spiel doppelt oder 3 x so gut läuft wie auf einer PS5.
Ersteres wäre für Sony bzw. für die PS-Spieler ein klarer Nachteil.
Zweiteres wäre für Sony ebenfalls ein Nachteil (PC klar besser als Playstation => kein Kaufargument für die PS5) und am PC verdient Sony praktisch nix. Deshalb waren Sony die PC-Spieler ja auch über 20 Jahre lang egal ... Mit einer eklatanten Verbesserung rechne ich deshalb nicht.


Vor allem vergessen manche Leute, dass 4K noch lange kein Norm ist. Wenn man mal ein paar Jahre zurückschaut, gab es auch oft genug Spiele, wo Grafikkarten wie eine GTX 780 oder GTX 980 mit 60 FPS in Full HD zu kämpfen hatten. Da hat doch auch keiner rumgeheult.
Es ist doch schon immer so gewesen, dass PC-Spiele bei ihrer Erscheinung eher für die Zukunft designed sind und die Hardware für die bestmögliche Qualität quasi erst im Kommen ist.
Eigentlich sollte man jetzt erst so was wie Dishonored 2 auf 4K in Ultra spielen, dafür passt die jetzt im Massenmarkt erhältliche Hardware optimal ;-)
Eine neue Erkenntnis ist das nicht. Das war auch schon 2010 so.

Und wenn ich lese, dass TLOU1 oder Resident Evil 4 auf der PS5 jetzt 80 € kosten sollen, darüber kann man als PC-Gamer nur müde lächeln. Aber klar, die Konsolen-Fanboys lassen sich immer abkassieren :P
 
Zuletzt bearbeitet:
Und wenn ich lese, dass TLOU1 oder Resident Evil 4 auf der PS5 jetzt 80 € kosten sollen, darüber kann man als PC-Gamer nur müde lächeln. Aber klar, die Konsolen-Fanboys lassen sich immer abkassieren :P
Leute kaufen sich auch sobald eine neue Grafikkarte erscheint, diese. Da wird so mancher Konsolenfanboy genauso drüber lächeln. Das ist das Problem am Fanboyism.
 
Ich hab mir damals extra für dieses Spiel ne Pläsi gekauft.
Nach einer Stunde nix treffen Spiel und Playstation zurück gebracht.
Spiel bei Cronk oder wie der heißt ,angesehen.
Aber nun wird´s mein Spiel des Jahres!
Wird meine 5700 für 329 teure Euronen schon schaffen!
Gruß Yojinbo
 
Also mit den Anforderungen komme ich nicht Klar. So ein schönes Atomic Heart rennt mit meiner 3090 in UHD (DLSS Qualität) mit 110-144FPS über den Bildschirm und ein Last of Us will ne 4080? Das Spiel rennt sogar auf der PS5 "native" mit 60FPS. Und die hat nicht mal annähernd so viel Leistung wie eine 4080. Dann sollte ja die PC Version Optisch noch mal soooo richtig einen drauf legen bei diesen hohen Anforderungen. Wir reden hier über kein Next Gen Titel. Das Spiel ist sehr hübsch. Aber das war es schon immer.

Muss mich berichtigen. Hab grad geschaut. Native rennt die PS5 Version mit 30 FPS. Der 60 FPS Modus ist eine Mischung aus 1440p und 2160p
 
Zuletzt bearbeitet:
Da gehts gewiss wieder nur um VRAM. Ich rechne schon damit, dass ich es mit meiner 6900XT in 4K Ultra schon flüssig spielen kann.
 
Nicht ohne.
Gut das mein Gaming Bildschirm nur bis 2560x1440p geht. Ich werde auch in kommenden Jahren nicht auf 4K umsatteln. Kostet nach wie vor zu viel Leistung.
 
Nein. Einfach nein. Das einzige Spiel, das seiner Zeit weit voraus war, war Crysis von 2007. Danach kam nichts mehr dergleichen. Evolution, statt Revolution. Auch RT , bzw. Pathtracing, ist "nur" der nächste logische Schritt.
Würde ich so nicht unterschreiben, Crysis 1 war natürlich ein Worst Case Szenario. Aber schau dir mal alte Benchmarks an von Spielen wie Crysis 3, Watch Dogs oder AC Black Flag. Da hatten selbst Top Grafikkarten mit 60 FPS in Full HD zu kämpfen, während heutige Grafikkarten keine Probleme haben dort die 60 FPS in 4K zu knacken.
Nicht, dass die Spiele großartig revolutionär waren, aber sie haben schon damalige Hardware gut gefordert.
 
Also mit den Anforderungen komme ich nicht Klar. So ein schönes Atomic Heart rennt mit meiner 3090 in UHD (DLSS Qualität) mit 110-144FPS über den Bildschirm und ein Last of Us will ne 4080? Das Spiel rennt sogar auf der PS5 "native" mit 60FPS. Und die hat nicht mal annähernd so viel Leistung wie eine 4080. Dann sollte ja die PC Version Optisch noch mal soooo richtig einen drauf legen bei diesen hohen Anforderungen. Wir reden hier über kein Next Gen Titel. Das Spiel ist sehr hübsch. Aber das war es schon immer.

Muss mich berichtigen. Hab grad geschaut. Native rennt die PS5 Version mit 30 FPS. Der 60 FPS Modus ist eine Mischung aus 1440p und 2160p

Bei Atomic Heart, was auch ohne Raytracing recht hübsch ist hast Du aber einen kleinen Baukasten mit sich immer wiederholenden Elementen und einer recht saudummen KI (Roboter sind halt idR. blöde). Das würde ich nicht mit Last of Us vergleichen, wo alles wie Handarbeit ausschaut und keine Ecke im Spiel wie die andere ausschaut. Die Dynamik der Szenen und die KI sind zudem mit das Beste, was in den letzten 15 Jahren auf den Markt kam.

Schaut man sich die Anforderungen von LoU an, dann wird man mit leicht reduzierten Settings auch mit einer 3090/3080 in 4K seinen Spaß haben. Ich verstehe den ganzen Aufschrei mal wieder nicht. Es ist ja nicht so, als würde die letzte High-End-Generation plötzlich nicht mehr für 1080p reichen. Das bei einer 7900XT FSR eingestellt werden soll liegt vermutlich an den Spiegelungen, die eine ähnliche Technik wie Raytracing nutzen sollen. In UHD ist die vermutlich höher aufgelöst und da performed die Nvidia dann ein wenig besser.

Das hat Gamepro beim Test der PS5-Version geschrieben.

1678524753179.png
 
Zuletzt bearbeitet:
Da bin ich tatsächlich auf Videos gespannt wo die Leistung hin geht. The Last of US habe ich damals schon auf der PS 3 gespielt und für langweilig befunden daher brauche ich das nicht erneut in grafisch aufgewerteter Version erneut. Interessanter ist hier die Technik. Das Game wird in besserer Grafik ja nicht plötzlich eine bessere Story erzählen. ^^
 
Nein. Einfach nein. Das einzige Spiel, das seiner Zeit weit voraus war, war Crysis von 2007. Danach kam nichts mehr dergleichen. Evolution, statt Revolution. Auch RT , bzw. Pathtracing, ist "nur" der nächste logische Schritt.
Das stimmt so nicht, Crysis war nicht das einzige Spiel, wo das so war. Ist nicht bei jedem Spiel so, gar bei den wenigsten. Aber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.
In der aktuellen Ausbaustufe von Cyberpunk reicht alles maxed kaum ne 4090 (ohne DLSS).
 
Aber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.
Zum Glück hat das Marketing diesen Euphemismus noch nicht entdeckt: Calisto Protocol läuft so schlecht, weil es für künftige Hardware Generationen konzipiert wurde :ugly:
Spaß! Ich weiß natürlich was du meinst. Selbst Mass Effect Andromeda war mit damaliger Hardware auf Ultra kaum zu stemmen. Dass man bei "alles auf höchsten Einstellungen" aktuelle Hardware voraussetzt, ist gar nicht mal so schlimm, wie es hier dargestellt wird. PC Besitzern kann man wenigstens soviel Verstand abverlangen, dass sie ihre Regler bedienen können. Die Version für Faule gibts auf der Konsole.
 
Das stimmt so nicht, Crysis war nicht das einzige Spiel, wo das so war. Ist nicht bei jedem Spiel so, gar bei den wenigsten. Aber es gibt eine ganze Reihe an Spielen, die erst mit Hardware die 1-2 Generationen später erschienen sind richtig gut liefen, wie vom Entwickler gedacht. Da gehören imo z.B. Cyberpunk und MSFS auch dazu.
In der aktuellen Ausbaustufe von Cyberpunk reicht alles maxed kaum ne 4090 (ohne DLSS).
Der technische Unterbau zu Cyberpunk ist eine kleine Katastrophe und ist es bis heute geblieben. Revolutionär ist was anderes.

Und ob die Entwickler daran denken, dass ein Spiel erst in 1-2 Generationen richtig gut laufen, halte ich für eine Falschausage. Spielentwicklung ist ein Geschäft und da muss man eine möglichst breite Masse erreichen. Und die breite Masse hat keinen High End-PC. Nicht umsonst ist der wichtigste Verkaufszeitraum rund um den Release.

Gibt es denn dazu irgendwelche offiziellen Aussagen, die auch einen Vergleich zum entsprechenden Spiel standhalten? Irgendwas mit "Unser Spiel ist zukunftssicher und die grafische Opulenz wird erst in 1-2 Hardwaregenerationen wirklich spielbar sein?" Nein? Dacht ich mir. Das wäre nämlich ein marketingtechnischer Super-GAU.

Würde ich so nicht unterschreiben, Crysis 1 war natürlich ein Worst Case Szenario. Aber schau dir mal alte Benchmarks an von Spielen wie Crysis 3, Watch Dogs oder AC Black Flag. Da hatten selbst Top Grafikkarten mit 60 FPS in Full HD zu kämpfen, während heutige Grafikkarten keine Probleme haben dort die 60 FPS in 4K zu knacken.
Nicht, dass die Spiele großartig revolutionär waren, aber sie haben schon damalige Hardware gut gefordert.
Watch Dogs und Black Flag - so wie viele andere AAA-Games von Ubisoft - als Beispiel ran zu ziehen, halte ich für...gewagt. Die sind nicht gerade für eine gelungene Optimierung bekannt.

Ich rede hier nicht per se von fordernden Anforderungen an die Hardware, sondern von technischen Meilensteinen. Und da war Crysis - an der Stelle relativiere ich meine Aussage aber mal - in jüngerer Vergangenheit das einzige Spiel, das seiner Zeit weit voraus war.
 
Zurück