Special Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading

So, nach ein paar weiteren Test muss ich feststellen, das dies wieder ein Spiel ist, in welchen FSR 2 unbenutzbar ist. Total verpixeltes Konfetti und extrem flackernde Flächen. Ist das bei DLSS auch so schlimm?
 
Jup, deswegen sollte man sich jetzt noch auf jeden Fall für 400€ eine 8GB Karte kaufen, da gebe ich dir recht, wird auch noch in 5 Jahren Spiele zum laufen bekommen, man muss halt alles auf MIN stellen, ergibt Sinn

Jup hat mich auch gewundert, aber PCGH ist auch nvidia lastig ;-)
Sehe ich jetzt nicht so das man hier Nvidia lastig ist..
AMD ist mal besser, mal schlechter.. kommt aufs Spiel und den Treiber an.
Trotzdem sind RTX4080-FE und 7900XTX-MBA im Raster in allen Benchmarks im Schnitt gleichschnell
Die 1-2% sind für mich Messetoleranz und Treibertoleranz
 
Ist schon ärgerlich wenn man sich im Miningboom eine 3070 mit 8GB oder eine 3080 mit 10GB für über 1000€ besorgt hat. Ist ja unglaublich wie schnell diese Karten gealtert sind. Meine 1070 mit 8GB konnte ich problemlos 6 Jahre verwenden. Mal schauen ob das mit der 4080 16GB auch klappt. Hätte man ja fast doch die 500€ Aufpreis zur 4090 sich noch überlegen sollen.
 
Interessiert mich eher wenig. Bin mit Preset F vollkommen zufrieden. Wenn die neue DLL endlich das Preset G freischaltet und es per DLSS Tools freischaltbar ist, schaue es mir mal die Tage an.
Was sind das denn für Presets, wenn ich fragen darf?

Ich habe es bisher einfach immer so gehandhabt, dass ich auf Techpowerup gegangen bin und mir immer die neueste dll runtergeladen und dann einfach im Spielverzeichnis ersetzt habe. Ist das "falsch" das so zu machen?

Ich würde jetzt z.B. einfach die nehmen, weil das halt die neueste (ergo beste?) ist:

Und die nochmal separat für Frame Generation:
Da gibt es aber keine Presets, sind halt zwei Dateien, die man ersetzen muss.
 
Dann mal ne blöde Frage. (?)
Wenn ich alles auf max. stelle und in 1080p zocken will und einmal in 2160p.
Wieviel mehr Speicher wird da den mehr benötigt.
Ich habe von praktisch nichts bis das 4fache schon alles gehört.
Praktisch nichts ist zu niedrig, und das 4-fache ist viel zu hoch angesetzt.
Das 4-fache trifft auf die Pixelmenge zu, aber das lässt sich nicht mal ansatzweise 1:1 auf die benötigte Speicherbelegung übertragen.

Ich hab kein Ratchet & Clank, und auch keine Daten dazu zur Hand.
Aber in der PCGH 03/23 war der Artikel "So viel Grafikspeicher brauchen sie 2023", darin findet man die Werte von mehreren Spielen, darunter u.a. in den Auflösungen 1080p und 2160p.

Je nach Spiel und zusätzlichen Settings schwankt das, zwei Beispiele:
Bei TWWH3 sind es rund +25%, bei Flight Simulator hingegen +18,6%.
Weiteres siehe:
 
Also da lässt sich aber klar ein Muster erkennen - alle PC-Portierung von Sony Games in der letzten Zeit sind mies optimiert und überfluten den VRAM der Grafikkarten.
Auffällig ist jedenfalls, dass gerade die Sony Games starke PCs benötigen.
Sony kocht auch nur mit Wasser. Siehe zum Launch Horizon Zero Dawn. The Last of Us. Uncharted. Daran ändert auch ein Nixxes nichts. Noch viel schlimmer ist aber, dass Sony auf derart inkompetente Studios setzt wie Iron Galaxy.

Bezüglich diesem Spiel hier, ich gehe mal von einem Verkaufsflop aus wie Uncharted am PC.
Ansonsten gewohnt guter Test @ PCGH.
 
Ist schon ärgerlich wenn man sich im Miningboom eine 3070 mit 8GB oder eine 3080 mit 10GB für über 1000€ besorgt hat. Ist ja unglaublich wie schnell diese Karten gealtert sind. Meine 1070 mit 8GB konnte ich problemlos 6 Jahre verwenden. Mal schauen ob das mit der 4080 16GB auch klappt. Hätte man ja fast doch die 500€ Aufpreis zur 4090 sich noch überlegen sollen.
Wenn du für die nächsten 2Jahre spielen möchtest, bist du bei NVidia gut beraten. Das sage ich immer und siehe da, stimmt genau.
Natürlich ist 4090 die Ausnahme wie die Titan damals. Aber bei dem Preis hätte man auch zwei Grafikkarten kaufen können.

Darum kaufe ich AMD neu und NV Occasion.
Zum Glück war mir der Preisunterschied immer zu klein von der 3080 Zweithand zum Neukauf auf die 6800xt. Also habe ich jetzt eine bessere 6800xt.
Und wegen RT. Man sieht, auch wie ich schon x-mal geschrieben habe, dass die 3080 in meiner 3440x1440 Auflösung, nicht einmal R&C mit RT spielen kann.
Hier kommen wir einfach dem Ende zu (der RT), wenns nicht Minecraft Grafik ist. Ist für mich keine Überraschung, war abzusehen und hat darum für die Karte nie eine grosse Rolle gespielt.
 
Zuletzt bearbeitet:
Ich zocke es selber und weiß wie schnell mein System ist, trotzdem danke, dass ihr sogar 5120x1440 gebencht habt. Das nenne ich mal Fanservice.
 
Die meisten schreiben und schreiben ohne das Produkt wohl zu besitzen und von irgendwelchen PC -Tests Resultate zu ziehen.

1. Das Game braucht um die 11GB VRam bei "Sehr Hoch" ... Full-HD bis 4k Auflösung
2. Das Game kommt mit einer Mittelklasse Karte wunderbar klar.
3. Das Spiel hat eine Zauberlösung Option. Dynamische Auflösungsskalierung.

FSR und Xess ist im Vergleich dabei für die Tonne. Ich habe den PCGH GPU Bench genommen, die Einstellungen von PCGH und Dynamische Auflösungsskalierung. Bei 4k rennt es bei mir bei 60FPS mit einer 6700XT.
 
Ehm nope 11 gb reichen in 4k bei weitem nicht auf sehr hoch zumindest mit RT. Defacto reichen nicht einmal 16gb ohne upscaling in 4k mit RT.

Frage Gen kostet auch Vram. Auch Cb schreibt ab 20Gb Problemlos. Sony Ports sind einfach nur mist in den wrapper geschmissen das wars. Die Sony api ist dem Pc doch sehr fremd aber genau auch desewegn laufen die der xbox davon obwohl die schneller sein müsste.

Also am PC hilft nur mit Power erschlagen oder Settings benutzen. :) Vor allem bei sony Games.
 
Zuletzt bearbeitet:
Ich spreche bei meiner 6700XT aber nicht von RT, weil es nicht geht. Insgesamt noch nicht und unter Linux eh fraglich bei mir.

5120x1440 Auflösung. Was für ein Cinema Feeling :D
Leider kann es die besagte Szene nicht mehr 60FPS in allen halten.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
-> Andere Settings, andere Szene

Testet's gerne nach - wir haben soeben verifiziert, dass die Saves übertragbar sind. Anbei der Kombi-Download mit unserem CPU- und GPU-Save. Die Videos verraten, wie getestet wird. :-)

Sobald das jemand gecheckt hat, packen wir's in den Artikel.
Und? Hat's jemand gecheckt? Community-Benchmark? =) Ich brauche ein paar würdige Opfer Gegner für "meinen" neuen 13900WTF. @blautemple? @PCGH_Dave? :D :devil:

MfG
Raff
 
Vram limit zeigt sich im spiel nicht nur mit Drops auf 5 fps und Gpu Auslastung von fast agr nichts sondern auch wenn die Fps von 90 immer wieder droppen auf 60 und wieder rauf das geht so zick zack dahin. Texturen eine stufe runter schwupps 90 fps average ohne drops. Settings ändern mag das Spiel gar nicht es ballert alles voll also ist neustarten immer das beste. :daumen:

Dlss und FG sind aber ein Traum in diesem Spiel. 100 Watt Gpu 115 fps gelocked. Wenn die cpu mitspielt.....doch sehr oft ein cpu limit wegen scheiss port, wrapper das selbe macht auch the wichter 3, dx 12 unsauber gemacht deswegen viel weniger fps als mit Dx 11.

Das Ding braucht alsop cüpu zum erschlagen selbst das beste vom besten wird nicht immer reichen ausser gelocked auf 60 fps oder so was. aber dann kannst auch auf der Ps 5 spielen wo es auch herausragend aussieht.
 
Richtig, wenn dann nur AMD ;)
Wen sollte man in Sachen Grafik sonst fragen.
Stimmt schon deswegen muss man sich mit verbuggter Hardware rumschlagen, die Raytracing immer noch hinterher hechelt( Grafikfortschritt), Furchtbare Upscaling Technik, Kein Frame Generation, bescheidene Effizienz, Hardware fast komplett gelocked (-10%…), Bugs die seit release nicht vollständig gefixt wurden.

Dafür aber Nvidia preise verlangen wollen, kein Mensch bei Verstand würde sich Rdna 3 holen. Der Witz schreibt sich doch von selbst. Bis auf Vram gibt es nicht 1 Punkt, nicht einmal ansatzweise der für Amd spricht. 4060ti macht fast die 6800xt nass in Ratchet und Clank mit 40-50% des verbrauchs. ??
 
Zurück