Special Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading

-> Andere Settings, andere Szene

Testet's gerne nach - wir haben soeben verifiziert, dass die Saves übertragbar sind. Anbei der Kombi-Download mit unserem CPU- und GPU-Save. Die Videos verraten, wie getestet wird. :-)

Sobald das jemand gecheckt hat, packen wir's in den Artikel.

MfG
Raff
Das war jetzt kein Angriff auf Dich. Bitte nicht falsch verstehen.

Mir ging es darum das allein die zenenauswahl den Unterschied macht ob AMD oder Nvidia haushoch überlegen ist
 
Habe gerade mal nachgesehen. Leider kein Video der Szene, nicht mal ein Bild. Klingt aber so, als sei die Szene isoliert nach GPU- bzw. Raytracing-Last ausgesucht. Das ergibt für einen Grafikkartentest durchaus Sinn, machen wir auch öfter mal. Im Falle Ratchet & Clank haben wir aber eine gemeine Szene für den ganzen Rechner mit völlig anderem Workload (und manuell gesetzten maximalen Details).

MfG
Raff
 
Wo ist die RTX 3070 einzuordnen? Eher Richtung RTX 3080 oder doch eher 4060 Ti? Lässt sich damit in WQHD noch einigermaßen brauchbare Optik erzielen?
 
-> Andere Settings, andere Szene

Testet's gerne nach - wir haben soeben verifiziert, dass die Saves übertragbar sind. Anbei der Kombi-Download mit unserem CPU- und GPU-Save. Die Videos verraten, wie getestet wird. :-)

Sobald das jemand gecheckt hat, packen wir's in den Artikel.

MfG
Raff
Gerade in diesem Spiel wäre es doch sinnvoll auch die 4070, oder 4070ti zu testen, oder nicht. Speicherknappheit, oder nicht.

Bei den CPUs fällt auch auf, das bei Ryzen 7000 nur die x3D dabei sind und keine normalen. Wird das noch nachgereicht, oder performen die zu ähnlich zu den x3d, wie bei Ryzen 5000?

Und wie immer, danke für den Test, nicht das jemand etwas anderes denkt.
Wo ist die RTX 3070 einzuordnen? Eher Richtung RTX 3080 oder doch eher 4060 Ti? Lässt sich damit in WQHD noch einigermaßen brauchbare Optik erzielen?
Ich würde ganz klar eher von Richtung 4060ti 8GB ausgehen, da die 8GB hier zu knapp zu werden scheinen.
 
Gerade in diesem Spiel wäre es doch sinnvoll auch die 4070, oder 4070ti zu testen, oder nicht. Speicherknappheit, oder nicht.

Bei den CPUs fällt auch auf, das bei Ryzen 7000 nur die x3D dabei sind und keine normalen. Wird das noch nachgereicht, oder performen die zu ähnlich zu den x3d, wie bei Ryzen 5000?
Wir reichen alles nach, sobald das Spiel fertig ist. Bei der aktuellen Update-Frequenz sind die aufwendig ermittelten Daten schneller veraltet, als wir "Kartoffelsalat" tippen können. Das war damals auch der Grund, dass wir nie einen vollwertigen Techniktest zu TLOU veröffentlicht haben, sondern erst nach elf Updates.

MfG
Raff
 
Gerade in diesem Spiel wäre es doch sinnvoll auch die 4070, oder 4070ti zu testen, oder nicht. Speicherknappheit, oder nicht.

Bei den CPUs fällt auch auf, das bei Ryzen 7000 nur die x3D dabei sind und keine normalen. Wird das noch nachgereicht, oder performen die zu ähnlich zu den x3d, wie bei Ryzen 5000?

Da würde ich einfach mal den Anfang des Tests lesen:
Da in den kommenden Tagen und Wochen von vielen Updates für das Spiel auszugehen ist - seit dem Launch wurden bereits zwei Hotfixes ausgespielt -, verzichten wir noch auf die volle Packung Benchmarks. Zahlreiche Messungen erwarten Sie dennoch.
Hoffe ich konnte helfen. ;)



edit: Raff war schneller. :D
 
Eine 60er Karte war noch nie DIE Garantie für Ultra Settings in welchen Game auch immer mit für mich (!) spielbare FPS.

Durchaus ist es schon immer notwendig gewesen, wenn man sich eine Mittelklasse Karte kauft, das diese nicht die für mich (!) spielbare FPS auf den Bildschirm bekommt, auf Ultra Settings.
Mir ist völlig egal ob da 50, 60, 70, 80 oder 90 dran steht. Der Preis von 329€ und 529€ sagt eindeutig Mittelklasse und gehobene Mittelklasse und da muss bei 1080p ULTRA sehr gut laufen!
Und gerade der FPS-Gap von 8GB auf 16GB der 4060ti zeigt dann eben deutlich, dass man mit 8GB heute bei Einstiegs-Auflösungen ab 1080p nicht mehr kommen braucht. Sind bisher nur ein paar Spiele-Titel, aber es werden immer mehr.
 
Mir ist völlig egal ob da 50, 60, 70, 80 oder 90 dran steht. Der Preis von 329€ und 529€ sagt eindeutig Mittelklasse und gehobene Mittelklasse und da muss bei 1080p ULTRA sehr gut laufen!
Und gerade der FPS-Gap von 8GB auf 16GB der 4060ti zeigt dann eben deutlich, dass man mit 8GB heute bei Einstiegs-Auflösungen ab 1080p nicht mehr kommen braucht. Sind bisher nur ein paar Spiele-Titel, aber es werden immer mehr.
Das sollte dir nur leider nicht völlig egal sein.

Weil welche Leistungsklasse wie viel kostet und wie wie viel FPS die bei bestimmten Settings auf den Bildschirm zaubert entscheidest nun mal nicht du.

Sondern Nvidia, AMD & Intel.

Da kann man noch so sehr den Rebell raushängen lassen und gegen die Preise schießen.
Die Preise sind nun mal wie sie sind.

Aber ganz davon ab ob eine 60er Karrte damals 250€ gekostet oder heute mehr.
Die technischen Möglichkeiten bleiben die selben.

Und das ist nun mal nicht immer maxed out in jeden neuen Tripple A Game bei spielbaren FPS.

Nicht mehr und nicht weniger war meine Kernaussage.
Da muss man keine Preisdiskussion daraus machen.
Und was eine Karte für Preis XY können muss.

Für die Preise kann ich am wenigsten.

(Frag da doch ma Raff an. Der diskutiert mit dir sicher gerne Grafikkarten Preise und was die so können müssen für Preis XY) :-D
 
Zuletzt bearbeitet:
Wir reichen alles nach, sobald das Spiel fertig ist. Bei der aktuellen Update-Frequenz sind die aufwendig ermittelten Daten schneller veraltet, als wir "Kartoffelsalat" tippen können. Das war damals auch der Grund, dass wir nie einen vollwertigen Techniktest zu TLOU veröffentlicht haben, sondern erst nach elf Updates.

MfG
Raff
Stimmt, gerade in letzter Zeit machte das größere Unterschiede! Danke für das Feedback.
Da würde ich einfach mal den Anfang des Tests lesen:

Hoffe ich konnte helfen. ;)



edit: Raff war schneller. :D

Kein Ding, lesen kann ich, aber es sind schon viele Karten im jetzigen Test und das wäre schon nicht nötig gewesen. Gerade RTX4000 mit 12GB und RTX3000 mit 12GB wäre vor einigen Aussagen zum Thema VRam in den letzten Monaten schon sinnvoll gewesen.

Mir geht es nicht um einen vollwertigen Test.
Bei dem Zustand des Spiels und der Patchfrequenz vergeudete Lebenszeit. Das kann man mal in 2-3 Monaten machen.
Das ist schon so... Aber siehe meine Antwort ein paar zeilen höher.
 
Wie der GPU Test, mit den PCGH Einstellungen, die 6700XT unter Linux niedermacht :D

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Computerbase hat ja fast das selbe Ergebnis :)
 

Anhänge

  • Screenshot_20230801-151916.png
    Screenshot_20230801-151916.png
    286,6 KB · Aufrufe: 67
Gemeint sind bei solchen Aussagen immer maximale Details. Mit minimaler Qualität kommt man in allen Spielen auch mit 4 GiByte aus.

MfG
Raff

Dann mal ne blöde Frage. (?)
Wenn ich alles auf max. stelle und in 1080p zocken will und einmal in 2160p.
Wieviel mehr Speicher wird da den mehr benötigt.
Ich habe von praktisch nichts bis das 4fache schon alles gehört.

The Last of Us Part I war übrigens nicht das einzige Spiel was am Tag xx noch wie totaler Mist lief.
Horizon Zero Dawn war auch so ein Kandidat.
 
Texturen auf Hoch ohne Lupe kein Unterschied. RT ist ziemlich schwach in diesem Spiel bis auf die Reflexionen. Ohne RT läuft das auf einem Toaster. Ob hoch oder Medium das Spiel sieht immer gut aus.

tldr wer settings benutzen kann wird glücklich sein, das Spiel sieht selbst auf Niedrig klasse aus.

Schwachsinn
Jup, deswegen sollte man sich jetzt noch auf jeden Fall für 400€ eine 8GB Karte kaufen, da gebe ich dir recht, wird auch noch in 5 Jahren Spiele zum laufen bekommen, man muss halt alles auf MIN stellen, ergibt Sinn
Anhang anzeigen 1433024Anhang anzeigen 1433025

Also ich find das schon Krass wie 2 verschiedene Hardwareseiten (PCGH und CB) auf so Krass unterschiedliche Ergebnisse kommen..
bz wie krass allein die auswahl der Benchmark zene das ergebniss beeinflusst.

bei PCGH sind die Nvidia Karten stärker.. bei CB die AMD
Jup hat mich auch gewundert, aber PCGH ist auch nvidia lastig ;-)
 
Das sollte dir nur leider nicht völlig egal sein.

Weil welche Leistungsklasse wie viel kostet und wie wie viel FPS die bei bestimmten Settings auf den Bildschirm zaubert entscheidest nun mal nicht du.

Sondern Nvidia, AMD & Intel.

Da kann man noch so sehr den Rebell raushängen lassen und gegen die Preise schießen.
Die Preise sind nun mal wie sie sind.

Aber ganz davon ab ob eine 60er Karrte damals 250€ gekostet oder heute mehr.
Die technischen Möglichkeiten bleiben die selben.

Und das ist nun mal nicht immer maxed out in jeden neuen Tripple A Game bei spielbaren FPS.

Nicht mehr und nicht weniger war meine Kernaussage.
Da muss man keine Preisdiskussion daraus machen.
Und was eine Karte für Preis XY können muss.

Für die Preise kann ich am wenigsten.

(Frag da doch ma Raff an. Der diskutiert mit dir sicher gerne Grafikkarten Preise und was die so können müssen für Preis XY) :-D
MMH wenn ich bei AMD schaue, bekomme ich eine schnelle Grafikkarte mit 12 GB für 320 euro..
Keineswegs. Wir sind GPU-lastig.

MfG
Raff
War auch ned ernst gemeint ;-)
 
Danke für den Test.

Die Ergebnisse sind schon relativ krass. Gerade bei neueren Karten sollte man wenn man möglich auf 10 - 16 GB setzen.

Auch wenn Nvidia mittlerweile es egal sein sollte. Die 4060 Reihe haben sie gut versemmelt. Die wird niemand groß kaufen. Da packt man sich echt an den Kopf wie man so an den Kunden vorbei entwickeln kann.
 
Zurück