Special Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading

Stimmt schon deswegen muss man sich mit verbuggter Hardware rumschlagen, die Raytracing immer noch hinterher hechelt( Grafikfortschritt), Furchtbare Upscaling Technik, Kein Frame Generation, bescheidene Effizienz, Hardware fast komplett gelocked (-10%…), Bugs die seit release nicht vollständig gefixt wurden.

Dafür aber Nvidia preise verlangen wollen, kein Mensch bei Verstand würde sich Rdna 3 holen. Der Witz schreibt sich doch von selbst. Bis auf Vram gibt es nicht 1 Punkt, nicht einmal ansatzweise der für Amd spricht. 4060ti macht fast die 6800xt nass in Ratchet und Clank mit 40-50% des verbrauchs. ??
Hi, mein Beitrag war auch eher wie eine verklausulierte Frage gemeint, ob der Beitrag auch so gewollt war.
Ansonsten wünsche ich vom Herzen allen Usern viel Spaß oder Erfolg mit Ihrer Hardware.

Ich habe mich BTW entschlossen die Formulierung
"Wen interessiert xyz"

als Aussage eines Einzelnen zu interpretieren, nach dem Motto
-das interessiert MICH nicht, alle anderen sollen aber gern Spaß an ihrer Hardware bzw. mit xyz haben-.

Auch wenn es in meinen Ohren bisher so klang, als wolle suggeriert werden, dass man einer
(intelligenten oder wissenden [ :hail:PC-MASTERRACE] )
Mehrheit angehört.

Viele Grüße
 
Zuletzt bearbeitet:
Also bezüglich der Benchmarks, ich habe jetzt Drei bis 4 Websites gesehen die im Ergebnis eher mit Computerbase konform gehen.

Ich habe keinen Zweifel an den Ergebnissen von Raff, aber wenn alle anderen Seiten die 7900XTX mit der 4090 gleichauf, sie (viel) schneller oder ähnlich schnell sehen, dann frage ich mich, ob das Ergebnis der PCGH-Benches, in der mutmaßlich aufwendigsten Szene aller getesteten Szenen, nicht vlt. die Ausnahme ist.
(Mir fällt da unweigerlich Crysis ein)

In dem Fall wäre man halt bei ~90% des Games mit AMD schneller oder gleich schnell und dann sollte das Ergebnis meiner Meinung nach anders lauten,
mit dem Hinweis auf den Ausreißer vlt. noch.

Zumal die absoluten Differenzen bisher klar zugunsten AMDs ausfallen,
so weit ich das jetzt gesehen habe.
RDNA3 ist in den eigenen Topszenen viel weiter vor Nvidia als Nvidia in der (Einen?) Szene vor AMD ist.

Aber das kann ich ohne eigenen Test natürlich nicht wissen.
Auch verstehe ich natürlich den Ansatz, die eine besonders schwere Szene rauszusuchen, um einen Härtetest zu machen,
nur könnte die Szene ja auch kaputt sein, wenn es die einzige sein sollte die so außerhalb der "Norm" performt.
Ich kann mir halt nur nicht erklären, dass ich bisher nur komplett andere Ergebnisse gefunden habe.


PS: Die CPU könnte natürlich auch ein Grund sein, die meisten anderen testen wohl mit einer CPU von AMD.
PPS: oder es ist ausgegelichen, einmal ist die eine Karte und dann die andere Karte schneller, ich habe Verständniss dafür, dass sich sowas in dem bekannten Format nur schlecht und mit neuer, also aufwändiger Darstellung anzeigen ließe und man daher davon absieht.

Viele Grüße und einen guten Start in den Tag wünsche ich. :)
 
Zuletzt bearbeitet:
TPU zeigt bei dem anderen Karten eine vergleichbare Verteilung zu PCGH, nur die 7900XTX von PCGH scheint eher eine XT zu sein :ka:
 
mit 13900k

Für mich siehts so aus, als ob je nach Setting+Szene vor Allem die minFps passen müssen, damits net die avg.Fps mit versaut.
(putzig ist der ds-Dateien-Bug, wo ein Löschen = quasi ds=off im CB-Forum hilft)

Ob nun manche Reviewer trotz 13900k z.T. noch im CPU-Limit mit den 4000ern sind, who knows.
(da scheinen die 7000er pflegeleichter zu sein, .... gerade mit ner normalen CPU)

btw.
Insgesamt staune ich über den Vrambedarf, da hätte man sich gerade mit ds ne Besserung versprochen, aber
vllt. wirds ja dann mit Sampler Feedback. (MS traue ich zu, das es SF nur für W11 geben könnte!)

... ist natürlich dumm gelaufen, das anscheinend 10GB bei der 6700 optimal passen
(hoffentlich gibts dann auch ne 7700nonXT-10GB oder ne 7600xt-N32-10GB)

Kann dieser 10GB-Minimum-Wert von den Konsolen her kommen?

edit: die 3080 kommt auch noch gut mit den 10GB zurecht
RC@UWQHD.JPG

Ob der 4060Ti ab UWQHD evtl. die schmale Bandbreite zum Verhängnis wird bei den minFps?
 
Zuletzt bearbeitet:
Moin!
Also bezüglich der Benchmarks, ich habe jetzt Drei bis 4 Websites gesehen die im Ergebnis eher mit Computerbase konform gehen.

Ich habe keinen Zweifel an den Ergebnissen von Raff, aber wenn alle anderen Seiten die 7900XTX mit der 4090 gleichauf, sie (viel) schneller oder ähnlich schnell sehen, dann frage ich mich, ob das Ergebnis der PCGH-Benches, in der mutmaßlich aufwendigsten Szene aller getesteten Szenen, nicht vlt. die Ausnahme ist.
(Mir fällt da unweigerlich Crysis ein)

In dem Fall wäre man halt bei ~90% des Games mit AMD schneller oder gleich schnell und dann sollte das Ergebnis meiner Meinung nach anders lauten,
mit dem Hinweis auf den Ausreißer vlt. noch.

Zumal die absoluten Differenzen bisher klar zugunsten AMDs ausfallen,
so weit ich das jetzt gesehen habe.
RDNA3 ist in den eigenen Topszenen viel weiter vor Nvidia als Nvidia in der (Einen?) Szene vor AMD ist.

Aber das kann ich ohne eigenen Test natürlich nicht wissen.
Auch verstehe ich natürlich den Ansatz, die eine besonders schwere Szene rauszusuchen, um einen Härtetest zu machen,
nur könnte die Szene ja auch kaputt sein, wenn es die einzige sein sollte die so außerhalb der "Norm" performt.
Ich kann mir halt nur nicht erklären, dass ich bisher nur komplett andere Ergebnisse gefunden habe.


PS: Die CPU könnte natürlich auch ein Grund sein, die meisten anderen testen wohl mit einer CPU von AMD.
PPS: oder es ist ausgegelichen, einmal ist die eine Karte und dann die andere Karte schneller, ich habe Verständniss dafür, dass sich sowas in dem bekannten Format nur schlecht und mit neuer, also aufwändiger Darstellung anzeigen ließe und man daher davon absieht.

Viele Grüße und einen guten Start in den Tag wünsche ich. :)
Lass mich unseren "Fieseste Szene, die wir gesehen haben"-Ansatz erneut erklären. Langsam muss mir wohl einen Standardtext dafür ausdenken. :D Bei uns läuft das so: Wir spielen einen neuen Titel mit mehreren Leuten an unterschiedlichen Systemen und grenzen dabei Szenen mit geringen Bildraten ein. Dann wird das gezielt geprüft. Bei der GPU-Szene habe ich beispielsweise an meiner Privatkiste mit RTX 4090 den größten Drop gehabt, also habe ich es am GPU-Testsystem (viel schnellere CPU) nachgeprüft -> ebenfalls größerer Drop als in den anderen Szenen in der näheren Auswahl. Gegentest mit Radeon -> größter Drop. Damit war die Sache gegessen, wir haben unsere gemeine Szene. Dabei wird nichts hinsichtlich "Tut vor allem AMD/Nvidia/Intel besonders weh" selektiert, das ergibt sich dann durch Game-Code, Treiber, CPU-Overhead, Unterbau. In diesem Fall fiel die Wahl auch auf die Grinding-Szene, weil's mal etwas anderes, stylischeres ist als "Wir laufen durch einen Gang oder Wald". =)

Wir erläutern unsere Wahl, wir zeigen die Szenen und Settings als Video und wir stellen (nach Möglichkeit) sogar Savegames zum Download bereit. Wir geben sogar die durchschnittlichen Taktraten an - etwas, das quasi überall sonst fehlt und in Grenzfällen den Unterschied machen kann. Mehr geht nicht.

Wie repräsentativ man diese eine Szene findet, ist dann wieder etwas anderes. Fakt ist: Man muss da durch und Grinden ist bei Ratchet & Clank immer wieder angesagt. Daher gilt, was immer bei PCGH gilt (Ausnahmen bestätigen die Regel!): Läuft die fiese Szene X gut, ist beim Rest des Spiels alles dufte. Das ist der Gedanke dahinter. Ist es wichtig, dass bei Innenraum Y die Abstände zwischen den GPUs anders ausfallen, wenn man da eh doppelt so viele, also unkritische Fps hat?

Was mich beschäftigt: Während wir die Hose runterlassen und "gläsern" arbeiten, halten sich Misstrauens-Aussagen gegenüber so manch anderer Publikation sehr in Grenzen. Beispiel Ratchet & Clank: Wenn ein Titel am 26. Juli um 17 Uhr erscheint und direkt Hunderte von Messungen live sind, geht da etwas nicht mit rechten Dingen zu. Das sieht natürlich geil aus und alle freuen sich über die Benchmarks, aber es ist "fishy". Was wurde da getestet? Hat der Mensch eine Zeitmaschine oder Skills, die wir trotz 20 Jahren Benchmark-Erfahrung nicht haben? Auch wenn man am 28. Juli Hunderte von Messungen live hat, passt etwas nicht. Denn man muss das Spiel vorher kennenlernen, direktes Losmessen geht nicht. Ein ordentlicher Techniktest dauert sehr, sehr lange. Und dann muss man auch noch klären, wie es um die Update-Roadmap von Spiel und Treiber steht. All das fließt bei uns ein. Nur ein kleiner Denkanstoß. :-)

MfG
Raff
 
wer sagt was anderes ?
Ich dachte bei der Grafik wäre mehr drinn. Was soll's reicht ja auch.
Nur manchmal die kurzen FPS Einbrüche nerven. Trotz eigentlich guten system.
Stimmt schon deswegen muss man sich mit verbuggter Hardware rumschlagen, die Raytracing immer noch hinterher hechelt( Grafikfortschritt), Furchtbare Upscaling Technik, Kein Frame Generation, bescheidene Effizienz, Hardware fast komplett gelocked (-10%…), Bugs die seit release nicht vollständig gefixt wurden.

Dafür aber Nvidia preise verlangen wollen, kein Mensch bei Verstand würde sich Rdna 3 holen. Der Witz schreibt sich doch von selbst. Bis auf Vram gibt es nicht 1 Punkt, nicht einmal ansatzweise der für Amd spricht. 4060ti macht fast die 6800xt nass in Ratchet und Clank mit 40-50% des verbrauchs. ??
Du vergleichst ernsthaft neu aktuelle Nvidia Generation mit einer vor Generation von AMD ? Respekt, man bist du ein Held. Wäre auch traurig wenn das nicht so wäre.
 
Zuletzt bearbeitet:
Also wenn das so weitergeht, dann hänge ich das Gaminghobby an den Nagel.
60–80 Frames mit einer 4080 ... So richtige "scheiss auf Optimierung"-Haltung.
 
Was sollen immer diese dämlichen Übertreibungen?
Du kannst ja ein Nvidia-Fanboy sein, aber dann bleib wenigstens sachlich. DLSS ist nach wie vor überlegen, aber "furchtbar" in Bezug auf FSR ist so weit entfernt von der Wahrheit.
Du hast selber eine 3060 und kannst gemütlich hin und her switchen. Sag du es mir. Ich zocke in 4k und selbst da bröselt fsr umher das es kracht da kann ich auch auf 80% render scale gehen wenn ich mehr performance will. fsr ist unnütz wenn man bildqualität will. Was ich bei dir anzweifle mit der 3060 was dich auch disqualifiziert.

Das hat mit fanboy nichts zu tun wen nvidia objekziv in allen belangen besser ist. Kann ich doch nix für.
 
Moin!

Lass mich unseren "Fieseste Szene, die wir gesehen haben"-Ansatz erneut erklären. Langsam muss mir wohl einen Standardtext dafür ausdenken. :D Bei uns läuft das so: Wir spielen einen neuen Titel mit mehreren Leuten an unterschiedlichen Systemen und grenzen dabei Szenen mit geringen Bildraten ein. Dann wird das gezielt geprüft. Bei der GPU-Szene habe ich beispielsweise an meiner Privatkiste mit RTX 4090 den größten Drop gehabt, also habe ich es am GPU-Testsystem (viel schnellere CPU) nachgeprüft -> ebenfalls größerer Drop als in den anderen Szenen in der näheren Auswahl. Gegentest mit Radeon -> größter Drop. Damit war die Sache gegessen, wir haben unsere gemeine Szene. Dabei wird nichts hinsichtlich "Tut vor allem AMD/Nvidia/Intel besonders weh" selektiert, das ergibt sich dann durch Game-Code, Treiber, CPU-Overhead, Unterbau. In diesem Fall fiel die Wahl auch auf die Grinding-Szene, weil's mal etwas anderes, stylischeres ist als "Wir laufen durch einen Gang oder Wald". =)

Wir erläutern unsere Wahl, wir zeigen die Szenen und Settings als Video und wir stellen (nach Möglichkeit) sogar Savegames zum Download bereit. Wir geben sogar die durchschnittlichen Taktraten an - etwas, das quasi überall sonst fehlt und in Grenzfällen den Unterschied machen kann. Mehr geht nicht.

Wie repräsentativ man diese eine Szene findet, ist dann wieder etwas anderes. Fakt ist: Man muss da durch und Grinden ist bei Ratchet & Clank immer wieder angesagt. Daher gilt, was immer bei PCGH gilt (Ausnahmen bestätigen die Regel!): Läuft die fiese Szene X gut, ist beim Rest des Spiels alles dufte. Das ist der Gedanke dahinter. Ist es wichtig, dass bei Innenraum Y die Abstände zwischen den GPUs anders ausfallen, wenn man da eh doppelt so viele, also unkritische Fps hat?

Was mich beschäftigt: Während wir die Hose runterlassen und "gläsern" arbeiten, halten sich Misstrauens-Aussagen gegenüber so manch anderer Publikation sehr in Grenzen. Beispiel Ratchet & Clank: Wenn ein Titel am 26. Juli um 17 Uhr erscheint und direkt Hunderte von Messungen live sind, geht da etwas nicht mit rechten Dingen zu. Das sieht natürlich geil aus und alle freuen sich über die Benchmarks, aber es ist "fishy". Was wurde da getestet? Hat der Mensch eine Zeitmaschine oder Skills, die wir trotz 20 Jahren Benchmark-Erfahrung nicht haben? Auch wenn man am 28. Juli Hunderte von Messungen live hat, passt etwas nicht. Denn man muss das Spiel vorher kennenlernen, direktes Losmessen geht nicht. Ein ordentlicher Techniktest dauert sehr, sehr lange. Und dann muss man auch noch klären, wie es um die Update-Roadmap von Spiel und Treiber steht. All das fließt bei uns ein. Nur ein kleiner Denkanstoß. :-)

MfG
Raff
Schon ein bisschen traurig, dass Ihr ernsthaft Eure Arbeit so detailliert erklären müsst. :schief:
Aber danke, dass Du Dir die Mühe machst! :)
Du hast selber eine 3060 und kannst gemütlich hin und her switchen. Sag du es mir. Ich zocke in 4k und selbst da bröselt fsr umher das es kracht da kann ich auch auf 80% render scale gehen wenn ich mehr performance will. fsr ist unnütz wenn man bildqualität will. Was ich bei dir anzweifle mit der 3060 was dich auch disqualifiziert.

Das hat mit fanboy nichts zu tun wen nvidia objekziv in allen belangen besser ist. Kann ich doch nix für.
Ah, arrogant auch noch, das erklärt einiges. :ugly: Ja, ich nutze eine Nvidia-Karte und dennoch kann ich objektiv urteilen und weiß, dass FSR nicht "furchtbar", sondern für viele eine sehr gute Unterstützung ist.

Aber naja, bei manchen ist es mit der Objektivität halt nicht weit her. ;)
 
R+C hat vernünftigerweise einen Sharpenregler für alle Upsampler.(x)
(sollte "Brösel" etwas entschärfen, ... z.Bsp. TPU hat von sich aus etwas runtergeregelt beim Bildvgl.)

(x) sollte jedes neue Game haben/müssen!

btw.
Hat denn mal Jemand versucht FSR2.2 dll´s statt FSR 2.1 zu nutzen?
(oder gibts da Cheatsperrenprobleme o.ä.)
 
Zuletzt bearbeitet:
Da, das hier etwas zu kurz kommt.
Erstmal Danke an PCGH für den geilen Test und im Besonderen @PCGH_Raff .
Wenn mal mehr Seiten so testen würdet wie ihr, dann wäre die Hardware Welt eine schönere.

Was ich aber Interessant finde ist das hier: (beides 4k)
Raster
1690966006175.png


RT:

1690966040915.png


Das Aktivieren von Raytracing scheint ihr relativ wenig FPS zu kosten. (Jedenfalls bei aktiviertem DLSS).
Wäre mal interessant wie die Auswirkungen sind bei deaktivierten DLSS.
 
Und? Hat's jemand gecheckt? Community-Benchmark? =) Ich brauche ein paar würdige Opfer Gegner für "meinen" neuen 13900WTF. @blautemple? @PCGH_Dave? :D :devil:

MfG
Raff
Gucke ich mir spätestens Freitag an. Bin aktuell etwas beschäftigt ^^
Das Aktivieren von Raytracing scheint ihr relativ wenig FPS zu kosten. (Jedenfalls bei aktiviertem DLSS).
DLSS ist nur bei den RT Benchmarks aktiv und trotzdem hast du ohne RT mehr fps. Das kostet also schon gut fps ;)
 
@Raff
Ich für meinen Teil frage hier nach,
weil PCGH oft meine erste Anlaufstelle ist
und ich die mit Abstand meiste Zeit hier verbringe.

Die Gründe dafür sind, dass es seriös wirkt, der Aufbau der Webinhalte ansprechend ist, es freundliche Reaktionen auf Anfragen gibt, welche auch ehrlich wirken und dazu schlüssige Erklärungen zu interessanten Themen ganz allgemein

Das sind die Gründe warum ich hier gefragt habe und nicht bei schnell zusammengesuchten Vergleichsseiten.
(Natürlich auch, weil ich etwas nicht einordnen konnte, dass habe ich aber nur lesen können weil ich hier aus den genannten Gründen hier viel Zeit verbringe) ich frage das auch nicht noch mal....

Vielen Dank für die ausführliche Antwort.
:):pcghrockt:
Bitte entschuldige die Extraarbeit
 
Schon krass, wie groß die Unterschiede zwischen der 2060 6 & 12GB sowie 4060Ti 8 & 16GB selbst bei FHD ausfallen. Und auch die 6650XT und 6700 weisen einen großen Performance Abstand zueinander auf, wobei das sicherlich auch an der Anbindung liegt und nicht nur am VRAM.

Jedenfalls sieht das nach einem spaßigen, spielbaren Animationsfilm aus. ? Ich werde mir das Spiel irgendwann sicherlich zulegen, aber grade hat ein anderes Mammutspiel Vorrang. Und wie von DF zulesen ist, sollte man mit einer HDD die Finger von dem Spiel lassen, selbst wenn es "läuft". Wobei heutzutage dürften das Groß der Gamer sicherlich eine SSD haben.
 
Ist schon ärgerlich wenn man sich im Miningboom eine 3070 mit 8GB oder eine 3080 mit 10GB für über 1000€ besorgt hat. Ist ja unglaublich wie schnell diese Karten gealtert sind. Meine 1070 mit 8GB konnte ich problemlos 6 Jahre verwenden. Mal schauen ob das mit der 4080 16GB auch klappt. Hätte man ja fast doch die 500€ Aufpreis zur 4090 sich noch überlegen sollen.

Hab eine 3080 10GB, kurz nach Release gekauft (November 2020), damals 900€ bezahlt. Ich zocke auf WQHD und bisher gab es keine Probleme mit VRAM. Selbst bei so einem schlechten Port würde ich ja hinkommen:

1690983049341.png


Farcry 6 ist für mich bisher das Einhorn zu Release diesbezüglich. Anscheinend wurde da aber absichtlich aufgrund des AMD Sponsorings der VRAM Bedarf hochgeschraubt. Ein paar Monate später wurde es ja gepatched...
 
Zurück