Special Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading

Hab eine 3080 10GB, kurz nach Release gekauft (November 2020), damals 900€ bezahlt. Ich zocke auf WQHD und bisher gab es keine Probleme mit VRAM. Selbst bei so einem schlechten Port würde ich ja hinkommen:

Farcry 6 ist für mich bisher das Einhorn zu Release diesbezüglich. Anscheinend wurde da aber absichtlich aufgrund des AMD Sponsorings der VRAM Bedarf hochgeschraubt. Ein paar Monate später wurde es ja gepatched...
Man sieht an unseren Benchmarks, dass diese Werte nicht hinkommen, also während der Laufzeit tatsächlich mehr VRAM benötigt wird. Wenn das Spiel etwas "fertiger" ist, werden sich ein paar 12er-Karten dazugesellen. :-)

Die RTX 3080 wäre vom Start weg mit 12 GiByte gut bedient gewesen und damit heute fast ohne Nebenwirkungen nutzbar - wegen der tatsächlich installierten 10 GiByte gibt es bei hohen Settings/Auflösungen und unoptimierten Spielen aber Probleme. Das waren noch Zeiten:

"Nvidia wäre aus PCGH-Sicht gut damit beraten gewesen, die RTX 3070 mit 10 GiByte (320 Bit) auszustatten und die RTX 3080 mit 12 GiByte (volle 384 Bit) - jeweils zu einem etwas höheren Preispunkt (ca. 100 Euro). Mit dieser Konfiguration hätte man der drastisch erhöhten Rechenleistung ein adäquates Mindestpolster zur Verfügung gestellt, um für beinahe alle möglichen Spielchen rund um Grafikmods, höhere Auflösungen und künftige Spiele gewappnet zu sein. Man munkelt, dass Nvidia sich der knappen Speicherkapazitäten bewusst ist und in den kommenden Monaten RTX-30-Varianten mit verdoppelter Kapazität anbieten wird, etwa eine RTX 3070 mit 16 GiByte und eine RTX 3080 mit 20 GiByte. Sicher planen lässt sich damit jedoch nicht, zumal noch AMDs Antwort in Gestalt der Radeon-RX-6000-Reihe im November aussteht. Wer kann, der wartet. Und wer sich trotz der vorliegenden Fakten für eine Geforce RTX 3080 entscheidet, weiß, wo er im Falle des Falles ansetzen kann: Texturdetails runter, Spaß haben und schon mal für das nächste Upgrade sparen - das ist angesichts der fairen 699 Euro immer noch günstiger, als das Kapazitätsproblem mit einer RTX 3090 für 1.500 Euro zu erschlagen."

MfG
Raff
 
Man sieht an unseren Benchmarks, dass diese Werte nicht hinkommen, also während der Laufzeit tatsächlich mehr VRAM benötigt wird. Wenn das Spiel etwas "fertiger" ist, werden sich ein paar 12er-Karten dazugesellen. :-)

Die RTX 3080 wäre vom Start weg mit 12 GiByte gut bedient gewesen und damit heute fast ohne Nebenwirkungen nutzbar - wegen der tatsächlich installierten 10 GiByte gibt es bei hohen Settings/Auflösungen und unoptimierten Spielen aber Probleme. Das waren noch Zeiten:

"Nvidia wäre aus PCGH-Sicht gut damit beraten gewesen, die RTX 3070 mit 10 GiByte (320 Bit) auszustatten und die RTX 3080 mit 12 GiByte (volle 384 Bit) - jeweils zu einem etwas höheren Preispunkt (ca. 100 Euro). Mit dieser Konfiguration hätte man der drastisch erhöhten Rechenleistung ein adäquates Mindestpolster zur Verfügung gestellt, um für beinahe alle möglichen Spielchen rund um Grafikmods, höhere Auflösungen und künftige Spiele gewappnet zu sein. Man munkelt, dass Nvidia sich der knappen Speicherkapazitäten bewusst ist und in den kommenden Monaten RTX-30-Varianten mit verdoppelter Kapazität anbieten wird, etwa eine RTX 3070 mit 16 GiByte und eine RTX 3080 mit 20 GiByte. Sicher planen lässt sich damit jedoch nicht, zumal noch AMDs Antwort in Gestalt der Radeon-RX-6000-Reihe im November aussteht. Wer kann, der wartet. Und wer sich trotz der vorliegenden Fakten für eine Geforce RTX 3080 entscheidet, weiß, wo er im Falle des Falles ansetzen kann: Texturdetails runter, Spaß haben und schon mal für das nächste Upgrade sparen - das ist angesichts der fairen 699 Euro immer noch günstiger, als das Kapazitätsproblem mit einer RTX 3090 für 1.500 Euro zu erschlagen."

MfG
Raff

Ich hätte mich auch über 12GB auf der 3080 gefreut, aber wie gesagt, bis auf Einzelfälle (meist PS Ports oder AMD sponsored Games) passen die 10GB in WQHD.

Die 3080 muss noch durchhalten bis zur nächsten Gen, zur Not schalte ich halt ein paar Grafikdetails auf "hoch" oder "mittel" statt "ultra" (mach ich sowieso meistens da ich keinen Unterschied erkenne). Auf jeden Fall bleibe ich meiner Linie treu, es wird immer eine Gen übersprungen. Ob es danach eine RTX5000 oder RDNA4 wird, mal sehen wer die Nase vorn hat.
 
Hab eine 3080 10GB, kurz nach Release gekauft (November 2020), damals 900€ bezahlt. Ich zocke auf WQHD und bisher gab es keine Probleme mit VRAM. Selbst bei so einem schlechten Port würde ich ja hinkommen:

1690983049341.png
Nö. 10GB reichen nach der Grafik nichtmal für FHD unter max Settings.
 
Ich hätte mich auch über 12GB auf der 3080 gefreut, aber wie gesagt, bis auf Einzelfälle (meist PS Ports oder AMD sponsored Games) passen die 10GB in WQHD.

Die 3080 muss noch durchhalten bis zur nächsten Gen, zur Not schalte ich halt ein paar Grafikdetails auf "hoch" oder "mittel" statt "ultra" (mach ich sowieso meistens da ich keinen Unterschied erkenne). Auf jeden Fall bleibe ich meiner Linie treu, es wird immer eine Gen übersprungen. Ob es danach eine RTX5000 oder RDNA4 wird, mal sehen wer die Nase vorn hat.
endlich mal einer der's verstanded hat, bin ganz deiner meinung hab auch eine 3080 und die reicht vollkommen ,alles auf exrta hoch, wird sowas von überbewertet.....Lach
 
Nö. 10GB reichen nach der Grafik nichtmal für FHD unter max Settings.
Ahjo, genau, wegen den fehlenden 180MB wird vermutlich alles zu "Matsch". :D
Setzt man halt 1-2 Optionen von "ultra" auf "hoch" und schon passt es...

endlich mal einer der's verstanded hat, bin ganz deiner meinung hab auch eine 3080 und die reicht vollkommen ,alles auf exrta hoch, wird sowas von überbewertet.....Lach
Ich vertrete diese Meinung seit 3 Jahren, dafür wird man hier aber von der roten Fanbase massiv angegangen. Wobei sie selbst NUR DANN max Settings verlangen solange es NICHT um Raytracing geht. Das ist dann was anderes. Kannste dir nicht ausdenken. :schief:
 
Ich vertrete diese Meinung seit 3 Jahren, dafür wird man hier aber von der roten Fanbase massiv angegangen. Wobei sie selbst NUR DANN max Settings verlangen solange es NICHT um Raytracing geht. Das ist dann was anderes. Kannste dir nicht ausdenken. :schief:
Stimme dir, zu das Max Settings nicht alles sind und hoch meist reicht.

Aber die frage ist halt sollte das bei einer 700€ GPU der fall sein? Bei 1440P ? Oder gar 1080p im schlimmstensfall ?

Nvidia geizt mit VRAM und das darf und muss man bemängeln.

Nvidia hätte ohen Probleme die 12Gib version der 3080 durchaus zum start bringen könne und die 10gib version sich sparen können. Wäre alles ohne Problem für 700€ gegangen.

Mal ganz zu schweigen davon das eine 20Gib Variante für ca 850-900€ auch gut gewesen wäre. (ist alles möglich aber man wollte halt mehr Marge.

AMD ist da teils nicht besser nur sind es bei denen hauptsächlich die 6500xt bei der man meckern darf.
Die Oberklasse Karten sind technisch passend. Nur schade das es seid RDNA 3 mal wieder andere Probleme gibt.
 
Aber die frage ist halt sollte das bei einer 700€ GPU der fall sein? Bei 1440P ? Oder gar 1080p im schlimmstensfall ?
Bitte wie? Ob das der "Fall sein darf"? Die Preise haben nichts, gar nichts, damit zu tun ob irgendwas "sein sollte". Die Preise sind während Corona völlig durchgedreht, der Ukraine Krieg hat danach nahtlos übernommen um die Inflation anzutreiben. Daher frage ich Dich: Sollte es der Fall sein dass ich für meine Lebensmittel 50% mehr ausgeben muss?

Sorry, aber die Frage nach dem "darf es sein" ist in meinen Augen völlig daneben.

Mit meiner 1070 konnte ich nach 3 Jahren auch keine Titel mehr mit allen Details zocken, und das lag nicht am VRAM sondern an der Rohleistung. Früher war es sogar noch schlimmer, da war meist nach 1 bis maximal 2 Jahren Schluss mit "Ultra".

Nvidia geizt mit VRAM und das darf und muss man bemängeln.
Da sage ich nichts gegen, bemängeln kann man das. Vorallem als Deutscher, da bemängelt man irgendwie ständig und alles. Ob man das muss? Das entscheidet jeder selbst.

Ich hab die 3080 mit 10GB gekauft und die ganzen "you are doomed" Leute haben Unrecht behalten. Ich sagte damals bereits dass die Karte bis zur übernächsten Gen in WQHD ausreichend VRAM hat für einen Großteil der Games.

"Ja aber NICHT MAX DETAILS in 2 Jahren!!!" - Bruh, Deine AMD Karte kann auch nicht max RT und das SCHON HEUTE. Ich lach mich immernoch darüber schlapp. :lol:

Nvidia hätte ohen Probleme die 12Gib version der 3080 durchaus zum start bringen könne und die 10gib version sich sparen können. Wäre alles ohne Problem für 700€ gegangen.

Mal ganz zu schweigen davon das eine 20Gib Variante für ca 850-900€ auch gut gewesen wäre. (ist alles möglich aber man wollte halt mehr Marge.

AMD ist da teils nicht besser nur sind es bei denen hauptsächlich die 6500xt bei der man meckern darf.
Die Oberklasse Karten sind technisch passend. Nur schade das es seid RDNA 3 mal wieder andere Probleme gibt.
Hätte wäre könnte, jaja, wenn wir alle die Entscheider wären, dann würde alles besser laufen. So wie beim Bundestrainer, das können gefühlt auch alle besser. :schief:
 
Zuletzt bearbeitet von einem Moderator:
Bitte wie? Ob das der "Fall sein darf"? Die Preise haben nichts, gar nichts, damit zu tun ob irgendwas "sein sollte". Die Preise sind während Corona völlig durchgedreht, der Ukraine Krieg hat danach nahtlos übernommen um die Inflation anzutreiben. Daher frage ich Dich: Sollte es der Fall sein dass ich für meine Lebensmittel 50% mehr ausgeben muss?

Sorry, aber die Frage nach dem "darf es sein" ist in meinen Augen völlig daneben.

Mit meiner 1070 konnte ich nach 3 Jahren auch keine Titel mehr mit allen Details zocken, und das lag nicht am VRAM sondern an der Rohleistung. Früher war es sogar noch schlimmer, da war meist nach 1 bis maximal 2 Jahren Schluss mit "Ultra".


Da sage ich nichts gegen, bemängeln kann man das. Vorallem als Deutscher, da bemängelt man irgendwie ständig und alles. Ob man das muss? Das entscheidet jeder selbst.

Ich hab die 3080 mit 10GB gekauft und die ganzen "you are doomed" Leute haben Unrecht behalten. Ich sagte damals bereits dass die Karte bis zur übernächsten Gen in WQHD ausreichend VRAM hat für einen Großteil der Games.

"Ja aber NICHT MAX DETAILS in 2 Jahren!!!" - Bruh, Deine AMD Karte kann auch nicht max RT und das SCHON HEUTE. Ich lach mich immernoch darüber schlapp. :lol:


Hätte wäre könnte, jaja, wenn wir alle die Entscheider wären, dann würde alles besser laufen. So wie beim Bundestrainer, das können gefühlt auch alle besser. :schief:
Also zu 1 Übertreibe mal nicht. Warum muss denn jeder bei GPU preisen und Kritik am Produkt direkt die Corona und Kriegs Keule rausholen. Und was hat das mit Lebensmitteln zu tuen ?

Die Frage ist doch, findet man das gut das Hersteller aus Gewinnmaximierung Gründen ein Produkt anbietet, das ohne merklich Mehrkosten bei der Herstellung besser gewesen wäre ?

Ob man das bemängeln muss?

Ich finde ja, und als Tester sollte man das auch tuen , denn es ist ein Kritik Punkt am Produkt den ich als Kunde wissen möchte.
Als Privat Person darf man das finden wie man will.

Warum wird hier AMD reingezogen nur weil der Konkurrent dir ebenso ein Produkt anbietet das nicht Perfekt ist heißt das nicht das, das andere Produkt nicht seine Fehler hat.

Ist diese Gen genau gleich bzw. noch schlimmer.
Eine 4070Ti ist mit 12Gib durchaus knapp ausgestattet gerade für Leute die 4k Interessant finden . Bei einer 800 Gpu ist es jedenfalls nicht Komplett Abwege davon auszugehen das der ein oder andere diese Karte für diese Auflösung nutzen möchte.
Von den RDNA 3 Problemen brauchen wir gar nicht erst anfangen.


Und zum Schluss. Ja ich bin kein CEO oder CFO. Aber Kritisieren darf ich die Geschäfts Praktiken trotzdem. Gerade als Kunde.


Oder Darf man heute nur noch Kritik austeilen wenn man selber im Gebiet Arbeit ?

PS: Gerade deine Erste Abschnitt ist für mich Irgendwie unverständlich, wie kommt man von "Darf das sein".
Auf eine Verharmlosung von anderen Problem in der Welt und oder in Deutschland ?
 
Jetzt ist Ihre Meinung gefragt zu Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading
Wenn ich bei WQHD von 12,7 GB lese, bedeutet das doch nicht, dass man diese zwingend braucht, sondern es schön wäre, sie zu haben, um Nachladeruckler zu vermeiden? Sehe ich das richtig, oder stürzt das Spiel ab?
 
Also zu 1 Übertreibe mal nicht. Warum muss denn jeder bei GPU preisen und Kritik am Produkt direkt die Corona und Kriegs Keule rausholen. Und was hat das mit Lebensmitteln zu tuen ?
Weil die GPU Preise auch deswegen angestiegen sind? Wieso sollte man Corona und Kriegs- / Energiepreis getriebene Inflation nicht erwähnen? Davon abgesehen kostet jeder Wafer in neuen Prozessen mehr als die vorherigen, warum sollte also der Preis nicht steigen bei gleichbleibender Marge?

Was das mit Lebensmitteln zu tun hat? Naja, sind die etwa nicht durch dieselben Marktmechaniken deutlich im Preis gestiegen?

Fragen über Fragen...

Die Frage ist doch, findet man das gut das Hersteller aus Gewinnmaximierung Gründen ein Produkt anbietet, das ohne merklich Mehrkosten bei der Herstellung besser gewesen wäre ?
Ausnahmslos alle Hersteller bieten ihre Produkte so gut es geht Gewinn-maximiert an. Es gibt keine White-Knight Companies die "For the Players" tatsächlich leben, das wollen sie einem nur alle weismachen.

Die größeren GDDR6X Chips kosten ein bisschen mehr, die Frage ist aber: Wie hoch sind die Mehrkosten für einen breiteren Bus auf dem Chip? Wie viel größer wird der Chip dadurch? Ich persönlich weiss das nicht.

Ob man das bemängeln muss?

Ich finde ja, und als Tester sollte man das auch tuen , denn es ist ein Kritik Punkt am Produkt den ich als Kunde wissen möchte.
Als Privat Person darf man das finden wie man will.
Man kann darauf hinweisen, was ja auch getan wird, aber dadurch wird das Produkt nicht direkt ein "Fail". Siehe Marktanteil Nvidia vs AMD, oder Steam Umfrage, oder oder oder.

Warum wird hier AMD reingezogen nur weil der Konkurrent dir ebenso ein Produkt anbietet das nicht Perfekt ist heißt das nicht das, das andere Produkt nicht seine Fehler hat.
Du hast in Deinem Beitrag von AMD gesprochen und die Oberklasse Karten "technisch passend" betitelt. Sind sie für mich nicht, schlechteres RT und kein DLSS / FG. FSR 2 ist weiterhin unterlegen.

Ich sagte nirgends dass das Konkurrenz Produkt keine Fehler haben darf. Aber damit ich es kaufe sollte es weniger Fehler haben.

Du hast ja selbst erkannt dass beide Hersteller ihre Vor- und Nachteile haben. So sehe ich das eben auch und kaufe das zu dem Zeitpunkt für mich sinnvollere Produkt. Da ich gerade einen größeren Job-Sprung gemacht habe wird zur nächsten Gen auch sehr wahrscheinlich das Topmodell gegönnt, egal von welchem Hersteller, aber auf jeden Fall das für meine Zwecke bessere Gesamtpaket (WQHD, Raster- und Raytracing Power, Upscaling, Stromverbrauch Idle / Last, etc etc). Vielleicht wirds sogar eine Intel. :D

Ist diese Gen genau gleich bzw. noch schlimmer.
Eine 4070Ti ist mit 12Gib durchaus knapp ausgestattet gerade für Leute die 4k Interessant finden . Bei einer 800 Gpu ist es jedenfalls nicht Komplett Abwege davon auszugehen das der ein oder andere diese Karte für diese Auflösung nutzen möchte.
Wer hat noch mal festgelegt dass eine 800€ GPU für 4K ausreichen "sollte"? Siehe Preisentwicklung weiter oben...

Von den RDNA 3 Problemen brauchen wir gar nicht erst anfangen.
Ja, die sind wirklich übel. Erst die ganzen defekten MBA Vapor Chambers (und AMDs zuerst getätigte Aussage die Karten nicht zu tauschen) und dann fortwährende Treiberprobleme. Da war die handvoll verschmorter Nvidia Stecker im Vergleich ein geringfügiger Image-Schaden.

Und zum Schluss. Ja ich bin kein CEO oder CFO. Aber Kritisieren darf ich die Geschäfts Praktiken trotzdem. Gerade als Kunde.
Ich verstehe diese Sichtweise, aber denke dass wir als "Kunden" nicht genügend Einblick haben um die Entscheidungen zu verstehen. Schon mal daran gedacht dass wir genauso entscheiden würden in der Position? Dumme Leute sind auf solchen Positionen nämlich in der Regel nicht lange...

Oder Darf man heute nur noch Kritik austeilen wenn man selber im Gebiet Arbeit ?
Nein, aber die Kritik ist dann ohne Hintergrund-Kenntnisse entstanden. Wirklich valide Kritik kann eigentlich nur jemand in ähnlicher Position in einem ähnlichen Unternehmen äußern.

PS: Gerade deine Erste Abschnitt ist für mich Irgendwie unverständlich, wie kommt man von "Darf das sein".
Auf eine Verharmlosung von anderen Problem in der Welt und oder in Deutschland ?
"Darf das sein", "soll das sein" dass eine 700€ GPU in 2-3 Jahren nicht mehr Ultra-Details schafft? Was hat der Preis damit zu tun? Die 700€ von heute waren vor 2-3 Jahren gerade mal 600€. Die Zahlen die Du nennst sagen einfach nichts über den "Wert" aus bei der aktuellen Volatilität der Märkte.
 
Interessant sind auch die Schlüsse die man aus den Linux Berichten schließen kann:
Offensichtlich verhält sich direct storage deutlich anders sobald man von Medium auf High Texturen wechselt. Nämlich so dass es dann Proton abschießt. Also ist darunter mutmaßlich garkein DS oder zumindest nur die CPU Variante aktiv.
 
Offensichtlich verhält sich direct storage deutlich anders sobald man von Medium auf High Texturen wechselt. Nämlich so dass es dann Proton abschießt. Also ist darunter mutmaßlich garkein DS oder zumindest nur die CPU Variante aktiv.
Was auch durchaus sinnvoll ist, denn GDeflate ist bei kleineren Datenmengen (besonders <64kb) weder besonders schnell, noch komprimiert es besonders gut.

Ab davon funktioniert das Spiel auf AMD-GPUs auch mit GPU-Dekompression ganz wunderbar mit Proton, der Nvidia-Treiber mag aber irgendwie den GDeflate-Shader nicht.
 
Witzigerweise reduziert direct storage die FPS bei meinem PC massiv (5950x+rtx4080 @3440x1440 all max mit DLSS-Q+FG


Default settings sehe ich 85-86 minfps

Lösche ich die directstorage DLLs
Bin ich bei 105fps min

Schalte ich nun rebar via Profileinspektor dazu sind meine Minfps bei 122!


Rebar + Directstorage gleichzeitig knallt den PC übrigens direkt in n Hardlock wo man die reset taste drücken muss

Fazinierend

@PCGH_Raff kannst du das Mal testen.
Für Directstorage off einfach die DLLs löschen und Rebar via Profileinspektor forcieren.

Ich hab hier bald +40fps mehr in den minfps
 
Zuletzt bearbeitet:
"Darf das sein", "soll das sein" dass eine 700€ GPU in 2-3 Jahren nicht mehr Ultra-Details schafft? Was hat der Preis damit zu tun? Die 700€ von heute waren vor 2-3 Jahren gerade mal 600€. Die Zahlen die Du nennst sagen einfach nichts über den "Wert" aus bei der aktuellen Volatilität der Märkte.
Wenn man die Rohleistung im Vergleich zur Speicherausstattung heranzieht, bleibt eben ein Ungleichgewicht bei der 3080 mit 10GB. Das ist gar kein Vergleich zur 1070, die eine 980 Ti mit knapp halber Leistungsaufnahme und knapp halben Preis war, aber mit 2GB mehr VRAM.
 
Nein, aber die Kritik ist dann ohne Hintergrund-Kenntnisse entstanden. Wirklich valide Kritik kann eigentlich nur jemand in ähnlicher Position in einem ähnlichen Unternehmen äußern.
Mensch, dann wirst Du ab sofort ja auch nicht mehr AMD kritisieren, hm? Denn echte Hintergrundkenntnisse wirst Du da auch nicht haben.


Dann wird's doch mal richtig schön ruhig hier im Forum, wenn nur noch "valide" Kritik von Personen kommen sollte, die in ähnlichen Bereichen arbeiten.
 
Zurück