Special Dead Space Remake im Technik-Test: Schnetzeln und Zittern in Pracht-Optik

Bei meinem System habe ich "immer" mindestens 100 FPS (DLSS aktiv, Qualität Preset). Im Prinzip meist 120 FPS aber sobald AI-Gegner ins Spiel kommen, geht es auch mal auf 100 runter. Alle Grafikeinstellungen (4k) inkl. Raytracing (RTAO) sind auf maximal gesetzt.

Kurz gesagt (meiner Meinung nach), es muss nicht zwingend eine GTX 4090 sein, um den 60 FPS Bereich zu erreichen. Da sind ja noch ausreichend Reserven durch DLSS Anpassung (ausgewogen, Leistung...).
DLSS ist leider keine Option für mich , zumindest würde ich mir deswegen keine 4090 kaufen.Die Karte ist erst 5 Monate auf dem Markt und schafft nativ bei aktuellen Games 60FPS??
 
Super, danke für den Test. Seit gestern habe ich den ersten Lauf durch...was ein Knaller, hier passt einfach alles. Naja fast, die Ruckler nerven schon hart, aber auf Steam hat jemand die Lösung gefunden:

Anhang anzeigen 1416676

Ich kann das so bestätigen, danach war auf einmal alles smooth bei den Frametimes.
Ich hatte keine einzigen Ruckler in diesem Spiel. Lief butterweich und haut die CPU härter als Cyberpunk2077. (150W vs 115-130W)
 
Ich finde es nur schade das wenn man den Anzug aufrüstet er irgendwann total matsch grafik hat zumindest bei mir ich versthe nicht ob das ein Bug ist oder es bei allen so aussieht das Kupfer oder was das sein soll sieht einfach nur sher schlecht aus...das ist schade ansonsten ist die grafik echt der Knaller!°
Nutzt du DLSS? Oder ist das nativ so?
 
Sehe ich das richtig dass die 7900xt dann vor der 4070ti mit RT liegt?
Das glaube ich kaum, eher etwas dahinter.
Die 7900XTX liegt (laut CB) in etwa gleich auf mit der 4080 und knapp vor der 4070Ti (laut PCGH) in RT ... :ka:

MfG Föhn.
 

Anhänge

  • RT Dead Space CB.jpg
    RT Dead Space CB.jpg
    482,5 KB · Aufrufe: 19
  • RT Dead Space PCGH.jpg
    RT Dead Space PCGH.jpg
    380,9 KB · Aufrufe: 18
This. Habe jetzt nur den Artikel gesehen bzw. die Benches, und für die gebotene Optik ist die Performance ja hundsmiserabel, wenn das stimmen sollte. Meine 2070 S schafft gerade einmal 24 fps ohne RTAO in 1440p? Ja Prost Mahlzeit.

Wird ein riesiger Bogen drumrum gemacht.

Die Angaben scheinen wirklich extrem worst case zu sein, für die 6800XT steht im Test 48fps, habe in der Realität beim Spielen aber durchgehend 75-95 fps. Also wird die 2070 Super in der Praxis bestimmt auch bei 40 fps landen.

Ich finde es nur schade das wenn man den Anzug aufrüstet er irgendwann total matsch grafik hat zumindest bei mir ich versthe nicht ob das ein Bug ist oder es bei allen so aussieht das Kupfer oder was das sein soll sieht einfach nur sher schlecht aus...das ist schade ansonsten ist die grafik echt der Knaller!°

Möglicherweise hast du (so wie ich) den klassischen Rig aus dem Lager angezogen. Hatte mich auch ein paar Stunden gewundert, weshalb ausgerechnet an den Charaktertexturen so gespart wurde, bis ich gemerkt habe, dass ich ja den klassischen Rig aus dem 2008er Original trage :ugly:
 
Radeon RX 7900 XT und Geforce RTX 4080 sind übrigens im Kasten und folgen nachher/soon/nightly als Update - auch beim Flight Simulator 22. :-)

Die Angaben scheinen wirklich extrem worst case zu sein, für die 6800XT steht im Test 48fps, habe in der Realität beim Spielen aber durchgehend 75-95 fps. Also wird die 2070 Super in der Praxis bestimmt auch bei 40 fps landen.

Selbstverständlich stimmen unsere Angaben und sie stammen auch aus der Praxis. Bitte behaltet immer in Hinterkopf, dass wir die Spiele nach den anspruchsvollsten Szenen absuchen, sodass gilt: Läuft hier alles flüssig, ist im restlichen Spiel nichts zu befürchten. :-)

MfG
Raff
 
Die Angaben scheinen wirklich extrem worst case zu sein, für die 6800XT steht im Test 48fps, habe in der Realität beim Spielen aber durchgehend 75-95 fps. Also wird die 2070 Super in der Praxis bestimmt auch bei 40 fps landen.



Möglicherweise hast du (so wie ich) den klassischen Rig aus dem Lager angezogen. Hatte mich auch ein paar Stunden gewundert, weshalb ausgerechnet an den Charaktertexturen so gespart wurde, bis ich gemerkt habe, dass ich ja den klassischen Rig aus dem 2008er Original trage :ugly:

Sehr vielen Dank für den Hinweis Alter!!! und ich denk andauernd es sit ein BUG HAHAH!
Nutzt du DLSS? Oder ist das nativ so?
Danke es läuft nun ...
 
Ich hatte keine einzigen Ruckler in diesem Spiel. Lief butterweich und haut die CPU härter als Cyberpunk2077. (150W vs 115-130W)
Sorry, aber das kann nicht sein. Jeder halt Ruckler, selbst mit einem 13900K + DDR5-7600 hat man Ruckler, wenngleich man die mit so einer Hardware kaum wahrnehmen kann. Auf einem AMD System konnte ich die Spikes deutlich wahrnehmen.
 
Ich sag doch die 7900xt vor der 4070ti. Zum Glück bin ich AMD treu geblieben. Ich hätte mich jetzt sonst geärgert. Aber wer weiß wie der Schnitt in einem Jahr aussieht. Die AMD verbruzelt halt auch mehr Strom.
 
Radeon RX 7900 XT und Geforce RTX 4080 sind übrigens im Kasten und folgen nachher/soon/nightly als Update - auch beim Flight Simulator 22. :-)



Selbstverständlich stimmen unsere Angaben und sie stammen auch aus der Praxis. Bitte behaltet immer in Hinterkopf, dass wir die Spiele nach den anspruchsvollsten Szenen absuchen, sodass gilt: Läuft hier alles flüssig, ist im restlichen Spiel nichts zu befürchten. :-)

MfG
Raff
Warum geht ihr nicht auf die rBAR thematik bei den Nvidia Karten ein? Wäre doch ein interessanter Punkt. Wie hier schon paar mal erwähnt reicht es nicht aus rBAR im Bios etc zu aktivieren. Erst wenn man über den Nvidia profile inspector dies manuel aktiviert wird es erkannt, da DeadSpace noch nicht auf der Whitelist von Nivida steht.

Man liest von 15% bis 45% performance boost,

MfG
 
Warum geht ihr nicht auf die rBAR thematik bei den Nvidia Karten ein? Wäre doch ein interessanter Punkt. Wie hier schon paar mal erwähnt reicht es nicht aus rBAR im Bios etc zu aktivieren. Erst wenn man über den Nvidia profile inspector dies manuel aktiviert wird es erkannt, da DeadSpace noch nicht auf der Whitelist von Nivida steht.

Man liest von 15% bis 45% performance boost,
Weil es keine offizielle Lösung ist und weil es nicht bei jedem etwas bringt.
 
Weil es keine offizielle Lösung ist und weil es nicht bei jedem etwas bringt.
Ah ok, war mir so nicht bewusst, dass "nur" offizielle Lösungen in betracht gezogen werden und man sich hier von "tweaks" welche von einem professionellen Magazin etwas genauer analysiert werden könnte distanziert.

Entschuldige bitte meine Ahnungslosigkeit.
 
Nicht schlimm. Ist doch schön, wenn du was dazu lernen kannst. :fresse:

So, Spaß beiseite. Ich würde gern einmal wissen wo ihr diese Zahlen her habt. 15 - 45% sind doch völlig unrealistisch. Wo kommt das weg? Direkt auf Seite 1 hier in diesem thread, in Beitrag Nr. 12 hat @Zer0Strat einen Vergleich gepostet mit gerade mal 9% Differenz. Die wurden tatsächlich von ihm ermittelt. Das wird einfach ignoriert, warum? Bisher hat er als einziger Daten geliefert statt nur Fantasiezahlen in den Raum zu stellen. Wie kommt das?
 
Zuletzt bearbeitet:
Das hab ich schon vermutet. Nichts für ungut, aber da ist ihm wahrscheinlich passiert was einem User hier bereits aufgefallen ist. Nämlich dass es manchmal vorkommt, dass nach einem Neustart des Spiels, die Einstellung auf DLSS ausgeglichen gesetzt wird.

RBar hilft hauptsächlich im CPU-Limit und ich denke nicht, dass seine 5GHz CPU so stark limitiert hat. Seine Ausgangssituation ist bereits 40% über den Werten von PCGH, was eigentlich nur dann der Fall sein kann, wenn die Szene nicht GPU limitiert war. Also CPU-Limit.
Ist ja auch alles möglich und okay. Mich wunderte nur, das hier direkt auf Seite 1 ein eigener Benchmark dazu zu finden ist und der komplett ignoriert wurde, statt die beiden Werte gegenüber zu stellen und zu diskutieren.
 
Ist ja auch alles möglich und okay. Mich wunderte nur, das hier direkt auf Seite 1 ein eigener Benchmark dazu zu finden ist und der komplett ignoriert wurde, statt die beiden Werte gegenüber zu stellen und zu diskutieren.
Genau Das würde ich gerne auf PCGH im Heft oder halt hier im web lesen :) Muss ja nicht explizit Dead Space sein. Scheinbar sollen bereits mehrere Spiele davon profitieren.

Der Aufwand wird wohl auch sehr hoch sein, da es bestimmt auch auf die Konstellation CPU + GPU drauf an kommt. Trotzdem - ich würde es sehr interessant finden. :) Interessat wäre auch zu wissen warum Nvidia viele Spiele nicht mit auf die Whitelist setzt. Weil das ist doch iwie auch doof - man stellt überall rBAR ein und wird im glauben gelassen das es AN ist.

AMD weiss ich nicht ob die auch so ne Art "Whitelist" haben.
 
So, Spaß beiseite. Ich würde gern einmal wissen wo ihr diese Zahlen her habt. 15 - 45% sind doch völlig unrealistisch. Wo kommt das weg? Direkt auf Seite 1 hier in diesem thread, in Beitrag Nr. 12 hat @Zer0Strat einen Vergleich gepostet mit gerade mal 9% Differenz. Die wurden tatsächlich von ihm ermittelt. Das wird einfach ignoriert, warum? Bisher hat er als einziger Daten geliefert statt nur Fantasiezahlen in den Raum zu stellen. Wie kommt das?

Bei mir sind es 20-25% mehr fps, je nach Szene mit 10700K + RTX3080 GPU, alles auf ultra + RTAO + DLSS Quality.

Interessat wäre auch zu wissen warum Nvidia viele Spiele nicht mit auf die Whitelist setzt. Weil das ist doch iwie auch doof - man stellt überall rBAR ein und wird im glauben gelassen das es AN ist.

AMD weiss ich nicht ob die auch so ne Art "Whitelist" haben.

Weil Nvidia das Feature quasi wieder unter den Teppich gekehrt hat. Sie mussten damals reagieren als AMD das SAM vorgestellt hat aber seitdem ist da absolute Funkstille. Ich glaube die Whitelist wurde seit 2021 nicht mehr aktualisiert.
Böse Zungen behaupten, dass Nvidia kein Interesse daran hat, weil ihre mit zu wenig VRAM bestückten 1000€ Grafikkarten (wie meine 3080) mit rBAR noch eher ins Limit laufen. Meine VRAM Belegung hat sich durch rBAR um ca. 600MB erhöht. Würde ich in 4K spielen, hätte ich damit echte Probleme.

AMD hat keine Whitelist. Bei denen ist SAM standardmäßig für alle Spiele aktiviert.
 
So, Spaß beiseite. Ich würde gern einmal wissen wo ihr diese Zahlen her habt. 15 - 45% sind doch völlig unrealistisch.
Das habe ich auf TechpowerUp gelesen.
Ja, es ist unrealistisch und gerade bezogen auf die verlinkte Quelle, man kann so was nicht testen, indem man zwei Screenshots macht, die auch noch eine unterschiedliche Kameraperspektive zeigen. Ich habe das mit einer sauberen Methode getestet:
  • Exakt die gleiche Szene
  • Exakt die gleiche Länge/Capture Time
  • 3 Runs mit Ausreißererkennung = 1 valide Session (3% Toleranz)
  • Alle Settings bis auf rBAR identisch
  • Identische Hardwarekonfiguration
Übrigens, immer wenn ich mit Nvidia Mitarbeitern diskutiere und sage, ich verwende 3% Run-2-Run Toleranz, dann sagen die, dass das "hardcore" sei. :D Aber ich habe halt gerne genaue Daten.
 
Zurück