Deathloop im Technik-Test: GPU-, CPU- und Raytracing-Benchmarks des innovativen Zeitschleifen-Shooters der Dishonored-Macher

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Deathloop im Technik-Test: GPU-, CPU- und Raytracing-Benchmarks des innovativen Zeitschleifen-Shooters der Dishonored-Macher

Das Jahr 2021 mausert sich: Nach Psychonauts 2 hat es mit Deathloop ein weiterer Hochkaräter auf den PCGH-Teststand geschafft. Wir haben das innovative, herrlich humorvolle Werk der Dishonored-Macher ausführlich gespielt und zeigen in Wort, Bild und Benchmark, welche PC-Hardware für Deathloop genügt - Grafikkarten-, Prozessor- und Raytracing-Tests inklusive.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Deathloop im Technik-Test: GPU-, CPU- und Raytracing-Benchmarks des innovativen Zeitschleifen-Shooters der Dishonored-Macher
 
Also wenn ich so die Screenshots durchzippe, wo geht die Leistung hin? Optik kann es nicht sein.
Sicher nicht die schlechteste Performance, aber gut auch nicht.
 
Bei AMD geht noch was, da nicht mit der empfohlenen Radeon-Software getestet wurde. Ein Nachttest mit dem Game Ready Treiber wäre hier angebracht. Was ist mit der 3080 ab WQHD + RTX los? Sag bloß ihr geht der VRAM aus :lol:
 
Stirbt die 3080 in UWQHD mit RT den Vram Tod?
70% hinter der RTX 3090 ist schon sehr krass, auch wenn es für knapp 60 fps avg ausreicht.
Ja, kann durchaus sein. Der Speicher macht zumindest mit der Review-Version und den aktuellen Treibern offenbar generell noch ein paar Probleme - mit der Zeit und über mehrere Level häufen sich kleinere Stocker und Slowdowns, nach einer Weile hängt das Spiel ab und an auch mal richtig heftig (so heftig, dass man denkt, es hätte sich aufgehängt, locker 20-30 Sekunden).

Das hatte ich sowohl hier auf der Arbeit (u.a. RX 6800 XT, UHD) als auch daheim beim längerfristigen Zocken mit einer RTX 3080 Ti bei WQHD-Darstellung - beides beim Einsatz von Raytracing. Das wirkt ein wenig wie Speicherleck bzw. beim Levelwechsel nicht von alten Daten befreitem VRAM. Hoffentlich wird das noch gefixt, das ist etwas lästig und müsste meines Erachtens nicht sein.

Gruß,
Phil
 
Ja, kann durchaus sein. Der Speicher macht zumindest mit der Review-Version und den aktuellen Treibern offenbar generell noch ein paar Probleme - mit der Zeit und über mehrere Level häufen sich kleinere Stocker und Slowdowns, nach einer Weile hängt das Spiel ab und an auch mal richtig heftig (so heftig, dass man denkt, es hätte sich aufgehängt, locker 20-30 Sekunden).

Das hatte ich sowohl hier auf der Arbeit (u.a. RX 6800 XT, UHD) als auch daheim beim längerfristigen Zocken mit einer RTX 3080 Ti bei WQHD-Darstellung - beides beim Einsatz von Raytracing. Das wirkt ein wenig wie Speicherleck bzw. beim Levelwechsel nicht von alten Daten befreitem VRAM. Hoffentlich wird das noch gefixt, das ist etwas lästig und müsste meines Erachtens nicht sein.

Gruß,
Phil
Hoffe ich auch, wäre ja komisch wenn selbst 16GB nicht ausreichen.:ugly:

Vor Allem weil das Spiel mit Sicherheit nicht die Texturen nutzt die das irgendwie nachvollziehbar machen.
 
Nichts gegen Deathloop, habe es selber noch nicht gezockt und werde ich wohl auch nie. Aber wenn ich sehe, dass Seiten wie IGN und Gamespot 10/10 Punkte geben, nicht einen einzigen Kritikpunkt nennen und das Spiel somit als makellos/perfekt einstufen ... :schief:

Der Spielejournalismus ist nur noch ein schlechter Witz. Man darf auf die Nutzerbewertungen gespannt sein.
 
Bei AMD geht noch was, da nicht mit der empfohlenen Radeon-Software getestet wurde. Ein Nachttest mit dem Game Ready Treiber wäre hier angebracht.
... wie von uns über den Balken breit erläutert. Der Treiber ist mittlerweile verfügbar: https://community.amd.com/t5/blogs/...-overclock-and-windows-11-support/ba-p/488439

Das finale Spiel wird aber erst in einigen Stunden freigeschaltet.

Nichts gegen Deathloop, habe es selber noch nicht gezockt und werde ich wohl auch nie. Aber wenn ich sehe, dass Seiten wie IGN und Gamespot 10/10 Punkte geben, nicht einen einzigen Kritikpunkt nennen und das Spiel somit als makellos/perfekt einstufen ... :schief:

Der Spielejournalismus ist nur noch ein schlechter Witz. Man darf auf die Nutzerbewertungen gespannt sein.

Ich würde sagen: lies woanders als bei chronischen Jubelpersern. Ach, ja - und lies uns. Wir sind auch "User", das Bewerten von Spiele-Inhalt ist nicht unser Job. Wir schreiben aber gerne über außergewöhnliche Spiele. Und bei Deathloop ist das der Fall.

Keine Kritikpunkte zu haben ist natürlich Unsinn. Mir fällt im Kontext Deathloop beispielsweise ein, dass das nichts für den typischen CoD-Dauerballerer ist. Es gibt kein manuelles Speichern. Auch das Konzept, dass Julianna jederzeit spawnen kann, ist nicht optimal und sollte abschaltbar sein. Aber sonst? Cooles Spiel, wirklich. :-) Das haben auch keine Amateure gemacht, sondern Leute, die ihre Formel auf ein neues Level gehoben haben. Dabei hat man praktischerweise nicht zu viel Neues gewagt.

Auf jeden fall sollte man dann auch mal ein Test ohne Denuvo Anti-tamper machen, um da wieder mal ein vergleich zu haben........ :cool:

Aber nicht bei uns. Da musst du schon bei Pirate Games Hardware schauen. :ugly:

MfG
Raff
 
Da kann ich Raff nur beipflichten. Ich habe bei Deathloop inzwischen acht Stunden auf der Uhr. Das Spielerlebnis ist für mich so einzigartig wie in Dishonored oder Bioshock damals. Wen juckt da noch Grafik, wenn man ein außergewöhnliches Gameplay mit äußergewöhnlicher Atmosphäre erleben darf. Sogar das Nachdenken wird belohnt, es ist erstaunlich, welche Geheimnisse die Level verbergen. Deathloop ist eines dieser Spiele, die man selbst spielen muss, damit man merkt, was für ein großartiges Spiel dahintersteckt. Ihr müsst das ja nicht zum Vollpreis kaufen, zwingt euch doch niemand, aber gebt dem Spiele eine Chance, wirklich, das sage ich als Spieler, nicht als Redakteur.
 
Ah, nach dem Wechsel vom Review-Branch ("Betas") auf Live lädt das Spiel 3,1 GByte nach. Darin stecken hoffentlich viele Fixes. Bin gespannt -> erstes Benchmark-Update entweder heute Nacht oder morgen früh. Je nachdem, wie lustig ich nachher bin. ;)

MfG
Raff
Uh, ich bin gespannt :daumen:

Achja, eine Sache ist mir gerade noch aufgefallen. Kann es sein das die GPU Szene CPU fordernder als die CPU Szene ist? Die 3090 erreicht ja inkl. RT in 1080p und 1440p quasi die gleichen Werte.
 
Kann ich dir spontan leider nicht sagen, Dave und ich haben "asynchron" gesucht und angefangen zu testen. Ich kann dir nur sagen, dass die spezifische GPU-Route an meiner Testkiste die geringsten Bildraten ausgibt, die ich im Spiel bisher gesehen habe (reproduzierbare Szenen). Zuerst wollte ich Fristad Rock eintüten, weil's da Schneemänner hat :ugly:, aber die Last, Texturvielfalt und Feuerwerk-Atmo führte dann zu "Colt Night" (also Updaam bei Nacht).

MfG
Raff
 
Kann ich dir spontan leider nicht sagen, Dave und ich haben "asynchron" gesucht und angefangen zu testen. Ich kann dir nur sagen, dass die spezifische GPU-Route an meiner Testkiste die geringsten Bildraten ausgibt, die ich im Spiel bisher gesehen habe (reproduzierbare Szenen). Zuerst wollte ich Fristad Rock eintüten, weil's da Schneemänner hat :ugly:, aber die Last, Texturvielfalt und Feuerwerk-Atmo führte dann zu "Colt Night" (also Updaam bei Nacht).

MfG
Raff
Wäre witzig, dasselbe ist nämlich auch bei BL3 passiert. Da lande in auf der Sanctuary schon in 1080p im CPU Limit, während ich in der CPU Szene selbst in 720p so meine Probleme habe konstant im CPU Limit zu bleiben :D
 
Echt? Enge Räume voller Shader-Effekte sind CPU-lastiger als ein offenes Areal mit viel Streaming? Weird (das Geräusch, das Pferde machen ;)). Das müssen die NPCs sein ... wobei die keine KI haben und nur auf Schienen laufen (= nix mit Wegfindung). Wird Zeit für eine Next-Gen-Benchrevision! Dauert aber noch bis ~Januar. :D

MfG
Raff
 
Genau getestet habe ich es nicht, weil faul und so, aber bei den GPU Benchmarks habe ich gemerkt das ich schon in 1080p bei ca 200fps ins CPU Limit gerannt bin.

In der CPU Szene habe ich über 300fps. Ich habe aber wie gesagt die GPU Szene nie in 720p getestet, allerdings hat die sauber skaliert als ich einmal mit meinem 4,5 und meinem 5,2Ghz Profil gebenched habe.

Sorry für das Offtopic. Ich schlage die Zeit bis Mitternacht tot :D
 
Zurück