Marvel's Spider-Man Remastered im Test - Der PC grüßt die freundliche Spinne aus der Playstation-Nachbarschaft

Das Spiel rennt wirklich hart in das CPU Limit. Aber mein 1240@5,15 ghz schiebt wirklich verdammt gut. Ich spiele in 4k 120hz +DLSS mit RT auf Hoch und sonst alles Max out auf einer 3080 10GB mit Wakü!
Ich habe mir das Log von Aida64 angeschaut dort sieht man schön das die Grafikkarte viel zu hoch boostet wegen dem CPU Limit. Eigentlich ist bei 1950 ~ 2000 schluss! FPS habe immer irgendwas zwischen 80 und 110 laut Anzeige, schau da nu auch nicht immer die ganze Zeit drauf.
Ja das mit dem Boost kann ich unterschreiben.. Selbst meine 6900XT läuft in Richtung 2600Mhz was eher unüblich ist ...
 
Ist zwar jetzt nur das Game, aber ich habe mehrmals gefragt ob sich ein Aktueller bzw die Neue generation lohnen würde gegenüber meinen 11700KF@5GHz.... Und laut dem Spiel auf jedenfall..

Sogar bei UHD. Alles Maxed ( Ausßer Natürlich das FSR und DLSS nicht) das ist aus und die Grafikkarte Springt nicht mal auf 99%, sondern mein CPU im Durchschnitt mal so 80% an leistung. Und 160W Aufnahme.

Also Deutliches CPU Limit und das bei UHD.
 
In 1080p und UHD die gleichen FPS :D (maxxed out inkl. RT, jeweils mit aktivem FSR2-Quality Upscaling)
1080p_@FSR2-Q_Marvel’s Spider-Man Remastered.jpg
UHD_@FSR2-Q_Marvel’s Spider-Man Remastered.jpg


edit: Nativ in UHD geht es dann großteils ins GPU-Limit, aber die CPU bremst oftmals noch immer.
UHD_nativ_Marvel’s Spider-Man Remastered.jpg


Ohne Raytracing tatsächlich alles kein Thema und man sieht dreistellige FPS, aber wenn aktiviert muss der Prozessor ja echt mal gewaltig strampeln.
Auslastungsprobleme sehe ich keine, denn die geht CPU seitig auf bis zu 95% hoch. Das sieht mMn soweit gut aus und alles in allem bin ich mit der Performance, besonders für einen RT-fähigen Titel, auch absolut zufrieden.
Mit FSR 2 und Möglichkeiten zur RT-Detailanpassung sollte hier jeder ein passendes Setting finden.
Für mich auf den ersten Blick somit ein gelungener PC-Port.
 
Zuletzt bearbeitet:
Es reizt mich allein wegen dxr benchen das spiel
Nachteile etwa 40€ und 65gb platz den ich nicht habe
Bzw müsste einiges auf bluray verbannen
Also erreicht Mathematisch die rtx3060 dlssq 1080p etwa 50fps
das ist schon watch dogs legion Niveau
Optisch gefällt mir Dlaa am besten aber dazu fehlt einfach die Leistung insbesondere mit dxr.
recht schade das die tensor cores immer noch nicht denoisen das würde das problem lösen.
 
Stimmt der Benchmark mit dem 3300X? Er sortiert sich erstaunlich weit oben ein und es gibt keine klare Erklärung warum.
Dann noch mal ganz offiziell: Der Ryzen 3 3100 ist ein 2+2-Design, mit zwei aktiven Kernen pro CPU-Core-Complex (CCX) in einem CPU-Core-Die (CCD) und somit 2 x 8 MiByte L3-Cache. Ein Ryzen 3 3300X hingegen ist ein 4+0-Design und verfügt über vier Kerne in einem CCX, in einem CCD, und verfügt somit über 1 x 16 MiByte L3-Cache. Das sorgt beim großen Modell für geringere Latenzen, was sich gewinnbringend auf die Leistung des Prozessors auswirkt, vor allem bei Spielen. Aus dem Stand ist ein 3300X damit im Mittel 25 Prozent vor einem 3100. AMD ist erst nach dem Launch bewusst geworden, dass sie damit den Ryzen 3600 und in manchen Spielen sogar den Ryzen 3700X torpedieren, denn einige Monate nach dem Launch konnte man den 3300X "plötzlich" nicht mehr kaufen, während ein 3100 lange Zeit günstig verfügbar war. Der 3300X ist damit was Besonderes und das, was bei Zen 3 ein 5800X darstellt – mit dem Hinweis von mir darauf, dass AMD bei Zen 3 dank der Verdopplung der Kerne in einem CCX die Inter-CCX-Latenzen elimieren konnte, was dazu führt, dass die einstige Zen-2-Stärke bei Zen 3 nicht mehr ausgespielt werden kann: ein 5900X ist praktisch immer schneller als ein 5800X.
 
Der 3300X ist damit was Besonderes und das, was bei Zen 3 ein 5800X darstellt – mit dem Hinweis von mir darauf, dass AMD bei Zen 3 dank der Verdopplung der Kerne in einem CCX die Inter-CCX-Latenzen elimieren konnte, was dazu führt, dass die einstige Zen-2-Stärke bei Zen 3 nicht mehr ausgespielt werden kann: ein 5900X ist praktisch immer schneller als ein 5800X.
Deshalb war ich anfangs enttäuscht über mein nachstellen der PCGH CPU Benchmark Szene und das Abschneiden meines 5900x , bis mir eingefallen ist das die ja noch ohne Releaseversion mit den zusätzlichen Grafikoptionen gemacht wurde :wall:
 
@PCGH_Dave
Macht Sinn, jetzt würde mich natürlich interessieren, wie sich z.B. der 3950X dagegen positioniert, wenn man ein CCX deaktiviert. Der müsste dem 3300x demnach ja eigentlich ordentlich davon laufen.:confused:

Ich werde mir das Spiel nicht mehr holen, da ich es schon für die PS5 habe, aber interessieren würde es mich dennoch.
 
@PCGH_Dave
Macht Sinn, jetzt würde mich natürlich interessieren, wie sich z.B. der 3950X dagegen positioniert, wenn man ein CCX deaktiviert. Der müsste dem 3300x demnach ja eigentlich ordentlich davon laufen.:confused:

Ich werde mir das Spiel nicht mehr holen, da ich es schon für die PS5 habe, aber interessieren würde es mich dennoch.
Ich glaube das geht so nicht.. Zen 2 hat ja ein 4 Core ccx und der 3950x somit (4+4)+(4+4) wenn du jetzt ein ccx deaktivierst hast du ja immer noch 4+4+4+0 samt Latenzen und geteilten Cache... du müsstes 3 ccx deaktivieren und dann hast du ja prinzipiell wieder das selbe wie einen 3300x.
 
@PCGH_Dave
Macht Sinn, jetzt würde mich natürlich interessieren, wie sich z.B. der 3950X dagegen positioniert, wenn man ein CCX deaktiviert. Der müsste dem 3300x demnach ja eigentlich ordentlich davon laufen.:confused:
Du meinst, der 3950X würde dann mit 12 Kernen dem 3300X mit nur 4 Kernen davon laufen? Kann schon sein. Falls du meinst, dass du drei CCX und ein CCD abschaltest, ja, dann müsste der 3950X dank des höheren Boosts etwas schneller sein. Aber wer kauft sich einen 16-Kerner, um dann 12 Kerne abzuschalten? ;-)
 
Ist zwar jetzt nur das Game, aber ich habe mehrmals gefragt ob sich ein Aktueller bzw die Neue generation lohnen würde gegenüber meinen 11700KF@5GHz.... Und laut dem Spiel auf jedenfall..

Sogar bei UHD. Alles Maxed ( Ausßer Natürlich das FSR und DLSS nicht) das ist aus und die Grafikkarte Springt nicht mal auf 99%, sondern mein CPU im Durchschnitt mal so 80% an leistung. Und 160W Aufnahme.

Also Deutliches CPU Limit und das bei UHD.
Die CPU ist ja noch keine 2 Jahre alt bei dir ?Also nein. Neue CPU lohnt bei dir nicht. Mein 3 Jahre alter AMD 3700X rennt zwar auch in CPU Limmit. Aber über die 60 FPS kommt man Locker in UHD. Wenn du natürlich Irgendwelche höheren 3 Stelligen Werte willst kann man es machen. Aber für ein Spiel gleich umrüsten ? Zur not gibt es immer noch die Schieberegler im Spiel womit sich auch eine CPU etwas entlasten lässt. Sichtweite für R.T ist das beste Beispiel. Wer schaut schon ob die Kirche in 1 Km Entfernung Reflektionen wirft?
 
Es reizt mich allein wegen dxr benchen das spiel
Nachteile etwa 40€ und 65gb platz den ich nicht habe
Bzw müsste einiges auf bluray verbannen
Also erreicht Mathematisch die rtx3060 dlssq 1080p etwa 50fps
das ist schon watch dogs legion Niveau
Optisch gefällt mir Dlaa am besten aber dazu fehlt einfach die Leistung insbesondere mit dxr.
recht schade das die tensor cores immer noch nicht denoisen das würde das problem lösen.
Also wer hier wegen 65gb jammert der hat ganz andere Probleme....
Heutzutage werden ssd Festplatten dir hinterher geschmissen

Das eine 3060 in rt nicht so wirklich perfomt ist doch klar....
Dafür hat se einfach nicht genügend Power
Wenn eine 3090 gerade mal 60fps in uhd hinbekommt (das nur bei hohen rt Einstellungen, bei max rt is auch die 3090 hier zu schwach)

Der Poet is hier super gelungen
Die CPU ist ja noch keine 2 Jahre alt bei dir ?Also nein. Neue CPU lohnt bei dir nicht. Mein 3 Jahre alter AMD 3700X rennt zwar auch in CPU Limmit. Aber über die 60 FPS kommt man Locker in UHD. Wenn du natürlich Irgendwelche höheren 3 Stelligen Werte willst kann man es machen. Aber für ein Spiel gleich umrüsten ? Zur not gibt es immer noch die Schieberegler im Spiel womit sich auch eine CPU etwas entlasten lässt. Sichtweite für R.T ist das beste Beispiel. Wer schaut schon ob die Kirche in 1 Km Entfernung Reflektionen wirft?
Naja die meisten die in uhd spielen wollen einfach maximale Leistung bzw maximale Grafik
 
Es ist ja nicht einmal so ganz schlimm. Aber Ich hab mich seid meinem Monitor an höhere Bildraten als 60 Gewöhnt. Da kanns dann nicht sein das meine 6900XT ( Kotzgrenze X OC) und meine 11700KF ( X OC) nicht reicht. Jedenfalls Taktet die Karte auf 2200mhz runter, die FPS gehen auf 70, aber mein CPU haut fast alle kerne im Durchschnitt auf 70% und 150 Watt. Da braucht an manchen stellen sogar meine CPU Mehr Power als die Grafikkarte. Da bringts auch nicht viel die RTX Sichtweite zu Reduzieren.

Klar es ist Spielbar, aber mit dem Spiel hab ich meine Antwort was das Umrüsten betrifft, das wird nämlich nicht das letzte Sein.
7900X Ryzen und DDR5, da kann man nichts Verkehrt machen denk ich.

Zum Spiel Selbst, es macht, obwohl es Open World ist, sogar mehr Spaß als Früher das Originale.
 
Es ist ja nicht einmal so ganz schlimm. Aber Ich hab mich seid meinem Monitor an höhere Bildraten als 60 Gewöhnt. Da kanns dann nicht sein das meine 6900XT ( Kotzgrenze X OC) und meine 11700KF ( X OC) nicht reicht. Jedenfalls Taktet die Karte auf 2200mhz runter, die FPS gehen auf 70, aber mein CPU haut fast alle kerne im Durchschnitt auf 70% und 150 Watt. Da braucht an manchen stellen sogar meine CPU Mehr Power als die Grafikkarte. Da bringts auch nicht viel die RTX Sichtweite zu Reduzieren.
RTX OFF ;) Für den Fotomodus kann man es dann ja eh wieder aktivieren :ugly:
 
Zurück