Special Red Dead Redemption mit GPU-Benchmarks: Reicht 2010er-Hardware für das Western-Epos aus?

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Seit dem 29. Oktober können erstmals auch PC-Spieler in den Genuss des ehemals 2010 veröffentlichten Rockstar-Epos Red Dead Redemption gelangen. Der PC-Port des Klassikers bietet fluffige Performance, scharfe Grafik und einige Extras. PCGH bittet zum Techtest.

Was sagt die PCGH-X-Community zu Red Dead Redemption mit GPU-Benchmarks: Reicht 2010er-Hardware für das Western-Epos aus?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Danke für den ausführlichen Test! Die anspruchsvolle Szene habe ich noch nicht erreicht, aber habe eh einen Lock auf 100 FPS, da werde ich nichts von merken :D was mir nur etwas Probleme macht ist der CPU Bottleneck. Mit meiner 4090 und einem 13700K habe ich in Städten wie Armadillo je nach Tageszeit FPS Drops auf 100 - 110 (daher der Lock). Scheint mit den Ryzen CPUs besser zu laufen, zumindest habe ich da in Videos auf YouTube nur kurze Drops auf ca. 140 FPS gesehen.
 
Danke für den ausführlichen Test! Die anspruchsvolle Szene habe ich noch nicht erreicht, aber habe eh einen Lock auf 100 FPS, da werde ich nichts von merken :D was mir nur etwas Probleme macht ist der CPU Bottleneck. Mit meiner 4090 und einem 13700K habe ich in Städten wie Armadillo je nach Tageszeit FPS Drops auf 100 - 110 (daher der Lock). Scheint mit den Ryzen CPUs besser zu laufen, zumindest habe ich da in Videos auf YouTube nur kurze Drops auf ca. 140 FPS gesehen.
Das Spiel ist auch nicht wirklich auf Multicore optimiert. Da werkelt fast nur der erste Kern und die restlichen blubbern etwas vor sich hin.
 
Ich möchte an der Stelle betonen dass ein 2015 erschienenes GTAV am PC auf einer GTX 1080ti in 1440P mit 4 fachem MSAA etwa genauso gut läuft wie RDR1 jetzt auf der gleichen GPU. Ohne MSAA sogar wesentlich besser.

Dabei sieht GTAV ohne Zweifel deutlich besser aus als RDR1, das ist eher vergleichbar mit GTAIV.
 
Meine APU im 8600g steckt die letzten 6 GPUs locker in die Tasche - weißte Bescheid.
 
Zuletzt bearbeitet:
Weil in 5120x1440 die minFps an der unteren Grenze liegen, ... wie fühlt sich da das FG auf der TiS an?

bzw.
Läuft auf der 7900xt dann AFMF2 noch rund?
(wenns kein FG für AMD gibt, bleibt ja noch AFMF2 als Alternative)
 
Zuletzt bearbeitet:
Das Spiel ist auch nicht wirklich auf Multicore optimiert. Da werkelt fast nur der erste Kern und die restlichen blubbern etwas vor sich hin.
Ist richtig, fand es aber doch überraschend zu sehen, dass ein 7800X3D den 13700K so ausspielt mit Hinblick auf min FPS.
Ich möchte an der Stelle betonen dass ein 2015 erschienenes GTAV am PC auf einer GTX 1080ti in 1440P mit 4 fachem MSAA etwa genauso gut läuft wie RDR1 jetzt auf der gleichen GPU. Ohne MSAA sogar wesentlich besser.

Dabei sieht GTAV ohne Zweifel deutlich besser aus als RDR1, das ist eher vergleichbar mit GTAIV.
Ist richtig, aber man darf nicht vergessen, dass die PC Version von GTA 5 wahrscheinlich von Anfang an geplant war, sodass hier deutlich mehr Optimierung reingeflossen ist als bei RDR. Und man muss dazu sagen dass GTA 5 ein Paradebeispiel eines sauberen PC Ports ist. Ich denke dafür hat Double Eleven auch einfach nicht die Ressourcen bzw Rockstar war es nicht wert das Spiel so krass zu optimieren, läuft ja trotzdem auf allen Karten der letzten 10 Jahre (und mit Abstrichen sogar auf Karten wie einer GTX 660).
 
Optisch gut gealtert, dank viel AA/AF kann sich das Spiel im Jahr 2024 noch mehr als sehen lassen. Was ich an den alten Titeln auch mag: es sind keine Post-Processing-Höllen. Kein CA, keine Kamera Distortion, kein Geschmiere oder rauschen wegen Motion Blur, Upscaling, Denoising oder sonst was. Einfach ehrliche, native Auflösung ohne viel Schnickschnack.

Das vermisse ich inzwischen mehr denn je. Die Bildschärfe und allgemeine Bildqualität fast aller modernen Titel empfinde ich als Vollkatastrophe weil zu viel Post-Processing und zu viel temporale Effekte verwendet werden. Besonders die UE5 fällt hier äußerst negativ auf.
 
"Wer befürchtet hat, dass das alte Spiel halbherzig und ruckelig auf den PC portiert würde, wird eines Besseren gelehrt: Red Dead Redemption ist selbst auf zehn Jahre alten Grafikkarten spielbar."


Ähm moment Mal. Ne GTX970 ist schneller als die GPU der PS4, aber Sie schafft bei diesem PS3 Spiel gerade mal 1080p und 30 fps.
Mal zum Vergleich: GTA IV ist als einer der PC-Ports mit der schlechtesten Performance bekannt, und selbst dort schafft eine GTX970 70-80fps:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


RDR ist kein schlechter Port, es ist ein absolut miserabler Port.
Es ist einfach nur so alt und eine 970 viel schneller als ne PS3, dass das einfach kaschiert wird.


genauere Berechnung:
die FPS sind etwa gleich auf mit der PS3.
Die PS3 lief damals mit 640p. D.h. für 1080p muss man 2,85 mal so viele Pixel schubsen.

Die GTX970 hat 4,2 TFlops, die PS3 hat ca 0,23Tflops.
Die GTX970 hat also die 18fache Leistung der PS3, bekommt aber nur das 2,85fache an Pixeln raus.
 
Zuletzt bearbeitet:
Optisch gut gealtert, dank viel AA/AF kann sich das Spiel im Jahr 2024 noch mehr als sehen lassen. Was ich an den alten Titeln auch mag: es sind keine Post-Processing-Höllen. Kein CA, keine Kamera Distortion, kein Geschmiere oder rauschen wegen Motion Blur, Upscaling, Denoising oder sonst was. Einfach ehrliche, native Auflösung ohne viel Schnickschnack.

Das vermisse ich inzwischen mehr denn je. Die Bildschärfe und allgemeine Bildqualität fast aller modernen Titel empfinde ich als Vollkatastrophe weil zu viel Post-Processing und zu viel temporale Effekte verwendet werden. Besonders die UE5 fällt hier äußerst negativ auf.

/sign.

Wobei man sagen muss: Nicht nur das Gebotene kann sich noch sehen lassen, auch die Hardware-Anforderungen sind ansehnlich. Eine 2070 liegt um die 70 Fps in 1440p? Wenn ich früher 10 Jahre alte Games nochmal ausgegraben habe, konnte ich DSR auf Faktor 4 drehen und mich an richtig guter Bildqualität erfreuen. Echtes 5K dürfte hier selbst für die 4070 Ti ein Problem werden und eigentlich ist UHD mittlerweile soweit verbreitet, dass man für feinstes Downsampling 7.680 × 4.320 anstreben sollte.
 
Vielleicht die Überschrift dann ändern.

Reicht 2010er-Hardware für das Western-Epos aus?​


"Aufgrund der hohen Bildraten dieser Stichprobe haben wir uns herabgetastet - nicht bis ins RDR-Erscheinungsjahr 2010, aber bis nach 2014, als Nvidias Geforce GTX 970 erschien."
 
Da hätte ich viel lieber Benchmarks zu Dragon Age gesehen…
Weiß nicht wozu hier (und bei CB) überhaupt auch nur ansatzweise Benchmarks erforderlich sind, dürfte bei absolut jedem laufen, außer er hat einen Toaster, yay?

Ich verstehe den Grundgedanken hier einfach nicht, was wollte man erreichen/aufzeigen?
 
Moin!
Da hätte ich viel lieber Benchmarks zu Dragon Age gesehen…
Weiß nicht wozu hier (und bei CB) überhaupt auch nur ansatzweise Benchmarks erforderlich sind, dürfte bei absolut jedem laufen, außer er hat einen Toaster, yay?

Ich verstehe den Grundgedanken hier einfach nicht, was wollte man erreichen/aufzeigen?

Schau mal hier: https://extreme.pcgameshardware.de/...tsche-spieler-loszocken.654910/#post-11726772

Wenn wir keinen Zugang bekommen, beschäftigen wir uns mit Spielen, bei denen der stattgefunden hat. Zumal RDR ein tolles Spiel ist, das - wie im Artikel getan - mal einen anderen Fokus erlaubt. :-)

MfG
Raff
 
Zurück