Red Dead Redemption 2: Nachtest mit API-Vergleich sowie GPU- und CPU-Benchmarks

Pascal kackt so ab bei dem Game. Selbst eine 2080 non S wischt mit einer 1080 Ti den Boden auf. :D

Pascal ist halt für Nvidia nicht mehr relevant... So ging es jeder Generation, nachdem ein Nachfolger kam. Was wirklich schade ist, denn die Karten werden ja nicht schlechter! Es wird einfach nur nicht mehr dafür optimiert. Pascal war ne richtig geile Gen... wenn die Preise nach dem Ampere Release hoffentlich endlich mal purzeln, werde ich mir auch noch ne 1070 oder ne 1080 für meine Sammlung holen :)

Grüße!
 
Pascal ist ein weiterentwickelter Maxwell und die haben ihre Stärken unter DX11, Vega eher Vulkan/LL. Beides hat seine Daseinsberechtigung und unter DX11 wird eine ti auch nicht langsamer. Oft hilft optimieren nicht, wenn ich ein "Design" nur für eine bestimmte Zeit auslege.

Turing ist für Nv schon ein gewisser Umbruch, denn auch Turing ist nicht immer der Schnellste unter DX11.

Letztlich zeigt der Test auch auf, dass die Optimierungen der Laufzeitumgebung angenommen werden und nicht alles mit brachialer Hardwarepower gelöset werden muss. Es dauert nur. Das war ja Koduris Ansinnen mit Vega: ...weiter, schneller, höher und immer was draufpacken geht irgendwann nicht mehr, weil es zu kostspielig wird.
 
Super Test :daumen:
Vielleicht hole ich es mir jetzt mal. Scheint ja mittlerweile deutlich besser zu laufen, als zum Start.
 
Überraschung: Vulkan zieht plötzlich fühlbar an DirectX 12 vorbei, was die Bilanz für die Betriebssystem-unabhängige Schnittstelle weiter verbessert.

Seit Tag 1 nutze ich Vulkan mit meiner 1080Ti. War bei mir von Anfang an besser, nicht nur Performance, sondern auch was Grafikfehler/Abstürze anging.

Sah von Tag 1 an besser aus und lief auch noch n Tick besser.
Hab schließlich die ersten Stunden bevor ich los gespielt hab, wirklich stundenlang nur verschiedenste Optionen gecheckt, wobei ich viele, viele Neustarts(nervig und langwierig ;) ) machen musste und jedesmal bei DX12 wieder den Vollbildmodus aktivieren, der immer von selber wieder raus ging.

War jedenfalls mein Eindruck nach meinen Tests. Seit dem hatte ich alle paar Monate mal wieder einen Test gemacht und bin immer wieder zum Ergebnis für mich gekommen, Vulkan läuft bei mir besser und sah auch oft besser aus(z.B. was flackernde Schatten anging, oder sich merkwürdig verhaltende Bäume(komisches Wackeln, als wenn ein Orkan weht) bei DX12, oder auch längeres Nachladen von Grafikdetails, beim Start eines Gebiets usw. in allem war Vulkan besser).

Das kann natürlich auf max/ultra und einer 2080Ti/Turing anders gewesen sein. Kann ich nix zu sagen. Hatte ja bisher nur die 1080Ti und das bleibt so, bis zur 3080. :D

Ich spiele auch nicht "max/Ultra", sondern eher eine Mischung aus guter Performance und guter Grafik. So ein Mittelding. Muss halt auch flüssig laufen. Und das tut es gut aussehend bei mir(WQHD).

Ich bleibe dabei: Eins der besten Spiele, die je raus gekommen sind. Also mein Geschmack trifft es jedenfalls voll.


edit: Trotz in letzter Zeit auch andere Spiele, die ich viel gezockt habe, wie Wreckfest(829 Stunden), oder zuletzt Detroit become Human(bisher nur 44 Stunden), hab ich's bisher auf 457 Stunden Laufzeit gebracht, mit RDR2(die meiste Zeit bis ca. Dezember). :)
(Davon locker 20-30 Stunden nur Tests/Checks)
Is schon was.

Hab aber vor, das noch zu verdoppeln(Die Spielzeit, Tests mach ich nicht mehr. Es bleibt bei Vulkan. ). :D

edit2:
Wer das Maximum aus RDR2 PC herausholen möchte, sollte laut unseren aktuellen Messungen zur Vulkan-API greifen

Yep.
Von Tag 1 an. :cool:


edit3:

Anfangs wurde DX12 ja als etwas bessere Wahl empfohlen (auch bei CB), was ich nie nachvollziehen konnte.

Ja, das hab ich auch nicht kapiert. Kam mir so vor, als hätten da manche einfach voneinander abgeguckt, was die Anderen Empfehlen(ich meine mich dunkel erinnern zu können, dass Gamers Nexus und/oder Hardware unboxed auch dabei waren, eher DX12 zu empfehlen) und wegen Zeitdruck das einfach auch so gesagt.
Konnte ich mit meinen eigenen Tests nie nachvollziehen, wo ich ja von Anfang an immer auf Vulkan als bessere Wahl kam, sowohl was Grafik(-Fehler), als auch Performance und Abstürze anging.

Hatte irgendwie Glück, dass ich das Game von Tag 1 an richtig genießen konnte.
Zwischendurch(nach 1-2 Monaten ?) kam einmal ein Fehler nach nem Update, wo ich kurz zum Starten auf DX12 wechseln musste und dann wieder zurück, weil der Spielstand nicht laden/starten wollte unter Vulkan, aber das war's bei mir mit Fehlern und Abstürzen, während ich mit Vulkan gezockt habe. Es sah immer gut aus und lief fluffig.
Konnte RDR2 richtig toll genießen.
Und das mach ich weiterhin. :)

Geiles Game ! :daumen:


Noch n Edit ;) :

Ich fand RDR2 unter Vulkan auch etwas besser, fühlte sich wegen den Frametimes einfach etwas geschmeidiger an. Vor allem ohne Zielhilfe mit M/T und der ohnehin schon etwas schwammigen Steuerung macht das mehr Sinn.

Ja, fand ich auch.
Und was die Steuerung angeht: Auch da brauchte ich einige Zeit, bis ich die richtig für mich eingestellt hatte. Hab noch nie so eine vermurkste Standardeinstellung erlebt in einem Spiel.
Wollte anfangen zu zocken und hab mich mit dem Pferd erst mal nur im Kreis gedreht. Dazu kam dann die merkwürdigen Einstellungen, für die Bewegungen, auch was die Sensitivität anging und so.
Fühlte sich insgesamt total falsch an.
Nach ein paar Stunden hatte ich dann endlich meine Einstellungen raus, wo ich dann mit gezockt habe und einigermaßen zufrieden war. Halt einfach typisch PC-mäßig WASD ohne irgendwelche Hilfen. Zackig und schnell, wie man's eigentlich gewohnt ist, vom PC.
Naja, wie es halt zumindest in RDR2 maximal möglich war, mit den R* Bewegungsanimationen.
Die nächsten paar hundert Stunden nach dem ersten Einstellen, waren dann aber ein einziger Genuss ! :)


Wie man's gewohnt is von mir, kommt ausnahmsweise noch ne Tante Edit ;) :

Warum ist die Baum Tesselation bei allen Presets aus?
Läuft das vielleicht bei einigen Karten überproportional gut/schlecht?
Hab das bei mir an weil mir die eingerissene Rinde gut gefällt.

Hab die auch an. Finde das is n Muss.
Läuft trotzdem superflüssig bei mir, mit den entsprechenden anderen Performancefressern niedriger(Mittel/Hoch).




edit:



Argh ! :what: :banane:

ROG Strix 3080Ti.
So gesehen eigentlich meine Nachfolgerkarte(Zur Asus ROG 1080Ti Strix OC), wenn man die Turing übersprungen hat.

Naja ... da meine 1080Ti n Überbrückungs-Gebrauchtkauf war(auch wegen der abgedrehten Preise damals), würde ich dann wohl doch diesmal nicht zur Ti greifen, sondern mich mit der 3080 begnügen.
Mehr wie 880€ darf sie für mich aber nicht kosten.
Zur Not wird's dann halt keine Asus, sondern irgendwas billigeres von Palit, oder so.


edit:

1 B.jpg

1.jpg

Wo is denn die CPU aus dem neuen GPU-Testrig geblieben, aus dem Community benchmark für KCD ?
Also der OC 9900k @ 5,2 GHz mit dem schnelleren Speicher(4GHz)/Cache(5GHz) ?

Wechselt ihr nun komplett zu AMD(auch CPU), auch wenn die langsamer sind in Games ? :D
Gibt's dafür n bestimmten Grund ?

AMD kommt wohl im neuen Bench(nach KCD) auch nicht an Intel ran, wie ich sehe:

2.jpg

Warum also freiwillig was Langsameres nehmen ?
Gab's da n bestimmten Auslöser für ?

Oder is das einfach, weil Intel nicht so gut unterstützt mit Dauerleihgaben an CPUs ? Das könnte ich natürlich nachvollziehen.
AMD is da ja wie ich gelesen habe besser/netter zu euch.



Noch n letzter kleiner edit( ;) ):

Freu mich schon drauf, wenn die 3080 in meinem PC steckt, das Game mit aufgebohrter Grafik dann noch mal zu starten, wieder zum reinen Genießen.
Dann halt mit noch höheren Grafikeinstellungen. Die 60-100 fps sollten aber weiterhin drin sein, wie mit der 1080Ti(WQHD).
 
Zuletzt bearbeitet:
Wo is denn die CPU aus dem neuen GPU-Testrig geblieben, aus dem Community benchmark für KCD ?
Also der OC 9900k @ 5,2 GHz mit dem schnelleren Speicher(4GHz)/Cache(5GHz) ?
Du meinst wohl das Alte, der 3900X steckt im neuen GPU-Testrig.
Warum also freiwillig was Langsameres nehmen ?
Gab's da n bestimmten Auslöser für ?

Oder is das einfach, weil Intel nicht so gut unterstützt mit Dauerleihgaben an CPUs ? Das könnte ich natürlich nachvollziehen.
AMD is da ja wie ich gelesen habe besser/netter zu euch.
Intel kann kein PCIe 4.0, das wurde schon als Grund angeführt.
 
Intel kann kein PCIe 4.0, das wurde schon als Grund angeführt.

Und deswegen nimmt man was langsameres ?

Ok ?


edit:
Du meinst wohl das Alte, der 3900X steckt im neuen GPU-Testrig.

Ja, halt das, was noch zum KCD Bench aktiv war.

edit: Link dahin

Da war der Speicher(und Takt) natürlich nice(also vom GPU-Rig). :)
(Im Gegensatz zum hier aufgeführten 9900k mit 2667 Takt. Aber das is halt so, leider.)

PS: Warum nich gleich 1337 Takt ? :D
(Damit müsste Platz 1 doch drin sein. ;) )
 
Zuletzt bearbeitet:
Ja, was in der Zukunft dann mal schneller ist, kann man dann ja schauen(wer weiß welche CPUs es bis dahin gibt, bis das mal ausschlaggebend wird).
Mich interessiert meist, was wirklich erhältlich schneller ist, nicht theoretisch in der Zukunft.

In 1-2 Jahren gibt es sicher auch wieder andere CPUs die wiederum schneller sind, auf dann wieder neuen Plattformen.
Für die Zukunft was machen is immer schwierig(begrenzt natürlich schon möglich).

PS: Is ok.
Hätt' vielleicht nur gern den OC 9900k gesehen(aus dem KCD Bench) in der Liste. :) Klar dass der auf 1 gewesen wäre(is ja nicht weit weg).

3.jpg

Mich hätte nur der Abstand interessiert, wie weit der vor dem 10900k gewesen wäre. :D
 
Zuletzt bearbeitet:
Sehr schön beleuchtet PCGH. Vulkan 1.2 scheint auch bei Doom Eternal nochmal etwas gebracht zu haben :devil:.
 
Ja, was in der Zukunft dann mal schneller ist, kann man dann ja schauen(wer weiß welche CPUs es bis dahin gibt, bis das mal ausschlaggebend wird).
Mich interessiert meist, was wirklich erhältlich schneller ist, nicht theoretisch in der Zukunft.

In 1-2 Jahren gibt es sicher auch wieder andere CPUs die wiederum schneller sind, auf dann wieder neuen Plattformen.
Für die Zukunft was machen is immer schwierig(begrenzt natürlich schon möglich).

PS: Is ok.
Hätt' vielleicht nur gern den OC 9900k gesehen(aus dem KCD Bench) in der Liste. :) Klar dass der auf 1 gewesen wäre(is ja nicht weit weg).

Anhang anzeigen 1094861

Mich hätte nur der Abstand interessiert, wie weit der vor dem 10900k gewesen wäre. :D

Hier geht es nicht um das Duell 9900K vs. 3900X. Wir stellen einmal jährlich die Benchmark-Aufstellungen um, stets Mitte des Jahres. Die letzte Umstellung ist 13 Monate her, es wurde Zeit. Die neue Aufstellung hält nun wieder ein gutes Jahr und blickt daher PCGH-typisch nach vorn. Im Angesicht zahlreicher PCIe-4-Grafikkarten nochmal auf einen veralteten Unterbau zu setzen, erschien uns nach reiflicher Überlegung nicht als sinnvoll. 2019 war das okay, denn da gab es keinen "Bump" bei der GPU-Leistung. Das neue System ist gerüstet für alles, was kommt - inklusive der neuen Konsolen-Ports, welchen das System dank PCIe-4-SSD hoffentlich souverän entgegentritt.

Wo ist der Community Benchmark? Ich will benchen!!! :D

Die finalen Benchmarklisten stehen mittlerweile. Bis wir das alles durchgetestet und verrechnet haben, Videos gedreht und Savegames aufbereitet haben, wird es aber noch ein paar Wochen dauern. Stay tuned. :-)

MfG
Raff
 
Hier geht es nicht um das Duell 9900K vs. 3900X. Wir stellen einmal jährlich die Benchmark-Aufstellungen um, stets Mitte des Jahres. Die letzte Umstellung ist 13 Monate her, es wurde Zeit. Die neue Aufstellung hält nun wieder ein gutes Jahr und blickt daher PCGH-typisch nach vorn. Im Angesicht zahlreicher PCIe-4-Grafikkarten nochmal auf einen veralteten Unterbau zu setzen, erschien uns nach reiflicher Überlegung nicht als sinnvoll. 2019 war das okay, denn da gab es keinen "Bump" bei der GPU-Leistung. Das neue System ist gerüstet für alles, was kommt - inklusive der neuen Konsolen-Ports, welchen das System dank PCIe-4-SSD hoffentlich souverän entgegentritt.

Ja, ok Raff. Leuchtet ein(PCIe 4.0).
Das kann ich nachvollziehen. Das hat ja evtl. noch weitere Auswirkungen.

Ansonsten hätt ich den OC 9900k halt gern einfach mal vs. den stock 10900k gesehen. :D
Aber das wär' eh nur Spielerei. Nich so wichtig.

Deine Argumente wegen dem PCIe 4.0 versteh' ich aber jetzt besser und stimme da zu.
Danke für die Erklärung. :daumen:
 
@ChrisMK72
Falls Nvidia bei Ampere abermals mit Krüppel-VRAM daherkommt, werden die Karten u. U. die PCie 4.0 Bandbreite bitter nötig haben (wenn der Grafikspeicher in VRAM-hungrigen Games oder RT-Games ausgeht): PCIe 3.0 vs. 4.0 in Spielen im Test - ComputerBase

Selbst eine RX 5500 4GB profitiert heute schon merklich von der PCIe 4.0 Bandbreite wenn in den Arbeitsspeicher geschrieben werden muss. Würde mich nicht darauf verlassen, dass Nvidia alle Ampere-Modelle mit einer angemessenen/adäquaten Menge VRAM ausstattet. Intel-Systeme werden bei VRAM-Krüppel mit PCIe 4.0 Interface deutlich das Nachsehen gegenüber Zen 2 + B550/X570 Systemen haben.

Wenn Karten wie die GTX 1650 Super, RTX 2060 oder RTX 2080(Super) bereits ein PCie 4.0 Interface hätten, könnten diese Karten heute schon auf Zen 2 + B550/X570 von der Bandbreite profitieren. Faktisch werden die RX 5500 XT 4GB und RX 5600 XT 6GB auf einer Intel-Plattform heute schon benachteiligt bzw. sie können dort nicht ihr volles Potential ausspielen.

PCie 3.0 ist 2020 outdated, mit Erscheinen von Ampere & RDNA2 sogar in weiten Marktbereichen, ob es einige wahrhaben wollen oder nicht. Je stärker die Graka-Hersteller an VRAM sparen (werden), desto bitterer wird es für Comet Lake, evtl. sogar für die aktuelle LGA1200-Plattform.
 
Zuletzt bearbeitet von einem Moderator:
Doch die durchschnittlichen Fps sind nicht alles, werfen Sie unbedingt auch einen Blick auf den Perzentilwert P99. Das Perzentil gibt an, in welchem Fps-Bereich sich ein Großteil der gerenderten Bilder befindet und hält somit wichtige Informationen zur gefühlten Bildrate bereit.

Das nicht ganz richtig. Ihr verwechselt nach wie vor P1 und P99. P99 ist immer größer als der Mittelwert und P99 sagt auch überhaupt nichts über die gefühlten Bildraten aus. Ein Extrembeispiel:

Gegeben sei eine FPS Sequenz seq bestehend aus 100 Werten. Die Sequenz soll bereits sortiert dargestellt werden. seq=[1, 1, 1, 1, 1, ..., 1, 1, 100, 100]. Nur die letzten beiden Werte sind 100. P99 ist hier genau 100. Ist das jetzt flüssig? Nein, fast alle anderen Werte sind 1.

Ein Perzentil sagt nur aus, dass x% kleiner als dieser Wert sind. Umgekehrt kann kann auch sagen, dass 100-x% größer als dieser Wert sind. Ihr habt das wahrscheinlich aus OCAT. Da wird das aber bezogen auf die Frametimes angegeben. Man kann nicht in eine komplett andere Metrik transformieren (Frametimes nach FPS) und dann einfach die Perzentile beibehalten.
 
Zuletzt bearbeitet von einem Moderator:
Das nicht ganz richtig. Ihr verwechselt nach wie vor P1 und P99. P99 ist immer größer als der Mittelwert und P99 sagt auch überhaupt nichts über die gefühlten Bildraten aus. Ein Extrembeispiel:

Gegeben sei eine FPS Sequenz seq bestehend aus 100 Werten. Die Sequenz soll bereits sortiert dargestellt werden. seq=[1, 1, 1, 1, 1, ..., 1, 1, 100, 100]. Nur die letzten beiden Werte sind 100. P99 ist hier genau 100. Ist das jetzt flüssig? Nein, fast alle anderen Werte sind 1.

Ein Perzentil sagt nur aus, dass x% kleiner als dieser Wert sind. Umgekehrt kann kann auch sagen, dass 100-x% größer als dieser Wert sind. Ihr habt das wahrscheinlich aus OCAT. Da wird das aber bezogen auf die Frametimes angegeben. Man kann nicht in eine komplett andere Metrik transformieren (Frametimes nach FPS) und dann einfach die Perzentile beibehalten.

Da kommt im Artikel gegebenenfalls nicht ganz rüber, dass es um das P99 der Frametimes geht. Stattdessen "P1" zu schreiben, weil der Wert nach Umrechnung in Fps niedrig ist, wäre aber genauso falsch. Wir betrachten nicht das P1 der Fps. Das wäre bei unseren typischerweise 20 bis 30 Sekunden langen Messsequenzen genauso hoch wie die min. Fps. Also die Anzahl der gerenderten Bilder in der Sekunde mit der niedrigsten Anzahl an gerenderten Bildern. (Bei 20 Fps-Werten sind P0, P1, P2, P3, und P4). Arbeitet man stattdessen mit Frametimes betrachtet man aber die Renderdauer einzelner Bilder, nur so ergibt die Einteilung in einzelne anstatt in 5er Perzentile überhaupt einen Sinn. Und uns interessieren vor allem die Bilder, die besonders lange in der GPU hingen, also die hohen Frametimes. Das wir diese zwecks Les-/Interpretierbarkeit nicht direkt in ms angeben, sondern stattdessen ein (niedriges) Fps-Äquivalent zuzuordnen, ändert nichts daran, dass es sich statistisch um 99er Perzentil handelt.
 
Da kommt im Artikel gegebenenfalls nicht ganz rüber, dass es um das P99 der Frametimes geht. Stattdessen "P1" zu schreiben, weil der Wert nach Umrechnung in Fps niedrig ist, wäre aber genauso falsch.
Nein, das wäre 100% richtig. Das P99 der Frametimes ist äquivalent mit dem P1 der FPS.

Wir betrachten nicht das P1 der Fps. Das wäre bei unseren typischerweise 20 bis 30 Sekunden langen Messsequenzen genauso hoch wie die min. Fps.
Doch, das tut ihr. Genau dieses Perzentil steht seit Jahren in euren Balkencharts drin. Raff und Dave nehmen das P1 von CapFrameX für ihre Testergebnisse. P1 ist von den Min-FPS meilenweit entfernt. Bei 2000 Frametimes ist P1 der 20. Wert nach der Sortierung. Min wäre der 1. Wert.

Also die Anzahl der gerenderten Bilder in der Sekunde mit der niedrigsten Anzahl an gerenderten Bildern. (Bei 20 Fps-Werten sind P0, P1, P2, P3, und P4). Arbeitet man stattdessen mit Frametimes betrachtet man aber die Renderdauer einzelner Bilder, nur so ergibt die Einteilung in einzelne anstatt in 5er Perzentile überhaupt einen Sinn. Und uns interessieren vor allem die Bilder, die besonders lange in der GPU hingen, also die hohen Frametimes. Das wir diese zwecks Les-/Interpretierbarkeit nicht direkt in ms angeben, sondern stattdessen ein (niedriges) Fps-Äquivalent zuzuordnen, ändert nichts daran, dass es sich statistisch um 99er Perzentil handelt.

Die FPS Sequenz ist einfach 1000/Frametime. Kein Mensch rechnet Mittelwerte pro Sekunde aus und nimmt dann Perzentile. Die FPS Sequenz hat genau so viele Elemente wie die Frametime Sequenz. Selbst wenn man so rechnen würde, wäre es immer noch falsch. P99 ist von "Natur aus" immer größer als der Mittelwert. Warum ist "P99" bei euch dann immer kleiner als der Average?

Was ihr noch schreiben könntet, wäre "P99 der Frametimes in FPS (transformiert)". So macht es ComputerBase.
 
Zuletzt bearbeitet von einem Moderator:
Zurück