• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Red Dead Redemption 2: Nachtest mit API-Vergleich sowie GPU- und CPU-Benchmarks

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Red Dead Redemption 2: Nachtest mit API-Vergleich sowie GPU- und CPU-Benchmarks

Das Western-Epos Red Dead Redemption 2 ist mithilfer zahlreicher Patches und Grafiktreiber-Updates gereift. Da PCGH gerade hinter den Kulissen die Grafikkarten- und Prozessor-Benchmarks umstellt, nutzen wir die gewonnenen Erkenntnisse für einen umfangreichen Nachtest von RDR2 mit ofenfrischen GPU- und CPU-Messungen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Red Dead Redemption 2: Nachtest mit API-Vergleich sowie GPU- und CPU-Benchmarks
 

NotAnExit

Software-Overclocker(in)
Interessant, danke für den Nachtest.:daumen:

Anfangs wurde DX12 ja als etwas bessere Wahl empfohlen (auch bei CB), was ich nie nachvollziehen konnte. Ich hatte schon immer spürbare Lags mit DX12 in der Nähe von den Ortschaften (ganz am Anfang durch Abstürze fast unspielbar mit DX12), ganz übel in und um St. Denis. Vulkan hingegen deutlich ruhiger, quasi smooth. Da scheren auch die paar max FPS mehr nicht.
 

Buggi85

Software-Overclocker(in)
Ich kann eure CPU Tests einfach nicht nachvollziehen. Da habt ihr immer wieder den 9900k OC im Testfeld gehabt und nun fehlt der und stattdessen gibt's den 3900x OC. Warum kann man nicht mal beide zusammen benchen? Ihr macht mich noch zum Verschwörungstheoretiker. :stick:
 

alm0st

PCGH-Community-Veteran(in)
Meine 1080ti läuft mit 2050 MHz eigentlich ganz gut aber wenn ich sehe wie die 2080ti hier teilweise 50% mehr an FPS schaufelt, dann wirds wirklich Zeit für ein Upgrade. Vor allem würd ich gerne endlich auf UWQHD umsteigen, da brauchst dann nochmal etwas mehr Dampf.
 

Hannesjooo

Software-Overclocker(in)
Klasse Service von euch, Fettes lob an euch 3.
Krass wie schön sich ein Mögliches 1000€ PC-Setup noch relativ nah an eine 2080Ti, die 1300 Tacken allein kostet, ran kommt.
Und da sagen einige das AMD nicht Preiswerter als Nvidia ist...
Aber RDR2 ist ein Spiel für zukünftige Tests und ich hoffe das es weitere geben wird.
:pcghrockt:
 

blautemple

Lötkolbengott/-göttin
Ich kann eure CPU Tests einfach nicht nachvollziehen. Da habt ihr immer wieder den 9900k OC im Testfeld gehabt und nun fehlt der und stattdessen gibt's den 3900x OC. Warum kann man nicht mal beide zusammen benchen? Ihr macht mich noch zum Verschwörungstheoretiker. :stick:

Das ist das neue GPU Testsystem von PCGH.
 

wuchzael

Software-Overclocker(in)
Danke für den Nachtest!

Bei mir läuft Vulkan von Anfang an deutlich besser als DX12, gerade was die Frametimes angeht. Interessant wäre noch der ein oder andere ältere Prozessor im CPU Test gewesen.

Btw... Wie war das mit Vega und der Luftpumpe noch mal @Raff? :D

Grüße!
 

wuchzael

Software-Overclocker(in)
Also ich bin ziemlich gut mit der Karte gefahren und wenn man sich den aktuellen Index so anschaut, scheint sie die GTX 1080 mittlerweile auch gut im Griff zu haben.

Preis/Leistung hat einfach gepasst :daumen:


Grüße!
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Jo, altert gut. Neuer GPU-Index incoming, btw. Mal sehen, wo Vega dort landet. =)

MfG
Raff
 

I3uschi

Software-Overclocker(in)
Meine 1080ti läuft mit 2050 MHz eigentlich ganz gut aber wenn ich sehe wie die 2080ti hier teilweise 50% mehr an FPS schaufelt, dann wirds wirklich Zeit für ein Upgrade. Vor allem würd ich gerne endlich auf UWQHD umsteigen, da brauchst dann nochmal etwas mehr Dampf.

Almost sind ja die neuen Grakas in Sicht. ;) Ich spiele mit meiner 2080S (die ja jetzt nicht so weit weg von deiner 1080Ti ist) in UWQHD und auch konsequent mit hohen FPS, also weit über 60FPS in jedem noch so fordernden AAA Spiel.
Bin sowas von zufrieden, habe aktuell kein Druck was neues kaufen zu müssen und die Regler stehen i.d.R. auch ziemlich weit rechts.

Die FPS Killer sind doch sowieso meistens immer die üblichen Verdächtigen wie z.B. volumetrischer Nebel. Insbesondere RDR2 bietet so viele Einstellungen, da ist es wirklich leicht in die gewünschten FPS Regionen zu kommen ohne große Abstriche machen zu müssen.
Und maxed out wird sicherlich auch eine 4080Ti noch dran zu knabbern haben. Ich würde mir da kein Stress machen und auch mal ganz entspannt abwarten, was die neuen GPUs so können und zu welchem Preis. Nen UWQHD Monitor könntest du allerdings jetzt schon mal in Erwägung ziehen, auch mit der 1080Ti.
Ich bin von 24" 1080p auf UWQHD gewechselt und es fühlte sich an wie Liebe. :)


Ich fand RDR2 unter Vulkan auch etwas besser, fühlte sich wegen den Frametimes einfach etwas geschmeidiger an. Vor allem ohne Zielhilfe mit M/T und der ohnehin schon etwas schwammigen Steuerung macht das mehr Sinn.
Typisch Rockstar, jede Animation muss zu Ende gebracht werden... sieht aber schön aus. ;)
 

wuchzael

Software-Overclocker(in)
Jo, altert gut. Neuer GPU-Index incoming, btw. Mal sehen, wo Vega dort landet. =)

MfG
Raff

Bin gespannt! Aber noch gespannter bin ich eigentlich auf die Ampere Preise... denn auch wenn Vega gut altert, in manchen Situationen wünsche ich mir langsam doch etwas mehr Power.

Grüße!


Edit: Man, wenn ich die Bilder sehr, kriege ich direkt Bock mal wieder ne Runde durch die Prärie zu reiten... bald is Feierabend :D
 

CeleCraft

Kabelverknoter(in)
Warum ist die Baum Tesselation bei allen Presets aus?
Läuft das vielleicht bei einigen Karten überproportional gut/schlecht?
Hab das bei mir an weil mir die eingerissene Rinde gut gefällt.

Krass wie wenig fps die 2080ti bei "MAX" settings bringt. In FHD keine 50 Bilder.
So spiele ich das Game mit meiner gtx970, mit einigen wie mir scheint wenigen Anpassungen.
Da machen gut 1000€ Unterschied ein paar unauffällige Effekte.
 

wuchzael

Software-Overclocker(in)
Baum Tesselation kostet MASSIV Leistung. Weiß nicht, ob das ein Bug war? Als die Option mit einem Update kam, habe ich sie einmal kurz getestet und dann schnell wieder deaktiviert und nie wieder probiert ^^

Grüße!
 

Ex3cut3r

PC-Selbstbauer(in)
Pascal kackt so ab bei dem Game. Selbst eine 2080 non S wischt mit einer 1080 Ti den Boden auf. :D
 
E

eclipso

Guest
Ach? ...

Da zeigt sie mal, wo sie eigentlich hingehört, wenn man darauf auch optimiert, so wie: "1080ti, i am here". Leider zu spät, aber da.

Endlich mal 'nen 3900x OC.

Edit sagt: ...und völlig ohne RTRT wunderschöne Schatten...schnell weg hier.:D
 
Zuletzt bearbeitet von einem Moderator:

wuchzael

Software-Overclocker(in)
Pascal kackt so ab bei dem Game. Selbst eine 2080 non S wischt mit einer 1080 Ti den Boden auf. :D

Pascal ist halt für Nvidia nicht mehr relevant... So ging es jeder Generation, nachdem ein Nachfolger kam. Was wirklich schade ist, denn die Karten werden ja nicht schlechter! Es wird einfach nur nicht mehr dafür optimiert. Pascal war ne richtig geile Gen... wenn die Preise nach dem Ampere Release hoffentlich endlich mal purzeln, werde ich mir auch noch ne 1070 oder ne 1080 für meine Sammlung holen :)

Grüße!
 
E

eclipso

Guest
Pascal ist ein weiterentwickelter Maxwell und die haben ihre Stärken unter DX11, Vega eher Vulkan/LL. Beides hat seine Daseinsberechtigung und unter DX11 wird eine ti auch nicht langsamer. Oft hilft optimieren nicht, wenn ich ein "Design" nur für eine bestimmte Zeit auslege.

Turing ist für Nv schon ein gewisser Umbruch, denn auch Turing ist nicht immer der Schnellste unter DX11.

Letztlich zeigt der Test auch auf, dass die Optimierungen der Laufzeitumgebung angenommen werden und nicht alles mit brachialer Hardwarepower gelöset werden muss. Es dauert nur. Das war ja Koduris Ansinnen mit Vega: ...weiter, schneller, höher und immer was draufpacken geht irgendwann nicht mehr, weil es zu kostspielig wird.
 

t670i

Freizeitschrauber(in)
Super Test :daumen:
Vielleicht hole ich es mir jetzt mal. Scheint ja mittlerweile deutlich besser zu laufen, als zum Start.
 

ChrisMK72

PCGH-Community-Veteran(in)
Überraschung: Vulkan zieht plötzlich fühlbar an DirectX 12 vorbei, was die Bilanz für die Betriebssystem-unabhängige Schnittstelle weiter verbessert.

Seit Tag 1 nutze ich Vulkan mit meiner 1080Ti. War bei mir von Anfang an besser, nicht nur Performance, sondern auch was Grafikfehler/Abstürze anging.

Sah von Tag 1 an besser aus und lief auch noch n Tick besser.
Hab schließlich die ersten Stunden bevor ich los gespielt hab, wirklich stundenlang nur verschiedenste Optionen gecheckt, wobei ich viele, viele Neustarts(nervig und langwierig ;) ) machen musste und jedesmal bei DX12 wieder den Vollbildmodus aktivieren, der immer von selber wieder raus ging.

War jedenfalls mein Eindruck nach meinen Tests. Seit dem hatte ich alle paar Monate mal wieder einen Test gemacht und bin immer wieder zum Ergebnis für mich gekommen, Vulkan läuft bei mir besser und sah auch oft besser aus(z.B. was flackernde Schatten anging, oder sich merkwürdig verhaltende Bäume(komisches Wackeln, als wenn ein Orkan weht) bei DX12, oder auch längeres Nachladen von Grafikdetails, beim Start eines Gebiets usw. in allem war Vulkan besser).

Das kann natürlich auf max/ultra und einer 2080Ti/Turing anders gewesen sein. Kann ich nix zu sagen. Hatte ja bisher nur die 1080Ti und das bleibt so, bis zur 3080. :D

Ich spiele auch nicht "max/Ultra", sondern eher eine Mischung aus guter Performance und guter Grafik. So ein Mittelding. Muss halt auch flüssig laufen. Und das tut es gut aussehend bei mir(WQHD).

Ich bleibe dabei: Eins der besten Spiele, die je raus gekommen sind. Also mein Geschmack trifft es jedenfalls voll.


edit: Trotz in letzter Zeit auch andere Spiele, die ich viel gezockt habe, wie Wreckfest(829 Stunden), oder zuletzt Detroit become Human(bisher nur 44 Stunden), hab ich's bisher auf 457 Stunden Laufzeit gebracht, mit RDR2(die meiste Zeit bis ca. Dezember). :)
(Davon locker 20-30 Stunden nur Tests/Checks)
Is schon was.

Hab aber vor, das noch zu verdoppeln(Die Spielzeit, Tests mach ich nicht mehr. Es bleibt bei Vulkan. ). :D

edit2:
Wer das Maximum aus RDR2 PC herausholen möchte, sollte laut unseren aktuellen Messungen zur Vulkan-API greifen

Yep.
Von Tag 1 an. :cool:


edit3:

Anfangs wurde DX12 ja als etwas bessere Wahl empfohlen (auch bei CB), was ich nie nachvollziehen konnte.

Ja, das hab ich auch nicht kapiert. Kam mir so vor, als hätten da manche einfach voneinander abgeguckt, was die Anderen Empfehlen(ich meine mich dunkel erinnern zu können, dass Gamers Nexus und/oder Hardware unboxed auch dabei waren, eher DX12 zu empfehlen) und wegen Zeitdruck das einfach auch so gesagt.
Konnte ich mit meinen eigenen Tests nie nachvollziehen, wo ich ja von Anfang an immer auf Vulkan als bessere Wahl kam, sowohl was Grafik(-Fehler), als auch Performance und Abstürze anging.

Hatte irgendwie Glück, dass ich das Game von Tag 1 an richtig genießen konnte.
Zwischendurch(nach 1-2 Monaten ?) kam einmal ein Fehler nach nem Update, wo ich kurz zum Starten auf DX12 wechseln musste und dann wieder zurück, weil der Spielstand nicht laden/starten wollte unter Vulkan, aber das war's bei mir mit Fehlern und Abstürzen, während ich mit Vulkan gezockt habe. Es sah immer gut aus und lief fluffig.
Konnte RDR2 richtig toll genießen.
Und das mach ich weiterhin. :)

Geiles Game ! :daumen:


Noch n Edit ;) :

Ich fand RDR2 unter Vulkan auch etwas besser, fühlte sich wegen den Frametimes einfach etwas geschmeidiger an. Vor allem ohne Zielhilfe mit M/T und der ohnehin schon etwas schwammigen Steuerung macht das mehr Sinn.

Ja, fand ich auch.
Und was die Steuerung angeht: Auch da brauchte ich einige Zeit, bis ich die richtig für mich eingestellt hatte. Hab noch nie so eine vermurkste Standardeinstellung erlebt in einem Spiel.
Wollte anfangen zu zocken und hab mich mit dem Pferd erst mal nur im Kreis gedreht. Dazu kam dann die merkwürdigen Einstellungen, für die Bewegungen, auch was die Sensitivität anging und so.
Fühlte sich insgesamt total falsch an.
Nach ein paar Stunden hatte ich dann endlich meine Einstellungen raus, wo ich dann mit gezockt habe und einigermaßen zufrieden war. Halt einfach typisch PC-mäßig WASD ohne irgendwelche Hilfen. Zackig und schnell, wie man's eigentlich gewohnt ist, vom PC.
Naja, wie es halt zumindest in RDR2 maximal möglich war, mit den R* Bewegungsanimationen.
Die nächsten paar hundert Stunden nach dem ersten Einstellen, waren dann aber ein einziger Genuss ! :)


Wie man's gewohnt is von mir, kommt ausnahmsweise noch ne Tante Edit ;) :

Warum ist die Baum Tesselation bei allen Presets aus?
Läuft das vielleicht bei einigen Karten überproportional gut/schlecht?
Hab das bei mir an weil mir die eingerissene Rinde gut gefällt.

Hab die auch an. Finde das is n Muss.
Läuft trotzdem superflüssig bei mir, mit den entsprechenden anderen Performancefressern niedriger(Mittel/Hoch).




edit:



Argh ! :what: :banane:

ROG Strix 3080Ti.
So gesehen eigentlich meine Nachfolgerkarte(Zur Asus ROG 1080Ti Strix OC), wenn man die Turing übersprungen hat.

Naja ... da meine 1080Ti n Überbrückungs-Gebrauchtkauf war(auch wegen der abgedrehten Preise damals), würde ich dann wohl doch diesmal nicht zur Ti greifen, sondern mich mit der 3080 begnügen.
Mehr wie 880€ darf sie für mich aber nicht kosten.
Zur Not wird's dann halt keine Asus, sondern irgendwas billigeres von Palit, oder so.


edit:

1 B.jpg

1.jpg

Wo is denn die CPU aus dem neuen GPU-Testrig geblieben, aus dem Community benchmark für KCD ?
Also der OC 9900k @ 5,2 GHz mit dem schnelleren Speicher(4GHz)/Cache(5GHz) ?

Wechselt ihr nun komplett zu AMD(auch CPU), auch wenn die langsamer sind in Games ? :D
Gibt's dafür n bestimmten Grund ?

AMD kommt wohl im neuen Bench(nach KCD) auch nicht an Intel ran, wie ich sehe:

2.jpg

Warum also freiwillig was Langsameres nehmen ?
Gab's da n bestimmten Auslöser für ?

Oder is das einfach, weil Intel nicht so gut unterstützt mit Dauerleihgaben an CPUs ? Das könnte ich natürlich nachvollziehen.
AMD is da ja wie ich gelesen habe besser/netter zu euch.



Noch n letzter kleiner edit( ;) ):

Freu mich schon drauf, wenn die 3080 in meinem PC steckt, das Game mit aufgebohrter Grafik dann noch mal zu starten, wieder zum reinen Genießen.
Dann halt mit noch höheren Grafikeinstellungen. Die 60-100 fps sollten aber weiterhin drin sein, wie mit der 1080Ti(WQHD).
 
Zuletzt bearbeitet:

Taxxor

PC-Selbstbauer(in)
Wo is denn die CPU aus dem neuen GPU-Testrig geblieben, aus dem Community benchmark für KCD ?
Also der OC 9900k @ 5,2 GHz mit dem schnelleren Speicher(4GHz)/Cache(5GHz) ?
Du meinst wohl das Alte, der 3900X steckt im neuen GPU-Testrig.
Warum also freiwillig was Langsameres nehmen ?
Gab's da n bestimmten Auslöser für ?

Oder is das einfach, weil Intel nicht so gut unterstützt mit Dauerleihgaben an CPUs ? Das könnte ich natürlich nachvollziehen.
AMD is da ja wie ich gelesen habe besser/netter zu euch.
Intel kann kein PCIe 4.0, das wurde schon als Grund angeführt.
 

ChrisMK72

PCGH-Community-Veteran(in)
Intel kann kein PCIe 4.0, das wurde schon als Grund angeführt.

Und deswegen nimmt man was langsameres ?

Ok ?


edit:
Du meinst wohl das Alte, der 3900X steckt im neuen GPU-Testrig.

Ja, halt das, was noch zum KCD Bench aktiv war.

edit: Link dahin

Da war der Speicher(und Takt) natürlich nice(also vom GPU-Rig). :)
(Im Gegensatz zum hier aufgeführten 9900k mit 2667 Takt. Aber das is halt so, leider.)

PS: Warum nich gleich 1337 Takt ? :D
(Damit müsste Platz 1 doch drin sein. ;) )
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Ja, was in der Zukunft dann mal schneller ist, kann man dann ja schauen(wer weiß welche CPUs es bis dahin gibt, bis das mal ausschlaggebend wird).
Mich interessiert meist, was wirklich erhältlich schneller ist, nicht theoretisch in der Zukunft.

In 1-2 Jahren gibt es sicher auch wieder andere CPUs die wiederum schneller sind, auf dann wieder neuen Plattformen.
Für die Zukunft was machen is immer schwierig(begrenzt natürlich schon möglich).

PS: Is ok.
Hätt' vielleicht nur gern den OC 9900k gesehen(aus dem KCD Bench) in der Liste. :) Klar dass der auf 1 gewesen wäre(is ja nicht weit weg).

3.jpg

Mich hätte nur der Abstand interessiert, wie weit der vor dem 10900k gewesen wäre. :D
 
Zuletzt bearbeitet:

Infi1337

Freizeitschrauber(in)
Sehr schön beleuchtet PCGH. Vulkan 1.2 scheint auch bei Doom Eternal nochmal etwas gebracht zu haben :devil:.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ja, was in der Zukunft dann mal schneller ist, kann man dann ja schauen(wer weiß welche CPUs es bis dahin gibt, bis das mal ausschlaggebend wird).
Mich interessiert meist, was wirklich erhältlich schneller ist, nicht theoretisch in der Zukunft.

In 1-2 Jahren gibt es sicher auch wieder andere CPUs die wiederum schneller sind, auf dann wieder neuen Plattformen.
Für die Zukunft was machen is immer schwierig(begrenzt natürlich schon möglich).

PS: Is ok.
Hätt' vielleicht nur gern den OC 9900k gesehen(aus dem KCD Bench) in der Liste. :) Klar dass der auf 1 gewesen wäre(is ja nicht weit weg).

Anhang anzeigen 1094861

Mich hätte nur der Abstand interessiert, wie weit der vor dem 10900k gewesen wäre. :D

Hier geht es nicht um das Duell 9900K vs. 3900X. Wir stellen einmal jährlich die Benchmark-Aufstellungen um, stets Mitte des Jahres. Die letzte Umstellung ist 13 Monate her, es wurde Zeit. Die neue Aufstellung hält nun wieder ein gutes Jahr und blickt daher PCGH-typisch nach vorn. Im Angesicht zahlreicher PCIe-4-Grafikkarten nochmal auf einen veralteten Unterbau zu setzen, erschien uns nach reiflicher Überlegung nicht als sinnvoll. 2019 war das okay, denn da gab es keinen "Bump" bei der GPU-Leistung. Das neue System ist gerüstet für alles, was kommt - inklusive der neuen Konsolen-Ports, welchen das System dank PCIe-4-SSD hoffentlich souverän entgegentritt.

Wo ist der Community Benchmark? Ich will benchen!!! :D

Die finalen Benchmarklisten stehen mittlerweile. Bis wir das alles durchgetestet und verrechnet haben, Videos gedreht und Savegames aufbereitet haben, wird es aber noch ein paar Wochen dauern. Stay tuned. :-)

MfG
Raff
 

ChrisMK72

PCGH-Community-Veteran(in)
Hier geht es nicht um das Duell 9900K vs. 3900X. Wir stellen einmal jährlich die Benchmark-Aufstellungen um, stets Mitte des Jahres. Die letzte Umstellung ist 13 Monate her, es wurde Zeit. Die neue Aufstellung hält nun wieder ein gutes Jahr und blickt daher PCGH-typisch nach vorn. Im Angesicht zahlreicher PCIe-4-Grafikkarten nochmal auf einen veralteten Unterbau zu setzen, erschien uns nach reiflicher Überlegung nicht als sinnvoll. 2019 war das okay, denn da gab es keinen "Bump" bei der GPU-Leistung. Das neue System ist gerüstet für alles, was kommt - inklusive der neuen Konsolen-Ports, welchen das System dank PCIe-4-SSD hoffentlich souverän entgegentritt.

Ja, ok Raff. Leuchtet ein(PCIe 4.0).
Das kann ich nachvollziehen. Das hat ja evtl. noch weitere Auswirkungen.

Ansonsten hätt ich den OC 9900k halt gern einfach mal vs. den stock 10900k gesehen. :D
Aber das wär' eh nur Spielerei. Nich so wichtig.

Deine Argumente wegen dem PCIe 4.0 versteh' ich aber jetzt besser und stimme da zu.
Danke für die Erklärung. :daumen:
 

Freiheraus

BIOS-Overclocker(in)
@ChrisMK72
Falls Nvidia bei Ampere abermals mit Krüppel-VRAM daherkommt, werden die Karten u. U. die PCie 4.0 Bandbreite bitter nötig haben (wenn der Grafikspeicher in VRAM-hungrigen Games oder RT-Games ausgeht): PCIe 3.0 vs. 4.0 in Spielen im Test - ComputerBase

Selbst eine RX 5500 4GB profitiert heute schon merklich von der PCIe 4.0 Bandbreite wenn in den Arbeitsspeicher geschrieben werden muss. Würde mich nicht darauf verlassen, dass Nvidia alle Ampere-Modelle mit einer angemessenen/adäquaten Menge VRAM ausstattet. Intel-Systeme werden bei VRAM-Krüppel mit PCIe 4.0 Interface deutlich das Nachsehen gegenüber Zen 2 + B550/X570 Systemen haben.

Wenn Karten wie die GTX 1650 Super, RTX 2060 oder RTX 2080(Super) bereits ein PCie 4.0 Interface hätten, könnten diese Karten heute schon auf Zen 2 + B550/X570 von der Bandbreite profitieren. Faktisch werden die RX 5500 XT 4GB und RX 5600 XT 6GB auf einer Intel-Plattform heute schon benachteiligt bzw. sie können dort nicht ihr volles Potential ausspielen.

PCie 3.0 ist 2020 outdated, mit Erscheinen von Ampere & RDNA2 sogar in weiten Marktbereichen, ob es einige wahrhaben wollen oder nicht. Je stärker die Graka-Hersteller an VRAM sparen (werden), desto bitterer wird es für Comet Lake, evtl. sogar für die aktuelle LGA1200-Plattform.
 
Zuletzt bearbeitet:

gaussmath

Lötkolbengott/-göttin
Doch die durchschnittlichen Fps sind nicht alles, werfen Sie unbedingt auch einen Blick auf den Perzentilwert P99. Das Perzentil gibt an, in welchem Fps-Bereich sich ein Großteil der gerenderten Bilder befindet und hält somit wichtige Informationen zur gefühlten Bildrate bereit.

Das nicht ganz richtig. Ihr verwechselt nach wie vor P1 und P99. P99 ist immer größer als der Mittelwert und P99 sagt auch überhaupt nichts über die gefühlten Bildraten aus. Ein Extrembeispiel:

Gegeben sei eine FPS Sequenz seq bestehend aus 100 Werten. Die Sequenz soll bereits sortiert dargestellt werden. seq=[1, 1, 1, 1, 1, ..., 1, 1, 100, 100]. Nur die letzten beiden Werte sind 100. P99 ist hier genau 100. Ist das jetzt flüssig? Nein, fast alle anderen Werte sind 1.

Ein Perzentil sagt nur aus, dass x% kleiner als dieser Wert sind. Umgekehrt kann kann auch sagen, dass 100-x% größer als dieser Wert sind. Ihr habt das wahrscheinlich aus OCAT. Da wird das aber bezogen auf die Frametimes angegeben. Man kann nicht in eine komplett andere Metrik transformieren (Frametimes nach FPS) und dann einfach die Perzentile beibehalten.
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Das nicht ganz richtig. Ihr verwechselt nach wie vor P1 und P99. P99 ist immer größer als der Mittelwert und P99 sagt auch überhaupt nichts über die gefühlten Bildraten aus. Ein Extrembeispiel:

Gegeben sei eine FPS Sequenz seq bestehend aus 100 Werten. Die Sequenz soll bereits sortiert dargestellt werden. seq=[1, 1, 1, 1, 1, ..., 1, 1, 100, 100]. Nur die letzten beiden Werte sind 100. P99 ist hier genau 100. Ist das jetzt flüssig? Nein, fast alle anderen Werte sind 1.

Ein Perzentil sagt nur aus, dass x% kleiner als dieser Wert sind. Umgekehrt kann kann auch sagen, dass 100-x% größer als dieser Wert sind. Ihr habt das wahrscheinlich aus OCAT. Da wird das aber bezogen auf die Frametimes angegeben. Man kann nicht in eine komplett andere Metrik transformieren (Frametimes nach FPS) und dann einfach die Perzentile beibehalten.

Da kommt im Artikel gegebenenfalls nicht ganz rüber, dass es um das P99 der Frametimes geht. Stattdessen "P1" zu schreiben, weil der Wert nach Umrechnung in Fps niedrig ist, wäre aber genauso falsch. Wir betrachten nicht das P1 der Fps. Das wäre bei unseren typischerweise 20 bis 30 Sekunden langen Messsequenzen genauso hoch wie die min. Fps. Also die Anzahl der gerenderten Bilder in der Sekunde mit der niedrigsten Anzahl an gerenderten Bildern. (Bei 20 Fps-Werten sind P0, P1, P2, P3, und P4). Arbeitet man stattdessen mit Frametimes betrachtet man aber die Renderdauer einzelner Bilder, nur so ergibt die Einteilung in einzelne anstatt in 5er Perzentile überhaupt einen Sinn. Und uns interessieren vor allem die Bilder, die besonders lange in der GPU hingen, also die hohen Frametimes. Das wir diese zwecks Les-/Interpretierbarkeit nicht direkt in ms angeben, sondern stattdessen ein (niedriges) Fps-Äquivalent zuzuordnen, ändert nichts daran, dass es sich statistisch um 99er Perzentil handelt.
 

gaussmath

Lötkolbengott/-göttin
Da kommt im Artikel gegebenenfalls nicht ganz rüber, dass es um das P99 der Frametimes geht. Stattdessen "P1" zu schreiben, weil der Wert nach Umrechnung in Fps niedrig ist, wäre aber genauso falsch.
Nein, das wäre 100% richtig. Das P99 der Frametimes ist äquivalent mit dem P1 der FPS.

Wir betrachten nicht das P1 der Fps. Das wäre bei unseren typischerweise 20 bis 30 Sekunden langen Messsequenzen genauso hoch wie die min. Fps.
Doch, das tut ihr. Genau dieses Perzentil steht seit Jahren in euren Balkencharts drin. Raff und Dave nehmen das P1 von CapFrameX für ihre Testergebnisse. P1 ist von den Min-FPS meilenweit entfernt. Bei 2000 Frametimes ist P1 der 20. Wert nach der Sortierung. Min wäre der 1. Wert.

Also die Anzahl der gerenderten Bilder in der Sekunde mit der niedrigsten Anzahl an gerenderten Bildern. (Bei 20 Fps-Werten sind P0, P1, P2, P3, und P4). Arbeitet man stattdessen mit Frametimes betrachtet man aber die Renderdauer einzelner Bilder, nur so ergibt die Einteilung in einzelne anstatt in 5er Perzentile überhaupt einen Sinn. Und uns interessieren vor allem die Bilder, die besonders lange in der GPU hingen, also die hohen Frametimes. Das wir diese zwecks Les-/Interpretierbarkeit nicht direkt in ms angeben, sondern stattdessen ein (niedriges) Fps-Äquivalent zuzuordnen, ändert nichts daran, dass es sich statistisch um 99er Perzentil handelt.

Die FPS Sequenz ist einfach 1000/Frametime. Kein Mensch rechnet Mittelwerte pro Sekunde aus und nimmt dann Perzentile. Die FPS Sequenz hat genau so viele Elemente wie die Frametime Sequenz. Selbst wenn man so rechnen würde, wäre es immer noch falsch. P99 ist von "Natur aus" immer größer als der Mittelwert. Warum ist "P99" bei euch dann immer kleiner als der Average?

Was ihr noch schreiben könntet, wäre "P99 der Frametimes in FPS (transformiert)". So macht es ComputerBase.
 
Zuletzt bearbeitet:
Oben Unten