Detroit: Become Human: Das PS4-Meisterwerk im Technik-Test mit CPU- und GPU-Benchmarks

Wenn Comet Lake kommt, dann ist eh Schluss mit den Diskussionen. Intel wird mit Sicherheit die Spec. anheben, ansonsten wird das Leistungsplus eher mau ausfallen.

Comet Lake kommt laut PCGH_Thorsten mit DDR4 2667.

Auf der anderen Seite scheinen es (fast) immer Intel-Besitzer zu sein, die RAM OC in den Tests fordern.
biggrin1.gif

Nur hat diese Diskussion gar nichts mit AMD und Intel zu tun, sondern ist rein eine Testphilosophie, nach dem Motto was will ich vergleichen und wie aussagekräftig sind die Ergebnisse für die Leserschaft, wieviel Informationen bringen sie und schaffen sie Vergleichbarkeit.
Will ich Arbeitsspeichern untereinander vergleichen, oder möchte ich Prozessoren vergleichen, das ist zu GPU Tests in den jeweils sinvollen Limits genau das gleiche.
Warum regt sich von den Spezifikationsgläubigen eigentlich niemand auf, dass bei GPU Tests ein übertakteter 9900K mit DDR4 3866 genutzt wird? Ich meine, das ist doch gar nicht nach Spezifikation.
s000.gif


Also sorry, Tests mit ordentlichem RAM, was für die CPU´s der letzten 3 bis 4 Jahre kein Problem ist, liefern ganz klar mehr Information und setzen die Merhleistung der neune Generationen in ein korrektes Verhältnis zueinander. Es sprechen deutlich mehr Argumente für Tests mit gleichem Speicher und ich habe noch von keinem User auf PCGH ein Gegenargument außer dieser Spezifikationshörigkeit gelesen.

Ich besitze nen i7 4790 und bis auf die allgemeinen Rankings im CPU Index war für mich höchstens noch interessant, ob die Spiele besser mit 4, 6, 8, oder mehr Threads arbeiten.

Eben, wenn dort eine CPU Serie wie 6700K, 7700K, 8700K, 9900K, Comet Lake, Tiger Lake, unterschiedliche RAM Taktraten und eventuell sogar Timings verwenden, obwohl das auf allen CPU´s Problemlos klappt, hast du völlig verzerrte Thread und Kernskalierungen, weil alleine in Tombraider DDR4 3000 statt DR4 2133 schon fast 30% Merhleistung generiert.
s000.gif


Selbst wenn der 3000er schlechte Timings besitzt, ist die Merhleistung groß, weil Bandbreite einfach das Limit ist und nicht die Latenz.
 
Zuletzt bearbeitet:
Das Problem mit den RAM-Frequenzen ist doch die Referenz.

Klar laufen Intel praktisch immer mit 3200 oder mehr. Und klar laufen die AMD praktisch immer mit 3600 oder mehr.

Es sei denn, sie tun das eben doch nicht. Bei mir laufen 3600 mit 64GB (und wenn man sich auf 1.35V beschränkt) eben nicht. Da gehen nur 3433.

Was soll man also einstellen wenn man einen Vergleichsbenchmark macht? Es gibt eben nicht "die eine OC Frequenz" die immer geht. Da habe ich mich in der letzten Diskussion mit dem XMP RAM für Intel auch leider selbst ziemlich vergalloppiert.

Als Tester muss man eben eine Baseline definieren, und die dann für alle Tests durchhalten. Und da bietet sich die spezifizierte, out-of-the-Box verwendete Einstellung an. Denn man übertaktet den Prozessor ja auch nicht, obwohl das bei Intel eigentlich immer geht.

Man kann sehr trefflich streiten, ob die Eigenart von Intel, immer recht viel OC Potential zu haben, oder doch die Eigenart von AMD, automatisch immer fast das beste aus dem Silizium rauszuholen, auch ohne manuellem OC, nun besser ist.

Bei AMD bekommt man genau das, was man vorher wusste, mit nur kleinen Varianzen aber auch kaum Luft nach oben. Bei Intel ist das ganze immer wie eine Praline: Meist ist es wirklich gut, was man bekommt, ein Stück weit auch besser als das, was versprochen wurde, aber so ganz genau weiß man es nicht.

Als OC Fan bin ich tatsächlich eher auf der Seite von Intel, ich mag klare OC Möglichkeiten, ein klares All-Core OC Potential und keine Scherereien damit. Aber das heißt nicht, dass ich mit meinem aktuellen Prozi unzufrieden bin.
 
Auf der anderen Seite scheinen es (fast) immer Intel-Besitzer zu sein, die RAM OC in den Tests fordern. :D Wenn Comet Lake kommt, dann ist eh Schluss mit den Diskussionen. Intel wird mit Sicherheit die Spec. anheben, ansonsten wird das Leistungsplus eher mau ausfallen.

Ist doch das selbe bei den 12 und 16 Kern Käufern, die die schnellsten CPUs besitzen müssen und solche Ergebnisse wie in diesem Spiel hier ertragen müssen. Ist ja auch immer die Engine schuld für die mauen Ergebnisse. Anstatt sich einzugestehen an den Bedürfnissen vorbeigekauft zu haben.
Mit jedem weiter gealterten Monat steht der 9900k immer besser da für Gamer. Insbesondere für Käufer aus dem letzten Jahr. Vielleicht kennt noch jemand den 2700x.
 
Wieso stört sich eigentlich kaum Jemand daran, dass die CPU Performance absolut erbärmlich ist und das obwohl eine Low Level Api benutzt wird, die da eigentlich nachhelfen sollte?

Insgesamt ist es doch wirklich kein guter Port, wenn man mal vergleicht, auf welcher Hardware das Game auf der PS4 läuft und wie wenig sich optisch im Vergleich dazu getan hat.


Nach RDR2 ist es für mich wieder so ein Fall, wo die Fachpresse meiner Meinung nach zu unkritisch ist und sich zu sehr über die bloße Existenz eines Ports freut.


Na ja, da sehe ich sicherlich nicht ein, mir das Spiel bei Epic zu holen, sondern werds eher mal auf der PS4 zocken, wenn ich die Disc Version irgendwo für nen Zehner sehe.



Schöne Grüße
El-Fauxio
 
Wieso stört sich eigentlich kaum Jemand daran, dass die CPU Performance absolut erbärmlich ist und das obwohl eine Low Level Api benutzt wird, die da eigentlich nachhelfen sollte?

Man sollte "starke Nutzung (und damit Abhängigkeit) von einer HW-Komponente" nicht immer automatisch mit "schlechter Optimierung" gleichsetzen. Das wird der Problematik einfach nicht gerecht.
 
Weil die Low Level API vorwiegend die Schnittstelle zur Grafikhardware darstellt. Die CPU verarbeitet Objekte, Texturen usw. um sie in korrekter Form auf die GPU zu schieben, diese übernimmt dann den Rest.
Abseits von grafischen Aufgaben ist die Low Level API kaum relevant. Im Ladescreen sind beide am engsten miteinander verzahnt, danach besitzt die GPU den Großteil der Informationen um den Level darzustellen. Reicht der VRAM nicht aus, lässt man die CPU weitere Daten aufbereiten und streamt sie in die Szene zum tauschen. Die APIs bieten auch Effekte, die von der CPU berechnet werden können, aber eigentlich macht es auf den Hardwarebeschleunigern am ehesten Sinn.
Wie z.B. PhysX über separate GPU früher.
 
Es wird völlig verkannt wieso es ein Vorteil ist, dass eine CPU niedriger spezifiziert wird als sie tatsächlich vertragen kann.
Eine 3200er Spezifizierung bedeutet ja nicht das es sich dabei um die Mindestanforderung handelt.
Die Kompatibilität zu 2666 ist bei AMD genauso gegeben, da wird kein OEM gezwungen 3200er zu verbauen.
 
Man sollte "starke Nutzung (und damit Abhängigkeit) von einer HW-Komponente" nicht immer automatisch mit "schlechter Optimierung" gleichsetzen. Das wird der Problematik einfach nicht gerecht.


Ja ist schon recht aber wenn die Ergebnisse nicht überzeugen, und Hardware einfach nur ausgelastet wird, dann ist die Optimierung halt schlecht.
Sonst wäre ja auch Arkham Knight ein super Port gewesen, weil das Spiel High End Hardware ans Limit bringt.



Wenn die Hardware bei Spiel A stark ausgelastet wird und bei Spiel B weniger stark, diese beiden Spiele aber in etwa gleich gut oder schlecht aussehen, dann kann man schon sagen, dass Spiel A schlecht optimiert ist, weil es die vorhandenen Ressourcen unnötig belastet.



Oder anders herum:
Wenn ein Spiel auf schwacher Hardware ein gutes Leistungsniveau bringt und auf vielfach stärkerer Hardware nur geringfügig besser läuft, dann ist das Spiel für die stärkere Hardware schlecht optimiert.

Ich weiß echt nicht, wie man das sonst nennen soll...



Abgesehen davon ist es auch echt schwach, gängige Auflösungen und Fps Raten nicht zu unterstützen und ein Grafikmenü zu bieten, das zwar viele Optionen hat, die sich aber weder auf Optik noch Leistung deutlich auswirken.


Weil die Low Level API vorwiegend die Schnittstelle zur Grafikhardware darstellt. Die CPU verarbeitet Objekte, Texturen usw. um sie in korrekter Form auf die GPU zu schieben, diese übernimmt dann den Rest.
Abseits von grafischen Aufgaben ist die Low Level API kaum relevant. Im Ladescreen sind beide am engsten miteinander verzahnt, danach besitzt die GPU den Großteil der Informationen um den Level darzustellen. Reicht der VRAM nicht aus, lässt man die CPU weitere Daten aufbereiten und streamt sie in die Szene zum tauschen. Die APIs bieten auch Effekte, die von der CPU berechnet werden können, aber eigentlich macht es auf den Hardwarebeschleunigern am ehesten Sinn.
Wie z.B. PhysX über separate GPU früher.

Die Low Level Apis bieten die Möglichkeit, Prozessoren besser auszulasten. Sie bieten also Raum für Optimierungen.

Wenn jetzt ein Spiel, dass auf einem Möhrenprozessor auf der PS4 läuft, plötzlich vielfach stärkere Sechskerner verlangt, wenn man die FPS ein bisschen höher treiben will, dann kann man sich schon fragen, wo die Optimierungen durch die Low Level Api geblieben sind.
Ganz besonders, wenn in dem Spiel überhaupt nicht erkennbar ist, wieso die CPU eine solche Schwerstarbeit stemmen muss.




Schöne Grüße
El-Fauxio
 
Zuletzt bearbeitet:
Eine 3200er Spezifizierung bedeutet ja nicht das es sich dabei um die Mindestanforderung handelt.
Die Kompatibilität zu 2666 ist bei AMD genauso gegeben, da wird kein OEM gezwungen 3200er zu verbauen.

Gebt es doch einfach auf. Die ganze Diskussion ist für die Katz. Wenn überhaupt ändert pcgh ihre Testmethodik beim nächsten 2020 roundup
 
Ja ist schon recht aber wenn die Ergebnisse nicht überzeugen, und Hardware einfach nur ausgelastet wird, dann ist die Optimierung halt schlecht.
Sonst wäre ja auch Arkham Knight ein super Port gewesen, weil das Spiel High End Hardware ans Limit bringt.

Arkham Knight war problematisch, weil es einfach massive Einbrüche verzeichnet hat, die durch das Streaming verursacht wurden. Ich finde aber tatsächlich, dass AK zu viele Prügel bekommen hat. Auch wenn man es - wie der Patch zeigte - besser hätte machen können, aber Wunder sollte man eben keine erwarten.

Wenn man mit derart hoher Speed (Batmobil) durch einen riesigen Level fahren kann, dann sind das extreme Anforderungen an das Streaming. Aber solche kleinen Details halten die Kritiker eben kaum auf.

Und was heißt denn "gleich gut aussehen"? Kannst Du wirklich die Optik und den Aufwand, der dahinter steht, objektiv einschätzen? Die meisten Menschen lassen sich viel eher durch eher künstlerische Eigenschaften ablenken - da wird dann auf einmal ein Uncharted oder Witcher 3 zum Maßstab für beste Grafik, obwohl diese Spiele technisch eher einfach gestrickt sind - aber eben trotzdem toll aussehen.

Ein Control dagegen sieht für viele optisch eher Meh aus, ist aber technisch ein absolutes Highlight. "Gefallen" heißt eben nicht unbedingt "technisch aufwendig". Weil eben die Realität manchmal auch nicht "gut" aussieht, weswegen eine realistische Grafik eben technisch aufwendig sein kann, aber nicht unbedingt "gut" aussehen muss.

Was D:BH angeht - bevor man nicht weiß, wodurch die CPU Last erzeugt wird, sollte man sich mit Kritik besser zurückhalten. Sonst steht man am Ende einfach dumm da.
 
Zuletzt bearbeitet von einem Moderator:
Das Problem mit den RAM-Frequenzen ist doch die Referenz.
...
Es sei denn, sie tun das eben doch nicht. Bei mir laufen 3600 mit 64GB (und wenn man sich auf 1.35V beschränkt) eben nicht. Da gehen nur 3433.

Als Tester muss man eben eine Baseline definieren, und die dann für alle Tests durchhalten. Und da bietet sich die spezifizierte, out-of-the-Box verwendete Einstellung an.

Dein Beispiel ist auch ein guter Punkt.
Man sollte mal mit Vollbestückung und DR Modulen als Standard testen :-)

Dann schaffen beide Hersteller auf einmal nur noch 2133MHz.
 
Arkham Knight war problematisch, weil es einfach massive Einbrüche verzeichnet hat, die durch das Streaming verursacht wurden. Ich finde aber tatsächlich, dass AK zu viele Prügel bekommen hat. Auch wenn man es - wie der Patch zeigte - besser hätte machen können, aber Wunder sollte man eben keine erwarten.

Wenn man mit derart hoher Speed (Batmobil) durch einen riesigen Level fahren kann, dann sind das extreme Anforderungen an das Streaming.

[...]

Was D:BH angeht - bevor man nicht weiß, wodurch die CPU Last erzeugt wird, sollte man sich mit Kritik besser zurückhalten. Sonst steht man am Ende einfach dumm da.

Ich habe meine Sichtweise extra aus zwei Richtungen dargestellt.
Keine Ahnung, wieso du jetzt die Hälfte von meinem Beitrag komplett ignorierst.

Im übrigen muss ich auch nicht auf der Code-Ebene nachvollziehen können, wieso die Auslastung zu hoch ist, um diese kritisieren zu können.
Es reicht mir, dass ich Vergleichswerte habe und sehe, wo es eben besser läuft.
Schau dir mal GTA V oder Rage 2 an. Da wird auf der letzten Kartoffel CPU noch flüssiges Streaming möglich.


Schöne Grüße
El-Fauxio
 
Arkham Knight war eine technische Katastrophe und wurde zurecht für Monate vom Verkauf zurückgezogen. Hätte Rocksteady den PC Port nicht aus der Hand gegeben wäre das vermutlich nicht passiert.
Am Ende mussten sie ja auch selbst eingreifen um das gerade zu biegen. Dafür war dann die gepatchte Version top.
 
Ich habe meine Sichtweise extra aus zwei Richtungen dargestellt.
Keine Ahnung, wieso du jetzt die Hälfte von meinem Beitrag komplett ignorierst.
Eigentlich nicht, ich bin explizit darauf eingegangen, dass "gut aussehen" und "technisch aufwendig" nicht das gleiche ist, und das ein subjektiver Eindruck, "wie gut etwas aussieht" eben SEHR subjektiv ist.

In so fern kann ich über Buggi85s Beitrag auch nur den Kopf schütteln.

Im übrigen muss ich auch nicht auf der Code-Ebene nachvollziehen können, wieso die Auslastung zu hoch ist, um diese kritisieren zu können.
Es reicht mir, dass ich Vergleichswerte habe und sehe, wo es eben besser läuft.
Schau dir mal GTA V oder Rage 2 an. Da wird auf der letzten Kartoffel CPU noch flüssiges Streaming möglich.
Erstens stimmt das beI GTAV nicht, wenn man die entsprechenden Optionen zuschaltet, und b) machst Du schon wieder den Fehler, unterschiedliche Spiele mit völlig unterschiedlichen Techniken und Anforderungen miteinander zu vergleichen.

Moderne optische Tricks, die helfen sollen, das "Uncanny Valley" zu überbrücken, sind technisch und von der Performance her enorm kostenintensiv, werden von dem meisten Menschen auf den ersten Blick aber gar nicht wahrgenommen. Deswegen geht solche Kritik für mich immer nur ins leere.

Eine wirklich gute Analyse von solchen Dingen macht eigentlicht nur Digital Foundry. Die haben eine echt bemerkenswerte und ungewohnte Kompetenz, was die Analyse von Spielen und den eingesetzten Techniken angeht. Auch übrigens zum Thema Arkham Knight.
 
Zurück