Fallout 4 Version 1.03: Neue Benchmarks - Drawcall-Limit als Fps-Killer

Komisch das es genau jetzt auffällt Digital Foundry hat doch schon oft gezeigt das AMD Karten wenn man keine High-End Cpu OC hat oft
wesentlich langsamer laufen. Das ist z.b. auch so im hier gelobten Rise of the Tomb Raider hat man wie viele eine CPU wie den 2500K@4,5Ghz
ist eine GTX970 ein gutes Stück schneller wie eine 390. Wogen hier in den Benchmarks etwas anderes zu sehen ist auf einer High-End CPU die so gut wie keiner hat.

Vielleicht sollte man das ganze wirklich viel Objektiver untersuchen und AMDs Probleme sind mehr als nur ab zu vorhanden. Das die Fallout 4 Engine veraltet
ist hat man schon in Skyrim gesehen das kommt aber nur noch dazu. Ihr sollte euch echt mehr an Digital Foundry richten dort wurde z.b. auch gezeigt das Ram speed in
der heutigen Zeit viel mehr Einfluss hat als man auch nur annehmen würde. Dort ist auch schon länger bekannt das AMD Karten mit schwächern CPUs massiv abfallen
und das der 2500K auf 4,5Ghz zwar noch gut ist aber eben nicht mehr sehr gut. Das diese CPU mit Overclocking wahrscheinlich schneller ist als 90% der User ist es doch viel wichtiger
wie so eine CPU mit erschwinglichen GPUs skaliert oder etwa nicht. Ich finde da sollte man generell die Benchmarks überdenken, weil so eben nicht die schwächen der AMD Karten zusehen
sind aber der Standard User sie durchaus sehen wird.
 
Warum müsst ihr eigentlich ständig über dieses langweilige Fallout 4 mit seinen stinkhässlichlichen Texturen und stupiden Gameplay berichten.:motz:
Es gibt genügend andere gute Spiele die es verdient hätten.Sry. an die Fanboys aber das Teil ist total überbewertet:nene:
 
Da hilft als Lösung wohl nur der Wechsel auf Vulkan.
Low Level API Support? Von Bethesda? Du bist aber optimistisch ...

Es würde schon reichen, wenn die alte Gammelengine endlich mal ins Museum wandern würde. DX11 ist nicht das primäre Problem, die Engine die sich selbst überlebt hat ist es.
 
Für eine "alte Gammelengine" bietet Fallout 4 als Beispiel ordentliches Multithreading, welches auch unter DX11 durchscheint.
Ebenso einige moderne Features der Neuzeit wie PBR.
 
Komisch das es genau jetzt auffällt Digital Foundry hat doch schon oft gezeigt das AMD Karten wenn man keine High-End Cpu OC hat oft
wesentlich langsamer laufen. Das ist z.b. auch so im hier gelobten Rise of the Tomb Raider hat man wie viele eine CPU wie den 2500K@4,5Ghz
ist eine GTX970 ein gutes Stück schneller wie eine 390. Wogen hier in den Benchmarks etwas anderes zu sehen ist auf einer High-End CPU die so gut wie keiner hat.

Vielleicht sollte man das ganze wirklich viel Objektiver untersuchen und AMDs Probleme sind mehr als nur ab zu vorhanden. Das die Fallout 4 Engine veraltet
ist hat man schon in Skyrim gesehen das kommt aber nur noch dazu. Ihr sollte euch echt mehr an Digital Foundry richten dort wurde z.b. auch gezeigt das Ram speed in
der heutigen Zeit viel mehr Einfluss hat als man auch nur annehmen würde. Dort ist auch schon länger bekannt das AMD Karten mit schwächern CPUs massiv abfallen
und das der 2500K auf 4,5Ghz zwar noch gut ist aber eben nicht mehr sehr gut. Das diese CPU mit Overclocking wahrscheinlich schneller ist als 90% der User ist es doch viel wichtiger
wie so eine CPU mit erschwinglichen GPUs skaliert oder etwa nicht. Ich finde da sollte man generell die Benchmarks überdenken, weil so eben nicht die schwächen der AMD Karten zusehen
sind aber der Standard User sie durchaus sehen wird.

So ist es. Wird hier aber ständig ignoriert oder nur halbherzig behandelt.

Digital Foundry hat heute wieder ein Video mit dem alten 2500K online gestellt, in dem an einer Stelle auch mit AMD Karte getestet wurde. Die Frametimes im CPU limit sind bei AMD z.B. in Rise of The Tomb Raider völlig fürn Popo.
Im darauf folgenden Video zeigt sich, dass selbst der 3770K extrem vom AMD Treiber runtergezogen wird und im CPU limit mit AMD Karte deutlich schlechter Performt, als mit Nvidia Karte.

Das Ergebnis ist in einigen Titeln dermaßen gravierend, dass man mittlerweile einfach keine AMD Karte empfehlen kann um nicht zu sagen, man muss davor warnen. Die Einbrüche sind einfach zu krass.


Aber in diesem Forum wird man bei solchen Aussagen wie immer auf Granit stoßen. Das Problem wird heruntergespielt oder man wird als Fanboy hingestellt.
Na ja, soll jeder nutzen, was er für richtig hält. Ich kauf mir jedenfalls vorerst keine AMD Karte mehr. Wer die Leistung seines i7 auf die Leistung eines i3 kastrieren will, der kann das ja trotzdem tun....

Finds nur schade, dass man solche dramatischen Erkenntnisse nicht mehr bei PCGH findet. Da wird immer mit nem 6700k im GPU limit gebencht. Das overhead Problem wird seit Monaten ignoriert oder nur halbherzig behandelt.
Nun, jetzt auch nicht mehr so wichtig, die Kollegen haben den Beweis nun schon zig mal erbracht, dass die AMD Treiber in manchen games, in denen CPU Performance wichtig ist einfach nur Mist sind.

Trotzdem macht mich das irgendwie wütend, dass das Thema ständig ignoriert wird. Es ist schließlich kein theoretisches, sondern ein praktisches. Ich frag mich manchmal wirklich, wie einige Tester reinen Gewissens AMD Karten empfehlen können.
Gerade Budget PCs mit i3 und i5 leiden einfach extrem unter dem AMD Treiber. Als Digital Foundry den "Konsolen PC" zusammenstellte, der aus einem i3 und einer 750ti besteht mussten sie sogar extra auf AMD verzichten, weil der i3 sonst kein Land gegen eine PS4 sehen würde.
 
Zuletzt bearbeitet:
Dafür ist der Unterbau ziemlich im Eimer wie man bei den Benches sieht ;)
Und/oder die Umsetzung mit DX11.

Also Gammel kann ich allgemein nicht erkennen. Das die Engine nicht überall gut dasteht ist offensichtlich, aber ich habe wie manch anderer das Gefühl es wird etwas zu weit ausgeholt.
 
So ist es. Wird hier aber ständig ignoriert oder nur halbherzig behandelt.

Digital Foundry hat heute wieder ein Video mit dem alten 2500K online gestellt, in dem an einer Stelle ach mit AMD Karte getestet wurde. Die Frametimes im CPU limit sind bei AMD z.B. in Rise of The Tomb Raider völlig fürn Popo.
Im darauf folgenden Video zeigt sich, dass selbst die 3770K extrem vom AMD Treiber ruuntergezogen wird und um CPU limit mit AMD Karte deutlich schlechter Performt, als mit Nvidia Karte.

Das Ergebnis ist in einigen Titel dermaßen gravierend, dass man mittlerweile einfach keine AMD Karte empfehlen kann um nicht zu sagen, man muss davor warnen. Die Einbrüche sind einfach zu krass.


Aber in diesem Forum wird man bei solchen Aussagen wie immer auf Granit stoßen. Das Problem wird heruntergespielt oder man wird als Fanboy hingestellt.
Na ja, soll jeder nutzen, was er für richtig hält. Ich kauf mir jedenfalls vorerst keine AMD Karte mehr. Wer die leistung seines i7 auf die Leistung eines i3 kastrieren will, der kann das ja trotzdem tun....

Finds nur schade, dass man solche drmatischen Erkenntnisse nicht mehr bei PCGH findet. Da wird immer mit nem 6700k im GPU limit gebencht. Das overhead Problem wird seit Monaten ignoriert oder nur halbherzig behandelt.
Nun, jetzt auch nicht mehr so wichtig, die Kollegen haben den Beweis nun schon zig mal erbracht, dass die AMD Treiber in manchen games, in denen CPU performance wichtig ist einfach nur Mist sind.

Trotzdem macht mich das irgendwie wütend, dass das Thema ständig ignoriert wird. Es ist schließlich kein Theoretisches, sondern ein praktisches.


Ähm, das habe ich doch gerade alles hier gemacht - sogar noch deutlich ausführlicher, als die Kollegen. ;)
Die CPU untertaktet, Threads deaktiviert, Frametimes sowie Auslastung in Graphen festgehalten - und das auch noch im vollen "CPU-Limit" (das eigentlich ein Drawcall-Limit ist) - die Auswirkungen kann man in allen Graphen beobachten, die Benchmarks zeigen die Unterschiede bei der Effizienz - würden die Drawcalls gleichermaßen limitieren, dann wäre das Ergebnis in den Benchmarks absolut gleich. Hier hat Nvidia aber einen kleinen Vorteil - kann man alles sehen. Die Nvidia wird mies ausgelastet, ebenso die CPU - genau das gleiche bei der AMD, nur ist die Auslastung bei der offenbar architekturbedingt nochmals ineffizienter.

Kann man die Limitierung aber nicht genau auf die Drawcalls festlegen (wie in quasi allen anderen Spielen und in Fallout 4 ist dies auch nur wegen eines externen Tools möglich), so kann man sich auch nie sicher sein, was denn da genau limitiert - Ist GW zugeschaltet, ist es in dem einen(!) Bild mit der Fury eindeutig GW (bzw. die eventuell dadurch ansteigenden Drawcalls, die ich aber wegen der externen API wohl nicht sehen kann)... In Rise of the Tomb Raider könnten es auch die Texturen sein, weil die CPU nicht mehr mit dem Streaming hinterherkommt, eine Nvidia eine andere Speicherverwaltung hat und offenbar mit dem Texturformat besser klar kommt (HQ-AF kostet auf AMD-GPUs aus wahrscheinlich dem gleichen Grund massiv Leistung). Oder es ist ein Auslastungsproblem der GPU, das eventuell auf einen der Grafikeffekte zurückzuführen ist - und wiederum dadurch verstärkt werden könnte, dass die CPU vielleicht zusätzlich die Auslastung herunterzieht. Die sind auf den Konsolen immerhin so konzeptioniert, dass sie teilweise asynchron berechnet werden, was zum effizienten Auslasten einer AMD aufgrund ihrer Architektur sehr hilfreich sein könnte. :)

Zudem läuft das Spiel sowieso schon schlechter auf AMD-GPUs und wurde zudem durch zumindest Mithilfe (wenn nicht gleich abgestellte Techniker) von Nvidia im Rahmen des TWIMTBP-Programm gesondert für Nvidia-GPUs optimiert. Einen offiziellen AMD-Fix, wie von Square Enix angekündigt, gab es hingegen noch nicht. Es ist sind zu viele Faktoren, um da eindeutig einen Schuldigen ausmachen zu können. - Mir ist nicht ganz klar, wie man mit so vielen Unbekannten auf einen ominösen Treiber-Overhead schließen kann, von dem bisher quasi noch nie einen stichhaltigen Beweis gesehen habe.

Nicht mal so richtig in Ashes of the Singularity, wo einem die Zeit im Treiber aka Overhead auch mal angezeigt wird, im Gegensatz zu fast allen anderen Benchmarks - da ist aber kaum ein Unterschied auszumachen, nur in Szenarien mit geringer Last ist der AMD-Treiber deutlich langsamer - da ist auch die GPU wesentlich langsamer, was wiederum für ein Auslastungsproblem spricht. Mit Direct X 12 und entfallender Drawcall-Limitierung revidiert sich das Ganze dann.

GTX_980_Ti_DX11_1080p-pcgh.jpg
R9_Fury_DX11_1080p-pcgh.jpg


Allerdings ist ein Blick auf solche Details natürlich interessant - aber eben auch zeitaufwendig wie die Seuche - das macht man nicht mal eben so nebenher, das kostet für ein einziges Spiel allermindestens(!) einen vollen Arbeitstag. Ich beispielsweise habe für sowas nur Zeit, wenn ich dafür auch die Zeit eingeräumt bekomme - oder wie hier neben dem eigentlichen Arbeitstag für Artikel plus GPU-Benchmarks nochmal gute 15 Stunden meiner Freizeit mit anschließendem Schlafmangel extra dranhänge (das war ein 23-Stunden-Arbeitstag - komplett durch! Das war allerdings auch komplett freiwillig, weil es mich selbst interessiert hat ;) ). Anders geht's nicht, ich habe nämlich auch noch anderes zu tun... beispielsweise ein Heft schreiben (wo man so einen Artikel tatsächlich mal bringen könnte - falls man denn die Zeit dafür finden könnte), der Schwesterzeitschrift aushelfen, Hardware-Tests, Entwickler-Interviews machen, etc.

Einen RAM-Test haben wir außerdem im kommenden Heft PCGH 04/2015.

EDIT: Das hab ich übrigens in keinster Weise übel genommen... also bitte auch nicht so auffassen.

Gruß,
Phil
 
Zuletzt bearbeitet:
Nicht mal so richtig in Ashes of the Singularity, wo einem die Zeit im Treiber aka Overhead auch mal angezeigt wird, im Gegensatz zu fast allen anderen Benchmarks - da ist aber kaum ein Unterschied auszumachen, nur in Szenarien mit geringer Last ist der AMD-Treiber deutlich langsamer - da ist auch die GPU wesentlich langsamer, was wiederum für ein Auslastungsproblem spricht. Mit Direct X 12 und entfallender Drawcall-Limitierung revidiert sich das Ganze dann.

>bilder<

Allerdings ist ein Blick auf solche Details natürlich interessant - aber eben auch zeitaufwendig wie die Seuche - das macht man nicht mal eben so nebenher, das kostet für ein einziges Spiel allermindestens(!) einen vollen Arbeitstag. Ich beispielsweise habe für sowas nur Zeit, wenn ich dafür auch die Zeit eingeräumt bekomme - oder wie hier neben dem eigentlichen Arbeitstag für Artikel plus GPU-Benchmarks nochmal gute 15 Stunden meiner Freizeit mit anschließendem Schlafmangel extra dranhänge (das war ein 23-Stunden-Arbeitstag - komplett durch!). Anders geht's nicht, ich habe nämlich auch noch anderes zu tun... beispielsweise ein Heft schreiben (wo man so einen Artikel tatsächlich mal bringen könnte - falls man denn die Zeit dafür finden könnte), der Schwesterzeitschrift aushelfen, Hardware-Tests, Entwickler-Interviews machen, etc.

vielleicht könntest du auch mal das hier nachstellen, wenn du die Zeit findest:
https://www.youtube.com/watch?v=o2b6Nncu6zY

die Nvidia scheint deutlich weniger von den Effekten zu rendern.
Die Schweif der Triebwerke, Rauch bei den Mörsern, Nebel in den Schluchten, ...
 
Zuletzt bearbeitet:
Zurück