PCGH.de: Left 4 Dead: Grafikkarten- und CPU-Benchmark-Test

Wieso checken die Meckerer hier eigentlich nicht, was mit einem worst case scenario gemeint ist?
Dass es schwierig oder gar unmöglich ist, das ganze Spile zu zocken, frapsen und dann mit ner anderen Karte das gleiche nochmal zu machen, um am Schluss sagen zu können, was die avg fps das ganze Spiel hindurch mit einer bestimmten Karte sind, das ist ja wohl mal klar!

Niemand, aber auch wirklich niemand hat hier gemeckert.
 
Bei ner min. Framezahl von 48FPS kann kein Mensch Mikroruckler erkennen, auch die Übermenschen vn PCGH nicht.
Im ungünstigsten Fall sind das µruckelnde 24 Fps ... und alles unter 40 Fps ist bei der Source-Engine nur bedingt spielbar. Gerade exzessive CSS-Spieler stören sich an so niedrigen Frameraten gewaltig - ich selbst auch.

cYa
 
Ich habe mal gehört/gelesen, dass es je nach Person unterschiedlich ist. Manche empfinden die Microruckler als störend, andere wiederum sehen diese noch nichteinmal. Genauso bei normalem Ruckeln. Ein Kumpel von mit hat ne 8600GT drinne, und da läufts halt nicht so butterweich. Wenn ich da vorsitzte würde, könnte ich net spielen, aber er empfindet es als nicht ruckelnd. Naja, ich das Problem mit meiner Graka ja net;)

Das liegt daran, das manche es nicht rallen bzw es egal ist :D

Genau so wie ein Kumpel der auf AA und AF besteht und mir das wurscht is ob es an ist, oder nicht (es stört mich nicht ob man starke Kannten sieht oder nicht). Ok manchmal wenn es zu krass ist mache ich es auch auf 2x oder 4x, aber an sich gucke ich mir nicht jede Dachpfanne von einem haus im spiel an, ob die 1:1 geglättet ist... :ugly:
 
Im ungünstigsten Fall sind das µruckelnde 24 Fps ... und alles unter 40 Fps ist bei der Source-Engine nur bedingt spielbar. Gerade exzessive CSS-Spieler stören sich an so niedrigen Frameraten gewaltig - ich selbst auch.

cYa

Du interpretierst die Sache falsch: Es kommt ja nicht nur jeder zweite Frame an, also kann von 24 ruckelnden FPS nicht die Rede sein. Die Sache ist so, dass bei Multi-GPUs die Zeit variiert, in der der nächste Frame berechnet wird, da die andere GPU erst mit den nächsten Frame beginnen kann, wenn sie mit dem vorherigern fertig ist usw.
Für die Mikroruckler ist es entscheidend, welche Zeit (in ms) benötigt wird, um den nächsten Frame zu berechnen. Gibt es eine große Varianz, können Mikroruckler entstehen. Wir bewegen uns aber hier bei den meisten Spielen bei einer zeitlichen Differenz von 3ms. Ich glaube nicht, dass jmd bei 50FPS (in der Sekunde) einen Unterschied von 3ms zwischen zwei der einzelnen Frames (davon 50 in der Sekunde) erkennen kann.

Außerdem spielst amn als "exzessiver" CSS-Spieler auf Auflösungen über 1900x1200? Sonst bekäme man keine 40FPS mit der SourceEngine und einer Dual GPU.

Aber ich will jetzt kein neues Fass aufmachen und daher schließe ich das Thema jetzt mal.
 
hat es einen Grund warum keine HD4870 mit 1024MB benutzt wurde aber eine 280GTX mit 1024MB?
 
@ RuneDRS

Weils die GTX nur mit 1.024 MiB gibt und 1 GiB bei der Radeon nichts bringt, da im Bench die 500 MiB nicht gesprengt werden.

@ toyoda

Die "große" X2 sorgte für Probleme, zudem wird bereits die HD4870 nach oben hin von der CPU limitiert.

cYa
 
Frage : Kann man die Cpu benchmark runterladen oder Braucht ich da die Left4dead Demo oder Vollversion um da die Bench laufen zu lassen :huh:
 
@ marc
Wie konnte man in der Demo einen benchmark laufen lassen?
Oder wie habt ihr das gemacht?

mfg

Edit: // Danke
 
Zuletzt bearbeitet:
Schade dass kein Core i7 920 mit gebencht wurde... :( Warum eigentlich nicht? Ist doch mittlerweile draußen und auf dem Markt die CPU
 
Hi, also ich habe die Demo auch durchgespielt und bin jetzt nicht sehr positive angetan. Ich dacht mir ich spiele Serious Sam, sinnloses abgeschlachte halt, zumindest die Demo empfand ich so. Natürlich, jedem das seine aber diese Art von Spiele ist nicht mein Genre, zu langweilig.
GreeZ
AranoiT

*** entfernt ***
 
Zuletzt bearbeitet von einem Moderator:
Zurück