Lords of the Fallen im Techniktest mit 15 Grafikkarten: Vorteile durch 4 und 6 GiByte Grafikspeicher

@PCGH
Guter Test, schön das ihr dieses Spiel getestet habt - auch wenn der Test ein wenig spät erscheint.
Dieses Spiel steht auf meiner Kaufliste, endlich mal wieder ein Spiel was mir gefällt und würdig ist zu kaufen, aber erst in einiger Zeit, weil ich noch nicht die neue GraKa habe, und ich noch warten will bis ein weiterer Patch erscheint der die noch bestehenden Probleme behebt, sprich "ich will kein Beta-Tester für Patches sein".
Aber beim Punkt "Prozessorleistung geprüft" muss ich einfach Kritik üben, das für so einen Test diese halben Integer-Kerne von Amd als Norm genommen werden stößt mir übel auf, das nächste mal bitte wieder mit einem Intel Prozessor testen.
 
Vram ist halt nicht alles, die Rohleistung der Karte muss auch stimmen.
Ich würde zu gerne die GTX 580 mit 3GB Vram in dem Benchmark sehen, einfach nur weil sie bereits zu langsam ist. Und eine 280X schafft bei FullHD auch "nur" 40FPS, ab 1440p, wo 3GB Vram empfehlenswert werden, fällt sie auf unter 30FPS. Da hilft es nur noch die Details zu reduzieren was auch einen geringeren Vram-Verbrauch zur Folge hat.
Texturen haben nichts mit Rohleistung zu tun. Die Texturdetails zu erhöhen, kostet in der Regel überhaupt keine Performance, sondern nur Speicher. Mit einer GTX 580 3GiB könnte man heute wohl nicht mehr mit maximalen Details spielen, wohl aber mit sehr sehr schönen Texturen.

Umgekehrt kackt die 270X mit maximalen Details ja ziemlich ab. Sobald man aber ausschließlich die Texturdetails um eine (evtl. nichtmal sichtbare) Stufe reduziert verdoppelt die die Framerate fast (siehe Vergleichswert der 280).

Zuwenig Ram kann man sehr gut kompensieren. Ich halte die Speicherdiskussion für total überzogen. Nur weil jetzt auf einmal massig Spiele mit einer Ultra Einstellung kommen, die 4GiB sprengt, sind 2 GiB Karten nicht unbrauchbar. Man kann halt ein einziges Setting (das in 1080p oft nichtmal visuelle Auswirkungen hat) jetzt nicht mehr auf's Maximum drehen.
 
ΔΣΛ;6938105 schrieb:
Aber beim Punkt "Prozessorleistung geprüft" muss ich einfach Kritik üben, das für so einen Test diese halben Integer-Kerne von Amd als Norm genommen werden stößt mir übel auf, das nächste mal bitte wieder mit einem Intel Prozessor testen.

CMT ist "mehr Kern" als SMT. ;) Außerdem kann ich die FX-Tests nach dem Verlassen des Büros zuhause durchführen (nur deswegen sind die Werte vorhanden).

MfG,
Raff
 
Lustiger aber leider nicht ernstzunehmender Benchmark.
Wurde wie so üblich mal wieder nur in den maximalen Einstellungen getestet *gähn*.

Die GTX970 kommt bei mir auf um die ~90 FPS in 1080P und auf um die ~70 FPS in 1440P.
 
Zuletzt bearbeitet:
Frei nach Fisherman's Friend: Sind die Details zu stark, ist dein Rechner zu schwach. ;) Schalter-Tuning (Optionen an/aus) betreiben wir im Heft – aber nicht bei diesem Spiel, sorry.

MfG,
Raff
 
Mal ne ganz andere Frage: Wie hast du den Afterburner dazu überredet, dass oben links die Statistiken angezeigt werden?
Das klappt bei mir in allen Spielen und Tools wunderbar, bei LotF ist die Anzeige aber nicht sichtbar.

Nicht, dass es stören würde (ich brauche sie ja nicht) aber woran hängts?
 
Frei nach Fisherman's Friend: Sind die Details zu stark, ist dein Rechner zu schwach. Schalter-Tuning (Optionen an/aus) betreiben wir im Heft – aber nicht bei diesem Spiel, sorry.


Müsstet dann ja auch COD AW mit x16SSAA testen mit der Schlussfolgerung das es unter einem TitanBE SLI System nicht läuft.
Was bringen einem Benchmarks in Ultra Settings? Nichts.
 
Müsstet dann ja auch COD AW mit x16SSAA testen mit der Schlussfolgerung das es unter einem TitanBE SLI System nicht läuft.
Was bringen einem Benchmarks in Ultra Settings? Nichts.

Was bringen GPU Benchmarks die CPU limitiert sind?

GPU Benchmarks machen überhaupt nur dann Sinn, wenn die Grafikoptionen ausgereizt sind. Nur in Einzelfällen kann es Sinn machen, bestimmte Optionen auszulassen. Der Leser kann doch immer sehen, wo seine Hardware liegt und daraus ableiten, ob er bei den Grafikeinstellungen Kompromisse eingehen muss oder nicht.
 
Meine AMD HD 7970 3 GB langt gottseidank noch für dieses Spiel und muß mir trotzdem schon Gedanken machen wegen Aufrüstung auf eine aktuelle schnellere Grafikkarte wegen Assassins Creed Unity.
 
Müsstet dann ja auch COD AW mit x16SSAA testen mit der Schlussfolgerung das es unter einem TitanBE SLI System nicht läuft.
Was bringen einem Benchmarks in Ultra Settings? Nichts.
Versuchst du gerade ernsthaft die Redakteure zu überreden, die Settings beim nächsten Spiel doch bitte lieber mit Hilfe eines Würfels auszuwählen? :ugly:
 
Normalerweise nutze ich sie nur als Übergangs-Karte oder wenn mal was schief läuft beim flashen, aber nun habe das Ganze jetzt mal mit einer Palit 750 Ti StormX Dual als dedizierte PhysX Karte getestet.
Das klappt wunderbar und ist auch in 2880x1800 durchaus gut spielbar.
Was mich dabei ein wenig wundert, obgleich genügend platz zwischen den beiden Karten ist und das Gehäuse gut belüftete wird, ist die GTX 980 4-5°C Wärmer als zuvor.
Mit ein zwei °C hatte ich gerechnet, aber gleich so viel :confused: nun ja 71°C sind schließlich mehr als erträglich von daher, auch egal.

Worauf es ankommt, auch mit einer dedizierten PhysX Karte läuft es in voller Pracht.
 
Also ich besitze ja nur eine GTX 670 mit 2 GB Ram und kann mich bei dem Spiel hier nicht beklagen, läuft in FullHD auf sehr Hoch eigentlich angenehm flüssig. Bevor Dx12 nicht da ist, werde ich einen Teufel tun und Geld für eine neue Grafikkarte ausgeben.:daumen:
 
Lustiger aber leider nicht ernstzunehmender Benchmark.
Wurde wie so üblich mal wieder nur in den maximalen Einstellungen getestet *gähn*.

Die GTX970 kommt bei mir auf um die ~90 FPS in 1080P und auf um die ~70 FPS in 1440P.


der wievielte Fakeacc ?
Langsam nervt es nurnoch. Und ich sehe schon wieder einen Fakeacc von ihm :ugly:
Scheint wohl der selbe User zu sein, der auch immer wieder im CB Forum rumtrollt, seit Wochen.
 
Zurück