Total War Attila - Das Strategiespiel im Technik-Test

Danke für den ausführlichen Test :)

Anhand mancher Aussagen hier (auch gerade über die GTX 960) und den Vorwürfen PCGH gegenüber merkt man deutlich, wer "nur" hier über Berichte (drüber) liest, und wer z.B. auch noch das Heft von PCGH daheim hat.

Anders kann man sich so manche "Aussage" die schon eine Frechheit bedeutet, nicht erklären.

Aber Back to Topic : Attila wird erst gekauft, wenn ich mal Rome II durch habe :D Bis dahin dürfte es wohl für 8 Euro im Winter-Sale auftauchen bei Steam :D

Greetz Erok
 
Ist hier eigentlich kein AMD vs. Nvidia-Thread, mir ging's nur um die getroffene Aussage im Sinne von "Es gibt keine effizienten und leistungsfähigen Karten von AMD!". ;) Schlimm, dass man nicht einmal isoliert einzelne Spiele betrachten kann, sondern direkt wieder "Aber Hersteller XY hat doch bessere Treiber und überhaupt, ohne Physx ist alles doof! In Spiel XY schlägt die Effizienz aber mehr durch etc. pp!" Aussagen kommen, weil man sich offensichtlich (wieso eigentlich?) auf den Schlips getreten fühlt. :nene:

Aber um das aufzugreifen:
Abgesehen davon ist die Architektur bei AMD quasi Uralt
Spricht es also für die GTX 970, dass sie trotz neuer gegen alter Architektur, ihres jüngeren Alters (~3/4 Jahr) und höheren Preises "dank" einer besonderen Ingenieursleistung in diesem konkreten Beispiel (es geht um die FPS in Attila...) hinterherhinkt? :huh:
[...]und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks.
Ist für dieses Thema und Attila völlig belanglos und OT. ;) Über die Sinnhaftigkeit mancher Gameworks-Effekte kann man sich auch streiten, außerdem laufen einige davon auch auf AMD-Karten.
Hinzu kommt der deutlich bessere Treiber Support bei Nvidia.
Oha, der "AMD Treiber sind doof!"-Glaube. Hast du konkrete Beispiele, dass Nvidia-Treiber grundsätzlich "besser" (woran macht man das genau fest?) als diejenigen von AMD sind? Oder darf ich das als unreflektiertes Nachplappern werten? Hast du eigene (konkrete) Erfahrungen zu diesem Thema mit aktuellen Produkten? Ich selbst bastele regelmäßig PCs mit Karten beider Hersteller zusammen und würde behaupten, dass diese Aussage falsch ist, die Treiber geben sich mMn nichts, was besonders erwähnenswert wäre. ;)
Mantle ist auch kein gutes Argument, dank DirectX 12.
Eine bereits in einigen Spielen nutzbare API ist also kein Argument, das nicht erschienene DX12 aber schon, bei dem man nicht weiß, inwieweit es von den aktuellen Karten überhaupt unterstützt wird? :haha: Danke sehr.
True Audio wird faktisch nicht genutzt und Mantle auch eher weniger, wobei es mit DX12 zusätzlich noch obsolet wird.
Daran werde ich denken, wenn ich die Tage wieder BF4 und DA:I spiele (mit Mantle) und mit Garrett auf Diebestour gehe (mit Mantle und TrueAudio). ;)

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Also eine Effizienzbetrachtung in einem Spiel, ist ein bisschen lächerlich. ;)
Hier geht es aber um die erzielten Werte in Attila und nicht um einen Markenkrieg. ;) Absolute Aussagen zur Effizienz, die vollkommen am Thema vorbeiführen, leisten keinen Beitrag zum Thema. Wen interessiert es denn, ob eine GTX 970 in anderen Spielen gute Werte erzielt und die Karte effizienter als Konkurrenzprodukte ist, wenn das gar nicht das Thema ist? Ich wiederhole: Es geht hier nicht um die allgemeine Bewertung der Karten, auch wenn diese allgemeinen Verteidigungsreflexe (Effizienz, Lautheit, andere Spiele, Physx, GameWorks) hier wieder auftreten.
Beren2707 wo soll das denn hin führen? Die nächste Karte von AMD kommt mit 300W und AiO, dann ein Jahr später 350W und so weiter?
Bitte nicht unsachlich werden. Vergiss nicht, dass Nvidia vor Maxwell auch Karten gebaut hat. Betrachte bitte die Leistungsaufnahme einer 780 (Ti) Custom und vergleiche diese mit 290(X) Custom-Modellen. ;) Außerdem kann ich mir von Effizienz nichts kaufen, wenn die effizientere Karte dafür ruckelt.
Es gibt nach wie vor keine 290X die Silent ist! Die Vapor ist gut, aber Silent nur mit Undervolting und weniger Takt (habe selbst schon eine getestet). Und selbst dann ist das nicht Silent.
Würde ich so unterschreiben. MMn ist aber auch die 970 Strix nicht "silent". Silent sind für mich eine Wasserkühlung oder ein Morpheus bei ~500-600 U/Min. ;)
Was hat die Lautstärke nochmal mit der Leistung in Attila zu tun? :ka:
Deine Betrachtung der Leistungsaufnahme ist halt, für nur ein Spiel, putzig und Farbenblind. Also man sieht nur rot ;)
Ist halt hier das Thema, tut mir ja leid, dass ich pauschale Aussagen nur aufs Thema beziehe und einen allgemeinen AMD vs. Nvidia-Austausch, der letztlich voller belangloser Subjektivitäten sein wird, unnötig empfinde. Die letzte Aussage darf ich als Fanboy-Bezeichnung werten, ja? Weil ich eine AMD-Karte besitze und mMn fehlerhafte Aussagen korrigiere, bin ich jetzt ein AMD-Fanboy? :devil: Ich werde dran denken, wenn ich demnächst wieder ein GTX 980-System zusammenschraube. :)
Tut mir sehr leid, dass ich deine pauschale Aussage kritisiert und aufs Thema bezogen habe, in Zukunft wird das nicht mehr vorkommen. :ugly:

Bevor das hier wieder ausartet, bitte ich um eine Rückkehr zum Thema (Attila und dort erzielte FPS-Werte). Für eine weitere Diskussion bin ich gerne per PN bereit, aber hier ist das wirklich zu sehr OT.

Mit den besten Grüßen,
beren2707
 
Zuletzt bearbeitet:
Eine "recht starke Unschärfe?" Schaut jetzt ehrlich gesagt nicht viel anders, als beim Downsamplingshot aus. Wie verhält es sich eigtl. wenn man Downsampling mit MLAA kombiniert?
 
Anmerkung: Mantle wird mit DX12 nicht obsolet, da sie beide mehr oder weniger die gleiche Basis nutzen. Zusätzlich würde ich Mantle bzgl. der Engine und der Spiele (Battlefield-Serie, min. 2 Star-Wars-Spiele, Bioware-Titel) nicht unbedingt abschreiben. Die Gameworks-Effekte können zu 99 % auch mit AMD-Karten genutzt werden, hier geht es um die - durchaus bescheidene - Performance. PhysX ist das einzige Feature dass du nicht erwähnt hast, welches den AMD-Karten - neben G-Sync - aber unwiderruflich fehlt. Wenn du schon argumentierst, dann bitte fundiert ;)

PS: Mein tägliches Arbeitsgerät ist eine nVidia Quadro K5200 =)


Sehe ich genau wie du, mit dem fundiert:

https://developer.nvidia.com/gameworks-physx-overview

99%, wohl eher zu 80% können (bzw. dürfen) nicht von AMD Karten berechnet werden.


Was die alte Architektur betrifft, gibt es genug die sich keine 3 Jahre? alte (oder 2?, macht auch nichts, beides in dieser Branche alt) Technik in den Rechner bauen wollen.

Ach so, Mantle: stimmt es könnte tatsächlich für AMD nicht obsolet werden, aber bestimmt nicht, weil DX12 irgendwas fundamental schlechter macht als Mantle, sondern höchstens weil AMD kein Bock hat oder jede Menge Kohle mit Mantle verbrannt hat.
 
Zuletzt bearbeitet:
Sehe ich genau wie du, mit dem fundiert:

https://developer.nvidia.com/gameworks-physx-overview


Was die alte Architektur betrifft, gibt es genug die sich keine 3 Jahre? (oder 2?, macht auch nichts, beides in dieser Branche alt) alte Technik in den Rechner bauen wollen.

Ach so, Mantle: stimmt es könnte tatsächlich für AMD nicht obsolet werden, aber bestimmt nicht, weil DX12 irgendwas fundamental schlechter macht als Mantle, sondern höchstens weil AMD kein Bock hat oder jede Menge Kohle mit Mantle verbrannt hat.

1) Gameworks umfasst eine gesamte Bibliothek, wobei ich mich auf die optischen Effekte ohne PhysX bezogen haben - ebenso wie du^^
2) Das Alter einer Architektur kannst du nicht abschätzen, da du nicht weißt, wann diese am Reisbrett - möglicherweise vor Jahrzehnten - entworfen wurde. Abgesehen davon, habe ich dir übrigens noch nicht einmal widersprochen
3) Ich habe nie behauptet, dass DX12 etwas schlechter machen wird, sondern nur, dass beide eine sehr identische Basis aufweisen. Woher allerdings du jetzt schon weißt, wie sich DX12 unter realen Bedingungen bewähren wird, finde ich äußerst spannend

Wie von Beren angesprochen, kann das Thema gerne per PN weitergeführt werden^^
 
Zuletzt bearbeitet:
Also ich sprach von optischen Effekten, Zitat: "außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen"

Und nein ich wurde nicht von einer AMD Karte betrogen, sondern von einer Nvidia.
 
@PCGH
Wie performed die 770 4GB so?
Hab so meine befürchtungen wenn ich Attila kaufe und in 4K spielen muss:(
Zum Glück reichen mir 20 FPS bei Totalwar
 
Die GTX 960 ist jetzt übrigens mit dabei. Die schlägt sich gar nicht schlecht, in 1440p ist sie sogar geringfügig flotter (min.-Fps) als eine GTX 770.
Die Karte lag nicht auf meinem Haufen Standard-Karten, die ich für Spiele-Tests nutzte, daher hab ich sie beim Abarbeiten glatt vergessen :ugly:.

Um nochmal zur GTX 970 zu kommen: Das die Frametimes so unruhig ausfallen, kann Nvidia sicher mit einem Treiberupdate zumindest abmildern. Man sollte auch bedenken, dass Microruckeln in einem eher gemächlichen Strategiespiel mit Top-Down-Perspektive deutlich weniger stark auffällt als in einem schnellen Shooter aus der Ego-Perspektive. Das Bild ist einfach nicht so dynamisch. Deswegen muss man schon genauer hinsehen, um das Microruckeln zu sehen. Mich würde tatsächlich wundern, wenn das vielen Spielern überhaupt auffallen würde. Und alle Karten mit 3 GiByte oder weniger zeigen zumindest leichtes Speicherruckeln. Nur GTX 980 und R9 290(X) wirken wirklich flüssig - eine GTX 770 mit 4 GiByte würde wahrscheinlich auch gleichmäßige Bilder ausspucken (bezogen auf 1080p ohne AA). Trotzdem ist das ganze natürlich sehr ärgerlich, von der Performance her fühlt sich die GTX 970 in Attila eher wie eine 3-GiByte- als 4-GiByte-GPU an.

@hanfi104: Ich hab sie interessanterweise ja grade erwähnt... Ich habe die 4-GiByte-Version nicht getestet, ich hab grad keine hier. Kann sein, dass Raff noch irgendwo eine gebunkert hat, aber der Schuft hat im Moment Urlaub und ich konnte in seinen GPU-Stapeln keine entdecken ohne ein riesiges Chaos anzurichten ;-) In 1080p dürfte die aber ganz gut parat kommen. Hast du ein UHD-Display oder willst du downsamplen? Bei Letzterem könntest du ja auch mal 2.880 × 1.620 probieren, das spart nicht unerheblich Leistung (sieht auf einem UHD-Display allerdings nicht sehr hübsch aus...).

Gruß,
Phil
 
Zuletzt bearbeitet:
@ Phil
Bei Rome 2 hat eine höhere Auflösung "kaum" Leistung gekostet, kann mir jetzt nicht vorstellen das da Attila anders agiert.
 
@Ion: Ja, das liegt höchstwahrscheinlich am knappen Speicher. In 1.080p fällt mit einer 3-GiByte-GPU wie gesagt schon deutliches Microruckeln auf. Die GTX 780 Ti kann da aber wohl wegen ihrem 384-Bit-Interface noch gegenhalten, in 1440p ist dann aber Sense.

@Hanfi: Ich hab mit 4K rumprobiert als ich mir überlegt habe, was ich messen soll, da hab ich keine vernünftigen Bildraten hinbekommen (schon auf der Strategiekarte u30 Fps - siehe Video @ ~03:50 im Übrigen). Das waren allerdings auch Ultra-Settings. Hier und da ein wenig Detailverzicht, dann könnte es klappen. Der Speicher wird aber mit einiger Sicherheit eng :)

Gruß,
Phil
 
@hanfi104: Ich hab sie interessanterweise ja grade erwähnt... Ich habe die 4-GiByte-Version nicht getestet, ich hab grad keine hier. Kann sein, dass Raff noch irgendwo eine gebunkert hat, aber der Schuft hat im Moment Urlaub und ich konnte in seinen GPU-Stapeln keine entdecken ohne ein riesiges Chaos anzurichten ;-) In 1080p dürfte die aber ganz gut parat kommen. Hast du ein UHD-Display oder willst du downsamplen? Bei Letzterem könntest du ja auch mal 2.880 × 1.620 probieren, das spart nicht unerheblich Leistung (sieht auf einem UHD-Display allerdings nicht sehr hübsch aus...).

Gruß,
Phil

Raff, der Schuft, hat tatsächlich noch eine MSI GTX 770 Gaming 4G für solche Zwecke gebunkert, ebenso eine MSI R9 280X Gaming mit 6 GiB. Die müsste ich im Spezialfundus aber auch suchen. -> Update nächste Woche. :devil:

MfG,
Raff
 
Die Total War-Reihe ist doch schon seit langem für ihren Hardwarhunger und nicht ideale Optimierungen bekannt, von daher nix neues. Sieht zwar sehr schick aus, aber da wäre noch mehr drinnen gewesen. Mich würde jetzt nur interessieren, wo das grüne Lager bleibt, das Stein und Bein schwört, dass man das Speicherproblem doch frühestens 2016, wenn nicht gar erst 2017 merken wird...

@derneuemann

Ich weiß echt nicht, warum die Leute so ein Problem mit AMD-Karten haben. Die 280x ist zB in Atilla nicht weit hinter der GTx970 und in vielen anderen Spielen ist die 290 auf gleichem Niveau wie die 970, Leistung ist da und der Stromverbrauch? Wenn du den Rechner 10 Stunden am Tag unter Volllast laufen lässt, kommen da vielleicht 20 Euro im Jahr zusammen. Da kannst die Karte schon mal 2 Jahre laufen lassen, damit du das wieder drin hast....

Ich habs mal schnell hochgerechent: ca. 20W/h Mehrverbrauch von der AMD-Graka; 10 h pro Tag; 364 Tage im Jahr; Strompreis in Österreich ~ 0,25 EUR/KWh --> ergibt höhere Verbrauchskosten von 18,20 EUR im Jahr. :-)
 
Zurück