Total War Attila - Das Strategiespiel im Technik-Test

Ich frag mich,wie viele Jahre es wohl dauern wird, bis man diesen Titel flimmerfrei (also min. 4xSSAA für 1080P) mit 60 FPS genießen können wird!
Ich tippe mal auf drei-fünf, vielleicht auch nie... :D

@PCGH: Wär mal schön, wenn ihr mal testen könntet, wie viel Performance die älteren TotalWar-Teile auf den neueren Karten so mittlerweile ausspucken können---die Problematik, dass keine Karte auf dem Markt 60 FPS in wirklich beeindruckenden Settings schafft ist ja mit TotalWar tief verbunden! :D
 
Die Häme gegenüber GTX970-Käufern ist hier einfach widerwärtig.
Nicht einmal in einem Hardware-Forum kann man normal mit erwachsenen Menschen diskutieren :(

Wir sind im Internet - hier wird die eigene Meinung oftmals unverblümter und aggressiver vertreten als es unter realweltlichen Umständen der Fall wäre, darauf muss man sich immer einstellen ;)

Abgesehen von jedem unangebrachten "Flame", gibt es durchaus auch Grund und Raum für berechtigte Kritik. Attila und Evolve zeigen derzeit überdeutlich, dass der Speicherbedarf aktueller Spiele geradezu enorm ansteigt, selbst mit 4 GB ist nicht mehr allzu viel Polster vorhanden, denn sonst wären die Unterschiede in den Frametimes zwischen GTX 970 und GTX 980 nicht derart deutlich.

Man kann jetzt argumentieren, dass das an fehlender Optimierung seitens der Macher und / oder daran liegt, dass es noch keine angepassten Treiber gibt. Beides trifft vermutlich zu einem gewissen Grad zu. Die Auswirkungen in der Praxis bleiben aber die gleichen und damit für Käufer der GTX 970 ziemlich ärgerlich, denn die Reserven, die man in diesem Preis- und Leistungsbereich eventuell doch noch erwarten würde, sind, dem Speicher sei Dank, offenbar nahezu aufgebraucht. Es ist nicht auszuschließen, dass bei den meisten kommenden Blockbustern ähnliches zu beobachten sein wird.

Oftmals konnte man in der Vergangenheit mit Recht sagen, dass die High-End-Karte einer Reihe sich nicht lohne, weil das nächstkleinere Modell nahezu genauso schnell sei, so dass, wenn diesem die Luft ausgehe, auch die schnellere Karte kaum noch Reserven habe. Sicher, die GTX 980 ist auf fast absurdem Level überteuert, daran ändert die GTX 970-Situation wenig, aber dennoch greift obiges Argument hier nicht mehr in gleichem Maße, weil der GM204 bzw. dessen Speicherarchitektur dafür auf zu unvorteilhafte Weise beschnitten wurden - die Leistung würde freilich auf relativ hohem Level genügen, aber der Speicher geht eben doch deutlich früher aus als es beim Vollausbau der Fall wäre. Häme ist natürlich trotzdem nichts, wozu man sich herablassen muss, warum dieser Umstand diese provoziert, ist aber dennoch ersichtlich.

Im Übrigen stellt sich mir hier jetzt die Frage, ob vergleichbare Einschnitte bei jedem teildeaktivierten Chip auf Basis der Maxwell-Architektur zu erwarten sind? Wie würde sich etwa ein analog zur GTX 780 mit GK110 beschnittener GM200 verhalten? Derzeit lässt sich ja noch keine wirkliche Parallele zu einem anderen Fall ziehen, weil GTX 960 und GTX 980 beide auf Vollausbauten ihrer jeweiligen Chips setzen ...

EDIT: Die ganze Speichersituation (und damit meine ich jetzt nicht spezifisch die GTX 970-Frage, sondern den Speicherhunger aktueller Titel allgemein) hat mich persönlich jedenfalls eines geleert: Größere Priorität auf diese Teilspezifikation zu legen. Ich habe meine GTX 770 damals sehr günstig erwerben können, habe sie deshalb einer HD 7970 vorgezogen. Aber obwohl der Chip auch jetzt in vielen Fällen noch einigermaßen gute Framerates produzieren könnte, fehlt ihm schlicht der Framebuffer. Dass AMD bei seinen jeweils parallelen Karten hier seit langer Zeit deutlich großzügiger, habe ich früher nicht sehr hoch bewertet, das war ganz klar ein Fehler.
 
Zuletzt bearbeitet:
Die Häme gegenüber GTX970-Käufern ist hier einfach widerwärtig.
Nicht einmal in einem Hardware-Forum kann man normal mit erwachsenen Menschen diskutieren :(
Ich weis nicht was du willst. Bisher sehe ich hier höchstens Häme gegen eine Grafikkarte die mit an Sicherheit grenzender Warscheinlichkeit gezielt mit falschen Spezifikationen verkauft wurde, aber nicht gegen die Käufer der selbigen. :ka:
Hast vollkommen recht---da hat mich der Butterwichtel doch eiskalt erwischt und sich einen meiner Upvotes erschlichen, obwohl seine Aussage gar nicht stimmt... :nene:
...aber den bekommt er auch gleich wieder entzogen, dieser betrügerische Upvotedieb! :ugly:
 
In der Review-Version gab es noch eine Option für einen Alpha-To-Coverage-Filter. Der kann nun nicht mehr seperat angewählt werden, sondern wird beim Multisampling automatisch zugeschaltet. Hier konnte eine Intel-exklusive Option aktiviert werden, dabei handelte es sich wahrscheinlich um eine AOIT-Implementierung ähnlich wie in Grid 2.
Ja, Rome 2 nutzt OIT via Pixel Sync Extension.
 
Komisch finde ich nur das Frametimemessungen von CB das Gegenteil sagen. CB Fazit, (in 1080p) die Frametimes der 970 wären nicht schlechter als die der 980.

Jetzt kann man wieder zu einem Thema unterschiedliche Tests sehen.
Es kann doch nicht sein, das man alles selber testen muss um mal ein verwertbares Ergebnis zu bekommen.

Und ich als GTX970 käufer hoffe doch das Nvidia wenigsten ein bisschen am Treiber arbeitet und z.B. die Speichergrundlast, durch Windows (ca275MB) in den lahmen Teil schiebt. Weil auch wenn die 970 ansonsten eine sehr gute Karte ist, ist die so keine 350Euro wert.

Schade das AMD keine Effizienten Karten mit Leistung im Programm hat.
Ich würde gerne wieder zu AMD wechseln, aber nicht im momentanen Produktportfolio.
 
Die Total War-Reihe ist doch schon seit langem für ihren Hardwarhunger und nicht ideale Optimierungen bekannt, von daher nix neues. Sieht zwar sehr schick aus, aber da wäre noch mehr drinnen gewesen. Mich würde jetzt nur interessieren, wo das grüne Lager bleibt, das Stein und Bein schwört, dass man das Speicherproblem doch frühestens 2016, wenn nicht gar erst 2017 merken wird...

@derneuemann

Ich weiß echt nicht, warum die Leute so ein Problem mit AMD-Karten haben. Die 280x ist zB in Atilla nicht weit hinter der GTx970 und in vielen anderen Spielen ist die 290 auf gleichem Niveau wie die 970, Leistung ist da und der Stromverbrauch? Wenn du den Rechner 10 Stunden am Tag unter Volllast laufen lässt, kommen da vielleicht 20 Euro im Jahr zusammen. Da kannst die Karte schon mal 2 Jahre laufen lassen, damit du das wieder drin hast....
 
Zuletzt bearbeitet:
Also schon der Vorgänger hatte anfangs mit extremen Leistungsproblemen zu kämpfen, diese haben sie aber im laufe der Zeit mit zahlreichen Patches und Nvidia Treiber updates in den Griff bekommen. Ich würde mir dieses Game auch nur kaufen wenn ers sehr günstig ist und es selbst mal testen, sonst eher nicht, die neugier zum Benchmarkn ist aber schon da :D
 
...Jetzt kann man wieder zu einem Thema unterschiedliche Tests sehen.
Es kann doch nicht sein, das man alles selber testen muss um mal ein verwertbares Ergebnis zu bekommen...

So wie sich die Beschreibung der Testszene liest würde ich vermuten CB hat den integrierten Benchmark genutzt. PCGH hat sich selbst eine fordernde Szene gesucht, was natürlich realistischere Bedingungen sind.
 
Eventuell sollte man mal als Hardware Magazin darüber nachdenken, generell Frametime Messungen anzufertigen und nicht nur für die GTX 970 980 und 290x, falls das zu viel Arbeit ist, lasst einfach die dämlichen nichts sagenden Balken weg, die kann man ausrechnen mit den frametimes, umgekehrt kann ich die Framtime Varianzen eher weniger ausrechnen.
 
Schade das [sic!] AMD keine Effizienten [sic!] Karten mit Leistung im Programm hat.
Warum kommt eigentlich immer wieder dieses Effizienz-"Argument" ungeachtet der erzielten FPS-Werte? Wir haben ja leider keine Leistungsaufnahmewerte speziell für Attila, aber ich ziehe für GTX 970 und die 290 Tri-X einfach einmal die von PCGH ermittelten Last-Werte heran und vergleiche diese mit den erzielten FPS.

MSI GTX 970 Gaming (~360€):

  • Zugrunde gelegte 3D-Leistungsaufnahme: 201 Watt.
  • Erreichte Min-FPS: 31 FPS; ~0,154 Min-FPS/W.
  • Erreichte Avg-FPS: 45,2 FPS; ~0,225 Avg-FPS/W.
  • Min-FPS/€: ~0,086. Avg-FPS/€: ~0,125

Sapphire 290 Tri-X OC (~294€):

  • Zugrunde gelegte Leistungsaufnahme: 267W.
  • Erreichte Min-FPS: 41 FPS; ~0,154 Min-FPS/W.
  • Erreichte Avg-FPS: 47,3 FPS; ~0,177 Avg-FPS/W.
  • Min-FPS/€: ~0,140. Avg-FPS/€: ~0,161

Fassen wir zusammen: Bei den Min-FPS erreicht die 290 Tri-X OC 10 FPS (~32%) mehr als die 970 Gaming, hinsichtlich der Effizienz liegen sie dabei gleichauf. Bei den Durchschnittswerten schrumpft der Vorsprung der 290 auf weniger als 5%, weswegen die 970 dort mit ihrer Effizienz punkten kann (~27% vorne).
Betrachten wir auch die FPS/€, liegt die 290 bei den Min-FPS brachial (~63%) und bei den Avg-FPS immer noch sehr deutlich (~29%) vorne.
Zusätzlich sollte beachtet werden, dass in diesem Spiel zum Testzeitpunkt gewisse Probleme auftreten, die offensichtlich mit der Ingeniersleistung der GTX 970 zusammenhängen.

Wie kann man angesichts eines solchen Tests und derart deutlicher Werte immer und immer wieder das Mantra der vorgeblichen Alternativlosigkeit einer Nvidia-Karte und speziell der GTX 970 wiederholen und AMDs Karten als meilenweit unterlegen darstellen? :ka:
 
Zuletzt bearbeitet:
Komisch finde ich nur das Frametimemessungen von CB das Gegenteil sagen. CB Fazit, (in 1080p) die Frametimes der 970 wären nicht schlechter als die der 980.

Jetzt kann man wieder zu einem Thema unterschiedliche Tests sehen.
Es kann doch nicht sein, das man alles selber testen muss um mal ein verwertbares Ergebnis zu bekommen.

Wir testen eine echte Ingame-Szene, bei Computerbase besteht der Test (vermutlich aufgrund der Reproduzierbarkeit) aus einer "Intro-Sequenz und einer kurzen Schlacht auf dem Spielfeld". Außerdem wird mit unterschiedlichen Details getestet. Das hat gewiss Auswirkungen.

Die neue GTX 969,5
s000.gif
lolaway2.gif

GTX 848,75 (-1/8, also -12,5 %), siehe die kommende PCGH 04/2015. ;)

MfG,
Raff
 
Aufschlussreicher Test, danke. Interessant wie stark die R9-285 ist, sogar vor der GTX770. Die 960 solltet ihr noch nachtesten.

Wird es auch noch CPU-Benchmarks geben?
 
Warum kommt eigentlich immer wieder dieses Effizienz-"Argument" ungeachtet der erzielten FPS-Werte? Wir haben ja leider keine Leistungsaufnahmewerte speziell für Attila, aber ich ziehe für GTX 970 und die 290X Tri-X einfach einmal die von PCGH ermittelten Last-Werte heran und vergleiche diese mit den erzielten FPS.

MSI GTX 970 Gaming (~360€):

  • Zugrunde gelegte 3D-Leistungsaufnahme: 201 Watt.
  • Erreichte Min-FPS: 31 FPS; ~0,154 Min-FPS/W.
  • Erreichte Avg-FPS: 45,2 FPS; ~0,225 Avg-FPS/W.
  • Min-FPS/€: ~0,086. Avg-FPS/€: ~0,125

Sapphire 290 Tri-X OC (~294€):

  • Zugrunde gelegte Leistungsaufnahme: 269W.
  • Erreichte Min-FPS: 41 FPS; ~0,152 Min-FPS/W.
  • Erreichte Avg-FPS: 47,3 FPS; ~0,176 Avg-FPS/W.
  • Min-FPS/€: ~0,140. Avg-FPS/€: ~0,161

Fassen wir zusammen: Bei den Min-FPS erreicht die 290 Tri-X OC 10 FPS (~32%) mehr als die 970 Gaming, hinsichtlich der Effizienz liegen sie dabei gleichauf. Bei den Durchschnittswerten schrumpft der Vorsprung der 290 auf weniger als 5%, weswegen die 970 dort mit ihrer Effizienz punkten kann (~28% vorne).
Betrachten wir auch die FPS/€, liegt die 290 bei den Min-FPS brachial (~63%) und bei den Avg-FPS immer noch sehr deutlich (~29%) vorne.
Zusätzlich sollte beachtet werden, dass in diesem Spiel zum Testzeitpunkt gewisse Probleme auftreten, die offensichtlich mit der Ingeniersleistung der GTX 970 zusammenhängen.

Wie kann man angesichts eines solchen Tests und derart deutlicher Werte immer und immer wieder das Mantra der vorgeblichen Alternativlosigkeit einer Nvidia-Karte und speziell der GTX 970 wiederholen und AMDs Karten als meilenweit unterlegen darstellen? :ka:


Ähm, die Effizienzbetrachtung ist in diesem Beispiel aber irgendwie Banane, oder? Genauso wie bei einem Gameworks Titel und AMD, ohne Treiberupdate.

Abgesehen davon ist die Architektur bei AMD quasi Uralt und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks. Hinzu kommt der deutlich bessere Treiber Support bei Nvidia. Mantle ist auch kein gutes Argument, dank DirectX 12. Als Hersteller (egal in welcher Branche) muss man Alleinstellungsmerkmale schaffen und das versäumt AMD irgendwie. True Audio wird faktisch nicht genutzt und Mantle auch eher weniger, wobei es mit DX12 zusätzlich noch obsolet wird.
 
Ähm, die Effizienzbetrachtung ist in diesem Beispiel aber irgendwie Banane, oder? Genauso wie bei einem Gameworks Titel und AMD, ohne Treiberupdate.

Abgesehen davon ist die Architektur bei AMD quasi Uralt und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks. Hinzu kommt der deutlich bessere Treiber Support bei Nvidia. Mantle ist auch kein gutes Argument, dank DirectX 12. Als Hersteller (egal in welcher Branche) muss man Alleinstellungsmerkmale schaffen und das versäumt AMD irgendwie. True Audio wird faktisch nicht genutzt und Mantle auch eher weniger, wobei es mit DX12 zusätzlich noch obsolet wird.

Zum Thema Verbrauch guck dir mal ein test zur neuen 290x tri x 8gb an...
Alte Architektur hat ja wohl nichts mit den Effekten zu tun . Die amds können Alles da stellen nur werden sie durch dein tolles nv gw ausgebremst. Danke dafür.
 
Ähm, die Effizienzbetrachtung ist in diesem Beispiel aber irgendwie Banane, oder? Genauso wie bei einem Gameworks Titel und AMD, ohne Treiberupdate.

Abgesehen davon ist die Architektur bei AMD quasi Uralt und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks. Hinzu kommt der deutlich bessere Treiber Support bei Nvidia. Mantle ist auch kein gutes Argument, dank DirectX 12. Als Hersteller (egal in welcher Branche) muss man Alleinstellungsmerkmale schaffen und das versäumt AMD irgendwie. True Audio wird faktisch nicht genutzt und Mantle auch eher weniger, wobei es mit DX12 zusätzlich noch obsolet wird.

Anmerkung: Mantle wird mit DX12 nicht obsolet, da sie beide mehr oder weniger die gleiche Basis nutzen. Zusätzlich würde ich Mantle bzgl. der Engine und der Spiele (Battlefield-Serie, min. 2 Star-Wars-Spiele, Bioware-Titel) nicht unbedingt abschreiben. Die Gameworks-Effekte können zu 99 % auch mit AMD-Karten genutzt werden, hier geht es um die - durchaus bescheidene - Performance. PhysX ist das einzige Feature dass du nicht erwähnt hast, welches den AMD-Karten - neben G-Sync - aber unwiderruflich fehlt. Wenn du schon argumentierst, dann bitte fundiert ;)

PS: Mein tägliches Arbeitsgerät ist eine nVidia Quadro K5200 =)
 
Wenn die Architektur von AMD so uralt ist, ist es dann nicht ein Armutszeugnis für nvidia, wenn sie diese uralte Architektur mit ihren Chips nicht in Grund und Boden stampfen? Und die einzigen exklusiven Effekte sind Physx-Effekte und HBAO+, alles andere läuft auf AMD-Karten genauso, der einzige Unterschied ist, dass AMD nicht sofort in Gameworks-Titeln optimieren kann, sondern dank nvidia einige Zeit dafür braucht, und dann laufen die uralten AMD-Karten komischerweise gleich schnell bzw. teilweise sogar besser (AC-Unity).

Und diese Treibergedöns geht mir langsam richtig auf den Zeiger. Wie man sieht, hab ich eine GTx 470. Was haben mir die nvidia-Treiber bis jetzt gebracht?

Einmal eine Beinaheröstung meines Chips dank eines fehlerhaften Nvidiatreibers, dann immer wiederkehrende Mirkroruckler, die viele Besitzer der 400er und 500er Serie plagen, die nivida nie gelöst hat, immer wiederkehrende Abstürze des Treibers, wieder verbreitet in der 400er und 500er Serie, die nivida bis heute nicht gelöst hat, die sich aber je nach Treiberversion unterscheiden, was einen zur Weißglut treiben kann und noch vieles mehr. Zuvor mit AMD-Karten in 8 Jahren keine gröberen Probleme gehabt, hat für mich nvidia miese Treiber? ja, aber ich sag auch nicht dass sie generell sch**** sind, aber es zeigt nur, dass auch die Treiber von nvidia nicht das Gelbe vom Ei sind, also hört auf hier immer diesen M*** zu verzapfen, von wegen AMD-Treiber sind Müll und die Nvidia-Treiber sind die ultimativen Softwarelösungen programmiert vom Softwaregott persönlich...
 
Mir liegt die Effizienz am herzen, weil eine geringe Leistungsaufnahme gleichzeitig auch leichter gekühlt werden kann und kompakter.
Und ich hatte eine 290X und die ASUS GTX970 Strix.
Beide mit Luft gekühlt, lag der unterschied bei ca 110-125W Gesamtaufnahme.
Dazu ist die 970 gefühlt in den Games die ich Spiele schneller, als meine 290X sogar mit OC. (FC3/4, BF4, Metro LL, Crysis3)
Also eine Effizienzbetrachtung in einem Spiel, ist ein bisschen lächerlich. ;)
Ich habe keine Aussage zur Leistung der 290 bisher getätigt. Als Gesamtpaket sehe ich keine Alternative!
Okay, ich könnte mir wieder eine Gebrauchte HD7950 suchen. Die war besser vom Gesamtpaket.

Beren2707 wo soll das denn hin führen? Die nächste Karte von AMD kommt mit 300W und AiO, dann ein Jahr später 350W und so weiter?
Nicht in zeiten mit 800W Staubsaugern.
Es gibt nach wie vor keine 290X die Silent ist! Die Vapor ist gut, aber Silent nur mit Undervolting und weniger Takt (habe selbst schon eine getestet). Und selbst dann ist das nicht Silent.
Deine Betrachtung der Leistungsaufnahme ist halt, für nur ein Spiel, putzig und Farbenblind. Also man sieht nur rot ;)

@PCGH Raff wollte eure Testmethoden nicht anzweifeln, jedoch war es schon immer so, das z.B. PCGH/HT4U/TH/HWluxx usw. zu unterschiedlichen Ergebnissen kamen. Jetzt generell bei GPU´s. Das ist halt schwierig zu bewerten, wenn man nicht jede Karte selbst in die Hand nehmen kann.

Wär nicht schlecht wenn man hier mal ganzen Anfeindungen mal lassen könnte, kaum ist man für ein Produkt kommt ein anderer grün toll, rot schlecht und der nächste rot toll, grün schlecht.
 
Zuletzt bearbeitet:
Abgesehen davon ist die Architektur bei AMD quasi Uralt und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks.
Die Uraltarchitektur wischt mit Nvidias toller moderner 350 Euro Lösung (Huang findet 3,5+05, GiB ja richtig geil) derzeit in jedem speicherlastigen Spiel (also fast jedes neue :ugly:) den Boden auf und in 1440p+ sowieso.

Definiere "viele"! Gibt's inzwischen mehr als 3 PhysX Spiele pro Jahr? Ist der TXAA Matsch ein brauchbares Feature?
 
Ähm, die Effizienzbetrachtung ist in diesem Beispiel aber irgendwie Banane, oder? Genauso wie bei einem Gameworks Titel und AMD, ohne Treiberupdate.

Abgesehen davon ist die Architektur bei AMD quasi Uralt und außerdem fehlen bei den AMD Karten (leider) viele optische Effekte in leider immer mehr Spielen, "dank" Gameworks. Hinzu kommt der deutlich bessere Treiber Support bei Nvidia. Mantle ist auch kein gutes Argument, dank DirectX 12. Als Hersteller (egal in welcher Branche) muss man Alleinstellungsmerkmale schaffen und das versäumt AMD irgendwie. True Audio wird faktisch nicht genutzt und Mantle auch eher weniger, wobei es mit DX12 zusätzlich noch obsolet wird.

Der "deutlich bessere Treibersupport" ist ein Ammenmärchen aus längst vergangenen Tagen. Wirkliche Probleme mit Spielen treten nur noch sehr selten auf, meistens sind das Probleme zum Release von Spielen die GameWorks nutzen (wie merkwürdig ??). Übrigens ist die Architektur bei nVidia genauso alt, Maxwell ist ja auch nur ein verbesserter Kepler, nur wurde es halt Maxwell genannt statt Kepler 1.2. Diese Effekte sind schön und gut, aber die allermeisten unterstützen auch AMD Karten und für die handvoll übrigen unterstütze ich keine Firma, die immernoch behauptet die GTX 970 wäre gut designed.
 
Zurück