Titanfall 2: Erste Grafikkarten-Benchmarks aus der Einzelspieler-Kampagne

Auch wenn ich nicht gerne auf Benchmarks anderer Seiten zugreife, kommt hier das Verhältnis GTX 970 vs GTX 980 ti besser hin. (53%)
Anhang anzeigen 923382

Da weiß man nicht, was wie mit welchen Frequenzen getestet wurde. Also: Möchtest du wissen, wie deine Grafikkarte wirklich abschneidet oder nicht? Wir zeigen euch immer, was wir wie testen. :-) Die Leistung in Titanfall 2 ist aber noch im Fluss, erste Patches und Treiber-Updates könnten das Bild noch etwas verschieben. Stand jetzt ist die Performance, wie sie ist – und zwar relativ interessant.

MfG,
Raff
 
echt krank wie schnell eine 400€ 1070 ist. fangen bei 399an.man kann sie sehr gut overclocken und brauchen wenig strom

Na ja, wenn ich mir Deinen Rechner angucke denke ich, dass der Xeon limitiert. Deine 1070 also nicht frei galoppieren kann. Bei den Systemanforderungen gibts beim Prozessor einen deutlichen Sprung von mittleren zu hohen
Anforderungen. Und Dein Xeon hat schon ein paar Jährchen auf dem Buckel. Mit meinem Xeon v2 lohnt sich eine GTX 1070 in FH bei 60Hz IPS Monitor nicht. Spiele eher Strategie.
 
Ich will jetzt nicht als Pedant gelten, aber mir kommt die Performance der GTX 980 ti um ca. 15% zu niedrig vor.

Ich mache das jetzt nicht zur Leistung von den Pascals fest, sondern an dem geringen Vorsprung zur GTX 970.
37% sind mir im Vergleich zu den anderen Spielen zu wenig.

Battlefield 1 ............................49%
Deus Ex.....................................59%
Gears of war............................57%
No Man Sky..............................56%
Quantum Break......................56%
Shadow Warrior 2.................59%

Auch wenn ich nicht gerne auf Benchmarks anderer Seiten zugreife, kommt hier das Verhältnis GTX 970 vs GTX 980 ti besser hin. (53%)
Anhang anzeigen 923382

kapier ich nicht: laut diagramm 10 Bilder unterschied von 970 zu 980 (50 zu 60 FPS min). Sind doch weniger als 37%.
 
wtf RX 480 auf Steroiden xD

ist Eure XFX RX 480 ähnlich effizient wie die von Jayz2cents oder hat der nur ein GS?

This RX 480 DOESN'T SUCK! - YouTube


Hab mir dank Jay auch die XFX gekauft läuft ohne Spannungserhöhung auf 1410/2200 ich denke mit ein bischen mehr als 1150 sind auch die 1500drin aber im gegensatz zu Jayz exemplar ist meine Laut und das in einem ebenfalls offenen gehäuse (P5)
 
JayZ2cents ist ne Labertasche und misst mit Software, vergiss den bitte, das ist lächerlich was der macht, leider.

Begründung wäre durchaus angebracht, wenn man schon gegen jemand schießt.


Edit: Die XFX von Jay war unabhängig von den in Afterburner angezeigten Verbrauchswerden garantiert ein GS welches von XFX handverlesen wurde.

Sehe ich auch so. Es ist durchaus eigenartig. Aber er hat ja auch nicht gezeigt wie Laut sie ist nur gesagt, sie sei leise. Und da ist ein Problem: Subjektive Wahrnehmung. Was für den einen Leise ist, ist für den anderen eine Aggressor ;-)
 
Wie oft wollt ihr noch die 480 in den Himmel loben und ihr den maximalen Custom Takt gewähren?
Wenn z.b. bei der 970 zum maximalen Custom Design 100 Mhz fehlen entweder ihr verwendet alle im maximalen Takt
Design oder alle im Schnitt. Weil die schnellste Custom Version der 970 hab ich hier noch nie gesehen und ohne Spannungserhöhung
kann man ohne weiteres einer 970 den höchsten Custom Takt fahren.
Titan X Maxwell gibt es Benchmarks mit 1500 Mhz aber von der 970 z.b. überhaupt nicht obwohl es nahezu kein Problem darstellt solche Werte
zu erreichen. Siehe im 480 Vergleichstest wo man natürlich die 480 auf 1350 gestellt hat aber natürlich konkurrenz nicht mit ihren maximalen OC möglichkeiten
antreten lässt.
Nimmt man eine 480 und eine 970 in ihren höchsten Custom Settings sind sie hier wie überall Nahezu gleich auf. Je nach Spiel gibt es unterschiede welches
welcher Architektur besser liegt. Aber alleine schon daran das die 980ti einen höheren Custom Takt hat wie die 970 sollte man merken das da was nicht stimmt, ändern
werde ihr das sowieso nicht mehr weil es schon zur 390 Zeiten so war. 390 durfte mit maximalen Takt antreten 970 nicht und das zieht sich bei euch durch wie ein Roter Faden.
Es war ja schon ein Fortschritt das NV Karten überhaupt mit boost gebencht wurden, da habt ihr damals einfach den Takt fixiert was ja äußert unparteiisch ist.
Das eine 970 nicht mehr mit 1260 Mhz zusehen ist wie in 290 Zeiten ist ja fast schon ein Wunder und all das was ich geschrieben habe kann man auf etliche andere NV Karten beziehen wie z.b.
die 1060 6gb. Den es gibt wahrlich genug Custom Karten die kommen ohne Probleme auf 2050 Mhz das sind fast 150 Mhz weniger bei euch was heißen würde mit maximal Takt würde sie in
jedem Benchmark die 480 abhängen. Was man auch bei Digital Foundry sieht also sorgt dafür das alle Karten entweder möglichst hochlaufen oder eben den schnitt benutzen und nicht eine Seite schnitt
die andere maximal.
 
Weil die schnellste Custom Version der 970 hab ich hier noch nie gesehen und ohne Spannungserhöhung
kann man ohne weiteres einer 970 den höchsten Custom Takt fahren.
Titan X Maxwell gibt es Benchmarks mit 1500 Mhz aber von der 970 z.b. überhaupt nicht obwohl es nahezu kein Problem darstellt solche .

ist doch bei den 980 Ti s genau so ( zotac amp extreme) , da fehlen mal locker 100 mhz und die würden meine angestaubte amp extrem garantiert noch einen platz gut machen lassen.

im prinzip ist das aber egal , ist halt eine übersicht was mit welcher karte geht :-)
 
kapier ich nicht: laut diagramm 10 Bilder unterschied von 970 zu 980 (50 zu 60 FPS min). Sind doch weniger als 37%.

Es geht mir auch um den Unterschied zur GTX 980 Ti und nicht zur 980er.

@ PCGH_Raff
Eure Messtechnik möchte ich keineswegs in Frage stellen, habe auch schon oft genug Eure transparenz bei den Benchmarks hervorgehoben.
Nur mutet mich der geringe Vorsprung von der GTX 970 zur GTX 980 ti etwas gering an.
 
So ein Quatsch! Guckt euch mal nur die Release Tests zur 480 und 1060 an. Da läuft die 1060 im boost und die 480 mit 1190MHz (also 76MHz unter Standard).
Dann diese Aussage mit dem maximalen Takt. Was soll der denn sein? Ich hab inzwischen sieben 1060er verbaut, davon kam eine einfach und eine weitere mit Nachhilfe auf über 2000MHz. Von den 480ern hatte ich bisher nur vier in den Fingern und alle kamen auf über 1370MHz, Ohne Spannung'serhöhung. Dann kommt littlebedosh hier ohne Erhöhung auf 1410 und jay in dem Video auf 1475. Was also soll PCGH deiner Meinung nach einstellen? Die 1350 MHz erreicht scheinbar jede 480, die 2000 aber nicht jede 1060. Demnach passt das doch.

bummi18,
diese 100MHz entsprechen 5% mehr Takt, was so 3% mehr fps geben sollte. Ich denke nicht, dass damit viel rauszuholen ist.
 
Moin,
Ich kann den Bench nich ganz nachvollziehen. Ich hab ne 1070 im mom bei 2063mhz boost, also warm und nach ner Stunde spielen.
Ich hab das Spiel auf Maximal, 90° FOV, TSAA und 3440x1440 und ich hab nie, wirklich nie unter 60fps.
das niedrigste was ich gesehen habe war 63 und das war im MP.
FPS liegen eher so zwischen 75 und 100 je nach Stimmung aufm Bildschirm.
 
Moin,
Ich kann den Bench nich ganz nachvollziehen. Ich hab ne 1070 im mom bei 2063mhz boost, also warm und nach ner Stunde spielen.
Ich hab das Spiel auf Maximal, 90° FOV, TSAA und 3440x1440 und ich hab nie, wirklich nie unter 60fps.
das niedrigste was ich gesehen habe war 63 und das war im MP.
FPS liegen eher so zwischen 75 und 100 je nach Stimmung aufm Bildschirm.

Unsere Szene ist relativ fordernd. Mittlerweile ist auch das Video der Testszene im Artikel. Geh einfach da hin und schau, was passiert. :-) Ich kann anhand der Erfahrungen auf meinem Privatrechner sagen, dass die Performance level- und szenenabhängig stark schwankt.

MfG,
Raff
 
[...]
Dann diese Aussage mit dem maximalen Takt. Was soll der denn sein? Ich hab inzwischen sieben 1060er verbaut, davon kam eine einfach und eine weitere mit Nachhilfe auf über 2000MHz. Von den 480ern hatte ich bisher nur vier in den Fingern und alle kamen auf über 1370MHz, Ohne Spannung'serhöhung. Dann kommt littlebedosh hier ohne Erhöhung auf 1410 und jay in dem Video auf 1475. Was also soll PCGH deiner Meinung nach einstellen? Die 1350 MHz erreicht scheinbar jede 480, die 2000 aber nicht jede 1060. Demnach passt das doch.
[...]

Das würde ich so unterzeichnen, das ist aber halt auch ein wenig "Stand: Jetzt". Mit den ersten Treibern ging noch nicht so leicht so viel (wie mittlerweile) beim OC der RX480/470, da sind ein paar Fortschritte passiert. Aber 1350 ist meiner Erfahrung nach in der Tat eine Art "Sweet Spot", gerade wenn man mit den Spannungen spielt und es dazu noch halbwegs leise und sparsam haben will. Ich fahre einen meiner beiden Hitzköpfe fast durchgängig gar nur mit 1300/2200, weil er dann sehr schön leise bleibt und die Leistung schlicht in allen (meinen) Lebenslagen voll und ganz reicht (2560*1080@FreeSync 32-80Hz).

Edith fügt hinzu, daß sie glaubt, die RX4X0-8GB seien für diese Auflösung mit FreeSync wie geschaffen. Und erst genau in Kombination mit FreeSync spielen sie einen echten Preisvorteil zur gelungenen 1060-6GB aus – hätte nVidia den (m.E. für die Zukunft absehbaren...) Schritt zur optionalen FreeSync-Unterstützung (genauer: adaptive sync) vollzogen, wäre wohl – zumindest abseits von Verbraucherpolitik – meine Wahl auf die 1060 gefallen, bei einem etwas angemesseneren Preisrahmen ggf. natürlich gar auf die 1070.

Aber im privaten Vergleich mit der 1070@ohneSync mit der 480@FreeSync ziehe ich so das Fazit, daß selbst da meine Wahl nur bei maximal 50 bis vielleicht 75€ Mehrpreis auf eine 1070 fiele. Die 1060 mit diesem Nachteil müsste gar klar billiger als die 480 sein, damit ich in Erwägung zöge, auf den Vorteil FreeSync zu verzichten.
 
Zuletzt bearbeitet:
1080p, GSync, maxed out, solide 144 fps. Mal schauen wie weit es ohne GSync nach oben geht. GTX 1080.

Was mich ärgert, das Spiel erkennt keine DSR Auflösungen. 1440p, 1620p und 4k über DSR im Treiber wird im Spiel nicht erkannt...hatte ich so noch nie. In allen anderen Spielen kein Problem. Würde gerne in 1440p DS spielen, aber kann es nicht auswählen.

Was außerdem nervt ist der Filmgrain Effekt im Spiel, den man nicht abschalten kann, der ist ziemlich störend in dunklen Bereichen und vor allem auf Screenshots.
 
AMD Hotfix Treiber für Titanfall 2
AMD Crimson Edition Download - ComputerBase


Notiz Grafikkarten-Treiber : AMD Crimson 16.10.3 behebt Titanfall-2-GCN-Bug
Grafikkarten-Treiber: AMD Crimson 16.10.3 behebt Titanfall-2-GCN-Bug
AMD hat kurzerhand zum Wochenende einen kleinen Hotfix für den Crimson-Grafiktreiber veröffentlicht. Dieser behebt nur einen Bug, der im neuen Blockbuster-Mech-Titel Titanfall 2 bei einigen aktuellen Grafikkarten aufgetreten ist, der das Spiel direkt zum Absturz brachte.

Edit:
War zu langsam
Den Treiber bietet PCGH natürlich auch schon zum Download an
 
Zuletzt bearbeitet:
1080p, GSync, maxed out, solide 144 fps. Mal schauen wie weit es ohne GSync nach oben geht. GTX 1080.

Nicht höher (außer bei Spielstart während der Logos) – Titanfall 2 hat ein 144-Fps-Lock. Das erreicht man mit einer GTX 1080 tatsächlich relativ oft, jedoch nicht in fordernden Szenen wie unserem Benchmark (wenn ich mich allerdings umdrehe und Richtung Levelende schaue, klebe ich mit dem Testsystem und einer GTX 1080 auch im 144-Fps-Lock).

Gruß,
Phil
 
Was ist denn bei den Gesichtern passiert? Wenn ich das Spiel z.B. mit Dead Space 3 aus dem Jahre 2013 vergleiche, dann erinnert mich das Spiel wohl an 2012. Eine bestimmte Dame im Spiel sieht auch aus, als ob sie einen viel zu hohen Gebrauch an Nivea-Creme hat. Auch die ganzen Piloten der Boss-Titanen,
außer Ash und Viper natürlich
, sind auch nicht auf dem Niveau von 2016.

Ansonsten hab ich grafisch an Titanfall 2 eigentlich nicht viel auszusetzen.

Die Singleplayerkampagne ist eine positive Überraschung, mit ein paar netten Ideen, auch wenn die ein oder andere schon in anderen Spielen in ähnlicher Form Verwendung fand
Singularity zum Beispiel
 
Unsere Szene ist relativ fordernd. Mittlerweile ist auch das Video der Testszene im Artikel. Geh einfach da hin und schau, was passiert. :-) Ich kann anhand der Erfahrungen auf meinem Privatrechner sagen, dass die Performance level- und szenenabhängig stark schwankt.

MfG,
Raff


Hab mir das Video gerade angesehen, erste richtige Mission...eigentlich nicht sehr fordernd die Szene. Die stelle wo das erste mal die kleinen Bots kommen und man die info bekommt wie man einen Hacked und die beiden Viecher noch kommen, ist viel fordernder. aber selbst da fällt das Spiel nicht unter 60.

Ich teste das aber gerne nachher nochmal und berichte dann


//Edit:

so gerade nochmal eure Szene gestestet. wenn ich auf BT zulaufe sind es kurz 56-58 aber nur wenige Sekunden. Sobald ich an BT Vorbei bin sind es 71-86, bin bis hinten durch gelaufen. VRam lag bei 5536Mb.

OK OK also unter 60 hab ich nun doch schon mal gesehen, im Average wären das aber wohl dennoch weit über 60 in der Szene
 
Zuletzt bearbeitet:
Mir gefällt die Passage zur VRam Belegung. Ich hoffe sie wird noch viele Nutzer erreichen, damit die Verwirrung zwischen brauchen und nutzen endlich ein ende hat. Mittlerweile denken ja ziemlich viele, das die meisten aktuellen Titel allesamt VRam Fresser sind, nur weil sie sich am vorhandenen VRam bedienen.
 
Titanfall 2 hat ein 144-Fps-Lock. Das erreicht man mit einer GTX 1080 tatsächlich relativ oft, jedoch nicht in fordernden Szenen wie unserem Benchmark.

Super, danke. Hätte erwähnen sollen, dass ich bislang nur den Multiplayer getestet habe und dort sind die 144 fps zumindest stabil. Hatte bislang keine Einbrüche, aber das ist wie so oft im Multiplayer natürlich den kleineren Arealen und reduzierten Details zu verdanken.

Kann mich erinnern, dass TF1 zuerst einen 90fps lock (oder waren es gar 60) hatte und dieser erst später auf 144 gepatcht wurde. An sich sind mehr als 144 idR uninteressant, aber wäre interessant zu wissen, wieviel Luft noch nach oben gewesen wäre :) Da DSR nicht angenommen wird, muss ich auf 1080p verweilen und alles über den 144 fps im Multiplayer ist an sich tote potentielle Mehrleistung, die ich hätte in die Auflösung investieren können. Sehr schade. Hoffe da tut sich noch etwas.
 
Zurück