Titanfall 2: Erste Grafikkarten-Benchmarks aus der Einzelspieler-Kampagne

Super, danke. Hätte erwähnen sollen, dass ich bislang nur den Multiplayer getestet habe und dort sind die 144 fps zumindest stabil. Hatte bislang keine Einbrüche, aber das ist wie so oft im Multiplayer natürlich den kleineren Arealen und reduzierten Details zu verdanken.

Kann mich erinnern, dass TF1 zuerst einen 90fps lock (oder waren es gar 60) hatte und dieser erst später auf 144 gepatcht wurde. An sich sind mehr als 144 idR uninteressant, aber wäre interessant zu wissen, wieviel Luft noch nach oben gewesen wäre :) Da DSR nicht angenommen wird, muss ich auf 1080p verweilen und alles über den 144 fps im Multiplayer ist an sich tote potentielle Mehrleistung, die ich hätte in die Auflösung investieren können. Sehr schade. Hoffe da tut sich noch etwas.


N Kollege von mir nutzt DSR, er hat die 1440er Auflösung aber auchm Desktop, vllt liegt es daran.
 
Da sollte Origin nachliefern.
Das geht meiner Meinung gar nicht.

"Da wir momentan nur eine sehr begrenzte Anzahl Zugänge haben und uns Origin nach einigen Hardwarewechseln den Spiele-Account vorübergehend sperrt,... "
 
N Kollege von mir nutzt DSR, er hat die 1440er Auflösung aber auchm Desktop, vllt liegt es daran.

Geht bei mir trotzdem nicht. Aktueller Treiber, GTX 1080. Ich kann für Windows wie gewohnt alle DSR Auflösungen auswählen, aber selbst mit 1440p Desktopauflösung, bietet mir das spiel max. 1920*1080 an. Der einzige Unterschied zu vorher, das (nativ) hinter der Auflösung wird nicht mehr angezeigt...weil er wohl die 1440p vom Desktop als nativ erkennt. Sehr seltsam weshalb das Spiel sie dann nicht anbietet.
 
Komisch. Ich habe einen FHD-Monitor, und wenn ich die Desktopauflösung auf 3840x2160 setze, kann ich auch im Spiel die dadurch möglichen Downsampling-Auflösungen auswählen.
Allerdings bietet mein GTX970 natürlich nicht die dafür nötige Leistung.

Edit:
Treiber ist der 375.63. Hab aber gerade gesehen, dass der 375.70 heute rausgekommen sein muss.

Edit 2:
Auch der 375.70 ändert nichts daran. DSR Auflösungen bis 3840x2160 sind bei mir möglich. Natürlich sind 16:9 Auflösungen auch unter 16:9 gelistet.
 
Zuletzt bearbeitet:
Geht bei mir trotzdem nicht. Aktueller Treiber, GTX 1080. Ich kann für Windows wie gewohnt alle DSR Auflösungen auswählen, aber selbst mit 1440p Desktopauflösung, bietet mir das spiel max. 1920*1080 an. Der einzige Unterschied zu vorher, das (nativ) hinter der Auflösung wird nicht mehr angezeigt...weil er wohl die 1440p vom Desktop als nativ erkennt. Sehr seltsam weshalb das Spiel sie dann nicht anbietet.

Sind die anderen Auflösungen eventuell in den anderen Formaten sichtbar? also 16:10 etc?
 
Recht schönen Dank für den Test :daumen:

Grafisch und vom Art-Design her eine Mischung aus Crysis & CoD, nur eben mit dicken Robos.
Die Performance ist im Vergleich zur spektakulären Grafikorgie BF 1 nicht sehr rosig, aber noch im Rahmen. (wirklich besser als das 3,5-Jahre alte Crysis 3 sieht's in meinen Augen jedoch nicht aus...)

Trotzdem interessant, dass hier und bei Battlefield 4 GB mal wieder problemlos für Maximale Details in hohen Auflösungen in einem brandneuen "Triple-A Blockbuster Game" ausreichend sind.
Hängt immer davon ab, wie effizient die Engine mit dem Vram umgeht. Negativbeispiel: Deus Ex, Positivbeispiel: BF 1.
 
So ein Quatsch! Guckt euch mal nur die Release Tests zur 480 und 1060 an. Da läuft die 1060 im boost und die 480 mit 1190MHz (also 76MHz unter Standard).
Dann diese Aussage mit dem maximalen Takt. Was soll der denn sein? Ich hab inzwischen sieben 1060er verbaut, davon kam eine einfach und eine weitere mit Nachhilfe auf über 2000MHz. Von den 480ern hatte ich bisher nur vier in den Fingern und alle kamen auf über 1370MHz, Ohne Spannung'serhöhung. Dann kommt littlebedosh hier ohne Erhöhung auf 1410 und jay in dem Video auf 1475. .

Komische Sache, bei mir machte bisher jede GTX 1060 stabile~ 2100mhz. Die Zotac Mini 2x und ne Gigabyte, die blieb bei ~2080mhz in etwa stehen, beide Mini halten 2114mhz. Und da du nie neutral bist was das anbelangt, ist dir sicher bekannt dass Jay ne Wsserkühlung nutzte?:hmm:
 
Wegen Kepler muss Nvidia unbedingt noch mal ran, die R9 280X teilt hier ganz schön aus, unter WQHD wirds schon bizarr was sie mit der GTX 780 macht. Und die hat sich mal mit der R9 290 angelegt.
 
Wegen Kepler muss Nvidia unbedingt noch mal ran, die R9 280X teilt hier ganz schön aus, unter WQHD wirds schon bizarr was sie mit der GTX 780 macht. Und die hat sich mal mit der R9 290 angelegt.

Was heist da angelegt? Die GTX780 war mal schneller als die R9 290 wenn ich nicht ganz verkehrt liege.


Komische Sache, bei mir machte bisher jede GTX 1060 stabile~ 2100mhz. Die Zotac Mini 2x und ne Gigabyte, die blieb bei ~2080mhz in etwa stehen, beide Mini halten 2114mhz. Und da du nie neutral bist was das anbelangt, ist dir sicher bekannt dass Jay ne Wsserkühlung nutzte?:hmm:

Nur merkwürdig das auch die meisten Testsamples von PCGH keine 2000 MHz schafften. Von wegen Neutralität und so...

Edit:
Moment mal, ausgerechnet das Ding hier soll 2 mal stabil über 2100MHz geboostet haben?

Zotac GeForce GTX 1060 6GB Mini, 6GB GDDR5, DVI, HDMI, 3x DisplayPort (ZT-P10600A-10L) in Grafikkarten: PCIe | heise online Preisvergleich

Bei was, bei Tetris? :lol:
 
Zuletzt bearbeitet:
Seltsamerweise habe auch ich jetzt diverse Performanceprobleme. Heute Mittag habe ich noch berichtet es läuft solide auf 144 fps. Evtl bin ich durchweg in einer optimalen Region und/oder Mapbereich unterwegs gewesen. In diversen Bereichen bleibt sie stabil auf 144, während sie in anderen und optisch ähnlichen Bereichen total variiert.

Die Framerate bricht an diversen Stellen von im Schnitt 120 auf 90 ein. Lustigerweise ändert sich die Framerate in besagter Szene kaum, egal ob ich die Grafik auf niedrigste oder maximale Stufe einstelle. Liegt also definitiv am Spiel. Die 144 fps erreiche ich nur noch selten...und nicht wie erwartet nur in kleinen, geschlossenen Räumen, sondern teils auch in größeren und recht hübschen Arealen, während ich in nem kleinen Bunkerraum woanders auf der Map dann mit 30 fps weniger rumspringe. Alles etwas suspekt.

Zum Vergleich, Battlefield 1 auf Ultra und 140% Auflösungsskala oder 1440p läuft in ähnlichen Framerates und spielt technisch in einer ganz anderen Liga. Hier muss TF2 definitiv nachbessern.


edit: Mal die neuen NVIDIA Treiber von heute ausprobieren, aber ich denke alle nennenswerten Probleme liegen am Spiel selbst.,
 
Echt jetzt? So ein Satz ausgerechnet von dir?

Sag mir mal welchen Grund ich hätte nicht neutral zu bleiben?

Jay nutzt ne Wasserkühlung für die 1475mhz oder etwa nicht? Wieso vergleichst du Luft mit Wasser?
Die rx480 ist nun wirklich keine besonders gute Übertakterkarte, die GTX 1060 genausowenig.

Standard sind 1200mhz vom nicht mehr erhältlichen referenzdesign. 1350mhz sind grade noch so vernünftig, das ist ne Steigerung von 12,5 %.
Bei den GTX 1060ern gehts von 1820 mhz bei der Ref auf konservativ gesagt 2000 bis 2100mhz rauf. Von 1820 auf 2050 sind das ebenso ~12,5%. Alles andere ist denke ich Bonus. Ab und an kann man unter Luft die 1400mhz mit einer rx480 schon knacken, mit allen Nachteilen dann bezüglich Lautstärke und Strombedarf.

Es sind beide keine besonders guten OC Karten, daher halte ich die Diskussion über OC bei den Karten für recht fruchtlos.
 
Jay nutzt ne Wasserkühlung für die 1475mhz oder etwa nicht? Wieso vergleichst du Luft mit Wasser?
Die rx480 ist nun wirklich keine besonders gute Übertakterkarte, die GTX 1060 genausowenig.

Standard sind 1200mhz vom nicht mehr erhältlichen referenzdesign. 1350mhz sind grade noch so vernünftig, das ist ne Steigerung von 12,5 %.
Bei den GTX 1060ern gehts von 1820 mhz bei der Ref auf konservativ gesagt 2000 bis 2100mhz rauf. Von 1820 auf 2050 sind das ebenso ~12,5%. Alles andere ist denke ich Bonus. Ab und an kann man unter Luft die 1400mhz mit einer rx480 schon knacken, mit allen Nachteilen dann bezüglich Lautstärke und Strombedarf.

Es sind beide keine besonders guten OC Karten, daher halte ich die Diskussion über OC bei den Karten für recht fruchtlos.

Wenn du von Jays "Golden Sample" redest, dann ist es eine luftgekühlte XFX GTR.
 
Schon krass, wie die Anforderungen höher sind, als bei BF1. Bei Titanfall 2 muss ich ja schon angst haben, dass ich in 2560x1080 die 60 FPS nicht immer packe. Bei BF1 kann ich sogar noch am Downsampling Regler herumspielen...

Trotzdem interessant, dass hier und bei Battlefield 4 GB mal wieder problemlos für Maximale Details in hohen Auflösungen in einem brandneuen "Triple-A Blockbuster Game" ausreichend sind.
Und ich dachte als PCGH leser, zu glauben, die 4 GB reichen die nächste Zeit noch locker, wäre ein irrtum. :ugly:

Die Frostbite-Engine ist aber auch einfach f*cking awesome, wenn sie richtig genutzt wird. Dahingehend können maximal die id-Tech 6 in Doom (Vulkan) und die UE4 in Gears of War 4 (DX12) mithalten (und vielleicht noch Blizzard mit Overwatch - kein Witz!). Ubisoft's bzw. Massives Snowdrop ist auch ein Anwärter. Die laufen aber so gut, dass es beinahe nicht mehr fair ist, andere Engines an denen zu messen. ;) Mit Ausnahme von Overwatch (dessen optische Qualitäten ich aufgrund des Comic-Looks schwerlich einschätzen kann) liefern die genannten Grafik-Motoren (meiner jetzt mal komplett subjektiven Einschätzung nach) um etwa 30 - 50 % mehr Performance, als man gemessen an der Optik erwarten würde... das ist schon ein beachtenswerter Faktor.

Im Grunde läuft Titanfall 2 wirklich gut. 4K/60 ist mit einer GTX 1080 für die meiste Zeit durchaus drin. :) (Wenn die Dinger doch nur mal 100-150 Euro günstiger wären.... ;) )

Gruß,
Phil
 
Zuletzt bearbeitet:
Mir ist aufgefallen, dass das Spiel auf einer R9 280X deutlich stärkeres Filmkorn zeigt, als auf meiner 1070. Sieht teilweise echt unschön aus. Ist das noch jemand aufgefallen ? Die Grafiksettings sind natürlich nicht ganz identisch gewesen, jedoch beides mal selbe Auflösung und keiner der Regler lässt auf einen solchen Filter schließen.
 
Du solltest es unbedingt erst mit exakt gleichen Einstellungen und Bedingungen testen. Also auch dem selben Monitor und dem selben Kabel.
Einmal indem du die 280X so einstellst wie die 1070 und dann einmal die 1070 mit den selben Einstellungen wie die 280X und genau auf Veränderungen am Bild achten. Des weiteren auch Treibereinstellungen überprüfen. Nicht dass du einmal AF auf Qualität und einmal auf optimal stehen hast. Erst wenn du das alles abgehakt hast, lohnt es sich jemand anderen zu fragen. Ansonsten gibt es so viele Variablen, dass du zu keinem sicheren Ergebnis kommen kannst.

Im ersten Moment liest sich das für mich nämlich nach einem anderen Post-Filter, oder unterschiedlichen AF Einstellungen (wahrscheinlich im Treiber).
 
Das sind wieder komische Resultate hier... Mein System i7 6700, 32GB ddr4 2533, AsRock Z170 Fatal1ty Gaming K6, MSI GTX 970 Gaming 4G @ 1500/4000 (Standardkühler, Standardspannung). Min-FPs 65 / max. Fps 100.
 
Zurück