GTX 1080 im Video: 60 Fps und Max Quality in The Division, Rise of the Tomb Raider und Mirror's Edge Catalyst

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu GTX 1080 im Video: 60 Fps und Max Quality in The Division, Rise of the Tomb Raider und Mirror's Edge Catalyst gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: GTX 1080 im Video: 60 Fps und Max Quality in The Division, Rise of the Tomb Raider und Mirror's Edge Catalyst
 
The Division mit allem auf max in FHD läuft garantiert nicht mit konstant 60fps auf der Karte. Da müsste sie ja fast doppelt so schnell wie eine 980ti sein.
 
Grad mal getestet mit meiner 980ti Rise of the Tomb Raider bei Full HD
DX11, SSAA4, Alles Max, 32-40 fps
DX11, FXAA, Alles Max, 63- 73fps
DX12 hab ich noch nicht, macht das viel aus?
 
Grad mal getestet mit meiner 980ti Rise of the Tomb Raider bei Full HD
DX11, SSAA4, Alles Max, 32-40 fps
DX11, FXAA, Alles Max, 63- 73fps
DX12 hab ich noch nicht, macht das viel aus?

Aus dem Quellcode der Nvidia-Webseite lässt sich herauslesen, dass die unten genannten Benchmarks in WQHD, also in 2.560 x 1.440, entstanden sind. Außerdem gibt es nun auch erste Videos von der Nvidia-Präsentation.
 
Sagst du das aus eigener Erfahrung? Die habe ich nicht, aber in der PCGH-Benchmarkszene bekommt das auch eine 980Ti hin...
The Division PC im Techniktest: Benchmarks von 17 Grafikkarten plus CPU-Kernskalierung

In dem Test sind beide Benchmarks nicht zu 100% auf höchster Stufe, weil HFTS nicht auf AMD-Karten läuft - und das tötet die FPS.

In dem Video kann natürlich das höchste Preset gemeint sein - das schafft dann aber wirklich eine 980(ti), oder halt irgendwelche Settings nach Gutdünken, man weiß es nicht.

Alles hochgedreht, inklusive Schatten auf HFTS und immer(!) über 60fps würde mich jedenfalls stark wundern.
 
Every notch maxed out. Also auch 4x SSAA + VXAO in Tomb Raider? :ugly:

Alter schwede, als ich das Video gerade gesehen habe lief es mir eiskalt den Rücken runter. Fremdschämen pur. Das ist ja 100x schlimmer, als eine Apple präsentation. Absolut peinlich.

Zudem verstehe ich nicht, warum er ständig die Konsolenfeatures erwähnt, statt auf PC exklusive Verbesserungen einzugehen. "HDR" war sein liebstes Buzzword und ooh WOW, das gabs schon 2006 bei oblivion und ist nun seit 10 Jahren Standard.
Alles in allem hat er also Konsolenspiele gezeigt und genannt, was die Konsolen rendern können. Warum soll ich mir jetzt nochmal eine GTX 1080 kaufen?

Und warum genau sind nun 60 Hz bzw. FPS so wichtig? Verstehe ich nicht. Seit Nvidia G-Sync eingeführt hat ist die Framerate völlig egal, da alles zwischen 30 und 144 FPS butterweich dargestellt werden kann. Also warum 60 und nicht 70 oder 80 FPS? Warum nicht 100? Was ist an 60 so besonders? Oder schafft die neue tolle Karte, die 2x so stark wie eine GTX980 sein soll nicht mehr als 60 FPS in einem Konsolenport? Dabei dachte ich immer, 144 FPS/Hz wären das Maß der Dinge. Ist die Karte dafür etwa nicht geeignet oder was? Und was ist eigentlich aus 4K geworden? Auch das bekommt man überall ins Gesicht gedrückt. Die neue Karte muss doch dafür locker ausreichen oder nicht? Oder muss ich bei der schnellsten Karte der welt wirklich Details reduzieren??


Ehrlich, so dummes und inhaltsloses Marketinggelaber hab ich schon lange nicht mehr gehört.
 
Zuletzt bearbeitet:
In dem Test sind beide Benchmarks nicht zu 100% auf höchster Stufe, weil HFTS nicht auf AMD-Karten läuft - und das tötet die FPS.

In dem Video kann natürlich das höchste Preset gemeint sein - das schafft dann aber wirklich eine 980(ti), oder halt irgendwelche Settings nach Gutdünken, man weiß es nicht.

Alles hochgedreht, inklusive Schatten auf HFTS und immer(!) über 60fps würde mich jedenfalls stark wundern.
DX11, vxao, alles ans was geht. in 1080p. keine 60fps möglich mitr einer 980ti
Anhang anzeigen 894132
Das ist ja mal beides ziemlich heftig...
...1080P, das ist doch eine Auflösung, wie man sie auf jahrealten Notebooks findet. :ugly::ugly::ugly:

Übertragen sich diese ineffizienten Settings auch in höhere Auflösungen, also hätte man in dieser TR-Szene in 2160P dann bloß nur noch ~10FPS oder hält sich da der prozentuale Verlust eher in Grenzen? (da die niedrigen 1080P-FPS nur durch bestimmte Teillimits zu Stande kamen?)
 
Every notch maxed out. Also auch 4x SSAA + VXAO in Tomb Raider? :ugly:

Alter schwede, als ich das Video gerade gesehen habe lief es mir eiskalt den Rücken runter. Fremdschämen pur. Das ist ja 100x schlimmer, als eine Apple präsentation. Absolut peinlich.

Zudem verstehe ich nicht, warum er ständig die Konsolenfeatures erwähnt, statt auf PC exklusive Verbesserungen einzugehen. "HDR" war sein liebstes Buzzword und ooh WOW, das gabs schon 2006 bei oblivion und ist nun seit 10 Jahren Standard.
Alles in allem hat er also Konsolenspiele gezeigt und genannt, was die Konsolen rendern können. Warum soll ich mir jetzt nochmal eine GTX 1080 kaufen?

Und warum genau sind nun 60 Hz bzw. FPS so wichtig? Verstehe ich nicht. Seit Nvidia G-Sync eingeführt hat ist die Framerate völlig egal, da alles zwischen 30 und 144 FPS butterweich dargestellt werden kann. Also warum 60 und nicht 70 oder 80 FPS? Warum nicht 100? Was ist an 60 so besonders? Oder schafft die neue tolle Karte, die 2x so stark wie eine GTX980 sein soll nicht mehr als 60 FPS in einem Konsolenport?


Ehrlich, so dummes und inhaltsloses Marketinggelaber hab ich schon lange nicht mehr gehört.
Generelle Zustimmung, ABER einen Haken gibt es doch noch: Die Präsentationsfläche dort vor Ort (wahrscheinlich Beamer) kann nur 1080P60Hz, da kann man die wirklich relevanten Dinge halt nicht zeigen. Übrigens ein großes Versäumnis; VRR gibt bisher bei keinem einzigen Display mit Fernsehdiagonale oder Beamer...
...was uns auch zu dem nächsten großen Versäumnis des Events bringt: Keine Monitorvorstellungen... (neuer DP hätte da einiges möglich gemacht)
 
Und warum genau sind nun 60 Hz bzw. FPS so wichtig? Verstehe ich nicht. Seit Nvidia G-Sync eingeführt hat ist die Framerate völlig egal, da alles zwischen 30 und 144 FPS butterweich dargestellt werden kann. Also warum 60 und nicht 70 oder 80 FPS? Warum nicht 100? Was ist an 60 so besonders? Oder schafft die neue tolle Karte, die 2x so stark wie eine GTX980 sein soll nicht mehr als 60 FPS in einem Konsolenport? Dabei dachte ich immer, 144 FPS/Hz wären das Maß der Dinge. Ist die Karte dafür etwa nicht geeignet oder was? Und was ist eigentlich aus 4K geworden? Auch das bekommt man überall ins Gesicht gedrückt. Die neue Karte muss doch dafür locker ausreichen oder nicht? Oder muss ich bei der schnellsten Karte der welt wirklich Details reduzieren??


Ehrlich, so dummes und inhaltsloses Marketinggelaber hab ich schon lange nicht mehr gehört.

Vielleicht unterstützen die Billig-GPU's ja kein GSync mehr, nur noch die teuren Modelle mit Volta.:ugly:
 
Alter schwede, als ich das Video gerade gesehen habe lief es mir eiskalt den Rücken runter. Fremdschämen pur. Das ist ja 100x schlimmer, als eine Apple präsentation. Absolut peinlich.

Da muss ich echt gerade massiv grinsen wie unterschiedlich das Empfinden sein kann :). Produkteinführungen wie diese sind ein Markenzeichen für die amerikanische Denkweise. Alles auf Maximum, alles besser als vorher, alles besser als die Konkurrenz. Mittlerweile scheint diese die ganze Welt erwischt zu haben.

Mit einem skeptischen Blick auf die gezeigten Inhalte kann ich durchaus großen Gefallen an der ruhigen Art des Sprechers finden, für mich Unterhaltung pur (kein Fremdschämen oder anderes Negatives). Die Art und Weise wie Huang das rüberbringt ist wirklich schon Richtung Apple, aber auch die Präsentationen sind für mich ein große "Must-See" wenn sie laufen.

Fremschämen kenne ich eher aus dem Bereich Actionfilme, wo eine unlogische Handlung die nächste jagt :-D.

Und warum genau sind nun 60 Hz bzw. FPS so wichtig? Verstehe ich nicht. Seit Nvidia G-Sync eingeführt hat ist die Framerate völlig egal, da alles zwischen 30 und 144 FPS butterweich dargestellt werden kann.

Obwohl mein Screen G-Sync kann, finde ich es unbrauchbar. Für mich ergibt sich in der Tat das ruhigste Bild, wenn genau 60 fps anliegen (darüber stört es natürlich auch Niemanden). Somit laufen alle Spiele bei mir mit einer Monitor Wiederholrate von 120 Hz und einem Frame-Lock von 60 Hz. Da die verbaute 980 Ti dafür aktuell noch genug Reserven hat, funktioniert das auch sehr gut.
Ich persönlich würde immer die Details senken, sobald die 60 fps nicht mehr konstant erreicht werden. Rise of the Tomb Raider habe ich z.B. in FullHD durchgespielt (statt mit WQHD). Die minimal erhöhte Unschärfe war weniger schlimm als mögliche Framedrops (die vom G-Sync zwar abgefangen werden, aber für mich führt es dennoch zu einer spürbaren Verzögerung, die sich wie ein Gummiband anfühlt).
 
Zuletzt bearbeitet:
Mit den Voreingestellten Detailstufen kratzt eine übertaktet GTX 980Ti ja auch schon bei Spielen wie Division und Tombraider in 1440p an den 60 Fps. Mit Individualleinstellungen kann ich ne 1080 schnell in die Knie zwingen. Bei vielleicht rund 20% Mehrleistung auch kein Wunder.
 
Da muss ich echt gerade massiv grinsen wie unterschiedlich das Empfinden sein kann :). Produkteinführungen wie diese sind ein Markenzeichen für die amerikanische Denkweise. Alles auf Maximum, alles besser als vorher, alles besser als die Konkurrenz. Mittlerweile scheint diese die ganze Welt erwischt zu haben.

Mit einem skeptischen Blick auf die gezeigten Inhalte kann ich durchaus großen Gefallen an der ruhigen Art des Sprechers finden, Für mich Unterhaltung pur (kein Fremdschämen oder anderes Negatives). Die Art und Weise wie Huang das rüberbringt ist wirklich schon Richtung Apple, aber auch die Präsentationen sind für mich ein große "Must-See" wenn sie laufen.

Fremschämen kenne ich eher aus dem Bereich Actionfilme, wo eine unlogische Handlung die nächste jagt :-D.



Obwohl mein Screen G-Sync kann, finde ich es unbrauchbar. Für mich ergibt sich in der Tat das ruhigste Bild, wenn genau 60 fps anliegen (darüber stört es natürlich auch Niemanden). Somit laufen alle Spiele bei mir mit einer Monitor Wiederholrate von 120 Hz und einem Frame-Lock von 60 Hz. Da die verbaute 980 Ti dafür aktuell noch genug Reserven hat, funktioniert das auch sehr gut.
Ich persönlich würde immer die Details senken, sobald die 60 fps nicht mehr konstant erreicht werden. Rise of the Tomb Raider habe ich z.B. in FullHD durchgespielt (statt mit WQHD). Die minimal erhöhte Unschärfe war weniger schlimm als mögliche Framedrops (die vom G-Sync zwar abgefangen werden, aber für mich führt es dennoch zu einer spürbaren Verzögerung, die sich wie ein Gummiband anfühlt).

Oha, das ist äußerst... interessant.

Das widerspricht genau dem, was G-Sync eigentlich beheben soll.
Ich werds mal im hinterkopf behalten, sollte ich die Gelegenheit bekommen, mal einen adaptive sync monitor zu testen.
 
Oha, das ist äußerst... interessant.

Das widerspricht genau dem, was G-Sync eigentlich beheben soll.
Ich werds mal im hinterkopf behalten, sollte ich die Gelegenheit bekommen, mal einen adaptive sync monitor zu testen.

Also ich finde G-Sync klasse. Bei Witcher 3 hatte ich überwiegend 40-50 fps und es fühlte sich butterweich an. Außerdem wurde damit auch das lästige Tearing eliminiert. Mit meiner GTX 970 schaffe ich mit WQHD eben keine konstanten 60 fps. Da empfinde ich G-Sync als Segen.
 
Oha, das ist äußerst... interessant.

Das widerspricht genau dem, was G-Sync eigentlich beheben soll.
Ich werds mal im hinterkopf behalten, sollte ich die Gelegenheit bekommen, mal einen adaptive sync monitor zu testen.

Rein vom theoretischen her passt seine aussage aber: Der inputlag ist halt mindestens immer so hoch, wie es dauert, den nächsten frame darzustellen. Wechselt das ständig, kann ich mir gut das "rubberbanding" vorstellen - wie triplebuffer vsync, nur eben etwas geringer.
 
Das hört sich ziemlich ungünstig an...
Rein vom theoretischen her passt seine aussage aber: Der inputlag ist halt mindestens immer so hoch, wie es dauert, den nächsten frame darzustellen. Wechselt das ständig, kann ich mir gut das "rubberbanding" vorstellen - wie triplebuffer vsync, nur eben etwas geringer.
...dann würde ich mal vorschlagen statt dessen mal ein 59FPS- oder 61-Limit auszuprobieren. Wenn das genauso wie das 60FPS-Limit wirkt, dann würde GSYNC schon weiterhin so funktionieren wie gewünscht und nonamez wäre einfach hypersensitiv!
 
Also ich finde G-Sync klasse. Bei Witcher 3 hatte ich überwiegend 40-50 fps und es fühlte sich butterweich an. Außerdem wurde damit auch das lästige Tearing eliminiert. Mit meiner GTX 970 schaffe ich mit WQHD eben keine konstanten 60 fps. Da empfinde ich G-Sync als Segen.

Geht mir mit Freesync genauso. Wenn ich z.B. in The Witcher 3 oder The Division einfach keine 60 fps erreichen kann, dann locke ich einfach auf z.B. 45 und es fühlt sich trotzdem noch direkt und sauber an. Denn auch dann wird jedes Frame für sich angezeigt - ohne Synchronisation wirkt das Bild viel unruhiger, da jedes dritte Bild verschluckt wird.
 
Zurück