Gears Tactics im Benchmark-Test: DX12, Async Compute, VRS und Bombastgrafik

Würde ich so nicht abschließend schreiben, warum? Das Spiel hat einen fps-Limiter (mehrere Modi) der die sichtbare Quali an die Zielframerate anpasst, sollte sich PCGH nochmal ansehen. Einen Hinweis dazu habe ich schon gegeben. Das in dem Fall (oder der implizierten Umsetzung) jetzt allein auf VRS zu schieben wäre daher falsch, dann muss man die Dynamik in der Auflösungskalierung die VRAM und FPS limtiert ist abschalten (bzw. auf PC's so anpassen das der Mix aus Framerate und Quali stimmt)! Vor allem Konsolen profitieren von Erstgenanntem.

Die CPU ist daran auch nicht Schuld, von wegen CPU Limit. Die bestimmt in dem Fall die Framerate nicht, sondern das fps-Limit der Engine, inklusive die damit im Zusammenhang stehende Bildqualität per Upscaling/Downsamplingmethode. Der Shooter kommt so vor allem lagfrei mit hoher fps-Zahl daher, was ja bei einem Art Battlemode auch Sinn macht.

Edit sagt: ...Limit liegt bei 30, 60, 90, 120 und 144 fps je nachdem wird die Quali dynamisch angepasst. Halt ein typisches Konsolenspiel, wo begrenzte Ressourcen berücksichtigt werden müssen. Da hilft auch "Super" nicht weiter...:D

Was hat dynamische Auflösung und Framelimit mit VRS zu tun? Ich habe in Gears Tactics die dynamische Auflösung deaktiviert (damit auch das FPS Target) und das Framelimit auf unbegrenzt gestellt. Das Problem bei der Implementierung von VRS in Gears Tactic ist dass das komplette Bild analysiert und entsprechend Bildbereiche mit einer geringeren Auflösung gerendert werden. Bei Kisten, Autos, Zäunen oder Mauern fällt das nicht so stark auf, aber bei den HUD Elementen wie z.B. die Wegmarken, Sichtlinien oder Sichtkegel fällt es sehr deutlich auf und besonders bei den Sichtkegeln hat man durch VRS auch im Gameplay Nachteile. Durch die veringerte Auflösung der Sichtkegel erkennt man nicht mehr genau welche Bereiche im vollen Sichtbereich (komplett blau), im halb verdeckten Sichtbereich (blau gestreift) und im verdeckten Sichtbereich (ohne Füllung). Mit den zufälligen und teilweiese sehr harten Modifiern im Endgame ist es schon wichtig dass man die Sichtkegel pixelgenau absetzt, damit die Gegner nicht zu nahe an die eigene Position heran kommen.
 
Navi unterstützt kein VRS? Aber schön zu sehen wie sich die 5700XT unter 1440p mit der alten 2080 anlegt und die 1080Ti/Radeon 7 schlägt. Da sieht man das Potential von 7nm. RDNA scheint wirklich ein Glücksgriff für AMD zu sein. Raff hat sie auf 2GHz getestet?

Das man die ganzen Technologien die Dx12 so mitbringt ausnutzt um die Bilder pro sec zu Lasten der Bildqualität zu steigern ist irgendwie nicht nachvollziehbar. Hoffentlich bringt AMD mit RDNA2 nicht die gleichen Feature. Dann würde ich sogar wieder überlegen auf AMD umzuschwenken.:daumen:
 
Was hat dynamische Auflösung und Framelimit mit VRS zu tun?
Dann frage dich was das SubSurface mit der Primitivmenge zu tun hat und ob diese abhängig von der gewählten Auflösung ist?

Möglicherweise kann man mit Tier_2 die von dir genannten Objekte weiter schärfen und andere dafür unscharf belassen, wenn du mit dem Auge etwas fokussiert, wird der Rest ja auch unscharf. Der Algorithmus tastet das fertig gerenderte Bild ab. Ich habe ja schon geschrieben, dass die Verteilung im Bild möglicherweise ungünstig gewählt ist. Im Artikel steht es ähnlich.

Es geht um den Factor (Combiner inklusive Interpolation grober Pixelmengen) der ggf. ungünstig gewählt wurde, weil man mehr Leistung rausquetschen wollte. Es kommt zudem auf den Shadertyp an, den man anspricht, und die Ops auf Turing sind ziemlich reglementiert verteilt damit es effizient bleibt. Man hat also einen niedrige "coarse pixel size" Stufe gewählt was dann lediglich 1x bis 4x MSAA entspricht. Das kann ich ja nicht ändert und wie ich schon schrieb, wird's dann auf das gesamte Bild runter gebrochen. Alles eine Frage der Pixelmenge die man berechnen kann.
 
Wenn einem bloß im Charakter-Menue die FPS abhanden kommen... ;)

Gears Tactics 08.05.2020 17_29_17.jpg

(3440x1440 maxed out)
 
Navi unterstützt kein VRS? Aber schön zu sehen wie sich die 5700XT unter 1440p mit der alten 2080 anlegt und die 1080Ti/Radeon 7 schlägt. Da sieht man das Potential von 7nm. RDNA scheint wirklich ein Glücksgriff für AMD zu sein. Raff hat sie auf 2GHz getestet?

Das man die ganzen Technologien die Dx12 so mitbringt ausnutzt um die Bilder pro sec zu Lasten der Bildqualität zu steigern ist irgendwie nicht nachvollziehbar. Hoffentlich bringt AMD mit RDNA2 nicht die gleichen Feature. Dann würde ich sogar wieder überlegen auf AMD umzuschwenken.:daumen:

Da missverstehst du etwas: VRS soll doch gerade mehr FPS bringen ohne dass die Bildqualität leidet. Das ist der ganze Sinn dieser Technologie. In Gears Tactics funktioniert das nicht so gut, da es noch das alte Tier 1 nutzt. DX12 Ultimate Titel sollten aber Tier 2 nutzen.

DX12 Ultimate bietet daneben einige andere Features, die die Leistung und Grafik erheblich steigern. Und ja, RDNA2, wird DX12 Ultimate ebenso unterstützen was auch sehr gut und richtig ist. Denn DX12 Ultimate ist die Zukunft der Spielegrafik, das Gütesiegel für die nächste Generation sozusagen. Also: Kaufen was DX12 Ultimate hat, nicht kaufen was DX12 Ultimate nicht hat.
 
Naja, während du Tier_1 als Maske über das Bild "stülpst" und dabei die beste Verteilung finden muss, kannst du per Tier_2 dynamisch auf bestimmte assets anwenden. Da hier alles mehr oder weniger unscharf wird, kann es nur logisch sein das es Tier_1 ist.

Wenn man überlegt das es eigentlich für VR gedacht war um Leistungsverbesserungen zu erzielen (dort muss man ja zwei Bilder berechnen), macht es auch Sinn. In dem Fall hier wird die Auflösung anhand des Frameratenziel's dynamisch angepasst und das mindert die Quali dann nochmal sichtbar. Mehrfacher Zoom macht es nicht besser.:D

Ich vermute mal die Framerate würde sonst extrem einbrechen, eben ein Kompromiss aus allem, wo Borderless aber kaum Sinn macht, weil es zusätzlich GPU Ressource kostet und das was man über VRS reinholt wieder verschenkt.

Borderless eignet sich gut, um schnell aus dem Spiel in den Desktop zu zappen, aber wer braucht das wirklich? Microsoft klammert sich vehement an dieses Feature, warum auch immer. Der Desktop wird aber ständig aktualisiert und das kostet zusätzlich Rechenleistung. Schwachsinn...jedenfalls bei hochauflösenden Texturen im Spiel.

Phil hat es in seinem Video vom 05.05. eigentlich ganz gut erklärt.

Ich nutz nur borderless window mode.
Auf dem zweiten Bildschirm läuft meist ein Film, oder ne Serie.. oder Youtube. Da will man aus verschiedenen Gründen schnell mal was am Player einstellen - und sei es nur Pause, weil das Kind schreit.
 
Da missverstehst du etwas: VRS soll doch gerade mehr FPS bringen ohne dass die Bildqualität leidet. Das ist der ganze Sinn dieser Technologie. In Gears Tactics funktioniert das nicht so gut, da es noch das alte Tier 1 nutzt. DX12 Ultimate Titel sollten aber Tier 2 nutzen.

DX12 Ultimate bietet daneben einige andere Features, die die Leistung und Grafik erheblich steigern. Und ja, RDNA2, wird DX12 Ultimate ebenso unterstützen was auch sehr gut und richtig ist. Denn DX12 Ultimate ist die Zukunft der Spielegrafik, das Gütesiegel für die nächste Generation sozusagen. Also: Kaufen was DX12 Ultimate hat, nicht kaufen was DX12 Ultimate nicht hat.

Also ich kauf Spiele nachdem was ich spielen will...:schief:
Wenn VSR jetzt auch noch mal fünzehn "Tiers" benötigt ist es vielleicht Anno 2070 brauchbar.

Das Spiel erinnert mich stark an Mutant Year Zero vom Charakter her aber auch optisch sind einige parallelen erkennbar.
Dank dem XBox GamePass von AMD kann ich das Spiel auch kostenlos spielen, sehr freundlich. So hab ich übrigens auch Mutant Year Zero gezockt, super Game ist das gewesen.
 
Zuletzt bearbeitet:
Wenn VSR jetzt auch noch mal fünzehn "Tiers" benötigt ist es vielleicht Anno 2070 brauchbar.
Unterschiedliche Hardware unterstützt nunmal unterschiedliche Feature-Sets; wenn man ältere GPUs nicht kategorisch ausschließen will, werden solche Features zwangsläufig optional bleiben. Wird wahrscheinlich darauf hinaus laufen, dass VRS in vielen Spielen nur dann angeboten wird, wenn wenigstens Tier 2 unterstützt wird.

Also: Kaufen was DX12 Ultimate hat, nicht kaufen was DX12 Ultimate nicht hat.
Das ist auch einer der Gründe, warum ich Navi nicht mag. Vom Feature-Support her gurkt die Architektur irgendwo zwischen Maxwell und Pascal herum, das ist nicht zukunftsfähig und verhindert letztenendes, dass sich Features, die man nicht einfach so an- und ausschalten kann (v.a. Mesh Shader), in absehbarer Zeit durchsetzen. Und ich mag wetten, dass sich eine 5700XT in ein paar Jahren bestenfalls zwischen einer 1660 Ti und Baseline-2060 einreiht, wenn sich VRS etc. durchsetzen.

A propos Mesh Shader, Navi hat eine neue Geometry-Pipeline (Vega auch, wird da aber nicht genutzt), aber keinen API-Support dafür und ich weiß auch nicht, ob es gut genug für D3D12 Mesh-Shader wäre. Wahrscheinlich eher nicht.
 
Das Spiel erinnert mich stark an Mutant Year Zero vom Charakter her aber auch optisch sind einige parallelen erkennbar.
Dank dem XBox GamePass von AMD kann ich das Spiel auch kostenlos spielen, sehr freundlich. So hab ich übrigens auch Mutant Year Zero gezockt, super Game ist das gewesen.

Ich halte Mutant Year Zero für das beste der rundenbasierten Spiele. Warum das, ist doch nur - wie Gears Tactics - ein von XCOM inspiriertes Werk? Es bietet Echtzeit-Erkundung zwischen den Kämpfen! Und mehr oder minder subtilen Humor. :-) Diese Verschmelzung macht die Sache auch für Genre-Neulinge etwas besser verdaulich.

Sauber, eine RX 5700 XT ist genauso schnell wie eine wesentlich teurere RTX2070 Super
biggrin1.gif

Naja, "wesentlich". Zumal wir in diesem Fall die schnellste 5700 XT mit einer bestenfalls überdurchschnittlichen 2070S vergleichen. Navi ist hier stark, aber nicht gigantisch.

Das ist auch einer der Gründe, warum ich Navi nicht mag. Vom Feature-Support her gurkt die Architektur irgendwo zwischen Maxwell und Pascal herum, das ist nicht zukunftsfähig und verhindert letztenendes, dass sich Features, die man nicht einfach so an- und ausschalten kann (v.a. Mesh Shader), in absehbarer Zeit durchsetzen. Und ich mag wetten, dass sich eine 5700XT in ein paar Jahren bestenfalls zwischen einer 1660 Ti und Baseline-2060 einreiht, wenn sich VRS etc. durchsetzen.

A propos Mesh Shader, Navi hat eine neue Geometry-Pipeline (Vega auch, wird da aber nicht genutzt), aber keinen API-Support dafür und ich weiß auch nicht, ob es gut genug für D3D12 Mesh-Shader wäre. Wahrscheinlich eher nicht.

Maxwell fällt im Vergleich schon ziemlich ab, die GPUs beherrschen nicht einmal AC. In welcher Disziplin siehst du denn Pascal vor Navi (von der Rohleistung und Speichermenge bei GP102 abgesehen)? Veraltet, gerade im Angesicht von DX12 Ultimate, sind beide.

MfG
Raff
 
Zuletzt bearbeitet:
In welcher Disziplin siehst du denn Pascal vor Navi (von der Rohleistung und Speichermenge bei GP102 abgesehen)?
Kann ich jetzt auch nicht nachvollziehen, schon Vega war Pascal überlegen in dem Punkt.
Ich halte Mutant Year Zero für das beste der rundenbasierten Spiele. Warum das, ist doch nur - wie Gears Tactics - ein von XCOM inspiriertes Werk? Es bietet Echtzeit-Erkundung zwischen den Kämpfen! Und mehr oder minder subtilen Humor. Diese Verschmelzung macht die Sache auch für Genre-Neulinge etwas besser verdaulich.

Ging wirklich super von der Hand, aufmerksam bin ich auf das Spiel tatsächlich durch deinen Benchmark geworden. Der Wiederspielwert ist nur leider nicht gegeben. Anfangs ist es auch Brutal schwer.

Ich zwirbel heut mal meine OC VII durch euren Bench, mal gespannt was bei raus kommt.

Edit: Hmm ich komm nicht an die SaveGames dank WindowsStore Version.
 
Zuletzt bearbeitet:
In welcher Disziplin siehst du denn Pascal vor Navi (von der Rohleistung und Speichermenge bei GP102 abgesehen)? Veraltet, gerade im Angesicht von DX12 Ultimate, sind beide.
Pascal hat Support für die Raytracing-APIs in D3D12 und Vulkan. Ob es Workloads gibt, wo die Implementierung ohne Hardware-Support schnell genug ist, sei mal dahin gestellt (bei den aktuellen Spielen scheint das ja eher nicht der Fall zu sein, ausschließen würde ich es aber nicht), aber zumindest auf dem Papier ist Support vorhanden.

Klar haben die AMD-Karten ihre Vorteile, aber ob die Compute-Queue nun wirklich asynchron ist oder nicht, ist unerheblich für die Frage, ob ein Spiel, das neue Features voraussetzt, überhaupt läuft oder nicht.
 
Pascal hat Support für die Raytracing-APIs in D3D12 und Vulkan. Ob es Workloads gibt, wo die Implementierung ohne Hardware-Support schnell genug ist, sei mal dahin gestellt (bei den aktuellen Spielen scheint das ja eher nicht der Fall zu sein, ausschließen würde ich es aber nicht), aber zumindest auf dem Papier ist Support vorhanden.

Klar haben die AMD-Karten ihre Vorteile, aber ob die Compute-Queue nun wirklich asynchron ist oder nicht, ist unerheblich für die Frage, ob ein Spiel, das neue Features voraussetzt, überhaupt läuft oder nicht.

Das ist jetzt aber ein sehr dünnes Argument.
 
Warum? Es ging um Feature-Support, und Pascal hat nunmal DXR-Support, AMD nicht. Und selbst wenn man das mal ignoriert, herrscht da gerade mal Gleichstand, was für ein Produkt, das knapp ein Jahr nach Turing auf den Markt kam, einfach zu wenig ist.
 
Zurück