Rise of the Tomb Raider PC: Launcher mit DirectX-12-Option

Ehrm

War es nicht so, das AMD DX 12 Features beherrscht, die Nvidia nicht kann und umgekehrt? Und hielten sich die jeweils unterstützten Features nicht in etwa die Waage, sodass man nicht sagen kann "dieser/jener kann aber mehr DX12"? (Abgesehen von Intel, die können alles :ugly: )
 
Wer halt auf AMDs werbe Trommel einfällt den kann man nicht mehr helfen. Erst hat AMD behauptet Nv kann es gar nicht, dann wurde es wieder legt und dann gab es zuhören aber viel schlechter.
Im Forum damals war die Hölle los AMD behauptet sie unterstützen mehr DX12 Inhalte was genau anders rum ist. Es wurden tools angefertigt mit denen man die ms Werte bei Asynchronen Shadern messen
konnte was zu sehr erstaunlichen Ergebnissen Geführt hat.
Das Problem bei solchen Sachen ist die Presse es kommt maximal 1 News und wenn überhaupt ein Update was nach 200 Seiten Forenpost wirklich raus kommt wurde ja nicht mehr berichtet. AMD hat
heftigen Gegenwind bekommen für ihre Aussagen und damals hat man schon Vermutet das ihr Ashes Benchmark pro AMD war. Was sich dann auch in der Early Access Version gezeigt hat, das es
überhaupt so aufgebauscht wurde von einem Entwickler der schon mal das gleiche gemacht hat. Die AMD Werbe Trommel kräftig gerührt für wen überhaupt ein mittelmäßiges Spiel das DX12 unterstützt.
AMD wirbt mit DX12 hat aber gerade so DX12.0 wogen Maxwell DX12.1 hat und Intel ist knapp an DX12.2 vorbei gerutscht.
DirectX 12 im Spiele-Benchmark: Fable Legends mit aktuellen Grafikkarten geprüft [Update]
DirectX 12: Vollgas für AMD in der Beta von Ashes of the Singularity - ComputerBase

DX12 sieht bis jetzt nicht so geil aus für Nvidia (ich meine jetzt weniger die (enttäuschende) Fury X - die hat wie wir alle wissen ihr Front End Problem - sondern alles was sich weiter unten im Diagramm abspielt).

Aber klar, kann ja alles noch werden... oder auch nicht.
 
Wenn wir durch DX12 genauso Performance Sprünge bekommen, wie durch Mantle, dann ist flüssiges UHD in Sichtweite :) Ich freu mich darauf, unabhängig davon, ob AMD oder Nvidia Nutzer ein längeren ***** besitzen.
 
Die Skylake GPU kann Feature Level 12.1 und Tier 3 sowie die verbaute APU in der Xbox One. Was wichtiger ist hängt davon ab was man in welchem Umfang nutzen möchte. Will man auf alle Ressourcen zugreifen braucht man Tier 3 was eine höhere Performance heißen kann. Will man aber bestimmte Features nutzen, dann bringt es einem nichts wenn man Tier 3 kann. Es kann dann das selbe passieren wie aktuell das AMD zwar die Leistung hat, aber durch die genutzten Features die Leistung nicht umsetzen kann.
Die Xbox One kann es nicht, auch wenn ein PR-Bildchen von Microsoft irgendwo mal FL12.1 hingeschrieben hat.

AMD wirbt mit DX12 hat aber gerade so DX12.0 wogen Maxwell DX12.1 hat und Intel ist knapp an DX12.2 vorbei gerutscht.
Hardwareluxx nehme ich an, ansonsten habe ich nirgendwo den Unsinn mit DX12.2 gelesen.
Es gibt nur DX12 und die API hat 4 Feature-Levels, 11.0, 11.1, 12.0 und 12.1.
AMD unterstützt bisher nur DX12 FL12.0, Maxwell v2 und Gen 9 unterstützen 12.1, wobei Gen 9 alle Features von DX12 unterstützt, die auch über FL12.1 hinausgehen, dass hat aber keinen Namen.

War es nicht so, das AMD DX 12 Features beherrscht, die Nvidia nicht kann und umgekehrt? Und hielten sich die jeweils unterstützten Features nicht in etwa die Waage, sodass man nicht sagen kann "dieser/jener kann aber mehr DX12"? (Abgesehen von Intel, die können alles :ugly: )
Jedes Feature hat andere Auswirkungen und Einsatzgebiete.
Ein höheres Feature-Level würde ich dabei schon auf die Liste von "kann mehr" setzen.
CR und ROVs sind dabei noch potentiell visuelle Features bzw. welche die solche Sachen stark beschleunigen können.

[...]
DX12 sieht bis jetzt nicht so geil aus für Nvidia (ich meine jetzt weniger die (enttäuschende) Fury X - die hat wie wir alle wissen ihr Front End Problem - sondern alles was sich weiter unten im Diagramm abspielt).
Kommt darauf an, was man als Front-End Problem ansieht und wie leicht es sich feststellen lässt.
Ein Problem hat AMD aber auf jeden Fall was den Command-Processor angeht und die Dreiecksleistung ist schwach.
 
Danke für die verständliche Antwort, das mag ich an den meisten deiner Posts :)
Nur Interesse halber: kann man CR und ROVs auf der "kann mehr" Liste mit Async Shadern "gleichsetzen" , also im Bezug auf mögliche Performanceboosts, Implementierung und etwaigen Eyecandy?

P.S: könntest du mir via PM oder hier im Thread mal deine "Standard-" Quellen verlinken? Ich hab immer das Gefühl ich lese die meisten Sachen zu spät :ugly:
 
Hat zwar alles nichts mit Lara hier zu tun aber was solls:

Zuerstmal mal zu der AsyncS Geschichte. Theoretisch kann NV dieses in Hardware und das sogar relativ gut -> http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf

Die Grid Management Unit ist hier das Zauberwort. Leider hat es, zumindest bei Kepler, nur die GK110. Möglich ist es aber. Ob die kleinen GM Chips was ähnliches haben glaube ich nicht ( wenn wer andere Infos hat immer her damit ).

Ferner wird auch der Maxwell Nachfolger mit AsyncS nicht viel besser klarkommen als die aktuellen mittelklasse Karten von NV. Beweise? Hab ich keine aber logisch ist es.

Kommen wir zu Fury:

Fury ist und bleibt einfach nur ein großer Test und kein ernst zu nehmender Chip. Er skaliert einfach mal gar nicht. Selbst in Ashes kommt er mit DX12 nicht aussem Po. Theoretisch ca. 70% mehr Dampf als Hawaii - was von über bleibt sieht ihr ja selbst.

Fiji war ganz nett um den Interposter zu testen + HBM.
 
Async Shader bzw. Async Compute ist letztendlich "nur" für eine bessere Performance und Latenz da.
Das ist aber Architektur abhängig wie stark man von so einem Feature profitieren würde.
Ganz grob gesehen könnte man es auch mit SMT bei CPUs vergleichen, es macht wenig Sinn einen schmalen Kern der meistens ausgelastet ist mit 4 Threads voll zu knallen, hat man aber breiten Kern, dann ist die Wahrscheinlichkeit größer das dieser häufiger unausgelastet ist, SMT lohnt sich.

So ähnlich ist das bei AMDs GCN und Nvidias Maxwell und noch viel mehr Intels Gen-Architektur.
Jeder der drei hat eine Architektur die unterschiedliche Arbeitsgrößen für die ALUs verwendet, AMD hat die breiteste mit 64 Threads, Nvidia verwendet 32, Intel ist flexibel mit 8, 16 oder 32, sie verwenden meistens 16.
Und jede Architektur hat eine andere Balance was die Kontrolllogik angeht, wie schnell sie den Arbeitsmodus wechseln kann, wie hoch die durchschnittliche Auslastung der Einheiten ist usw.
AMDs GCN neigt dazu mehr idle-Units zu haben gegenüber der Konkurrenz, Hardware-Scheduler und Async Compute macht Sinn.

Bei Async Compute kommt der Performance-Boost durch zwei Sachen zu Stande, 1. unausgelastete Einheiten bekommen Compute-Arbeit zugewiesen, 2. prinzipiell unausgelastete Einheiten bekommen Compute-Arbeit zugewiesen.
Async Compute lohnt sich besonders bei der Nummer 2, wenn man Spiele rendert dann gibt es Berechnungen die fast vollständig auf die ROPs (Backend) gehen, da tun die ALUs prinzipiell wenig, wenn man hier Async Compute dazwischen schiebt, kann man viel gewinnen.
Das ist auch die Hauptaufgabe von Entwicklern, schauen welche Arbeitsschritte sich nicht in die Quere kommen und unabhängige Flaschenhälse haben, somit kann man am meisten Performance herausschlagen.
Geschaut wird welche Compute-Aufgaben sich parallel eignen und dann wird das ganze über die API konstruiert (vorgegeben) und mit den restlichen Arbeitsschritten synchronisiert.

Conservative Rasterization ist ein neuer Arbeitsmodus vom Rasterizer welcher anders arbeitet als bisher.
Normalerweise wird im Raster geschaut, ob ein Dreieck die Mitte eines Pixels überschreitet oder nicht.
Wird die Pixelmitte getroffen, wird gerastert, wenn nicht, wird eben nicht gerastert.
Conservative Rasterization dagegen rastert alles was einen Pixel berührt.
Es ist dadurch möglich Algorithmen zu verwenden die früher optische Pixelfehler hatten.
Mögliche Dinge sind die Berechnung von Schatten oder Voxeln.

ROVs sind dazu da OIT und Blending effizienter und flexibler zu gestalten, wobei das auch von der Hardware abhängt wie schnell das ist.
Intel hat sehr gute Hardware an der Stelle, wie es mit Nvidia aussieht weiß ich nicht, wir werden es "bald" mit Just Cause 3 und F1 2015 erfahren, beide Spiele verwenden Conservative Rasterization und ROVs.
Hier kann man dem Backend sagen das er nicht alle Pixel parallel berechnen soll, sondern einige seriell.
Das kostet natürlich etwas Performance, garantiert einen aber das gewisse Objekte erst nach den anderen gerendert werden, sodass man Transparenzen korrekt darstellen kann, ohne Pixelfehler.
Bisher verwendet man Datenstrukturen die das ganze in eine Liste schreiben, sortieren und dann ausgeben.
Das kostet auch viel Performance und hat den Nachteil, dass man nie genau weiß wie viel Speicher eine Szene benötigt, deswegen wird immer ein Sicherheitsbuffer im VRAM reserviert.
TressFX von AMD z.B. verwendet OIT und frisst viel VRAM.
Mit ROVs könnte man einen Arbeitsschritt wesentlich schneller und sparsamer ausführen, vorausgesetzt die Hardware kann ROVs schnell berechnen.

Async Compute sollte relativ leicht zu implementieren sein. Im Grunde ist das dank den Konsolen sowieso auf dem Radar von den meisten Entwicklern.
Conservative Rasterization ist wahrscheinlich aufwendiger, weil man hier konkrete Rendering-Dinge anders berechnet.
Möchte man Conservative Rasterization ohne "Hardware-Support" berechnen, müsste man es über Shader emulieren, dass benötigt einen ganz anderen Code-Path und wäre viel langsamer natürlich.
ROVs sind laut Entwickler (sebbbi) relativ leicht zu integrieren, aber ein Fallback wäre ebenso aufwendig, da er anders gelöst werden müsste.

Eine gute Standard-Quelle die ich sehr schätze sind Sebastian Aaltonen aka sebbbi (RedLynx) und Andrew Lauritzen (Intel) und das Forum Beyond3D allgemein.
Beide Persönlichkeiten führen viele technische Dinge aus und geben auf viele Frage die man hat eine Antwort. Aber das technische Wissen ist auch außerhalb davon von vielen anderen hoch.
Da tummeln sich noch mehr professionelle Entwickler.

Wer mag kann z.B. hier reinschauen, ein Thread über Gen9, Execution-Model, SIMD-Breite etc:
https://forum.beyond3d.com/posts/1861164/

Zuerstmal mal zu der AsyncS Geschichte. Theoretisch kann NV dieses in Hardware und das sogar relativ gut -> http://docs.nvidia.com/cuda/samples/6_Advanced/simpleHyperQ/doc/HyperQ.pdf

Die Grid Management Unit ist hier das Zauberwort. Leider hat es, zumindest bei Kepler, nur die GK110. Möglich ist es aber. Ob die kleinen GM Chips was ähnliches haben glaube ich nicht ( wenn wer andere Infos hat immer her damit ).
Das Problem ist die verwendete Begrifflichkeit Async Shader bzw. Async Compute für eine Sache, mit der man etwas anderes meint.
Gemeint ist eig. parallel Rendering und Compute berechnen zu können.
Nvidia hat nur einen Scheduler, sie müssen entsprechend immer switchen, wenn andere Aufgabenbereiche anstehen.

Hyper-Q sollte laut Anandtech ab Maxwell generell zur Verfügung stehen:
AMD Dives Deep On Asynchronous Shading

Der Artikel ist aber meh, Darstellung und Text sind krude.
 
Zuletzt bearbeitet:
Klar, am PC kann und darf man immer quasi den Betatester spielen. Mach ich auch ziemlich oft und gerne, da es einfach ein Hobby ist. Aber wenn einem daraus dann noch Nachteile entstehen, dann machts halt irgendwann keinen Spaß mehr.
Ich sehs ja bei TombRaider. Das Game sieht am PC nur ein Stück besser aus, als auf der One, hat dafür aber horrende Anforderungen, wenn man von den gebotenen PC Features was nutzen will.
Selbst meine GTX980 bricht im Geothermalen Gebirge auf 45 FPS ein, gestern in 1920x1080. Am Monitor mit 2560x1080 sinds wahrscheinlich dann 35-40 FPS. wenn ich die Einstellungen so setze, dass ich 60 FPS erreiche, dann hab ich Grafik auf Xbox Niveau mit einem System, bei dem die GPU alleine schon fast doppelt so viel wie ne Xbox gekostet hat. Und genau hier entsteht ein effizienztechnischer Rückstand zu den geschlossenen Konkurrenzplattformen, der so groß ist, dass es einfach nur inakzeptabel ist.
Du darfst zwei Dinge nicht vergessen: 1. Bringt dein Rechner offenbar etwa die doppelte Leistung als die XBox One. 2. Sind wir technisch an einem Punkt angelangt, wo kleine, subtile Verbesserungen der Grafik exponentiell mehr Leistung kosten.
 
Du darfst zwei Dinge nicht vergessen: 1. Bringt dein Rechner offenbar etwa die doppelte Leistung als die XBox One. 2. Sind wir technisch an einem Punkt angelangt, wo kleine, subtile Verbesserungen der Grafik exponentiell mehr Leistung kosten.

mit dem nvidia patch der den fehlenden Schnee in den haaren gebracht hat etc. ist meine Performance mit einer gtx970 um ca 25 fps abgesackt
 
finde auch, ich frage mich eher warum Leute die immer und immer wieder die gleiche Falschaussage machen und das wissentlich warum diese nicht gebannt werden
weils klicks gibt. die ganzen konsolen fürsprecher, die nur auf "uns" negativ einwirken, werden ja auch geduldet. bissl kurz gedacht. wenn man zB mein profil sieht, sieht man am eintrittsdatum un de anzahl der postings, wohin das langfristig führt...
 
Zurück