Locuza
Mal ganz ehrlich, klingt das soo doof? Bei ark sollte der schon 3 mal kommen. Da kam der Mist doch erst raus das nv das so nicht kann. Und ja nvidia hat schon genug getan das man dabei an sowas denkt .
Ja, dass klingt doof.
Was kann denn Nvidia nicht? Von Async Compute profitieren? Okay, verwendet ARK Async Compute????....????
Die UE4 hat erst neulich ein offizielles Interface für Multiengine eingebaut, davor wäre es eine reine Entwickler-Sache gewesen.
Und selbst wenn es bei Nvidia Probleme gemacht hätte, extrem wie bei Ashes of the Singularity Vendor-ID abfragen oder einfach nicht verwenden und DX12 so releasen.
Oh dann kommt aber der Vorwurf, dann läuft das Spiel nicht mehr soviel besser bei Nvidia.
Und der Entwickler ist so bestechlich und wer noch, außer die von ARK? Die von Tomb Raider? Ist DICE auch bestochen worden, weil Battlefront einen experimentellen DX12-Pfad hatte, aber sie sich gegen einen Release entschieden haben?
Bei Tomb Raider sind darüber hinaus nicht einmal alle Nvidia-Interessen vertreten.
HBAO+ war halbgar implementiert, es gab SLI-Bugs, VXAO oder TXAA sind auch nicht zum Launch enthalten.
Eine ganz verrückte Idee, aber DX12 könnte vielleicht auch nicht ganz fertig sein, von Seiten des Entwicklers, ohne das Nvidia speziell manipuliert hat?
Fable Legends ist ein DX12 Spiel und der Benchmark wurde scheinbar nicht von Nvidia zurückgehalten, dabei gab es auch eine Kooperation mit Nvidia.
Und das Spiel verwendet sogar noch Async Compute und die Radeons profitieren davon.