Nun, Ryzen 5 1600 /X) und 1500 am 11 April, könnte sich am 25 bis 01. Mai 2017 glatt ausgehen!
Das manche immer noch denken DX12=Async Compute, kann ich nicht verstehen.
Komischerweise kommt das Argument meist nur, um Nvidia schlecht zu reden.
Gibt genug Tests dazu, in den AMD mit Async Compute kaum zulegt oder sogar verliert.
Das war nix, denn Tom Raider nutz Tress FX glaub in Version 3, welches von AMD stammt.
PS: Hab vergessen das HBAO+ verwendet wird, zumindest in RotTR
Zudem kommt mindest noch VXAO als Gameworks Effect dazu.
Auf meiner R9 290 mit aktuellen Treibern läuft Rise of the Tombraider unter DX 12 gefühlt wesentlich flüssiger (Frametimes geothermales Tal). Ich habe es erst letztens im Sale erstanden. Es gibt zwar am Ende einen Bug des Games, wenn man DX 12 nutzt, aber ansonsten war das ein echter Zugewinn. Ich nutze hohe Texturen und Schatten, Haare auf "ein", HBAO+ und den Rest auf Maximaleinstellung.Du meinst nVidia verliert bei Async Compute. Das einzige Spiel was mit einfällt wo AMD bei DX12 schlechter als bei DX11 ist, ist Tomb Raider. Und das ist mit NV-Gamemurks verhunzt und ob es wirklich AC nutzt steht auch in den Sternen.
GeForce GTX 1080 Ti: Schneller als die Titan X fur 819 Euro - ComputerBaseOffiziell: Pascal ist ein Tiled Cache Renderer
Es gibt schon lange die Vermutung, dass Nvidia ab Maxwell keinen klassischen Immediate Renderer mehr nutzt. Dieser rendert die von der Engine in Auftrag gegebene Dreiecke sofort. Ab Maxwell nutzt Nvidia jedoch einen Tiled Cache getauften Renderer – und von nun an ist dies offiziell. Dieser teilt das Bild in eine von der L2-Cache-Größe abhängige Anzahl an Vierecken (Tiles) auf und sammelt Dreiecke in einem Binner genannten Speicher. Ist der Speicher voll, werden die gesammelten Dreiecke zum Rendern geschickt. Das spart an Rechenleistung und auch an Speicherbandbreite.
In Verbindung mit der Speicherkompression soll der Tiled Cache Renderer auf einer hypothetischen HBM2-Karte mit dem GP102 die Bandbreite von 500 GB/s auf 1.200 GB/s erhöhen. 400 MB sollen in dem Fall von der Kompression und 300 MB vom Tiled Cache Renderer kommen. Übrigens: AMDs Vega-GPU setzt erstmal auch auf einen Tiled Cache Renderer, den AMD Draw Stream Binning Rasterizer getauft hat.
Hardware- und Nachrichten-Links des 1. Marz 2017 | 3DCenter.orgDaneben wäre noch zu erwähnen, das nVidia nun endlich zugegeben hat, das die Maxwell- und Pascal-Architekturen als Tiled-Cache-Renderer ausgelegt sind, wie die ComputerBase am Ende ihrer Berichterstattung zur Präsentation der GeForce GTX 1080 Ti erwähnt. Dies dürfte dann letztlich auch den großen Effizienzsprung der Maxwell-Generation besser erklären, welche zum einen aus derselben Rechenleistung wesentlich mehr Performance herausholt und zum anderen dafür nicht mehr Energie verbraucht – und dies alles auf Basis derselben Fertigungstechnologie (zur Vorgänger-Generation Kepler). Auch daß nVidia für dieselbe Performance mit auffällig weniger Speicherbandbreite zurechtkommt, läßt sich hierüber erklären – nVidia gibt den Effekt grob mit 60% mehr effektiver Speicherbandbreite (nur durch dieses Feature) an. AMD wird erst mit der Vega-Generation in diesen Fragen nachziehen – aber da wir alle den enormen Effekt bei der Maxwell-Generation gesehen haben, macht dies Vega natürlich um so interessanter. AMD könnte erstmals in der Lage sein, aus seinen vielen Recheneinheiten und seiner großen Speicherbandbreite richtig Gewinn zu ziehen.
Hast du eigentlich Spaß an solchen Kommentaren?Vega wird endgeil. Volle DX12 Fähigkeit, HBM2, 14nm LPP Produktion (nicht LPE wie Polaris in RX480 Form), ASC funktioniert, das wird der Chip den man haben muss.
Hast du dafür ne Quelle?11 April RyZen 5
18 April RX 500-er Serie
25 April RX Vega 10
Will einen Rausch an Presseevents auslösen
und kommt vielleicht zeitgleich mit GTX 1080 TI Coustom Karten an...
Hast du eigentlich Spaß an solchen Kommentaren?
Du schreibst doch meist ganz vernünftig.
Total War: Warhammer mit DX12 war bei jedem schlechter:Du meinst nVidia verliert bei Async Compute. Das einzige Spiel was mit einfällt wo AMD bei DX12 schlechter als bei DX11 ist, ist Tomb Raider. Und das ist mit NV-Gamemurks verhunzt und ob es wirklich AC nutzt steht auch in den Sternen.
Es gab nach dem DX12-Patch noch mindestens zwei weitere Patches.Auf meiner R9 290 mit aktuellen Treibern läuft Rise of the Tombraider unter DX 12 gefühlt wesentlich flüssiger (Frametimes geothermales Tal). Ich habe es erst letztens im Sale erstanden. Es gibt zwar am Ende einen Bug des Games, wenn man DX 12 nutzt, aber ansonsten war das ein echter Zugewinn. Ich nutze hohe Texturen und Schatten, Haare auf "ein", HBAO+ und den Rest auf Maximaleinstellung.
Hat da ein letzter Patch etwas verbessert?
Wenn man den User-Namen auf Propaganda-Channel wechseln würde, dann wüsste wenigstens jeder was zu erwarten wäre.Vega wird endgeil. Volle DX12 Fähigkeit, HBM2, 14nm LPP Produktion (nicht LPE wie Polaris in RX480 Form), ASC funktioniert, das wird der Chip den man haben muss.
In wie fern brauchte Nvidia dafür die 750 Ti?[...]
Nvidia brauchte dafür den Zwischenschritt 750ti, um Tiled Cache Renderer optimieren zu können.
Deshalb dauert das mit Vega "gefühlt" so lange.
AMD "testet" das nicht erst mit einem kleinen Chip, sondern geht damit gleich auf den großen Vega 10.
Ja, ein Schild in einem PR-Video hat uns wissen lassen, dass selbst Volta ziemlich arm aussehen wird.Wir wissen doch von AMD selber, dass gegen Vega selbst der Nachfolgechip von NV ziemlich "poor" aussehen wird.
Treiber u.s.w. mussten doch erst optimiert werden für Maxwell.In wie fern brauchte Nvidia dafür die 750 Ti?
Vega steht vor der Tür