DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren

Genau. Ich habe mich für die 980Ti entschieden, um in 4K zu zocken. Die Ti hat mir persönlich dafür das beste Gesamtpaket geliefert. Das einzige DX12 Spiel, was mich bis jetzt interessiert ist Deus Ex. Wie meine Tis darin funktionieren muss ich dann im Februar 2016 (!) mal schauen. Ich gehe aber mal davon aus, dass ich es vermutlich werde spielen können. :ugly:
Alle andere Games, die ich bis in 2016 hinein auf dem Radar habe, unterstützen kein DX12 (zumindest bis jetzt).
Alles in allem besteht also aktuell überhaupt kein Grund, mich zu ärgern.

Bis es sich wirklich lohnt ne Graka wegen der DX12 Spiele zu holen,vergeht noch ein bissel Zeit
 
Zuletzt bearbeitet:
Für alle die sagen asynchronous shader werden nicht wirklich benutzt werden

jedes dx 12 spiel wird damit beworben

fable, battlefront, mirrors edge, und viele viele mehr

hab irgendwo ne liste gesehen und da waren eigentlich alle dx12 titel dabei
 
Hmm, warum sollte Nvidia ein Feature unterstützen, das dazu da ist, die performance zu erhöhen, wenn es auf den eigenen Karten die performance verringert?
Nvidia hätte doch gar keinen Grund, das ganze zu Supporten und könnte praktisch die Leistung steigern, indem man den Support einfach wieder aus dem Treiber entfernt.

Man kann also davon ausgehen, dass die Berechnung auf der CPU mehr Performance bringt, als wenn man das Feature gleich ganz weglässt. Alles andere ergibt einfach keinen Sinn.
Einschätzen können wir das natürlich ohne praxisnahe Beispiele nicht wirklich.


Trotzdem schade, wenn man sich einerseits auf den verringerten overhead freut, andererseits die CPU aber wieder mit so nem Zeug belastet wird.
Na ja, ABWARTEN

Wenn DX12 titel auf meiner GTX980 nicht vernünftig laufen, hau ich sie davon. Bezweifle aber, dass es jemals soweit kommen wird. Das wäre ein Desaster für Nvidia.
 
Das liegt daran, dass NVidia nur Exklusivdeals macht. Arbeitest Du wenigstens auch mit AMD zusammen, dann verweigert NVidia komplett.
Hast du Beweise dafür? Ich denke eher nicht. Mir ist da auch Tom Raider im Gedächtnis geblieben, bei dem nVidia viel zu spät die Möglichkeiten zur Optimierung bekommen hat.
 
Steht das oben in deinem Zitat? Nein.
Dann sprich Mark persönlich an. Wenn du in der dritten Person ("der Autor") auf eine Aussage reagierst, kann man davon ausgehen, dass du den Autor der verlinkten Quelle meinst. Du bist doch sonst auch so ein Korinthenkacker, wenn sich Leute nicht 100%ig exakt ausdrücken.

Inhaltlich hast du aber natürlich Recht. Das was Mark geschrieben/interpretiert hat, ist falsch.
 
Hmm, warum sollte Nvidia ein Feature unterstützen, das dazu da ist, die performance zu erhöhen, wenn es auf den eigenen Karten die performance verringert?
Nvidia hätte doch gar keinen Grund, das ganze zu Supporten und könnte praktisch die Leistung steigern, indem man den Support einfach wieder aus dem Treiber entfernt.

Man kann also davon ausgehen, dass die Berechnung auf der CPU mehr Performance bringt, als wenn man das Feature gleich ganz weglässt. Alles andere ergibt einfach keinen Sinn.
Einschätzen können wir das natürlich ohne praxisnahe Beispiele nicht wirklich.


Trotzdem schade, wenn man sich einerseits auf den verringerten overhead freut, andererseits die CPU aber wieder mit so nem Zeug belastet wird.
Na ja, ABWARTEN

Wenn DX12 titel auf meiner GTX980 nicht vernünftig laufen, hau ich sie davon. Bezweifle aber, dass es jemals soweit kommen wird. Das wäre ein Desaster für Nvidia.

ganz einfach man optimiert einmal eine ganze Engine für ACEs und erspart sich nachher immer und immer wieder neue Treiber für Spiele zu bringen, was Kosten spart
 
Hmm, warum sollte Nvidia ein Feature unterstützen, das dazu da ist, die performance zu erhöhen, wenn es auf den eigenen Karten die performance verringert?
Nvidia hätte doch gar keinen Grund, das ganze zu Supporten und könnte praktisch die Leistung steigern, indem man den Support einfach wieder aus dem Treiber entfernt.

Man kann also davon ausgehen, dass die Berechnung auf der CPU mehr Performance bringt, als wenn man das Feature gleich ganz weglässt. Alles andere ergibt einfach keinen Sinn.
Einschätzen können wir das natürlich ohne praxisnahe Beispiele nicht wirklich.


Trotzdem schade, wenn man sich einerseits auf den verringerten overhead freut, andererseits die CPU aber wieder mit so nem Zeug belastet wird.
Na ja, ABWARTEN

Doppel Post
 
Zuletzt bearbeitet:
Nvidia scheint sich nicht zu dem Thema äußern zu wollen.
Nvidia selbst sitzt die Situation bislang aus und hat sich (noch) nicht dazu geäußert.
Jo, die übliche Taktik. Also langsam macht mir meine überteuerte Geforce immer weniger Spaß. Nicht das mich der asynchrone shice interessieren würde, bevor es einen Titel gibt, bei dem ich sowas benötige, werd ich mir schon die nächste x60 in den PC geschraubt haben. Nur so grundsätzlich, wenn was is, hauptsache die Klappe halten. Weil wir sind alle doof und schreckhaft, und alles was Nvidia will, ist unsere Kohle. Und dabei werden wir wohl auch noch beschissen.
 
Das ist nicht die Schuld von N.Vidia....die Gpu wurde konstruiert nach Richtlinien von derzeit noch DX11 wo sie Hammer Leistung bringt.......AMD war im Vorteil,weil se in den neukonstruktionen ihr damals noch eigenes Mantle einbeziehen konnten...das ähnlich wie DX12 ist....das die hier bessergestellt sind scheint irgendwie logisch. Die Gpus von denen sind schon auf sowas ausgelegt.
Um mal nix falsches zu sagen...aber AMD hat auch guten kontakt zu MS....beide Amis.(was die Zukunftsplanung der Gpus angeht)

Boah, bitte hör mit deinem Dummen gelaber auf, das ist ja Schrecklich. :wall:
Nvidia ist nicht Schuld, Nein, natürlich nicht. Der Weihnachtsmann ist Schuld das die Grafikkarte kein Hardware Asynchronous Compute kann.
Wurde nach DX11 "konstruiert"? Auf dem Karton steht dann aber DX12?
Wer hat was "neukonstruiert"?
Und Nvidia kommt aus dem Lummerland.

Bitte erspar der Menschheit dein Nicht-/ Halbwissen.
 
Jo, die übliche Taktik. Also langsam macht mir meine überteuerte Geforce immer weniger Spaß. Nicht das mich der asynchrone shice interessieren würde, bevor es einen Titel gibt, bei dem ich sowas benötige, werd ich mir schon die nächste x60 in den PC geschraubt haben. Nur so grundsätzlich, wenn was is, hauptsache die Klappe halten. Weil wir sind alle doof und schreckhaft, und alles was Nvidia will, ist unsere Kohle. Und dabei werden wir wohl auch noch beschissen.

Abzocken tun viele....leider.:heul:
(Der Heulsmilie müßte jetzt eigentlich 5mal so groß sein)
 
Zuletzt bearbeitet:
*Seufts*
Hatte nicht auch PCGH geschrieben das die GTX 980 alle Features unterstützt? Habe das was mit Tier3 in Erinnerung.
Wie sieht das mit Async Compute genau aus? Nettes Feature oder nur in dem einen Spiel wichtig?

Ansonsten wieder einmal Mist.
Mag sein das DX12 noch Jahre braucht aber wenn nun ein großteil aller "DX12" Karten ein wichtiges (?) Feature nicht praktisch beherscht
dauert es noch länger.
Naja kann man noch länger bei Windows Vista/7/8 bleiben.
 
Boah, bitte hör mit deinem Dummen gelaber auf, das ist ja Schrecklich. :wall:
Nvidia ist nicht Schuld, Nein, natürlich nicht. Der Weihnachtsmann ist Schuld das die Grafikkarte kein Hardware Asynchronous Compute kann.
Wurde nach DX11 "konstruiert"? Auf dem Karton steht dann aber DX12?
Wer hat was "neukonstruiert"?
Und Nvidia kommt aus dem Lummerland.

Bitte erspar der Menschheit dein Nicht-/ Halbwissen.

naja...auf dem karton steht "Ready for DX12"......das heist es funktioniert auch....aber offentsichtlich nicht so ganz.
 
Abzocken tun se uns alle....ob N.Vidia, AMD oder MS das se unseren PC mit Win10 als Werbeplattform verkaufen.....wir müssen nur nen Kompromiss finden das der Beschiss uns nicht zu sehr depremiert.:heul:

ja Geld wolle Alle aber welche Karten sind jetzt am langlebigsten ? sicherlich nicht die von Nvidia Leistung hin oder her, die nächsten Titel setzten auf DX12 und die kann man noch locker mit einer 290x kaufen bevor man zu einer neue Karten greift also nix mit 980Ti , eine Karte die nur die Hälfte bitte kostet und bei weiten älter ist

das sollte man bitte mal man klarstellen anstatt alle wieder auf das gleiche Niveau stellen und dann sagen AMD ist genauso wie Nvidia, das stimmt ja nur was die Einnahmen betrifft dazu gehören aber andere Dinge auch wie offene Kommunikation
 
Das ist nicht die Schuld von N.Vidia....die Gpu wurde konstruiert nach Richtlinien von derzeit noch DX11 wo sie Hammer Leistung bringt.......AMD war im Vorteil,weil se in den neukonstruktionen ihr damals noch eigenes Mantle einbeziehen konnten...das ähnlich wie DX12 ist....das die hier bessergestellt sind scheint irgendwie logisch. Die Gpus von denen sind schon auf sowas ausgelegt.
Um mal nix falsches zu sagen...aber AMD hat auch guten kontakt zu MS....beide Amis.(was die Zukunftsplanung der Gpus angeht)

Sind doch beide US-Unternehmen.
Wessen schuld, wenn nicht Nvidia´s, ist es denn wenn Async Shader nicht nativ funktionieren?
Generell ist es halt wieder ein feature was es bei dem einem Hersteller gibt beim anderen nicht.
Wo DX 12 drauf steht ist lange kein DX 12 drin.
 
Man sieht ja das diese Innovationen nicht viel bringen, wenn man wie AMD einfach mal mindestens ein halbes Jahr länger braucht um seine Produkte auf den Markt zu bringen.
Da sind die Prioritäten nicht richtig gesetzt. NV verkauft trotz der ganzen "Skandale" einfach mehr.
 
wer Nvidia glaubt ist selber schuld. Die Spieler vergessen zu schnell meine Meinung nach .
Seit der GTX 970 Dekabel werde ich NV nicht mehr so schnell vertrauen.
Klar dass AMD Hardwareseitig einen Vorteil hat weil Maxwell mit dem Fokus auf DX11 konzipiert wurde.
wer jetzt eine 800€ GTX 980TI gekauft hat und sagt das ist egal weil es keine DX12 Spiele gibt, das Stimmt aber habt ihr vor in 1 Jahr eine neue Grafikkarte zu kaufen ?
 
Zurück