DirectX 12: Maxwell soll Asynchronous Compute via CPU emulieren

So viel gesunde Einstellung bin ich in diesem Forum gar nicht gewohnt :ugly:



Warte: Nvidia Gained Market Share in Q2 2015, Now Holds 81% of the Market - Jon Peddie Research Report

Ausreden also...

Kommt auf den Datensatz an!
http://www.mercuryresearch.com/graphics-pr-2015-q3.pdf
GCN ist mehr vertreten als nvidia. Nicht vergessen ( Konsolen )


GCN kann mit Async Compute mehr von seiner Rohleistung umsetzen,.


Kleine Ergänzung: Erst mit Async Compute kann man GCN erst richtig auslasten. Unter dem Gesichtspunkt auch verständlich, was passiert, wenn man GCN nun mit Seriell arbeitender API (DX11) betreiben möchte.
 
Zuletzt bearbeitet:
ja wenn man unbedingt sein Geld loswerden will und dann kommt mit so was wie mit Energieeffizienz, wo man bei weiten mehr Geld ausgegeben hat was man so nie wieder rein bekommt -> falsche Doppelmoral sage ich nur

Hm. Mal gerade überlegen: wo hatte ich gesagt, dass ich mir die 980Ti wegen der Energieeffizienz kaufe? Ach ja, nirgends. Wo genau soll da die Doppelmoral sein? Auch nirgends.
Da muss ich mich doch so langsam Fragen, was du eigentlich für ein Problem mit mir hast? Stört dich es doch so sehr, dass ich erst mal abwarte bei allem was DX12 betrifft.
 
Hm. Mal gerade überlegen: wo hatte ich gesagt, dass ich mir die 980Ti wegen der Energieeffizienz kaufe? Ach ja, nirgends. Wo genau soll da die Doppelmoral sein? Auch nirgends.
Da muss ich mich doch so langsam Fragen, was du eigentlich für ein Problem mit mir hast? Stört dich es doch so sehr, dass ich erst mal abwarte bei allem was DX12 betrifft.

nein Leute die sich eine Nvidia Karte kaufen argumentieren den hohen Preis mit einer besseren Energieeffizienz das betrifft dich auch
 
nein Leute die sich eine Nvidia Karte kaufen argumentieren den hohen Preis mit einer besseren Energieeffizienz das betrifft dich auch

Was ist das für eine verdrehte Logik? Ich hatte MEINE Gründe eine 980Ti zu kaufen:

-Hohe Leistung
-Hohes OC Potenzial
-6GB VRAM (wegen 4K)
-Gute Custom Designs


KEINE Gründe waren:

-Effizienz
-DX12


Ich argumentiere nicht mit einer besseren Effizienz. Also hör auf mir so einem Bullshit in den Mund zu legen und mir eine Doppelmoral zu unterstellen. Ich bin nicht "die Leute", ich bin Cook2211. Und was du diesbezüglich scheinbar nicht kapierst (nachzulesen in diversen Threads): man kann nicht immer alle Leute über einen Kamm scheren, nur aufgrund der Hardware die sie kaufen.
 
Es ist echt zum Kopfschütteln... Kaum ist ein GPU Artikel ein paar Stunden online, geht das übliche Rot/Grün gebashe los.

Könnt ihr euch nicht um andere Aspekte dieser Diskussion kümmern?
Wie wäre es zb das Thema
"mögliche Konsequenzen für die Spieleentwicklung innerhalb der nächsten 3-5 Jahre"
"Wie können wir gemeinsam Druck auf NVidia ausüben, um sie zu einer Stellungnahme zu bringen"
"Welche rechtlichen Konsequenzen lassen sich daraus schließen"
"Wie können wir gemeinsam einen Weg finden, um der Hardware so auf den Zahn zu fühlen, damit endlich klar ist, was Sache ist"
Etc
Es gibt hier so viel Potential für Alle, denn egal wohin sich die Geschichte entwickelt, es betrifft uns alle, denn am Ende wird der kleinste gemeinsame Nenner genommen und uns als DX12 Games aufgetischt. Egal ob sich Hersteller A oder B durchsetzt, wir werden alle Verlierer sein
Aber lasst bitte dieses ständige und ewig nervende "ich, meins, mir, mich"
 
Könnt ihr euch nicht um andere Aspekte dieser Diskussion kümmern?
Wie wäre es zb das Thema
"mögliche Konsequenzen für die Spieleentwicklung innerhalb der nächsten 3-5 Jahre"
Hoffentlich keine. Die Spieleentwickler sollten sich an die API DX12 orientieren und nicht darauf was Karte X kann und nicht kann. Es kann nicht sein das Spieleentwickler wichtige Features von DX12 einfach nicht nutzen, nur weil ein paar Grafikkarten das nicht unterstützen. Die Spieleentwickler sollen möglichst alle Features von DX12 nutzen und die Grafikkartenhersteller sollen eben die passenden Treiber dazu schreiben, welche dann die Features deaktivieren, die von deren Grafikkarte nicht unterstützt wird.
Jedenfalls habe ich keinen Bock auf verkrüppelte DX12 Spiele nur weil irgendwelche Early Adopter DX12 Karten damit nichts anfangen können.
"Wie können wir gemeinsam Druck auf NVidia ausüben, um sie zu einer Stellungnahme zu bringen"
lol. Um dann den selben PR Brei zu erhalten wie die Begründung zu den 4GB ähm. 3,5 GB ? Das was Nvidia bisher schon von sich lauten lassen (nämlich nichts) ist doch schon Stellungnahme genug. Jedenfalls wird meine aktuelle Titan wohl nichtmehr von einer Nvidia Karte ersetzt werden
"Welche rechtlichen Konsequenzen lassen sich daraus schließen"
Keine. Nvidia hat die Karten nie beworben das sie DX12 komplett unterstützten. Das Nvidia nur Tier 2 von DX12 unterstützt ist schon länger bekannt. Sie sind nur DirectX 12 ready (also nur einen Teil der Features geht).
Leider gibt es von den Hardwarezeitschriften/Webseiten (damit meine ich auch andere, nicht nur PCGH) kaum Aufklärung über die ganzen DX12 Features, stattdessen wird auf den PR Zug der Hersteller aufgesprungen. Hinterher kommen natürlich dann die ganzen Infos raus was alles nicht geht.
"Wie können wir gemeinsam einen Weg finden, um der Hardware so auf den Zahn zu fühlen, damit endlich klar ist, was Sache ist"
Sobald DX12 genügend verfügbar sind und man "gezwungen" ist sich (schon wieder) neue Hardware anzuschaffen um alle DX12 Effekte zu erhalten.
 
Zuletzt bearbeitet:
Es ist echt zum Kopfschütteln... Kaum ist ein GPU Artikel ein paar Stunden online, geht das übliche Rot/Grün gebashe los.

Es ist aber nun mal Teil von Diskussion rund um DX12 dass die Meinung vertreten wird, dass man ab sofort NVIDIA Grafikkarten in die Tonne klopfen kann und sich Käufer von NV Karten am besten heulend in die Ecke stellen. Und darum drehte sich auch im Endeffekt unser Disput, denn denn solche Aussagen sind absoluter Quatsch.
 
NV hat eine große Pipeline, AMD mehrere kleine. Ergo muss der NV-Treiber bei mehr als einer unzusammenhängenden Aufgabe (=async compute) versuchen diese möglichst so anzuordnen, dass das zuerst benötigte Ergebnis zuerst fertig und möglichst wenig Kontextwechsel erforderlich sind. AMDs Treiber muss wiederum bei einer langen zusammenhängenden Aufgabe(klassisches DX11 rendern) schauen wie man die effizient unterteilt und wieder zusammengesetzt bekommt.

Beides muss sich, wenn es gut umgesetzt wird, nicht spürbar auf die Leistung im entsprechenden Bereich auswirken. Welche Karte im Endeffekt was schneller macht ist klar. Wie stark die Auswirkungen bei optimierten Treibern beider Seiten wirklich sein werden muss sich aber erst noch zeigen.
 
Es ist aber nun mal Teil von Diskussion rund um DX12 dass die Meinung vertreten wird, dass man ab sofort NVIDIA Grafikkarten in die Tonne klopfen kann und sich Käufer von NV Karten am besten heulend in die Ecke stellen. Und darum drehte sich auch im Endeffekt unser Disput, denn denn solche Aussagen sind absoluter Quatsch.

Stimmt schon dass so etwas durch wenige immer wieder angestachelt wird, wäre es dann nicht besser, es zu ignorieren als darauf zu reagieren?
 
Nvidia hat die Karten nie beworben das sie DX12 komplett unterstützten. Sie sind nur DirectX 12 ready (also nur einen Teil davon geht)

Nun, ich denke MS ist bisher immer sehr strikt gewesen, was XY Ready betrifft. Glaub nicht dass man sich da dann so leicht raus reden kann.
Aber klar, auch ich würde die Zeitschriften in die Pflicht nehmen sich um korrekte Aussagen zu bemühen
 
Viele sprechen halt immer doch wie schlecht NV mit ihren Aktionen ist und dass sie dieses "Ansehen" nicht verdienen. Das kann ja irgendwo nicht ganz passen, wenn sie solch einen Market Share haben. Und eben andersrum.

Nur das dies lediglich der Marktanteil an Verkaufszahlen in einem Quartal ist, in welchem die neuen Produkte von AMD noch gar keine Rolle spielen. Abgesehen davon sind viele Fanbois einfach blind - NVidia könnte denen persönlich ins Gesicht pinkeln, und die würden noch einen Nachschlag fordern.
 
Und täglich grüßt das Murmeltier.

Hier fliegen ja wieder mal die "Totschlagargumente" sehr tief.

Ja ich wurde überzeugt und werfe meine 980ti wegen der Fury X umgehend aus meinen Rechner ... äh wartet, wir reden hier doch um diese Demo "Ashes of Singularity" wegen der hier der Aufstand geprobt wird ... war doch so. Zumindest ist das Teil doch die Grundlage dieser Diskussion.

Wenn das so ist, dann werfe ich lieber noch mal einen Blick auf die PCGH-Benchmarks: Ashes of the Singularity Benchmark - DirectX 12 gegen DirectX 11 [Special der Woche]

Nun was sagt man dazu: Unter 1080p reicht es, dass die Fury X durch DirectX 12, dass sie den Bereich um die GTX770 verlässt und sich an die GTX980 annähert. Unter 2160p erreicht die Fury X die Titan, aber die GTX980ti ist immer noch 8% schneller.

Überzeugt mich doch jetzt nicht so ganz. Ich glaube ich behalte meine GTX980ti noch ein Weilchen.

Was ich hier eigentlich sagen will, dass hier einige die Flinte zu schnell ins Korn werfen (damit sind all die GTX980-Neubesitzer gemeint, die jetzt schon den Kauf bereuen), und auf der anderen Seite unsachlich argumentiert wird al la "Du arme S## hast ja ne absolute Schrottkarte und komm jetzt ja nicht mit dem und dem Argument, außerdem seit ihr nVidia-Käufer sowieso alle gleich"

Man Leute haltet doch mal den Ball flach uns schaut auf echte Ergebnisse. Was die Zukunft bringt kann doch jetzt noch keiner sagen. Das fehlen der Features mag schlecht für nVidia aussehen, genauso kann der Schuss nach hinten losgehen und keiner setzt das Feature in Zukunft ein.
Ich wünsche mir auf dem Markt 2 Konkurenten die sich auf Augenhöhe begegnen, denn dass kann uns Usern (egal welches Lager) nur gut tun, denn dann werden die Preise wohl wieder moderater für alle.

Aber ehrlich solange das Feature seine "Leistungsfähigkeit" unter Beweis stellt und es somit ermöglichen, dass die Fury X meiner 980ti in einer Auflösung nahe kommt, in der für beide Karten keine wirkliche Spielbarkeit möglich ist, so lange mache ich mir darüber kein großen Gedanken. Schon gar nicht bedauere ich den Kauf der Karte.

Wie gesagt, täglich grüßt das Murmeltier und unsachliche Diskussionen sind hier an der Tagesordnung. Ich wäre echt positiv überrascht wenn es mal nicht so wäre.
 
Lol.
Nvidia emuliert ein Feature, welches Verbesserungen in der Parallelisierung von Rechenoperationen bringen soll, auf der CPU nur um zu behaupten, dass sie es unterstützen. Dass es dadurch langsamer wird nehmen sie in kauf.
Good Job
 
Ich bin nu echt alle Seiten bis hierher durchgegangen und dat ist doch alles grausig hier :D ... Ich besitze eine GTX780 und wünsche allen, die eine Karte von AMD haben, viel Spaß mit der Mehrleistung die Sie bekommen werden. Ob nu Nvidia oder AMD, jeder hat irgendwann mal auf das richtige, oder eben falsche Pferd gesetzt. Natürlich ist das Gebaren von Nvidia ******* und alle, welche sich nu eine 900er Karte geholt haben, bekommen gbf. nicht den Performancesprung, welchen AMD Karten erfahren werden. Aber die Rivalität ist teilweise ja echt zum heulen, anstatt einfach nur sachlich über "das" neue Problem unseres Hobbies zu reden. Ob nu Nvidia oder AMD ....
 
Wie soll NVidia sich denn auch dazu äußern? "Nuja, ham mer noch nen Komunikationsproblemchen gehabt".:ugly:

Die 900er Reihe ist doch super, schnell, sparsam. Und das sage ich als nur noch AMD-Käufer.:daumen:
DX12 gibt's doch eh noch net, gut spielbar wird auch (fast) alles sein, was nächstes Jahr erscheint, wen juckt's. Wer sich für 700 Tacken ne Grafikkarte kauft und sich dann wegen nen Zeugs aufregt, das es eh net gibt, der hat auch notfalls das Geld, sich noch ne Radeon zu kaufen, wenn er denn unbedingt den ganzen Krimskrams haben will.

Außerdem scheinen hier einige noch nich so ganz reif im Hinterstübchen zu sein...NVidia is ja viel toller...AMD ist ja noch viel viel cooler...es sind beides "nur" Firmen, die euer bestes wollen, einzig und allein euer Geld ist denen sehr wichtig, da könnt ihr euch noch so sehr beschimpfen. Das juckt von NVidia niemanden und von AMD auch nicht, kaufen müßt ihr trotzdem.
 
Es ist aber nun mal Teil von Diskussion rund um DX12 dass die Meinung vertreten wird, dass man ab sofort NVIDIA Grafikkarten in die Tonne klopfen kann und sich Käufer von NV Karten am besten heulend in die Ecke stellen. Und darum drehte sich auch im Endeffekt unser Disput, denn denn solche Aussagen sind absoluter Quatsch.

Du meinst so wie AMD wegen der 4GB VRAM der Fury und fehlendes HDMI 2.0 gebashed wurde oer der Stromverbrauch als Totschlagargument herhalten musste? Da wurde von so manchem auch der Eindruck erweckt, dass die AMD-Karten eigentlich nur als Buchstütze zu verwenden sind.
Hier ist es einfach so, dass nvidia ein DX12Feature nicht in Hardware unterstützt, dass einen deutleichen Performance-Gain bringt, dies aber, wenn die Aussagen stimmen die man so liest, dies im Treiber vorgaukeln.
Und da das nicht so toll funktioniert wird versucht zu ereichen, dass das Feature nicht verwendet wird. --> Siehe Artikel bei "heise.de"

Die Disskussion sollte sich lieber darum drehen warum Nvidia schon wieder eine offensichtlich ungenaue Angabe zu den Fähigkeiten Ihrer Karten gemacht hat.

Wenn sich Nvidia mit ihrer Marktmacht durchsetzen und das Feature brach liegen bleibt, hat nur einer was davon, Nvidia, sonst keiner. Und AMD kann sich dann wieder ihre schlechtere Performance vorhalten lassen.

Cunhell
 
NVidia könnte ja sagen "Ja wir haben ein Komunikationsproblem gehabt, aber dieses ist nicht durch uns sondern durch Microsoft entstanden." (Ähnlich wie die katholische Kirche es zuerst mit der Konstantinischen Schenkung [Fälschung in Byzanz entstanden] gemacht hat)
 
Na und, Sag ich einfach mal dazu, es gibt kein perfektes Produkt!
Ich bin mit meiner GTX980 zufrieden, das hier, ist meckern auf hohen Niveau.
Sorgen macht mir das nicht, da ich gestern günstig ein R9 Fury bekommen hab. Ganz unverhofft :D
Somit ist alles Abgedeckt, warum nicht beide besitzen, als sich auf eine Festnageln, somit lässt sich auch konstuktiver Meckern. ;)
 
Du meinst so wie AMD wegen der 4GB VRAM der Fury und fehlendes HDMI 2.0 gebashed wurde oer der Stromverbrauch als Totschlagargument herhalten musste?

Nein, so meine ich das nicht.
Die 4GB der Fury sind beispielsweise für eine High-End Karte nun mal knapp bemessen, das ist (leider) so. Und die Kritik daran ist durchaus nachvollziehbar.

Hier geht es aber darum, dass NVIDIA ein DX12 Feature nur über Umwege unterstützt. Doch niemand - und zwar wirklich niemand - der sich hier äußert, weiß wie genau sich das auf die Performance auswirken wird. Und niemand kann zum jetzigen Zeitpunkt voraussagen, wie schnell (oder langsam) NVIDIA Karten unter DX12 performen werden. Trotzdem meinen viele Leute schonmal vorab Urteile fällen zu können. Und das ist eben "etwas" vorschnell.

Grundsätzlich, und das habe ich schon in meinem ersten Post in diesem Thread zum Ausdruck gebracht, ist die "No Comment Politik" von NVIDIA auf jeden Fall absolut nicht in Ordnung, das steht natürlich außer Frage.
 
Zuletzt bearbeitet:
Zurück