DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

Der Einsatz von Async Comp. ist der Einsatz von DX 12.
Nein.
Async Compute bedeutet zusätzlich Compute-Queues zu generieren, die aber mit den anderen Queues explizit synchronisiert werden müssen.
Wenn man es simpel halten will, dann steckt man all seine Befehle in eine Queue.
So ist das auch empfehlenswert für Intel und Nvidia.
 
EIner der Einsätze, ist aber nicht das Hauptaugenmerk. Es ist nur für die meisten interessant wegen der Mehrleistung.



AMD ist nicht günstiger, die Preise halten sich momentan sehr die Wage. Und wenigstens bekommt Nvidia so etwas hin während man bei AMD erst einmal 5-6 Monate warten darf :p







Erstens ist kostenlose Mehrleistung für die meisten denke ich schon ein starkes Argument!

Zweitens zeigst du mir mal bitte wo ich in meinem Beitrag mit AMD verglichen habe!

Und drittens ist es natürlich im Interesse Nvidias den Kunden möglichst schnell einen Treiber zur verfügung zu stellen der gar nicht vorhandene Hardware nicht Nutzt :lol:


Nvidia macht sich so einfach nur lächerlich:devil:
 
Tust du nicht, ansonsten würdest du dir deine stumpfen Parolen aufsparen und nicht deinen ekligen Bias öffentlich zur Schau stellen.
 
Viele Leute machen sich mit vielen ihrer stupiden Kommentare lächerlich.

Finde ich auch z.B. solche, die async compute nicht als DX12 Bestandteil sehen wollen. So wie du?
Fakewieder sieht das anders: GeForce GTX Is Game Ready For Windows 10 & DirectX 12 | GeForce

"NVIDIA has been working with Microsoft for years on the development of DirectX 12, with key hardware features being integrated into all Maxwell, Kepler, and Fermi GPU architectures to maximize functionality and performance."

:ugly:
 
Ich gehöre nicht zu den Leuten, welche Multiengine nicht als festen Bestandteil von DX12 ansehen.
Auch nicht zu denen, welche es deswegen scheinbar kaum erwarten können ihren Haufen auf Hersteller X zu legen, danach zu lachen und sich kollektiv gegenseitig zu liken.
 
Ich gehöre nicht zu den Leuten, welche Multiengine nicht als festen Bestandteil von DX12 ansehen.
Auch nicht zu denen, welche es deswegen scheinbar kaum erwarten können ihren Haufen auf Hersteller X zu legen, danach zu lachen und sich kollektiv gegenseitig zu liken.

Genau und auch nicht zu denen die alles contra nvidia zu relativieren versuchen, ne? :D
Ich mache meine Haufen dort wo sie hingehören. Und wenn mich Hersteller X zum zweiten mal bei den Specs verarscht, dann muss man auch mal den Mut haben den Mist beim Namen zu nennen und nicht noch grün anzupinseln.
 
Hallo.

Keine Ahnung warum jetzt auf diesem einen Feature herum geritten wird.

"Robert Hallock von AMD regiert in einem Kommentar auf Reddit auf die Ereignisse zwischen NVIDIA und Oxide Games, bezüglich deren Singularity DirectX 12 Benchmark. Hallock gibt an, dass NVIDIA derzeit angenehmerweise die Tatsache ignoriere, dass deren Maxwell-Architektur nicht im entferntesten in der Lage ist mit Ansync Compute umzugehen und stattdessen auf langsames "Context Switching" ausweichen muss. Zudem gibt Hallock an, dass derzeit weiter AMD noch NVIDIA DirectX 12 voll unterstützen.
Hallock schreibt zudem, dass die derzeit existierenden GPU-Architekturen jeweils nur gewisse DirectX 12 Features unterstützen. Offensichtlich scheint AMD aktuell die Nase vorn zu haben, würde man aber einen Benchmark bauen, der Raster Ordered Views und Conservative Raster exzessiv verwendet, dann müsste man bei AMD auf andere Techniken wie Global Illumination ausweichen und würde ebenfalls Leistung einbüssen."
Gruss
 
Es wurde nie was von Titan X Killer gesagt, das war ein Produkt der Community.
Aber das kann ich wohl auch 100 mal wiederholen, du kommst immerwieder mit dem Schmarrn, damit zu AMD schlechtreden kannst, immer dasselbe!

Im Prinzip gibt es zwei Möglichkeiten

a) du mißversteht es aus Versehen
b) du mißverstehst es mit böser Absicht

Wie dem auch sei, es ist alles gesagt, insbesonders das AMD das mit dem 8GB RAM hätte klar stellen sollen.

Auch nicht besonders viel mehr wie ne 980 Ti, insofern ist deine polemische Äußerung mit "irrer" Stromverbrauch schon lange widerlegt.

330W Maximalverbrauch in Spielen bei der Fury und 240W bei der GTX 980Ti, beides von PCGH, 90W oder 37,5% mehr würde ich schon einen irren Unterschied nennen.

Das mit einem 450W Netzteil ist schon ein wenig Grenzwertig, da hat man selbst ohne Fur Mark nur noch 120W Reserven, für eine Fury würde ich abhängig vom Prozessor eher ein Dark Power Pro 550W nehmen.

Was für ein Unsinn. Die Fury X lässt sich problemlos auch mit Luft kühlen, die Karten ziehen ja auch nicht mehr wie ne r9 390/390x, eher weniger.
Dank des größeren Chips und der raushängenden Kühlerfläche kann man die mit ~1,5 Sone kühlen, siehe Fury.
Es gab keine Wakü Pflicht, erzähl das deiner Oma.

Tatssache ist das man die Fury X nur mit den Referenzdesign bekommt da AMD andere Kühllösungen momentan nicht erlaubt. Die R9-290X verbraucht mit 280W laut PCGH gut 50W weniger, das ist schon ordentlich. Zwar könnte man die Maximale Leistungsaufnahme begrenzen, dann würde aber auch die Leistung sinken.

Es ging um die Stromaufnahme und da sind deine Angaben falsch.

Erklär das bitte PCGH, ich nehme deren Zahlen

E
Ich rede hier gar nix schön, ich verstehe nur nicht, warum du immer gegen AMD hetzen musst.
Spar dir das doch einfach.

Ich hetze nicht, ich sage nur wie es ist und da gibt es nunmal einen Haufen Dinge die AMD nicht passen, wenn mal Nvidia oder Intel Mist baut spreche ich das genauso an, so wie z.B. bei der GTX 970 die ich keinem empfehlen würde, außer er besteht auf einer Nvidia Karte. Bei CPUs sieht es leider Mau aus, die letzten Konkurrenzfähigen Phenoom II X4 CPUs sind auch schon 6 Jahre alt und der Athlon 64 mittlererweile gar 12. Eventuell kommt ja mit Zen etwas wirklich gutes, sodas man wie zu Pentium 4 Zeiten (bis auf ein paar Ausnahmen) keinen Intel mehr empfehlen kann.


Wenn AMD eine CPU liefert die nicht so schnell ist, dann heißt es bei dir "total versagt". Ist schon klar.
Wieso wendest du keine passende Wortwahl? Was soll der Aufriss?:rollen:

Die revolutionäre Modulbauweise sollte alles im x86er Bereich ändern, einen fast vollwertigen Kern mit nur 10-20% mehr Chipfläche. Damit hätte AMD Quadcores zum Preis von Dualcores herstellen können und eben Octacores zum Preis von einfachen Dualcores. Damit hätte sich AMD auf 5 Jahre und mehr die technologische Führung gesichert, bei Intel haben sie schon gezittert, bereit mit dem 8 Kern Sandybridge E zu kontern. Herausgekommen ist eine CPU die viel Chipfläche hat (315mm² für den FX 8150 vgl. 239mm² beim i7 980X und 270mm² beim i7 2600K), viel Strom benötigt um auf eine hohe Taktfreqenz zu kommen damit sie überhaupt mit Intel CPUs mit halb soviel Kernen mithalten können. Tatsache ist nunmal das der Bulldozer der wohl größte Flop in der AMD Gerschichte, sowie bei den x86ern insgesamt war. Selbst AMD redet nichtsmehr schön, der Bulldozer kann leider nicht mit den Core i CPUs mithalten.

Nein, der ist mit 224bit angebunden, Addition gilt hier nicht.

Die Sache ist etwas komplex, ich habe auch einige Zeit und Hilfe von einem PCGH Redakteur gebraucht um den Aufbau zu kapieren:
Der Speicher ist mit 256 Bit angebunden, jedoch teilen sich 1024MB mit 64 Bit einen Controller der für 512MB mit 32 Bit vorgesehen ist. Solange der Controller nicht überlastet wird ist alles in Butter, wenn er allerdings an seine Grenzen kommt staut es sich dort zuerst. Vor Gericht würde Nvidia wohl durchkommen, der Speicher ist technisch mit vollen 256 Bit angebunden, allerdings nicht so wie man es erwartet hätte.

Welche Mythen sind denn bezüglich der Fury X verschwiegen worden? Kannst du das mal erklären?

Das mit den 8GB hätten sie klarstellen können und bei dem "übertakten als gäbe es kein Morgen" haben sie dreist gelogen, zu dem späten Zeitpunkt wußte wohl jeder mit dem Chip vertraute bei AMD das dies nicht stimmt.

Wen interessieren eigentlich Furmarkwerte? Ne Luftkühlung kann auch problemlos solche unsinnigen Tests überleben. DAs sieht man ja an der Fury, oder an den 390x Karten die bei weniger Chipfläche im Furmark genausoviel, wenn nicht mehr an Strom ziehen:rollen:.
Was hängst du dich an Furmark auf? Interessiert niemanden.

380W braucht keine andere Karte und der FurMark holt eben die maximale Leistungsaufnahme raus, wenn du etwas besseres kennst, immer her damit! Netzteile dimensioniere ich für den schechtesten Fall, also FurMark und Prime 95 plus Reserven, das habe ich schon gemacht seit ich den FurMark kenne.

Ja das sind riesige Nachteile. "Wasser" im PC. Ohje. Hab seit 2012 ne H60 Wasserkühlung und die geht immernoch anstandslos.
Und die Montage des Radiators hast du in 30 sekunden erledigt. Riesen Nachteil.

Das Problem ist das viele das als negativen Punkt sehen, ein Hersteller verliert durch eine AiO Kühlung mehr Käufer verliert als er gewinnt, deshalb gab es bisher alle Grakas immer noch als Luftversion und die AiO Kühlungen waren den Spezialversionen vorbehalten. Auf den Krieg GTX 980 Ti Vs Fury X werden sich die Kühler wohl so auswirken: eine Minderheit greift zur Fury X wegen der leisen Wakü, erheblich mehr wechseln zur GTX 980Ti oder zur Fury Non X und der großen Masse ist das wohl relativ egal, Hauptsache einigermaßen leise.

Du bist im Grafikkartenthread und fängst an von CPU´s zu reden.

Tja,
manchmal gleitet es eben ein wenig ab, woran du auch deinen Anteil hast da du drauf eingestiegen bist.

Da kaufst du dir Ende 2015 eine ca. 700,- eur teure Nvidia 980ti oder eine ca. 1000,- eur Titan die mit DX12 beworben wird,und dann muss man froh sein wenn sie unter DX12 nicht langsamer wird?!? :daumen2:

Das ist der nächste Fall in dem Nvidia seine Kunden bewusst Täuscht genau wie mit dem Speicherskandal der Nvidia GTX 970 bei der der Treiber es mit allen Mitteln vermeidet das mehr als 3,5GB Vram genutzt werden obwohl 4GB verbaut sind:daumen2:

Es gibt bis heute keine "echte" DX 12 Karte oder IGP, sogesehen belügen alle Hersteller die beaupten ihre Karten könnten DX 12 ihre Kunden.
 
Genau und auch nicht zu denen die alles contra nvidia zu relativieren versuchen, ne? :D
Ich mache meine Haufen dort wo sie hingehören. Und wenn mich Hersteller X zum zweiten mal bei den Specs verarscht, dann muss man auch mal den Mut haben den Mist beim Namen zu nennen und nicht noch grün anzupinseln.
Das Thema ist sowohl aus Software-, als auch Hardwaresicht nicht trivial.
Auf der Software-Seite muss man die zusätzliche Parallelität handhaben, synchronisieren und natürlich auch schauen, dass es zu keinen bösen Konflikten und trashing der Hardware kommt.

Aus Hardwaresicht ist es eine komplexe Überlegung, was das Sheduling und Execution-Model der GPU angeht.
Das Thema ist nicht so einfach, wo man sagt Feature X wird effektiv nicht (schlecht) unterstützt, also sucked XYZ Hersteller/Hardware.

Das ganze ist aber sehr interessant, weil obwohl man sich darüber streiten kann, ob dedizierte Hardware-Sheduler und damit verbundene Designeentscheidungen grundlegend besser sind, stellen die Konsolen einen großen Ausgangspunkt dar, welche eben genau so eine Hardware verwenden.
Was das in der Praxis für die anderen zu bedeuten hat, werden wir bald erfahren.

Das ganze ist auch anders zu bewerten, als das 970 Spec Debakel, aber die Aufschrift Async Compute auf einer DX12 Folie hat zu falschen Implikationen führen können.
Sicherlich, keine positive Sache.
 
Das mit den 8GB hätten sie klarstellen können und bei dem "übertakten als gäbe es kein Morgen" haben sie dreist gelogen, zu dem späten Zeitpunkt wußte wohl jeder mit dem Chip vertraute bei AMD das dies nicht stimmt.
Mich ärgert es, das immer wieder zu lesen. Die Aussage wurde meine Erachtens im Zusammenhang mit Nano getätigt. Das da alle mehr reininterpretieren und gleich auf die gesamte Produktpalette applizieren, ist nicht AMDs Fehler und auch nicht "dreist gelogen".
 
Ich habe mir jetzt mal den Spaß gemacht die Benchmarks durchzuzählen, ich habe den i7 3770K mit dem unübertakteten FX 8350 verglichen da sie direkte Gegner waren. Bei unter 10% habe ich es als Unentschieden gewertet (wobei ich 3 mal zugunsten von AMD abgewichen bin da es knapp über der 10% Marke lag. Wenn ich mich nicht verzählt habe lautet das Ergebnis:

Intel: 12
AMD: 6
Unentschieden: 7

.

also ich hab es mir selbst nochmal angeschaut und die liegst falsch ich aber wahrscheinlich auch nicht ganz richtig

Ich hab jetzt zwar die übertakte Version genommen aber bitte AMD führt, es bedeutet wiederum weil du die nicht übertakte Version genommen hast, das für Intel und AMD ein Unentschieden steht, AMD braucht mehr Strom kostet dafür aber nur ein drittel. Es wird sich auch nicht mehr viele ändern weil in einigen Benchmarks das Ergebnis klar ist sei es für Intel oder AMD nur zwei oder drei Benchmarks sind Wackelkandidaten.

Intel 7
AMD 12
Rest Unentschieden
 
Wie dem auch sei, es ist alles gesagt, insbesonders das AMD das mit dem 8GB RAM hätte klar stellen sollen.

Ich habe nirgends gelesen, dass AMD behauptet hat, das sie bei der Fury 8GB Vram haben. Ich habe nur auf Hardware-Webseiten über abenteuerliche Tricks gelesen, wie man aus den technisch max möglichen 4GB HBM 1 Speicher doch noch 8GB machen könnte.
Aber das waren nie Aussagen von AMD. Soweit ich weiss, war offiziell nur von den technisch umsetzbaren 4GB HBM1-Speicher die Rede.
Die ganze Verwirrung kam auf Grund der Tatsache überhaupt erst auf, da alle davon ausgegangen sind, dass die R9-390X die Fiji-Karten sind. Auch dies hat AMD meines Wissens nie behauptet.

Man sollte Gerüchte, die von Aussen aufkommen und sich als falsch erweisen (AMD), nicht mit mehr oder minder absichtlich falschen Angaben des Herstellers (Nvidia) über einen Kamm scheeren.

Cunhell
 
Ich habe nirgends gelesen, dass AMD behauptet hat, das sie bei der Fury 8GB Vram haben. Ich habe nur auf Hardware-Webseiten über abenteuerliche Tricks gelesen, wie man aus den technisch max möglichen 4GB HBM 1 Speicher doch noch 8GB machen könnte.
Aber das waren nie Aussagen von AMD. Soweit ich weiss, war offiziell nur von den technisch umsetzbaren 4GB HBM1-Speicher die Rede.
Die ganze Verwirrung kam auf Grund der Tatsache überhaupt erst auf, da alle davon ausgegangen sind, dass die R9-390X die Fiji-Karten sind. Auch dies hat AMD meines Wissens nie behauptet.

Man sollte Gerüchte, die von Aussen aufkommen und sich als falsch erweisen (AMD), nicht mit mehr oder minder absichtlich falschen Angaben des Herstellers (Nvidia) über einen Kamm scheeren.

Cunhell


Es ist auch immer die Frage was der Pressesprecher sagt und was die Medien sagen und was wie interpretiert wird, Falsche Angaben auf der Verpackung -> No Go
 
also ich hab es mir selbst nochmal angeschaut und die liegst falsch ich aber wahrscheinlich auch nicht ganz richtig

Ich hab jetzt zwar die übertakte Version genommen aber bitte AMD führt, es bedeutet wiederum weil du die nicht übertakte Version genommen hast, das für Intel und AMD ein Unentschieden steht, AMD braucht mehr Strom kostet dafür aber nur ein drittel. Es wird sich auch nicht mehr viele ändern weil in einigen Benchmarks das Ergebnis klar ist sei es für Intel oder AMD nur zwei oder drei Benchmarks sind Wackelkandidaten.

Intel 7
AMD 12
Rest Unentschieden

Ich habe natürlich den unübertakteten genommen, wenn du dem FX die Sporen gibst, sollte das der Fairness halber auch beim i7 so sein. Zum großen Unglück für AMD ist Intels i7 erheblich Taktfreudiger als der FX, 4,5 GHz sind da üblicherweise mit Luft drin. Damit wäre der Übertaktungsbonus mit nominell 28,5% zu 15% klar auf Seiten von Intel, zusätzlich profitiert der i7 stärker da sein Cache mit vollem Prozessortakt läuft, bei AMD nur mit Northbridgetakt. Durch das Übertakten dürfte der i7 3770K dann alle Unentschiedenen auf seine Seite bekommen.

Die Kosten sind heute etwa 1:2, da sich das Verhältnis stark zu Gunsten von AMD gebessert hat, früher war es nicht ganz so gut. Besonders der Xeon 1230 V3 hat sich stark verteuert, kostete er früher gerade einmal 10-20€ mehr, so muß man heute 70€ mehr hinblättern, was doch schon ins Gewicht fällt.
 
Ich habe natürlich den unübertakteten genommen, wenn du dem FX die Sporen gibst, sollte das der Fairness halber auch beim i7 so sein. Zum großen Unglück für AMD ist Intels i7 erheblich Taktfreudiger als der FX, 4,5 GHz sind da üblicherweise mit Luft drin. Damit wäre der Übertaktungsbonus mit nominell 28,5% zu 15% klar auf Seiten von Intel, zusätzlich profitiert der i7 stärker da sein Cache mit vollem Prozessortakt läuft, bei AMD nur mit Northbridgetakt. Durch das Übertakten dürfte der i7 3770K dann alle Unentschiedenen auf seine Seite bekommen.

Die Kosten sind heute etwa 1:2, da sich das Verhältnis stark zu Gunsten von AMD gebessert hat, früher war es nicht ganz so gut. Besonders der Xeon 1230 V3 hat sich stark verteuert, kostete er früher gerade einmal 10-20€ mehr, so muß man heute 70€ mehr hinblättern, was doch schon ins Gewicht fällt.


ja schon aber das weiß jetzt niemand wie sich das im Benchmark verhält von klare Dominanz seitens Intel wie immer geredet kann man hier nicht sprechen. Vorallem ist die Leistungsaufnahme nicht angegeben. Für einen brauchbaren und billigen Linux Rechner reicht es allemal.

Der NAS-Parallel Benchmark ist eigentlich ein sehr guter Benchmark da mehre Dinge geprüft werden und dann sind diese durchaus Kopf an Kopf.
 
Das Thema ist sowohl aus Software-, als auch Hardwaresicht nicht trivial.


Das ganze ist aber sehr interessant, weil obwohl man sich darüber streiten kann, ob dedizierte Hardware-Sheduler und damit verbundene Designeentscheidungen grundlegend besser sind, stellen die Konsolen einen großen Ausgangspunkt dar, welche eben genau so eine Hardware verwenden.
Was das in der Praxis für die anderen zu bedeuten hat, werden wir bald erfahren.

Das ganze ist auch anders zu bewerten, als das 970 Spec Debakel, aber die Aufschrift Async Compute auf einer DX12 Folie hat zu falschen Implikationen führen können.
Sicherlich, keine positive Sache.






Oder ganz einfach ausgedrückt:

Bei allen aktuellen Nvidia Grafik Karten auch bei den 1000,- Euro Modellen fehlt die Hardware komplett die zur Ausführung von Async Compute nötig ist. :schief: Und das dieser große DX12 Leistungsvorteil auf Nvidia Karten nicht funktioniert,und das Sytem sogar langsamer machen kann ist auch mit "Fachausdrücken" nicht grün zu übermalen:devil:
 
Wenn Applikationen mit Async Compute über 5% an Leistung auf Nvidia/Intel Hardware deswegen verlieren würden, dann würde ich das als unschönen Zustand für die anderen Hersteller bezeichnen.
Wenn es sehr krass ausfällt und die Entwickler sogar für jeden Hersteller Async Compute deaktivieren müssen (Besser nur einzeln), wäre das noch unschöner.

Im Best-Case interessiert es Nvidia und Intel Hardware kaum und AMD Hardware profitiert nennenswert davon.
So müssen die Entwickler keine Extra-Brötchen packen und die Spieler müssen sich keine großartigen Gedanken machen.
 
Zurück