DirectX 12 und Async Compute: AMD gibt sich selbstbewusst

Du vergisst dabei, dass in Hitman schon mit DX11 eine R9 390 vor einer GTX 980 liegt.

Der große performancevorteil von AMD in Hitman liegt einfach am Spiel. Die Engine läuft schon unter DX11 verdammt gut mit AMD Karten. Ich verstehe wirklich nicht, warum dieser AMD Vorteil in dem Spiel immer mit DX12 gleichgesetzt wird. Es ist DX11 wo AMD große Vorteile gegenüber Nvidia hat, nicht DX12! DX12 setzt nochmal 10% drauf, was toll ist, aber primär entsteht der Unterschied zum allergrößten Teil schon unter DX11. DX12 ist da eigentlich nur noch das i-Tüpfelchen.

Nope, das stimmt so nicht und wird durch zahlreiche Benchmarks widerlegt. Ich finde, hier sollte man die Kirche im Dorf lassen. Man kann ja gerne eine Lanze für AMD brechen, aber der Vorsprung in Games kommt meistens, falls vorhanden, dadurch zustande, das die Entwickler die Architektur spezifisch angesprochen bzw ausgenutzt haben. D.h. in Gaming-Evolved Titeln, oder jetzt DX12-Titeln in denen z.B. DrawCall-Limitierungen durch Async Compute abmildert werden. Umgekehrt ist es so, das man häufig beobachten konnte, das NVidia gesponsorte Titel dies in keinem Fall getan haben, oder eben durch ihre Rendering-Techniken AMD-Karten in die Knie gezwungen haben (tessellierte Godrays, extreme Anzahl von DrawCalls, etc.) - beabsichtigt oder nicht, der Schuldige ist eher in der Treiberabteilung bei AMD zu suchen, wenn man auch sagen muss daß man natürlich nix dagegen machen kann wenn die Spieleentwickler gar kein Interesse an AMD-Optimierung haben.

Das die reine Rechenkapazität von AMD im direkten Klassenvergleich höher ist, weiß man seit den ersten Mining Tagen.
 
@Laggy.NET:
10% sind in der Tat nicht die Welt, auch nicht bsw. die 10% die man gelegentlich durch Übertaktung alter Hardware rausholen kann.
Aber dieses bisschen verlängert die Lebensdauer alter Hardware genug, dass man eher bis zur neuen Generation "durchhalten" kann. Dass es einfach so 10-20% Mehrleistung so spät im Lebenszyklus einer Graka-Generation gibt ist zudem sehr ungewöhnlich.

In dieser Hinsicht schlägt es derzeit wieder in die Selbe saloppe Kerbe von:
Wer bei neuen Generationen sofort maximale Leistung haben möchte, greift zu NVidia, falls sie in der entsprechenden Generation vorne liegen.
Wer aber lieber auf Hardware setzt, die länger durchhält und dabei tendenziell sogar im Einkauf weniger kostet, greift bevorzugt zu AMD.
 
Wer weiß, vielleicht wurde Hitman in Dx 11 ja dahingehend optimiert, dass Dx 12 einfach adoptiert/ eingearbeitet werden konnte und deswegen auch amd karten in Dx 11 bereits besser abschneiden.
Man weiß es halt nicht, es ist wieder Glaskugelraten angesagt :ugly:
 
Der Großteil der aktuellen Spiele setzt noch auf DX9 oder 11, nicht auf DX12. Wer sich jetzt eine Grafikkarte zulegt, wird auf deren Performance bei aktuellen Spielen achten.

Bis überhaupt mal ein paar Spiele auf dem Markt sind die DX12 unterstützen, vergeht wohl eh noch etwas Zeit. Bis dahin stehen eh die neuen Generationen von AMD und nVidia vor der Tür. Ich glaube daher nicht, dass AMD jetzt durch DX12 merklich mehr Umsatz und Gewinn machen wird.
Ganz genau! Das ist so, wie wenn AMD bei einer Karte die marginal schlechtere Effizienz hat. (siehe 7970) Oder die marginal bessere Effizenz (siehe Nano) Für die Praxis völlig bedeutungslos, kann aber unter Umständen vom Marketing gut genutzt werden!
Wenn eine Karte (wie die Nano) plötzlich nen drittel weniger Länge hat, wenn eine Karte die einzig sinnige Wahl im Preissegment ist (wie die 980 TI), wenn eine Prozessorgen alles knackt (SandyBridge), wenn eine Speicherart plötzlich Ladezeiten in vielen Szenarien halbiert (SSDs halt), dann gibt kann man das als bedeutend bezeichnen. Wenn man plötzlich statt sichtbaren Blickwinkelinstabilitäten nur noch messbare hat, wenn man dank einer Technik plötzlich einige Titel mit 40 FPS nicht mehr ernsthaft von 60 FPS unterscheiden kann, wenn die Lüfter im Idle nicht mehr drehen, dann kann man das als bedeutend bezeichnen! Wenn man plötzlich BruteForce-SSAA erzwingen kann, wenn der Rechner im Leerlauf nur noch so viel wie ein Office-Notebook braucht, wenn eine Graka im Referenzdesign so gut ist, dass man sich Sorgen machen muss, dass die Custom-Designs schlechter ausfallen könnten, wenn man sich fragt, was man nun überhaupt mit der Ram-Masse oder Bandbreite anstellen soll, dann ist das bedeutend!

Oder, um auf DX12 zurückzukommen: Wenn plötzlich schwache und starke Prozessoren nur noch unbedeutend wenig Prozente trennen, dann ist das was wert!
 
10% sind die klassische Grenze der Bedeutungslosigkeit...

Blödsinn wenn du einen Kraftwerk hast und auf einmal bringt es 10% mehr ist das schon ziemlich viel, keine Ahnung wie man das sagen kann.

gerade wenn das Spiel schon hohe FPS zahlen liefert sind 10% nicht wenig, bei 70 FPS sind 7 FPS mehr als dann spielt sich das Spiel noch ein Stücken mehr flüssiger, 30 FPS -> 3 FPS mehr und ja das bekommt man mit.
 
lesen sollte man es trotzdem, vor allem warum bitte pushed Nvidia nicht wenn der Release bald sein soll, ich glaube daher nicht dass Pascal das Feature beherrschen wird , sonst machen sie ja für jeden Blödsinn Werbung nur dieses mal nicht

"One reason that we think that this rumor might be true is the fact that chip design isn’t something that happens overnight"

Ich kann mich nicht erinnern, dass nVidia in der jüngeren Vergangenheit jemals groß mit irgendwelchen Features vor Release einer Architektur geworben hat. Jeden Falls ist es mir nicht aufgefallen. Ist aber auch egal. Es hat nichts zu bedeuten, dass nVidia nicht vorab massiv mit diesem Feature wirbt. Hier deshalb jetzt Probleme hinein zu interpretieren ist blödsinnig und hanebüchen.

Blödsinn wenn du einen Kraftwerk hast und auf einmal bringt es 10% mehr ist das schon ziemlich viel, keine Ahnung wie man das sagen kann.

gerade wenn das Spiel schon hohe FPS zahlen liefert sind 10% nicht wenig, bei 70 FPS sind 7 FPS mehr als dann spielt sich das Spiel noch ein Stücken mehr flüssiger, 30 FPS -> 3 FPS mehr und ja das bekommt man mit.

Okay, DX12 bringt in einigen Spielen mehr Leistung. Damit für AMD dadurch ein Vorteil entsteht, müssen überhaupt erst mal folgende Dinge erfüllt sein:
1. Genug Spiele die DX12 unterstützen und 2. Genug Gamer die Windows 10 haben sowie 3. Genug Gamer, die DX12-Spiele zocken.
Ich sehe derzeit keinen Punkt davon erfüllt. Da ist es schlichtweg egal, dass AMD in Hitman oder AoS vorne liegt. Den Gamer interessiert die Gesamtleistung einer Grafikkarte in allen Spielen. Und hier sieht es so aus, dass nVidia mit den meisten Karten vor AMD liegt. Ergo besteht für die Wenigsten derzeit ein Grund von nVidia auf AMD umzusteigen oder sich statt einer nVidia-Karte eine AMD-Karte zuzulegen. DX12 bzw. Vulkan sind noch relativ neu und nach derzeitigem Stand noch nicht in der Spieleentwicklung angekommen. Die wenigen Ausnahmen wie Hitman, TR, AoS & Co. rechtfertigen daher nicht, sich eine Grafikkarte alleine wegen deren DX12-Performance zu kaufen. In ein oder zwei Jahren, wenn mal eine Anzahl von Spielen auf dem Markt ist die DX12 unterstützen, die man nicht an zwei Händen abzählen kann, dann wird die Performance unter DX12 relevant. Bis dahin wird auch nVidia das Problem mit Async Compute gelöst haben, sollte es überhaupt existieren. So toll DX12 auch ist, es wird nicht innerhalb von ein, zwei Jahren DX11 als Standard ablösen. Selbst DX11 hat das noch nicht mal geschafft, wenn man bedenkt dass Spiele wie Fallout 4 heute noch auf DX9 setzen.
So sehr ich AMD den Vorteil hier in der aktuellen Situation gönnen würde, so sehr bin ich auch davon überzeugt, dass er nur sehr marginal ausfallen kann.
 
Zuletzt bearbeitet:
Ich kann mich nicht erinnern, dass nVidia in der jüngeren Vergangenheit jemals groß mit irgendwelchen Features vor Release einer Architektur geworben hat. Jeden Falls ist es mir nicht aufgefallen. Ist aber auch egal. Es hat nichts zu bedeuten, dass nVidia nicht vorab massiv mit diesem Feature wirbt. Hier deshalb jetzt Probleme hinein zu interpretieren ist blödsinnig und hanebüchen.

Tesselation und Hairworks ?

Mixed Precision ?

NVLink ?

Maxwell unterstützt alles für DX12 ?
 
Blödsinn wenn du einen Kraftwerk hast und auf einmal bringt es 10% mehr ist das schon ziemlich viel, keine Ahnung wie man das sagen kann.

gerade wenn das Spiel schon hohe FPS zahlen liefert sind 10% nicht wenig, bei 70 FPS sind 7 FPS mehr als dann spielt sich das Spiel noch ein Stücken mehr flüssiger, 30 FPS -> 3 FPS mehr und ja das bekommt man mit.
Natürlich hat jede einfache Denkregel ihre Grenzen. Wenn ein Familie fast am Limit lebt, bringen 10% geringere Einkaufspreise von irgendetwas ihr aber halt auch direkt um die 1000% mehr Geld im Portmonee am Ende des Monats. Wenn ein Rechner vorher voll ausgelastet ist und nichts mehr bedienbar ist, der 11. Kern aber dem OS aber die Freiheiten zurückbringt, dann ist das auch dort ein gigantischer Unterschied!
Oder, um es auf das Kraftwerk zu beziehen: Wenn genau die 10% den Unterschied zwischen kaum vorhandenen Reserven zu vorhanden Reserven machen, dann ist es natürlich bedeutsam. Ansonsten halt nicht!
Im Prinzip muss man aber bloß in den Momenten aufpassen wirklich genau die richtige Betrachtungsweise einzunehmen---10% mehr Geld im Portmonee, 10% mehr Stromreserven oder 10% mehr Resourcen für das OS wären auch in den oben skizzierten Fällen unbedeutend!

Um auf unser eigentliches Thema zurückzukommen:
Du sprichst es selber an, 70 vs. 77 FPS, 30 vs. 33 FPS. Nur weicht deine Beurteilung von meiner irgendwie ab: Das erste ist in den meisten Fällen flüssig vs. flüssig, das andere in den meisten Fällen nicht wirklich flüssig vs. nicht wirklich flüssig!
In den wirklich extremen Regionen, also 120 vs. 132 FPS oder 10FPS vs. 11 FPS ist es natürlich noch krasser. Nicht umsonst haben sich 120Hz & 144Hz als unterschiedliche Varianten durchgesetzt und auf 132Hz wurde verzichtet: Bei den anderen beiden ist der prozentuale Unterschied groß genug, als dass in Fällen in denen man theoretisch Unterschiede wahrnehmen kann auch praktisch welche wahrnimmt!
Und bei Nvidia steigt unter DX12 zwar auch etwas das CPU-Limit, dafür werden sie aber langsamer. ;)

AMD - CPU-Limit steigt massiv UND es wird ca 10% schneller.
NVIDIA - CPU-Limit steigt etwas UND es wird langsamer.

^^ Also ich würde sagen: AMD hat gewonnen. ;)
Natürlich überspitzt formuliert aber ja; AMD steht was DX12 angeht einfach bisher besser dar bzw. gewinnt zumindest mehr. (einige werden jetzt nämlich sagen, dass AMD einfach vorher schlechter dastand, was auch nicht von der Hand zu weisen ist)
 
Tesselation und Hairworks ?

Mixed Precision ?

NVLink ?

Maxwell unterstützt alles für DX12 ?

Und? DX12 ist aktuell unbedeutend. Kannst du dich noch an die Radeon 9700pro erinnern? 2002 unterstützte sie schon DX9, was damals aber so gut wie bedeutungslos war da 1. so gut wie kein Spiel DX9 unterstützt hatte und 2. sie später für die Spiele die DX9 unterstützt hatten, eh viel zu langsam war.
DX12 befindet sich gerade am Anfang seiner Verbreitung. Ergo ist es zwar schön dass AMD-Karten DX12 so toll unterstützen, aber auch so gut wie ohne große Bedeutung.

Und zu den Technologien die du aufgezählt hast. Das waren soweit ich weiß alles Entwicklungen von nVidia oder zumindest teilweise.

Nonsense des Tages.

Beweise erst mal das Gegenteil bevor du so große Töne spuckst.
 
Und? DX12 ist aktuell unbedeutend. Kannst du dich noch an die Radeon 9700pro erinnern? 2002 unterstützte sie schon DX9, was damals aber so gut wie bedeutungslos war da 1. so gut wie kein Spiel DX9 unterstützt hatte und 2. sie später für die Spiele die DX9 unterstützt hatten, eh viel zu langsam war.
DX12 befindet sich gerade am Anfang seiner Verbreitung. Ergo ist es zwar schön dass AMD-Karten DX12 so toll unterstützen, aber auch so gut wie ohne große Bedeutung.

Und zu den Technologien die du aufgezählt hast. Das waren soweit ich weiß alles Entwicklungen von nVidia oder zumindest teilweise.

DX12 bringt nicht nur Asycn Compute sondern eine Reihe von neuen Features deswegen wird AMD sowohl Nvidia versuchen die API zu pushen selben MS hat sicherlich Interesse daran vorallem um die XBox One noch weil Weilchen am Leben zu lassen.


Tesselation kam ursprünglich von AMD

Mixed Precision ist kein neues Feature, es gibt es so ziemlich in jeder Hardware gerade beim Intel Kompiler kann so ziemlich jeder Operation mit verschieden Genauigkeiten berechnen

NVLink ist auch nichts neues, dass es möglich den Chip des Motherboards zum umgehen

einfach nur Marketing bla bla


damit wäre dein Frage bzw. zwei Fragen beantwortet
 
Beweise erst mal das Gegenteil bevor du so große Töne spuckst.
Was viel interessanter ist, als offensichtliche Dinge zu beweisen, woher du diesen grotesken Unsinn her hast?
Fallout 4 verwendet Tessellation und Compute-Shader und für jeden der es seit 2009 nicht mitbekommen hat, die Features kamen mit DX11.
 
DX12 bringt nicht nur Asycn Compute sondern eine Reihe von neuen Features deswegen wird AMD sowohl Nvidia versuchen die API zu pushen selben MS hat sicherlich Interesse daran vorallem um die XBox One noch weil Weilchen am Leben zu lassen.

Was aber auch nichts daran ändern wird, dass AMD aktuell keinen Vorteil aus der DX12-Unterstützung wird ziehen können.

Was viel interessanter ist, als offensichtliche Dinge zu beweisen, woher du diesen grotesken Unsinn her hast?
Fallout 4 verwendet Tessellation und Compute-Shader und für jeden der es seit 2009 nicht mitbekommen hat, die Features kamen mit DX11.

Okay mein Fehler. Liegt wohl einfach daran, dass es so potthässlich aussieht :ugly: Es gibt aber immer noch genug Spiele die nicht mal DX11 unterstützen.
 
Was aber auch nichts daran ändern wird, dass AMD aktuell keinen Vorteil aus der DX12-Unterstützung wird ziehen können.

Konsolenverkäufe und eventuell auch noch die nächste Generation ? mehr Performance zumindest mal für 2 zwei Spiel ? weg von Gimpworks für erste ?

Gerade wenn MS ein Spiel entwickelt werden diese sicher mehr und mehr auf DX12 setzen weil diese WS 10 pushen wollen, das bedeutet mal einen Win für die Performance von AMD auf Desktop Systemen.
 
Zuletzt bearbeitet:
...
Natürlich überspitzt formuliert aber ja; AMD steht was DX12 angeht einfach bisher besser dar bzw. gewinnt zumindest mehr. (einige werden jetzt nämlich sagen, dass AMD einfach vorher schlechter dastand, was auch nicht von der Hand zu weisen ist)
Von der Hand zu weisen ist aber auch nicht, das selbst unter DX11 AMD mit Nvidia locker mithalten kann.
Das Performance-Rating (3dCenter) von so ziemlich allen Benchmarks zeigt, dass zb die 390 VOR der 970 liegt. Die die Nvidia grundsätzlich vorne sehen haben eine verengte Sichtweise.
Also unter DX11 sind beide in einem Schlagabtausch aber unter DX12 zieht AMD locker vorbei.

----EDIT---------
Zwar sind die GTX-900er-GPUs Nvidias theoretisch ebenso dazu in der Lage, bislang gibt es jedoch keine Treiber, welche diese Funktion implementieren. Nvidia arbeitet bereits seit mehreren Monaten daran.
Eigentlich ist es doch eher andersrum, Nvidia ist theoretisch nicht dazu in der Lage (Zeit intensiver Kontextwechsel was dazu führt, dass man es bei Nvidia wie "eh und je", also sequentiell macht. ) unter anderem wird Nvidia auch deswegen unter DX12 langsamer.
 
Zuletzt bearbeitet:
Okay mein Fehler. Liegt wohl einfach daran, dass es so potthässlich aussieht :ugly: Es gibt aber immer noch genug Spiele die nicht mal DX11 unterstützen.
Hässlich aussehen ist natürlich nicht der beste Indikator für die verwendende API, außer man blickt 10 Jahre zurück.
Und Fallout 4 sieht gewiss nicht so hässlich aus.

Und Spiele die nicht einmal DX11 unterstützen, ja da ist die GPU vermutlich sowieso egal.
 
Von der Hand zu weisen ist aber auch nicht, das selbst unter DX11 AMD mit Nvidia locker mithalten kann.
Das Performance-Rating (3dCenter) von so ziemlich allen Benchmarks zeigt, dass zb die 390 VOR der 970 liegt. Die die Nvidia grundsätzlich vorne sehen haben eine verengte Sichtweise.
Also unter DX11 sind beide in einem Schlagabtausch aber unter DX12 zieht AMD locker vorbei.
Dafür befindet sich aber die 390(X) auf dem typischen Effizienzlevel von 28nmGen1, während sich die 970 halt ordentlich obendrauflegt. (ca. 35% im 2160P-Index und ca. 50% im 1080P-Index)
Grafikkarten-Marktuberblick Februar 216 (Seite 2) | 3DCenter.org
Wobei ich es übrigens völlig lächerlich finde, dass schon Leute innerhalb von 28nmGen1 von einer massiven Überlegenheit Nvidias gesprochen haben...
...das wäre so, wie wenn man den Effizienzvorteil der Nano in 2160P hypen würde. Sie ist die effizienteste Karte, ja, und das muss auch herausgestellt werden um der Gegenseite "AMD baut nur ineffiziente Karten" den Teppich unter den Füßen wegzuziehen. Aber mehr halt auch nicht, viel wichtiger ist es aufzuzeigen, dass die Nano insgesamt momentan eine der empfehlenswertesten Karten darstellt und vom Griff zur 980 generell abgeraten werden sollte!
 
Zurück