Nvidia Geforce GTX 1180: Release bereits ab Juli 2018?

...Dafür muss man sich bei Nvidia halt auf viel Nicht-Standard-Verhalten verlassen was für Entwickler halt ******* ist. Oder man verwendet Gameworks... das ist idr. dann für Kunden *******.

Unzulässige Verallgemeinerung.
Du wolltest sagen, das ist idr. dann für ATI-Kunden ********.
Und selbst das muss erst noch bewiesen werden, vorher ist es lediglich üble Nachrede.
 
Unzulässige Verallgemeinerung.
Du wolltest sagen, das ist idr. dann für ATI-Kunden ********.
Und selbst das muss erst noch bewiesen werden, vorher ist es lediglich üble Nachrede.

Ne, das ist allg. für den Konsumer nicht gut. Was ist wenn die genutzte Funktionalität auf ner 680 schlecht performt, auf ner 1080 aber halt gut. Wen trifft das? Nen Nvidia User oder nen ATI/AMD User? Gameworks kostet auf den meisten Karten mehr als els sollte.

Vergleich mal Wildlands mit Assasins Creed Origin. Beides Anvil next. Eines mit Gameworks das andere nicht. Gibts im PCGH Performance-Index.
In Assasins Creed bekommst du in 1440p mit ner 1080 fast 60 FPS (58). In Wildlands bekommst du in 1080p schon nur 54. Sehr gut. Assasins Creed läuft auf ner 980 solide. Wildlands nicht so wirklich berauschend.
Ist das jetzt auch nur für AMD User schlecht oder könnte das evtl. auch für einen Nvida User unschön sein?
 
Zuletzt bearbeitet:
Hm.
Solange man nicht Versionen von Wildlands mit und ohne Gameworks vergleichen kann, bleibt das trotzdem
Stochern im Nebel. Gut möglich, dass es ohne Gameworks noch schlechter performen würde. Denn Gameworks wird ja benutzt, um die Kosten eigener Entwicklungen zu sparen.

Abgesehen davon, ist es was schlechtes, wenn auf die Fähigkeiten neuerer Karten optimiert wird?
Da kann man durchaus dieser, jener oder geteilter Meinung sein.
 
Abgesehen davon, ist es was schlechtes, wenn auf die Fähigkeiten neuerer Karten optimiert wird?
Da kann man durchaus dieser, jener oder geteilter Meinung sein.

Das ist nicht per se schlecht. Aber hätten sie sich an den Standard gehalten wären Optimierungen für neue Karten gleichzeitig auch bis zum gewissen grad Optimierungen für alte Karten. Versteh mich nicht falsch, AMD hat so nen scheiß auch schon gemacht. Aber nicht in dem Maße^^ Aber beschissen ist das trotzdem.

Aber du hast Recht, Meinungen trennen sich wohl.
 
Ich seh da keine Beschneidung der alten/älteren Karte.
Ist es jetzt auch von AMD so gewollt, daß ältere Generationen teilweise ganz schön zurüchfallen im Vergleich zu Vega?

Im PCGH Leistungsindex ist eine R9 390X knapp vor einer GTX 980 und 43% hinter einer Vega56.
Index.PNG

Wie kann es dann sein, daß die Karte in Far Cry 5 (einem neuen Spiel bei dem AMD Pate gestanden hat) plötzlich 32% hinter einer GTX 980 und ganze 80% hinter einer Vega56 ist?
Far Cry 5.PNG
Absichtliche Treiberbremse, oder liegt es eher daran?
"Far Cry 5 fährt mehrere interessante Technik-Spielereien auf, darunter die Implementierung von Berechnungen mit halber Genauigkeit, FP16 genannt. Das ist vor allem für Besitzer einer Radeon-Vega-Grafikkarte interessant, da Vega FP16-Berechnungen gegenüber dem üblichen FP32 mit doppelter Geschwindigkeit ausführen kann - AMD nennt diese Fähigkeit "Rapid Packed Math", kurz RPM."

Es muß nicht immer Willkür dahinter stecken, die Grafikkarten Welt dreht sich weiter und es ist daher nur logisch, daß die Spieleentwickler die neuen Fähigkeiten der Karten über kurz oder lang auch nutzen werden.
 
Ich seh da keine Beschneidung der alten/älteren Karte.
Ist es jetzt auch von AMD so gewollt, daß ältere Generationen teilweise ganz schön zurüchfallen im Vergleich zu Vega?

Im PCGH Leistungsindex ist eine R9 390X knapp vor einer GTX 980 und 43% hinter einer Vega56.
Anhang anzeigen 997969

Wie kann es dann sein, daß die Karte in Far Cry 5 (einem neuen Spiel bei dem AMD Pate gestanden hat) plötzlich 32% hinter einer GTX 980 und ganze 80% hinter einer Vega56 ist?
Anhang anzeigen 997970
Absichtliche Treiberbremse, oder liegt es eher daran?
"Far Cry 5 fährt mehrere interessante Technik-Spielereien auf, darunter die Implementierung von Berechnungen mit halber Genauigkeit, FP16 genannt. Das ist vor allem für Besitzer einer Radeon-Vega-Grafikkarte interessant, da Vega FP16-Berechnungen gegenüber dem üblichen FP32 mit doppelter Geschwindigkeit ausführen kann - AMD nennt diese Fähigkeit "Rapid Packed Math", kurz RPM."

Es muß nicht immer Willkür dahinter stecken, die Grafikkarten Welt dreht sich weiter und es ist daher nur logisch, daß die Spieleentwickler die neuen Fähigkeiten der Karten über kurz oder lang auch nutzen werden.

Der unterschied ist das RPM ein neues Feature ist. Wenn Maxwell jetzt zum Beispiel bestimmte DirectX 12 Feature nicht kann (kann zwar noch keiner aber jetzt mal exemplarisch Raytracing), dann ist das halt so. Wir reden hier aber über DirectX 11 bei AC und Wildlands was Maxwell komplett beherrschen sollte. RPM benachteiligt alte Karten ja nicht. Da brauchen Half-Precision Berechnungen halt normal lang. Ob man da dann halt nen F16 nimmt bringt dir keinen Vorteil. Aber halt auch keinen Nachteil. Wenn eine Karte das nicht kann Performt sie auch nicht schlechter als sie mit RPM aus würde.

Wenn du auf eine optimierte Intrinsic Funktion zugreifst die deine GPU aber nicht unterstützt, dann musst du die ja irgendwie implementieren. Und wenn deine Karte das nativ nicht unterstützt, musst du es aber halt irgendwie simulieren oder implementieren. Letzteres wird bei einer alten Karte eher nicht passieren. RPM schaltest du an und machst FP16-Berechnungen die deine Karte eh kann. Vega oder ein gp100 machen halt dan 2 auf einmal statt eine auf einmal. Aber eine FP16 Berechnung ist halt eh billiger als eine FP32 nachdem das auch ältere GPUs haben und die Floats halt einfach kürzer sind.

Das Far Cry auf Directx 11 läuft, aber trotzdem RPM nutzt ist schon interessant. Auf der anderen Seite hat das Feature halt keine andere Karte.

Von Böswilligkeit oder Willkür war übrigens nicht die Rede. Ich hab niergendwo gesagt Nvidia macht das mit böser Absicht um ihre alten Karten zu gimpen, es ist halt ein Seiteneffekt. Gerade bei 2 DirectX 11 Titeln vom selben Entwickler auf der selben Engine bei ähnlicher Grafik sieht man aber eben gut den unterschied. Deshalb auch gerade das Beispiel mit AC und Wildlands. Bei Far Cry zum Gesamtindex hast du einen Fall der schwer vergleichbar ist, nachdem da auch extremere Beispiele reinfallen und du keinen Referenzwert mit Gameworks hast.

Aber ja, ich hab auch gesagt das AMD schon weiter vom Standard abgekommen sind und das nicht gut war. Aber nein. Das mit der 980 bei Wildlands ist mehr als die normale Degeneration. Das war mal ne 500€ Karte. Nach 3 Jahren sind 30 FPS in 1080p für so eine Karte einfach zu wenig. Vor allem wenn man ein Vergleichsspiel vom selben Hersteller mit der gleichen Engine aus dem selben Jahr bei 16 FPS mehr hat. Ich mein, eine Referenz 980ti schafft in Wildlands keine 50FPS. Die Karte müsste für 1080p so dicke reichen. In AC schafft die zumindest fast 60. Das war vor 2 Jahren noch die Top Tier Karte. Das kann nicht dein ernst sein.
Weißt du, in Far Cry underperformt die 390x mit 42 FPS in 1440p nicht gerade. Die 980 in Wildlands underperformt mit 32 FPS in 1080p aber halt definitiv. In Far Cry ist es nämlich nicht so das die 390x besonders langsam ist, sondern, dass Vega 56 besonders schnell ist.

Wenn eine Karte wie immer performt,eine andere aber besser als sonst ist das unproblematisch. Wenn aber eine Karte wie immer performt und eine andere deutlich schlechter als sonst ist das ne andere Baustelle. Wäre eine 10xx Karte einfach schneller in Wildlands wäre das ja kein Ding. Das die 980 aber z.B. einfach so viel langsamer ist, ist finde ich schon ein Ding.

Das Problem ist auch nicht, dass Entwickler neue GPU Features nutzen. Das Problem ist das Nvidia sich nicht an den DirectX Standard halten. Nvidia Gameworks benutzt nen Haufen Intrinsic Funktionen statt die DirectX API und das ist das Problem. Optimierungen für Nvidia gehen in eine andere Richtung als bei "Standard DirectX"-Karten. Das ist nicht Sinn und Zweck eines Standards.

Aber auch wenn es nicht böswillig ist hat es einen negativen Effekt für die Kunden. Und bei Gameworks halt einen besonders schlechten.

Und das mal abseits der Diskussion: Zumindest Gameworks sehe ich als böswillig an.
 
Zuletzt bearbeitet:
@Mango2Go: Ja, Gameworks wird "strategisch" eingesetzt. Ich hatte mal was über Star Wars Battlefront 2 gehört. Die Entwickler haben Gameworks nur mäßig eingesetzt und nach außen gut konfigurierbar gemacht. Angeblich. Hast du mal was darüber gehört? Ich finde dazu auch nichts mehr im Netz. Das Spiel läuft auf einer Vega übrigens ziemlich gut.

Star Wars Battlefront 2 im Benchmark (Seite 2) - ComputerBase
 
@Mango2Go: Ja, Gameworks wird "strategisch" eingesetzt. Ich hatte mal was über Star Wars Battlefront 2 gehört. Die Entwickler haben Gameworks nur mäßig eingesetzt und nach außen gut konfigurierbar gemacht. Angeblich. Hast du mal was darüber gehört? Ich finde dazu auch nichts mehr im Netz. Das Spiel läuft auf einer Vega übrigens ziemlich gut.

Star Wars Battlefront 2 im Benchmark (Seite 2) - ComputerBase

Kann ich dir nicht genau sagen, aber Frostbyte mag AMD schon sehr lange^^ Vielleicht hat Dice 2 Renderpfade und der AMD Pfad deaktiviert Gameworks... Kommt denke ich auch drauf an welche Features du nutzt. Turfworks hat ja auch nicht den selben Impact wie Hairworks. An und für sich wäre Gameworks ja nichts schlechtes, man müsste das nur eben durchsichtiger machen. HBAO+ ist keine schlechte Sache. Aber ja, definitiv SWBW 2 läuft gut auf Vega. For Honor übrigens auch.^^
 
Zuletzt bearbeitet:
Ne, das ist allg. für den Konsumer nicht gut. Was ist wenn die genutzte Funktionalität auf ner 680 schlecht performt, auf ner 1080 aber halt gut. Wen trifft das? Nen Nvidia User oder nen ATI/AMD User? Gameworks kostet auf den meisten Karten mehr als els sollte.

Vergleich mal Wildlands mit Assasins Creed Origin. Beides Anvil next. Eines mit Gameworks das andere nicht. Gibts im PCGH Performance-Index.
In Assasins Creed bekommst du in 1440p mit ner 1080 fast 60 FPS (58). In Wildlands bekommst du in 1080p schon nur 54. Sehr gut. Assasins Creed läuft auf ner 980 solide. Wildlands nicht so wirklich berauschend.
Ist das jetzt auch nur für AMD User schlecht oder könnte das evtl. auch für einen Nvida User unschön sein?

Sind eben nur 2 unterschiedliche Spiel.
 
DirectX 11 erzeugt CPU Overhead nachdem es sehr schlecht parallelisiert ist. Wenn man auf einen DirectX Context aus mehreren verschiedenen Threads zugreifen will, muss man einen Kernel Lock (Mutex oder ähnliches) und einen darauf folgenden Kontext Switch in kauf nehmen, wenn man das nächste mal auf die DirectX Device zugreift. Beides ist sau teuer.

AMD's Problem ist nicht etwa, dass der Treiber mist ist, sondern eher das AMD Karten mehr auf Parallele Workloads optimiert sind und damit besser "gefüttert" werden müssten, was aber unter DX11 schwer geht. deshalb gab es Mantle. AMD hat seine Architektur einfach nicht so gut auf DX11 ausgelegt (warum auch immer). DirectX 12/Vulkan/Mantle verringert ja CPU Overhead im generellen. Sprich AMD hat nicht per se ein Treiber Problem, sondern nur ein DirectX 11 Problem. DirectX 11 sollte eh endlich mal sterben. Dann müssten sich die Engine Entwickler endlich mal anständig mit ihrem DX 12/Vulkan Render Backend auseinandersetzen. Unity hat das zumindest schonmal einigermaßen auf die Reihe bekommen. Unreal nicht so wirklich.

Würde Unreal endlich mal nachziehen, gäbe es auch mehr Vulkan games. Die meisten Entwickler fassen das Render-Backend auch nur dann an wenn sie müssen.

Nein, Nvidias GPU Architektur hat weniger Probleme mit DirectX 11. Das hat nicht's mit der Treiberarchitektur zu tun. Nvidia und AMD haben hardwaretechnisch 2 Ansätze für das gleiche Problem. Ein Beispiel.

Das AMD gut von Async Compute profitiert liegt daran das die Architektur gut Vorteile draus ziehen kann weil es der GPU beim Auslasten hilft. Nachfem die Architektur von Nvidia damit eh weniger Probleme hat, hat Nvidia im besten Falle wenig von Async Compute im schlimmsten Fall Nachteile.

Deshalb ist der CPU Overhead in DirectX 12 auch so runtergegangen. Da erlaubt der Standard einfach bessere Parallelisierung. In DirectX 11 wäre Async-Compute eine nicht standadisierte Erweiterung. Genau wie die Intrinsic-Funktionen die Nvidia verwendet um z.B. einiges von ihrem Gameworkscode umzusetzen. Das ist übrigens auch einer der Gründe warum AMD so schlecht damit klarkommt. Bei Nvidia geht Gameworks über Intrinsic Funktionen, bei AMD über den DirectX Standard. Würde man unter AMD auch einfach über Intrinsic Funktionen gehen wäre die DirectX 11 Performance auch besser, die Optimierung macht halt keiner. In Vulkan sind zumindest Shader Intrinsics jetzt im Standard.

Das bringt bessere Performance, bringt aber auch ab und an mal Probleme mit.

AMD hält sich bei DirectX 11 an den Standard während Nvidia das quasi selbst ummodelt und nur eine Schnittstelle bietet die sich ähnlich wie der Standard verhält. Sowas führt dann zu Nichtstandard-Verhalten wie die Grafikunterschiede zwischen AMD und Nvidia bei Ashes of the Singularity. (Da gab's ja mal diese tolle Diskussion).

Grade da du auch ein wenig über Programmierung zu wissen scheinst solltest du wissen das es sinnvoller ist sich an Standards zu halten, das ist nämlich auch der Grund warum Nvidia sich schwerer tut DirectX 12/Vulkan richtig nach zu ziehen was wiederum der Grund ist warum Nvidia so an DirectX 11 festhält. Nichtstandard-Code ist halt nicht portable.

Nvidia plant auch schon wieder Non-Standard-Erweiterungen bevor Features überhaupt erscheinen. Raytracing kommt gerade erst für DirectX 12 und Nvidia plant schon wieder Gameworks-Funktionen.

Long story short, AMD implementiert den DirectX Standard besser, Nvidia hat schnellere Treiber. Dafür muss man sich bei Nvidia halt auf viel Nicht-Standard-Verhalten verlassen was für Entwickler halt ******* ist. Oder man verwendet Gameworks... das ist idr. dann für Kunden *******.

Also für jemanden wie mich der echt keine Ahnung hat davon, klingt das echt interessant, danke für die Erläuterungen :)
 
Sind eben nur 2 unterschiedliche Spiel.

Auf gleicher Engine aus dem gleichen Jahr mit vergleichbarer Grafik vom gleichen Studio. Damit wohl noch am ehesten vergleichbar. Aber schon klar, es ist gut das Wildlands auf ner 980 nicht in 40 FPS läuft. Das liegt sicher an der Anvil Engine von Ubisoft. Gibt ja kein Game auf der Engine das es besser macht das zufällig einfach kein Gameworks nutzt. Und natürlich macht Ubisoft sein Renderbackend bei jedem Game neu. Deshalb haben sie ja ne Engine für N Tausend Euro gemacht. Um das jedes mal wieder machen zu können.
 
Zuletzt bearbeitet:
Die AMD Treiber sind voll ok. Diese Treiber A ist besser als Treiber B Gehabe ist der absolute Quatsch.

Finde ich nicht. Abseits der albernen Diskussion der Treiber hat oder der Treiber hat schon mal, bietet Nvidia für mich immer stabile Gamingleistung ohne Aussetzer, während ich das von AMD nicht behaupten kann.

DirectX 11 erzeugt CPU Overhead nachdem es sehr schlecht parallelisiert ist. Wenn man auf einen DirectX Context aus mehreren verschiedenen Threads zugreifen will, muss man einen Kernel Lock (Mutex oder ähnliches) und einen darauf folgenden Kontext Switch in kauf nehmen, wenn man das nächste mal auf die DirectX Device zugreift. Beides ist sau teuer.

Das Problem ist eher dass die GPU beim Zeichnen von Objekten durch das Drawcall-Limit von Directx11 ausgebremst wird und mehr oder weniger alles auf einem Kern berechnet wird.
Der Wechsel zu Direct x12 erlaubt hinsichtlich dieses Problems Multithreading und kann so die Grafikkarte besser mit Zeichenbefehlen versorgen -> CPU Limit wird nach oben geschoben, Nvidia kann das unter Directx11 besser händeln, heißt der Treiber übernimmt in einem gewissen Maße das Multithreading.

Was du da oben ansprichst ist doch etwas völlig anderes, das sind Basisfunktionen von Directx11 und auch Directx12. Renderingbefehle, die sich die gleichen Ressourcen teilen, müssen irgendwann synchronisiert werden, damit der eine weiß was der andere gerade geändert hat, schreibt, liest etc.
Das erzeugt doch bei Directx11 nicht den Overhead, sondern das tun die limitierten Drawcalls, du vermischst das oben zudem auch noch mit Async Compute.

AMD's Problem ist nicht etwa, dass der Treiber mist ist, sondern eher das AMD Karten mehr auf Parallele Workloads optimiert sind und damit besser "gefüttert" werden müssten, was aber unter DX11 schwer geht.

Directx12 behebt bei AMD Karten das unter Directx11 ab und zu herrschende Drawcall-Limit des AMD Treibers in Verbindung mit den Limits von Directx11.
Mehr aber auch schon nicht, im reinen GPU Limit ist Directx12 oft langsamer als Directx11 auf einer AMD GPU.

AMD hat seine Architektur einfach nicht so gut auf DX11 ausgelegt (warum auch immer).

Sehe ich nicht so, ich sehe da eher Mängel bei den Möglichkeiten der Treiber, Nvidia nutzt neben dem Hardware noch einen Softwaresheduler der die Draw Calls auf mehrere Threads aufteilt.
Das ist der Grund wieso Ryzen so gut mit Nvidiakarten in Assassins Creed läuft und AMD dort so abstinkt.

Das AMD gut von Async Compute profitiert liegt daran das die Architektur gut Vorteile draus ziehen kann weil es der GPU beim Auslasten hilft. Nachfem die Architektur von Nvidia damit eh weniger Probleme hat, hat Nvidia im besten Falle wenig von Async Compute im schlimmsten Fall Nachteile.

Die Auslastungsgeschichte ist doch absoluter Unsinn, in diesem Video hier wird alles relevante erklärt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Deshalb ist der CPU Overhead in DirectX 12 auch so runtergegangen.

Async Compute =! Mehr Drawcalls

Bei Nvidia geht Gameworks über Intrinsic Funktionen, bei AMD über den DirectX Standard.

Welche Gameworksfunktionen werden denn nicht über den "Directx Standard", sondern über Intrinsic Funktionen, also Herstellerspezifische Erweiterungen integriert?

Bei Nvidia geht Gameworks über Intrinsic Funktionen, bei AMD über den DirectX Standard.

Beispiel?

Würde man unter AMD auch einfach über Intrinsic Funktionen gehen wäre die DirectX 11 Performance auch besser

Nvidia erreicht also die gute Directx11 Performance durch Intrinsics, also Directx11 Nvidia-spezifische Erweiterungen?
Um was geht es da konkret? Shuffle Intrinsics?

Sowas führt dann zu Nichtstandard-Verhalten wie die Grafikunterschiede zwischen AMD und Nvidia bei Ashes of the Singularity. (Da gab's ja mal diese tolle Diskussion).

Und ich dachte immer diese Grafikunterschiede rührten von unterschiedlichen Presets her.

Long story short, AMD implementiert den DirectX Standard besser, Nvidia hat schnellere Treiber. Dafür muss man sich bei Nvidia halt auf viel Nicht-Standard-Verhalten verlassen was für Entwickler halt ******* ist. Oder man verwendet Gameworks... das ist idr. dann für Kunden *******.

Ja, klar, Nachteile von AMD werden letzten Endes immer darin verpackt dass sie es doch eigentlich richtig ehrlich machen und Nvidia die Entwickler mobbt und Gameworks für Kunden doch so schlecht sei.
Also wieder die üblichen Verschwörungstheorien ohne Nachweise.
 
Zuletzt bearbeitet:
Nicht nur in Spielen, auch im Professionellen Bereich usw usf. Natürlich ist in vielen Bereichen immer noch ein Unterschied bei den Treibern und beim Entwicklersupport. Das ist auch bei den Budgetunterschieden klar, wer immer noch behauptet die Treiber seien gleichwertig ist wohl von einem anderen Universum.

Mich persönlich trifft das aber nicht: privat setze ich meist auf AMD, denn die teils riesigen Nachteile bei Release von Spielen oder Early Access Spielen sind mir deshalb egal, weil ich heutzutage keine Spiele mehr bei RElease kauf, sondern im Sale bei Steam, wenn sie komplett sind und alle Patches haben.
Von daher ist für mich AMD als Spielerkarte genauso brauchbar wie Nvidia, inkl. Treiber.
 
  • Like
Reaktionen: hfb
Wie gesagt. Du bekommst Spiele auch auf AMD so schnell und einfach wie bei Nvidia. AMD müsste nur ein eigenes Gameworks machen. Das würde dann halt Nvidias Performance gimpen. Daher würde es keiner nutzen. So muss man halt normal optimieren.

Bei dir spielt aber Gameworks eine ziemlich große Rolle, obwohl es eigentlich entweder unter Directx11 abschaltbar ist, oder gar nicht eingesetzt wird.
Von Gameworks kommt garantiert nicht die bessere Directx11 Performance von Nvidia.

Das Problem ist, für AMD wird das gleiche gemacht. In Vulkan games in denen die Architektur berücksichtigt wird schneiden AMD Karten recht gut ab.

Was heißt denn Architektur berücksichtigen? Half Precision und Shader Intrinsics, was Nvidia nicht unterstützt, einzusetzen?

Der Witz an ner Low-Level API ist das man zum Optimieren keine Intrinsic-Funktionen mehr brauchen sollte.
Dann ists ja ein Treppenwitz, dass AMD welche einsetzt.

Vergleich mal Wildlands mit Assasins Creed Origin. Beides Anvil next. Eines mit Gameworks das andere nicht. Gibts im PCGH Performance-Index.
In Assasins Creed bekommst du in 1440p mit ner 1080 fast 60 FPS (58). In Wildlands bekommst du in 1080p schon nur 54. Sehr gut. Assasins Creed läuft auf ner 980 solide. Wildlands nicht so wirklich berauschend.
Ist das jetzt auch nur für AMD User schlecht oder könnte das evtl. auch für einen Nvida User unschön sein?

Der Vergleich zweier unterschiedlicher Spiele mit unterschiedlicher Programmierung/Anforderung wo man überhaupt keinen Schimmer davon hat was die einzelnen Effekte an Leistung kosten, ist doch jetzt nicht dein Ernst?
Da kann ich doch gleich im Nebel herumstochern?

I
Wie kann es dann sein, daß die Karte in Far Cry 5 (einem neuen Spiel bei dem AMD Pate gestanden hat) plötzlich 32% hinter einer GTX 980 und ganze 80% hinter einer Vega56 ist?
Anhang anzeigen 997970
Absichtliche Treiberbremse, oder liegt es eher daran?

Treiber können ja nicht immer gepflegt werden, Hawai wird bald 5, das ist der gleiche Effekt wie bei GTX 780 Ti vs GTX 970.
Wobei ich bei Hawai und auch Fiji denke dass wegen dem Treiberoverhead kaum mehr optimiert wird.

Aber nein. Das mit der 980 bei Wildlands ist mehr als die normale Degeneration. Das war mal ne 500€ Karte. Nach 3 Jahren sind 30 FPS in 1080p für so eine Karte einfach zu wenig. Vor allem wenn man ein Vergleichsspiel vom selben Hersteller mit der gleichen Engine aus dem selben Jahr bei 16 FPS mehr hat. Ich mein, eine Referenz 980ti schafft in Wildlands keine 50FPS. Die Karte müsste für 1080p so dicke reichen. In AC schafft die zumindest fast 60. Das war vor 2 Jahren noch die Top Tier Karte. Das kann nicht dein ernst sein.
Weißt du, in Far Cry underperformt die 390x mit 42 FPS in 1440p nicht gerade. Die 980 in Wildlands underperformt mit 32 FPS in 1080p aber halt definitiv.

Du machst also ein Underperformen nicht etwa an den direkten Vergleichen (Prozentuale Differenzen) mit Karten der Konkurrenz und eigenen Karten fest, sondern einfach nur an den FPS Werten.
Während die 980 in Wildlands degeneriert, sind die 42 FPS der R9 390x völlig okay, obwohl die Karte dort richtig schlecht performt.

In Far Cry ist es nämlich nicht so das die 390x besonders langsam ist, sondern, dass Vega 56 besonders schnell ist.

Und ich dachte immer die R9 390x wäre so ein kleines bisschen über GTX 980 Niveau und nicht so weit dahinter.
Seit wann unterstützt die GTX 980 Rapid Packed Math und wo lässt sich das im Spiel ein und ausschalten um eine Aussage darüber zu treffen, warum Vega56 da besonders schnell sei?
 
Zuletzt bearbeitet:
Finde ich nicht. Abseits der albernen Diskussion der Treiber hat oder der Treiber hat schon mal, bietet Nvidia für mich immer stabile Gamingleistung ohne Aussetzer, während ich das von AMD nicht behaupten kann.

Seh ich anders, aber gut deine Meinung, meine Meinung. ist ok.

Das Problem ist eher dass die GPU beim Zeichnen von Objekten durch das Drawcall-Limit von Directx11 ausgebremst wird und mehr oder weniger alles auf einem Kern berechnet wird.
Der Wechsel zu Direct x12 erlaubt hinsichtlich dieses Problems Multithreading und kann so die Grafikkarte besser mit Zeichenbefehlen versorgen -> CPU Limit wird nach oben geschoben, Nvidia kann das unter Directx11 besser händeln, heißt der Treiber übernimmt in einem gewissen Maße das Multithreading.

Was du da oben ansprichst ist doch etwas völlig anderes, das sind Basisfunktionen von Directx11 und auch Directx12. Renderingbefehle, die sich die gleichen Ressourcen teilen, müssen irgendwann synchronisiert werden, damit der eine weiß was der andere gerade geändert hat, schreibt, liest etc.
Das erzeugt doch bei Directx11 nicht den Overhead, sondern das tun die limitierten Drawcalls, du vermischst das oben zudem auch noch mit Async Compute.

Also, es ist so. Ja DirectX 11 ist mit Multithreading *******. Das hab ich gesagt. Was aber ein noch größeres Problem ist, ist das DirectX auch auf der GPU beschissenes Threading abliefert. Der Scheduler der GPU ist dermaßen damit beschäftigt irgendwelche Aufgaben zu verteilen das die CPU beim abgeben der Task warten muss bis der Scheduler sie annehmen kann. Das verringert in gewisser weise die Drawcalls die deine CPU auf die GPU bringt. Nvidia hat das gelöst indem sie den Treiber stark parallelisiert haben und mehrere Scheduler ansprechen. Ist ne Feine sache, ist aber halt nicht Standard. Und das ist der Punkt wo Async Compute schon mal etwas Abhilfe schafft ganz abseits der restlichen DirectX 12 Verbesserungen.

Mal hier für dich:

"The biggest enemy of GPU’s is latency – in other words, having ‘gaps’ in the the shader pipeline where the GPU is not doing anything. Developers have struggled with GPU latency for some time now, but really the blame wasn’t on the GPU, but more on the API (in this case, DirectX 12) which wasn’t good at handling tasks in parallel (at the same time).

Just like how D3D11 wasn’t very good at multi-threading on CPU’s, it also wasn’t very good at thinking in parallel for GPU’s, which is pretty insane, considering parallelism is the GPU’s strongest point. Instead, commands would be processed in a serial fashion, one at a time. The ACE’s would attempt to schedule work, even while the GPU was still handling a rendering task, and eventually that work would be carried out."
(DX12 Asynchronous Shader & Command Buffer Analysis | AMD Exclusive Interview & Details RedGamingTech)

Im Endeffekt kann der normale Scheduler die Tasks jetzt einfach irgendwie auf die AC-Engines verteilen und die machen dann die richtige Schedule Arbeit. Sprich du befüllst die Stück für Stück und entlastest damit den Scheduler weil er nicht erst nachschauen muss welche ComputeUnit frei ist, das macht die AC Engine. Damit kann der Scheduler mehr Tasks annehmen. Wenn du dich mit Programmierung etwas auskennst: Wenn man einen Threadpool hat mit 16 Threads ist die Task-Queue der limitierende Faktor weil die Queue sowohl von den Consumer-Threads als auch dem Producer-Thread regelmäßig gesperrt wird, was zu Wartezeiten führt. Nimmst du jetzt aber 2 Pools mit 8 Threads und gibst die neue Task einfach dem Pool der grade weniger in der Pipeline hat, dann umgehst du den Stau im Pool Scheduler was dir erlaubt einen höheren Task-Durchsatz zu haben. Das gleiche gilt auch für GPUs. Das Multithreading in DirectX 12 kommt da dann noch hinzu nachdem die AC Engines dann quasi auf die Threads verteilt werden was das Draw-Call Limit nochmal weiter nach oben schieben würde. Deshalb gibt es in DirectX 12 auch keinen d3d12context mehr sondern einen Command-List. Mit Async Compute funktioniert das auch deshalb in einem Thread besser weil es keine Reihenfolge in der die Tasks ausgeführt werden müssen. Die Async-Engines muss nur eben nicht Asyncrone Tasks priorisieren. Das macht das Scheduling nochmal einfacher. Wenn Tasks seriell fertig werden müssen bedeutet das Scheduling-Aufwand nachdem waits gemacht werden müssen. Das ist übrigens auch der Grund warum Naughty Dog ihre Engine mit Fibern gebaut haben. (Das ist Quasi Threading light) Die wollten die Leerlaufzeiten in ihrer Engine runterbringen. Dazu haben sie das Scheduling überarbeitet und eine priorisierte Job Queue erstellt. Das betrifft zwar keine Graphic Tasks, ist aber das selbe prinzip. (bei interesse: GDC Vault - Parallelizing the Naughty Dog Engine Using Fibers)

Also in kurz: Der Command Processor der GPU zusammen mit den AC Units kann das Scheduling-Problem lösen sofern die Aufgaben (oder zumindest einige) als Async Tasks reinkommen nachdem der zentrale Command Processor sich weniger auf das Managen der einzelnen CUs und mehr auf das grundlegende Annehmen von Tasks konzentrieren kann.

Directx12 behebt bei AMD Karten das unter Directx11 ab und zu herrschende Drawcall-Limit des AMD Treibers in Verbindung mit den Limits von Directx11.
Mehr aber auch schon nicht, im reinen GPU Limit ist Directx12 oft langsamer als Directx11 auf einer AMD GPU.

Ich hab auch gesagt man muss es richtig machen. DirectX 12 ist nicht einfach. So ist das mit Low-Level Programmierung.

Sehe ich nicht so, ich sehe da eher Mängel bei den Möglichkeiten der Treiber, Nvidia nutzt neben dem Hardware noch einen Softwaresheduler der die Draw Calls auf mehrere Threads aufteilt.
Das ist der Grund wieso Ryzen so gut mit Nvidiakarten in Assassins Creed läuft und AMD dort so abstinkt.

Der Softwarescheduler ist wie gesagt ne nette Sache, aber halt einfach nicht wie DirectX Standardmäßig arbeiten sollte. Man sollte seriellen Systemen keine Parallelität aufzwingen. Das hat echt viele Nebeneffekte.

Die Auslastungsgeschichte ist doch absoluter Unsinn, in diesem Video hier wird alles relevante erklärt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.



Async Compute =! Mehr Drawcalls

Die Auslastungsgeschichte ist sogar recht wichtig. Siehe oben. Und dazu. Was glaubst du warum die 390x unter DirectX12 in Rise of the Tomb Raider so einen Sprung gemacht hat? Ich meine, die min FPS haben sich fast verdoppelt. Glaubst du die Karte kann aus dem nichts mehr Compute-Power generieren? Nein. Die Power wurde davor einfach nicht genutzt. Was meinst du wo die nicht-genutzten TFLOPS der AMD GPUs hingehen? Das sind halt Kerne die idlen oder Komponenten die nicht benutzt werden.

Welche Gameworksfunktionen werden denn nicht über den "Directx Standard", sondern über Intrinsic Funktionen, also Herstellerspezifische Erweiterungen integriert?



Beispiel?



Nvidia erreicht also die gute Directx11 Performance durch Intrinsics, also Directx11 Nvidia-spezifische Erweiterungen?
Um was geht es da konkret? Shuffle Intrinsics?

NVIDIA HBAO+ 2.4. — NVIDIA HBAO+ 2.4. documentation

GFSDK_SSAO_Context_D3D11* pAOContext; Und gleich am Anfang wird ein Pointer auf einen CustomD3D11 Context gemacht. Ist sicher Standard.

NVIDIA VXGI | NVIDIA Developer

Und mal aus Wikipedia was ich mit Intrinsic Funktionen meine:

"Hochsprachen-Compiler unterstützen häufig sogenannte intrinsische Funktionen (englisch intrinsic functions oder kurz intrinsics wörtlich für Innere [Funktionen]; selten auch systeminterne Funktionen genannt), bei denen prozessorspezifische Operationen in Funktionsaufrufe gekapselt werden."

Nicht alle Intrsinsic Funktionen für GPUs sind Shader Intrinsics Funktionen. Eine Intrinsic Funktion kann auch einfach über den Treiber implementiert sein. Heißt ja nur das es eine Wrapper Funkion ist die die normalen Abstraktionslayer ignoriert und hardwarepezifisch ist. Der API Call in Far Cry der Rapid Packed Math in DirectX 11 auf AMD-Seite aktiviert wird auch ein Intrinsic Call sein der direkt in die AMD Treiber API geht. An der Stelle fände ich es auch besser wenn Ubisoft einfach auf Vulkan gebaut hätte statt DirectX 11 zu nehmen und dann so nen Schmarrn zu machen.

Damit baut Nvidia halt generell seine Gameworks API. Mit API-Zusätzen. Das ist ja auch in Ordnung. Ich hab gesagt ich finde wie Gameworks eingesetzt wird ist böse. Ich hab aber auch gesagt wenn die Nummer etwas durchsichtiger wäre wäre das voll ok.

Und ich dachte immer diese Grafikunterschiede rührten von unterschiedlichen Presets her.

Na klar ham die nen Einfluss. Aber gerade bei ACO und GRW sind die halt sehr ähnlich.

Ja, klar, Nachteile von AMD werden letzten Endes immer darin verpackt dass sie es doch eigentlich richtig ehrlich machen und Nvidia die Entwickler mobbt und Gameworks für Kunden doch so schlecht sei.
Also wieder die üblichen Verschwörungstheorien ohne Nachweise.

Nö. Ich hab nirgens gesagt es ist böse von Nvidia alles über Intrinsic Funktionen zu bauen. Das ist voll ok. Ist auch keine Verschwörungstheorie. Nochmal. Ich finde Gameworks böse. Das mit den Intrinsics ist schlimmstenfalls lästig. Wenn das wem auf die Füße fallen kann dann evtl. irgendwann Nvidia oder deren Kunden. Gameworks ist deswegen böse weil es diese Implementierung den anderen Herstellern aufzwingt. Aber wenn halt z.B. Intel sich mit seinen Treibern und GPUs näher am DirectX Standard bewegt dann wäre Nvidia mit seinem intrinsic-basiertem Ansatz alleine gegen 2 Hersteller mit einem standardisierten. Wenn Intel Marktabteile bekommt dann haben Entwickler eventuell keine Lust einen Hersteller gegenüber 2 anderen bevorzugt zu behandeln.

Bei dir spielt aber Gameworks eine ziemlich große Rolle, obwohl es eigentlich entweder unter Directx11 abschaltbar ist, oder gar nicht eingesetzt wird.
Von Gameworks kommt garantiert nicht die bessere Directx11 Performance von Nvidia.

Klar kommt sie nicht nur davon. Ich hab nur gesagt, dass Gameworks vor Intrinsic Funktionen strotzt. Nvidia schafft es halt einfach seine GPUs besser auszulasten. (Halt über Nicht-Standard-Erweiterungen.)

Was heißt denn Architektur berücksichtigen? Half Precision und Shader Intrinsics, was Nvidia nicht unterstützt, einzusetzen?

Nvidia kann shader intrinsics (Reading Between The Threads: Shader Intrinsics | NVIDIA Developer) und GP100 kann Fast Math. (Does Nvidia already support Rapid-Packed Math? : nvidia) Wenn sie das nicht in Consumer Karten bauen kann da keiner was für. Ist halt im Vulkan Standard. Abgesehen davon heißt Architektur berücksichtigen z.B. auch DirectX 12 Feature nutzen die Pascal kann und Fiji z.B. nicht. Oder generell auf Architekturgegebenheiten eingehen wie z.B. die 11GB ram der 1080ti.

Dann ists ja ein Treppenwitz, dass AMD welche einsetzt.

Nö, Standard-DirectX Funktionen zu nutzen bringt niemandem einen Nachteil solange er sich an diesen Standard hält. Maxwell wird bis heute als DirectX 12 Kompatibel geworben. Und das Async Compute Problem ist fixbar, sieht man ja an Maxwell on Steroids oder auch kurz Pascal (Nicht negativ gemeint, bevor sich wieder irgendwer aufregt.).

Der Vergleich zweier unterschiedlicher Spiele mit unterschiedlicher Programmierung/Anforderung wo man überhaupt keinen Schimmer davon hat was die einzelnen Effekte an Leistung kosten, ist doch jetzt nicht dein Ernst?
Da kann ich doch gleich im Nebel herumstochern?

Naja Assasins Creed schaut vergleichbar/besser aus und performt wesentlich besser. Damit zeigt sich ja das Nvidia und Ubi es besser könnten.

Treiber können ja nicht immer gepflegt werden, Hawai wird bald 5, das ist der gleiche Effekt wie bei GTX 780 Ti vs GTX 970.
Wobei ich bei Hawai und auch Fiji denke dass wegen dem Treiberoverhead kaum mehr optimiert wird.

Seh es mal so. Du hast 2 recht vergleichbare Games die eigentlich sowohl von Hawaii als auch von Maxwell zu schaffen sein sollten. Eines davon ist Performancetechnisch völlig im Eimer. Zufällig das mit mehr Gameworks-Effekten. Und das nachdem Gameworks dafür bekannt ist mehr Performance zu kosten als es wert ist. Sorry klingt für mich ziemlich unangenehm. Ich zwinge dich ja nicht meiner Meinung zu sein.

Du machst also ein Underperformen nicht etwa an den direkten Vergleichen (Prozentuale Differenzen) mit Karten der Konkurrenz und eigenen Karten fest, sondern einfach nur an den FPS Werten.
Während die 980 in Wildlands degeneriert, sind die 42 FPS der R9 390x völlig okay, obwohl die Karte dort richtig schlecht performt.

Die 390x ist in Wildlands halt bei 29FPS. Die 42 waren aus Far Cry. Bei !!1440p!! Wo eine 980 55FPS hat. Keine weiteren Fragen euer Ehren.

nur mal für dich:

GRW 980: 1080p 32FPS, 390x 1080p 29 FPS. (Nvidia ist ja mega im Vorteil wooow)
ACO 980: 1080p 48FPS, 390x 1080p 35 FPS. (zwar nicht so super für AMD aber immer noch eine ziemliche Steigerung zu GRW)
FC5 980: 1440p 55FPS, 390x 1440p 42 FPS. Höhere Auflösung, mehr FPS bei sau guter Grafik.

Ich finde 55 und 42 FPS in Far Cry in 1440p oder 42 und 35 in AC bei 1080p deutlich vertretbarer als 29 und 30 in GRW.

Und ich dachte immer die R9 390x wäre so ein kleines bisschen über GTX 980 Niveau und nicht so weit dahinter.

Tatsächlich war die 390x von den FPS in Far Cry wo ich es erwarten würde und die 980 schneidet überdurchschnittlich ab. Schau dir Doom an. Da ist es genau so. (Ist zwar nur eine 390 vertreten aber die paar %)

Seit wann unterstützt die GTX 980 Rapid Packed Math und wo lässt sich das im Spiel ein und ausschalten um eine Aussage darüber zu treffen, warum Vega56 da besonders schnell sei

Wo hab ich gesagt die 980 kann RPM? Ich hab abgesehen davon auch nicht gesagt das RPM nicht der Grund ist warum Vega 56 so schnell ist. Aber ich hab gesagt bei 42 FPS in 1440p bei einem wie du so nett gesagt hast "fast 5 Jahre altem" Chip kann nicht von ausbremsen die Rede sein. Und bei 55 FPS bei der 980 erst recht nicht.

Das ist wie mit ANSI C++ und VC++ so wie GC++. Man sollte so lange ANSI C++ verwenden bis es wirklich nicht anders geht weil VC++ halt nur auf Windows läuft und GC++ nur auf GNU basierten Plattformen. Und das ist für die Portierbarkeit und Abwärtskompatibilität halt *******. Das Anvil Vulkan Framework ist nett (https://gpuopen.com/gaming-product/anvil-vulkan-framework/), Aber wenn man nicht gerade 2 Renderpfade macht, einen für Nvidia, einen anderen für AMD könnte man in diverse Probleme rennen. Aber hier kann man die zumindest selbst lösen. Anvil ist halt wenigstens ne OpenScource Library.

done.
 
Zuletzt bearbeitet:
Aber nein. Das mit der 980 bei Wildlands ist mehr als die normale Degeneration. Das war mal ne 500€ Karte. Nach 3 Jahren sind 30 FPS in 1080p für so eine Karte einfach zu wenig. Vor allem wenn man ein Vergleichsspiel vom selben Hersteller mit der gleichen Engine aus dem selben Jahr bei 16 FPS mehr hat. Ich mein, eine Referenz 980ti schafft in Wildlands keine 50FPS. Die Karte müsste für 1080p so dicke reichen. In AC schafft die zumindest fast 60. Das war vor 2 Jahren noch die Top Tier Karte. Das kann nicht dein ernst sein.
Wenn aber eine Karte wie immer performt und eine andere deutlich schlechter als sonst ist das ne andere Baustelle. Wäre eine 10xx Karte einfach schneller in Wildlands wäre das ja kein Ding. Das die 980 aber z.B. einfach so viel langsamer ist, ist finde ich schon ein Ding.

Ich weiß zwar nicht wo Du deine Zahlen her hast, aber sie sind definitiv falsch.
Eine GTX 980 schafft in Wildlands knapp 60FPS in FHD und nicht bloß 30FPS.
Ausserdem ist die Performance von Maxwell zu Pascal genau so, wie es zu erwarten war.
GRW.PNG
Du siehst hier ein Problem wo keines ist.
 
Ich weiß zwar nicht wo Du deine Zahlen her hast, aber sie sind definitiv falsch.
Eine GTX 980 schafft in Wildlands knapp 60FPS in FHD und nicht bloß 30FPS.
Ausserdem ist die Performance von Maxwell zu Pascal genau so, wie es zu erwarten war.
Anhang anzeigen 997991
Du siehst hier ein Problem wo keines ist.

PCGH Performance Index 2018. Grafikkarten-Rangliste 2018: Radeon- und Geforce-GPUs im Benchmarkvergleich - Teil 2

Dein Test ist mit Godrays disabled und Very High. Meiner mit Ultra Preset. Das Problem ist present. Hat mich einen Blick gekostet. Das Problem ist wie ich finde auch nicht gerade unerheblich.

Nochmal. Es geht hier nicht darum Nvidia schlecht zu machen. Es soll nur zeigen, dass die AMD Treiber nicht das Problem sind, sondern der Umgang mit der API, und das der Weg von Nvidia auch nicht komplett ohne Verluste daherkommt. Beide Ansätze haben ihre Vor- und Nachteile. Aber ich kann dir sagen, als 980 Besitzer würde mich das mit Wildlands ziemlich ankäsen. Mit meiner 970 könnte ich Wildlands in Ultra halt vergessen, obwohl zumindest so konstante 30+ mit ab und an mal einem Drop auf die 30 drinnen sein sollten. Es ist nicht so als wären 970/80 5 Jahre alt sind wie die 2xx/3xx Karten. Das ist die letzte Generation. Nicht die vorletzte. (Hawaii jetzt mal außen vor. Ein wunder das es der Chip so lange durchgehalten hat, ich bin echt beeindruckt)
 

Anhänge

  • GRW.PNG
    GRW.PNG
    96,5 KB · Aufrufe: 35
Zuletzt bearbeitet:
Ok, hab auch gerade den Index Test angeschaut und die Einstellungen verglichen. Da hast Du Recht.
Aber m.M.n ist das nicht das Problem für den großen Abstand zu Pascal, sondern die unsäglich niedrigen Taktraten der stock Maxwell Karten.
Bei sogut wie jedem Test holen die Maxwell Customs gegenüber Pascal Customs auf.
Deswegen interessieren mich auch nur solche Benchmarks mit Karten die eigentlich ein jeder so im Rechner hat

Aber wenn Du stock vergleichen willst dann hast Du natürlich recht und ist auch legetim. Nur hat das für mich wenig mit der realen Performance zu tun.
 
Ok, hab auch gerade den Index Test angeschaut und die Einstellungen verglichen. Da hast Du Recht.
Aber m.M.n ist das nicht das Problem für den großen Abstand zu Pascal, sondern die unsäglich niedrigen Taktraten der stock Maxwell Karten.
Bei sogut wie jedem Test holen die Maxwell Customs gegenüber Pascal Customs auf.
Deswegen interessieren mich auch nur solche Benchmarks mit Karten die eigentlich ein jeder so im Rechner hat

Aber wenn Du stock vergleichen willst dann hast Du natürlich recht und ist auch legetim. Nur hat das für mich wenig mit der realen Performance zu tun.

Aber selbst wenn die nochmal zulegen ist es finde ich etwas wenig für das was Maxwell kann. Der Ausgangspunkt von dem die Steigerung startet ist ja durch alle PCGH-Index-Benchmarks der gleiche. Sprich eine 980 Custom wird immer X mehr Takt haben und damit X% schneller sein als eine Referenz 980. Und da ist der Ausgangspunkt halt immer noch recht gering weil selbst Ausgangspunkt + Steigerung X im vergleich zu anderen Titeln zu niedrig ist. Maxwell war und ist ne super Architektur die mehr kann.
 
Zuletzt bearbeitet:
Es liegt doch auf der Hand dass die Nvidia Karten deutlich schlechter unter anderen API´s abseits von DX11 laufen, dass ist bekannt und wahrlich kein Geheimnis.

Man nehme nur mal Battlefield, Civ 6, Star Wars Battlefront oder TWW2 als Beispiel wo man jeweils switchen kann.
Tomb Raider ist ein Gameworks Titel und Pascals laufen dort kaum schneller, wenn überhaupt.

Nvidia Treiber sind immer super wenns um DX11 geht, in den anderen API´s sind die Treiber oft bescheiden am Anfang und lassen einiges an Leistung liegen.
Man nehme mal z.B. Forza 7 oder Wolfenstein.

Asyncronus Compute verhilft den AMD Karten zuverlässig zu mehr Leistung während dies auf Nvidia eigentlich immer Leistung kostet. Auch das ist kein Geheimnis und eigentlich Usus.
 
Zurück