3DMark Time Spy wegen angeblicher Nvidia-Bevorzugung in der Kritik

Für DX11 und darunter ist sie ja durchaus noch brauchbar.
Wird auch für DX12 super brauchbar sein. EIn Killer-Feature in DX12 FL12_0 oder FL12_1 im Gegensatz zu FL11 (welches Maxwell beherrscht)gibt es nicht.
Etwas, das Spielehersteller unbedingt einsetzen müssten und dann sieht ihr Spiel gigantisch viel besser aus oder ist vielfach flüssiger.
Es sind einige Kleinigkeiten dabei die praktisch sind, aber bis die Spiele mal als Grundvoraussetzung haben ist seine Titan längst nicht mehr fähig flüssige FPS zu zaubern.
 
Zuletzt bearbeitet:
Meine Frage war ernst gemeint. Ein Link wäre hilfreich.

Was deine Titan X angeht: Du kannst es ja nun auch nicht mehr ändern. Für DX11 und darunter ist sie ja durchaus noch brauchbar.
Spaßvogel :)

Wird auch für DX12 super brauchbar sein. EIn Killer-Feature in DX12 gibt es nicht.
Nun, im Gegensatz zu allen derzeitig auf dem Markt befindlichen AMD Karten unterstützt die Titan alle DX12 Features funktional(!) vollständig. Und auch ohne Performancegewinn durch AC reicht mir die Performance in aller Regel durchaus, auch in DX12 und Vulkan Spielen.... :)
 
Wir hatten solche Diskussionen schon oft, vor allem mit Gameworks auf AMD Karten. Da wurde auch unter anderem von mir und anderen gefordert das doch bitte aus Fairnessgründen einfach bei AMD abzuschalten in den Benchmarks.
Nun bringt Asynccompute bei Maxwell weder einen Vorteil hinsichtlich der BQ und kann einfach nicht ´genutzt werden, deswegen die Forderung man solle es auch aktivieren?!
Willst du mit Absicht erzwingen, dass Maxwell Performance verliert, obwohl es gar nicht nötig ist?
Es gibt in diesem Benchmark ohnehin keine Bevorteilung der Maxwell Grafikkarten, weil sie asynccompute nicht bieten und es bei Nvidiakarten sowieso nicht viel bringt, weil sie bereits gut ausgelastet werden.
Wieso du willst dass Nvidia schlechter dastehen sollten als sie es müssten ist mir unklar.



Eben genau die Vergleichbarkeit wird gewahrt, das async bei Maxwell in den Spieletests wie Ashes ja auch abgeschaltet war.:ka:

Sie ist nicht gewahrt, weil im Test selbst steht, es wäre aktiv, was es hingegen nicht ist! Korrekt wäre eine deutliche Anzeige, dass der Test bei Maxwell eben ohne AC durchgeführt wurde, er somit als unmittelbarer Verlgeich der Karten unter DX 12 mit AC ungeeignet ist (das ist es nämlich, was hier behauuptet wird: DX 12 und AC an!). Eine nachvollziehbare Anzeige und der Test ist in Ordnung und auch fair. Maxwell hat halt keine Probleme mit der Auslastung. Aber der Test suggeriert fälschlicherweise, dass AC funktionieren würde, was allerdings garnicht der Fall ist. Es ist die dreiste Lüge, die mich daran stört, nicht, dass auf Maxwellkarten irgendwas nicht dargestellt werden kann (zumal es spezielle Treiber aktuell noch schaffen das zu umgehen, wie es in Zukunft damit aussieht, wird auch diese erst zeigen aber nach bisheriger Erfahrung mit der Unterstützung älterer GPUs im Treiber könnte man vielleicht etwas Bestimmtes erwarten...^^), sondern dass hier behauptet wird, es ginge, wobei es in Realität nur einfach nicht ausgeführt wird. Deshalb auch der Vergleich, dass ein angeblicher DX12_1 Test, der auf AMD nur 11_2 nutzt genauso verlogen wäre...
 
eee....wollte eigntl. nur wissen ob meine brachliegende Grafikeinh. der CPU im meinem Falle Intel® HD Graphics 4600 endlich genutzt wird, also mit genutzt , und ob es was bringt so FPS bzw. Vsync mäßig :huh:

hab die nämlich noch garnicht installiert, also nicht im Gerätemenager drinn weil unbenutzt... puh :rollen:
 
Sie ist nicht gewahrt, weil im Test selbst steht, es wäre aktiv, was es hingegen nicht ist!
AC ist aktiv, zumindest so weit es 3DM angeht.

Um nochmal das Beispiel mit dem Turboknopf zu bemühen:

In einer Zeitschrift (aus den 80ern :) ) werden zwei PCs getestet, die man als Blackbox im Laden kauft. Der eine hat 4,11 MHz und einen Turboknopf, der die CPU auf 8MHz hochtaktet. Der andere hat auch einen Turbo-Button, der aber funktionslos ist, die CPU ist immer mit 7 MHz getaktet.

Wenn nun in dem Vergleichstest ein entsprechender Benchmark enthalten ist, wo man zeigt, dass der eine Rechner ohne Turbo langsamer als der andere ist, mit Turbo aber etwas schneller, und dass der Turbo-Button beim zweiten Rechner keinen Unterschied bewirkt... Hat der Vergleichstest dann was falsch gemacht?

Denn genau das ist es, was ihr 3DM vorwerft.

Der Tester kann nur den Knopf drücken, was dadurch aber technisch passiert, kann er nicht sehen und es ist für den Test auch irrelevant, das Ergebnis zählt.
 
Zuletzt bearbeitet:

[...]
Wo nVidia das offiziell kommuniziert (also versprochen) hat, musst Du mir mal zeigen.
So super offiziell wurde es glaube ich noch nie direkt von Nvidia versprochen, aber es schien häufiger impliziert zu sein, dass es unterstützt wird oder etwas nachkommt.
Auf der DX12 Feature-Folie hat Nvidai Async Compute aufgelistet:
http://international.download.nvidi...tx-980-ti-directx-12-advanced-api-support.png

Bei einem Artikel von Anandtech hat man Auskünfte darüber gegeben, wie viele Queues man kontrollieren kann und ob eine parallele Ausführung möglich ist:
AMD Dives Deep On Asynchronous Shading

Ein Nvidia Mitarbeiter hat glaube ich bei Ashes auch posaunt das die Ergebnisse ohne Async Compute Support im Treiber stattfanden und viele Entwickler haben verlauten lassen, dass man mit Nvidia zusammenarbeitet um das ganze zu implementieren.

Weil genau das nicht mitgeteilt wurde. Wenn er flexibler programmiert wäre, bspw. durch Anpassung an die HW-ID (ältere Hardware bliebe trotzdem verwendbar), wäre das für mich auch kein Thema.

Aber so? Nee, danke.
Kommt darauf an wie viel technische Dokumentation du in einem Verkaufstext erwartest.
Aber der Text ist wirklich etwas kurz.

Aber flexible Programmierung würde natürlich bedeuten, dass der Benchmark nicht jede GPU gleich behandelt, dass geht natürlich nicht.
 
He Jungs kommt mal wieder Runter und Diskutiert Sachlich !

Fakt ist eins, auch mit Maxwell kann man unter DX12 Games Spielen sowie mit jeder anderen Karte auch ! Nur wie viel Leistung am Ende Über bleibt ist Interessant ! Glaube nicht wer ne 980ti hat wird sich jetzt ne RX480 kaufen , bloß weil sie DX12 besser kann denn in der Endabrechnung dürfte die 980ti immer noch vorne liegen !


Natürlich freut mich es trotzdem das die AMD´s davon Profitieren , wird ja auch mal Zeit nach der langen Vorbereitung durch Mantle ! ;)
Genauso gut gefällt mir das NVidia aus DX11 alles raus gequetscht hat ;)
 
So super offiziell wurde es glaube ich noch nie direkt von Nvidia versprochen, aber es schien häufiger impliziert zu sein, dass es unterstützt wird oder etwas nachkommt.
Auf der DX12 Feature-Folie hat Nvidai Async Compute aufgelistet:

nVidia hat nie konkret versprochen, dass es einen Performancegewinn durch AC geben wird.
 
Warum legt dann meine GTX980 im Zweitrechner bei RotTR bei den minimalen FPS in kritischen Szenen zu wenn DX12 gar nichts bringt?`
DX12 ist nun mal nicht rein AC. Auch Maxwell kann im DX12 Ökosystem von gewissen Eigenschaften der API profitieren. So zu tun dass Maxwell gar keine DX12 Karte ist stimmt einfach nicht.
Man sollte halt nicht nur auf die länger der größten Balken achten sondern auch was den minimalsten Wert angeht.

Es gibt auch keine Regel die vor paar Jahren vorgeschrieben wurde dass Hardware nur nach dem GCN Muster zu produzieren ist. Genau wie bei Konsolen kann jeder Hersteller einen anderen Weg gehen.
Sollte sich etwas langfristig bei Games durchsetzen ist es natürlich wünschenswert wenn es die Hardware dann kann.
Spätestens wenn Feature Level 12.1 mal zum Einsatz kommt muss man sehen wie die jetzigen AMD Karten damit umgehen.
Die Karte für alle Lebenslagen gibt es nicht. Es wird immer Games geben wo mal der Eine mehr gewinnt als der Andere.

Wichtig ist nur dass keine Spiele kommen wo eine Seite komplett einbricht obwohl es von der Rohleistung anders aussehen müsste.

Freuen wir uns doch wenn DX12/Vulkan bei jedem Hersteller normal performen.
 
Wird auch für DX12 super brauchbar sein. EIn Killer-Feature in DX12 gibt es nicht.
Etwas, das Spielehersteller unbedingt einsetzen müssten und dann sieht ihr Spiel gigantisch viel besser aus oder ist vielfach flüssiger.
Es sind einige Kleinigkeiten dabei die praktisch sind, aber bis die Spiele mal als Grundvoraussetzung haben ist seine Titan längst nicht mehr fähig flüssige FPS zu zaubern.
DX12 selber ist voll der Killer, in der Theorie.
Multithreading, bindless-resources, Rasterizer Ordered Views, Conservative Rasterization, Volume Tiled Resources usw.
Wenn es ordentliche Hardware und ordentliche Software gäbe, könnte man mit der API sicher wahnsinniges Zeug herstellen.

Nun, im Gegensatz zu allen derzeitig auf dem Markt befindlichen AMD Karten unterstützt die Titan alle DX12 Features funktional(!) vollständig. Und auch ohne Performancegewinn durch AC reicht mir die Performance in aller Regel durchaus, auch in DX12 und Vulkan Spielen....
smiley.gif
Die Kepler Titan unterstützt nicht einmal DX12 FL12.0
zunge.gif

Und auch die Titan X unterstützt nicht alle DX12 Features.

Der einzige Hersteller der glaube ich alles unterstützt ist ironischerweise Intel mit der Skylake Gen 9 iGPU.
Das lässt teilweise tief blicken.
s000.gif


Sie ist nicht gewahrt, weil im Test selbst steht, es wäre aktiv, was es hingegen nicht ist! Korrekt wäre eine deutliche Anzeige, dass der Test bei Maxwell eben ohne AC durchgeführt wurde, er somit als unmittelbarer Verlgeich der Karten unter DX 12 mit AC ungeeignet ist (das ist es nämlich, was hier behauuptet wird: DX 12 und AC an!). Eine nachvollziehbare Anzeige und der Test ist in Ordnung und auch fair. Maxwell hat halt keine Probleme mit der Auslastung. Aber der Test suggeriert fälschlicherweise, dass AC funktionieren würde, was allerdings garnicht der Fall ist. Es ist die dreiste Lüge, die mich daran stört, nicht, dass auf Maxwellkarten irgendwas nicht dargestellt werden kann (zumal es spezielle Treiber aktuell noch schaffen das zu umgehen, wie es in Zukunft damit aussieht, wird auch diese erst zeigen aber nach bisheriger Erfahrung mit der Unterstützung älterer GPUs im Treiber könnte man vielleicht etwas Bestimmtes erwarten...^^), sondern dass hier behauptet wird, es ginge, wobei es in Realität nur einfach nicht ausgeführt wird. Deshalb auch der Vergleich, dass ein angeblicher DX12_1 Test, der auf AMD nur 11_2 nutzt genauso verlogen wäre...
Sie ist gewahrt, ich verstehe nicht wieso es so schwer ist zu akzeptieren, dass die Multiengine-API der Hardware keine Vorschriften darüber macht und keine Anwendung vorschreiben kann wie etwas explizit ausgeführt werden soll?
Die Hardware unterstützt die API und verletzt keine Regeln.
Es nützt wirklich nichts sich am Begriff AC festzubeißen und wie es praktisch ausgeführt wird.
Was stellt man sich denn bei Maxwell mit AC on vor?

Maxwell berechnet das gleiche Zeug, wie alle anderen GPUs auch.
Und man muss sich nicht nur auf Maxwell versteifen, es ist auch Kepler und sollte man Intel ignorieren?
Intel kann auch nicht Compute und GFX-Queues parallel ausführen.
Intel hat wie die anderen auch eine DMA-Engine die man z.B. für Async Copy verwenden könnte, aber der Durchsatz des Hardwareblocks ist gering und für manche Kopiervorgänge verwendet Intel lieber die ALUs, womit das ganze dann aber auch nicht parallel abläuft, aber halt dennoch schneller, weil es auf diese Art besser ist.
Auch alles API konform und erlaubt, auch alles nicht 100% identisch zwischen jeder Hardware.
Auch ein Fall wo man keinen Elefanten in den Raum stellen sollte.

nVidia hat nie konkret versprochen, dass es einen Performancegewinn durch AC geben wird.
Das nicht, aber je nach Sichtweise kann man schon vorwerfen das es impliziert wurde.
Und allgemein kann man schon kritisieren, dass hier Nvidia keine transparente Auskunft gibt.
Es ist ja nur nur ein Thema für wahnsinnige User, sondern vor allem für Entwickler relevant und hier scheint es auch nicht die beste Kommunikation zu geben.
 
Zuletzt bearbeitet:
Alter , wie sie es nicht sein lassen können, wie Kinder.

Naja von mir aus macht was ihr wollt aber haut euch mit den Zitaten der anderen nicht laufend um die Ohren, kann ja kein Schwein mehr ohne Augen Flimmern lesen :heul: .



Mensch, Mensch wenn das hier so weiter geht muss ich wohl doch zu Matrox wechseln ;)
 
DX12 selber ist voll der Killer, in der Theorie.
Multithreading, bindless-resources, Rasterizer Ordered Views, Conservative Rasterization, Volume Tiled Resources usw.
Wenn es ordentliche Hardware und ordentliche Software gäbe, könnte man mit der API sicher wahnsinniges Zeug herstellen.
Entschuldige ich meinte FL12_0 und 12_1 statt 11_0, nicht DX12 per se.
Mir ist durchaus bewusst, welche Möglichkeiten DX12 hätte, ich hab aber eher (ich war im Gedanken schon wieder weiter) gemeint, dass FL 12_1 nicht so plötzlich die Grundvoraussetzung sein wird für die Hardware, weil es wenige Killer-Features gegenüber FL11_0 bietet.

Edit: erst jetzt seh' ich, dass es sowieso Blödsinn ist, was ich geschrieben hab: Maxwell 2.0 unterstützt eh FL12_1. Sry mein Fehler.
 
Es ist ja nur nur ein Thema, für wahnsinnige User, sondern auch für Entwickler entscheidend und hier scheint es auch nicht die beste Kommunikation zu geben.

Ja die AotS-Entwickler waren die ersten die ins offene Messer gerannt sind, weil sie einfach die ersten waren die AC in einem PC-Spiel einsetzten.

Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn’t really have Async Compute so I don’t know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don’t think it ended up being very significant. This isn’t a vendor specific path, as it’s responding to capabilities the driver reports.

[Various] Ashes of the Singularity DX12 Benchmarks - Page 121


Interessant was man sonst noch erfährt:

Often we get asked about fairness, that is, usually if in regards to treating Nvidia and AMD equally? Are we working closer with one vendor then another? The answer is that we have an open access policy. Our goal is to make our game run as fast as possible on everyone’s machine, regardless of what hardware our players have.

To this end, we have made our source code available to Microsoft, Nvidia, AMD and Intel for over a year. We have received a huge amount of feedback. For example, when Nvidia noticed that a specific shader was taking a particularly long time on their hardware, they offered an optimized shader that made things faster which we integrated into our code.

We only have two requirements for implementing vendor optimizations: We require that it not be a loss for other hardware implementations, and we require that it doesn’t move the engine architecture backward (that is, we are not jeopardizing the future for the present).

The Birth of a new API - Oxide Games


Hätte die meisten inkl. mir wohl auch nicht gedacht:

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)

Ein Musterbeispiel für Async Compute ist Ashes of the Singularity also offenbar auch nicht, da dürfte noch viel mehr Potential drin stecken.


Wer jetzt noch behauptet Oxid Games/AotS ist eine AMD PR/Vorzeige-Benchmark ist ein ignoranter Rotzlöffel.
 
Zuletzt bearbeitet von einem Moderator:
Entschuldige ich meinte FL12_0 und 12_1 statt 11_0, nicht DX12 per se.
Mir ist durchaus bewusst, welche Möglichkeiten DX12 hätte, ich hab aber eher (ich war im Gedanken schon wieder weiter) gemeint, dass FL 12_1 nicht so plötzlich die Grundvoraussetzung sein wird für die Hardware, weil es wenige Killer-Features gegenüber FL11_0 bietet.

Edit: erst jetzt seh' ich, dass es sowieso Blödsinn ist, was ich geschrieben hab: Maxwell 2.0 unterstützt eh FL12_1. Sry mein Fehler.
Der Sprung von 11.0 auf 12.1 wäre aber schon enorm, wenn man den (leider unrealistischen) Fall annimmt das die Hardware die Features effektiv implementiert und die Software davon auch breiten Gebrauch macht.
Mit 12.0/1 kann man bindless-resources verwenden und mit ROVs und Conservative Rasterization gibt es potentiell sehr viel Eye-Candy was bessere Transparenzen und Schatten und alles mögliche angeht.
Das wird leider noch sehr viele Jahre bezüglich FL12.1 dauern.
Die Konsolen können es nicht und leider ebenso wenig die neue Polaris Hardware von AMD und wenn Polaris dann noch in die Konsolen wandert hat man automatisch noch einen weiteren Zyklus wo die meisten Entwickler sich darum keine Gedanken machen werden.

Man muss aber natürlich keine Sprünge wie von FL11.0 auf FL12.0 machen, man kann ein niedrigeres FL verwenden und die Features voraussetzen die man auch wirklich braucht.
Forza Apex macht das z.B. sie verwenden FL11.0 und setzen zwingend Resource-Binding-Tier 2 voraus, so kann man noch GCN Gen 1 und Kepler unterstützen, aber die ältere Intel Hardware (HSW/BDW) fliegt raus.

Ja die AotS-Entwickler waren die ersten die ins offene Messer gerannt sind, weil sie einfach die ersten waren die AC in einem PC-Spiel einsetzten.
Wobei hier seine Ausführungen nicht ganz korrekt sind, der Treiber meldet dem Entwickler diesbezüglich nichts.
Leider hat auch Kollock nicht über alles eine Einsicht, z.B. scheint er sich nicht sicher zu sein, ob ein Treiber überhaupt die Sync-Points sieht.
Der Treiber muss es oder man könnte die Diskussion führen, ob dafür Windows und die Runtime verantwortlich ist?
Es wäre echt toll wenn jemand verlässliche Informationen zum Thema nennen könnte, one day.. maybe.

Hätte die meisten inkl. mir wohl auch nicht gedacht:
Das die Hardware-Hersteller Zugang zum Source-Code haben ist eine sehr tolle und mutige Sache.
Genau solche Optimierungen werden dann dadurch ermöglicht.

Ein Musterbeispiel für Async Compute ist Ashes of the Singularity also offenbar auch nicht, da dürfte noch viel mehr Potential drin stecken.
Das bezieht sich aber noch auf eine frühere Version vom Spiel, mittlerweile soll Ashes of the Singularity mehr von Async Compute Gebrauch machen.
Auch die ältere Beta-Version von Ashes of the Singularity unterstützte bereits Async Compute, hat davon laut Oxide aber kaum Gebrauch gemacht. Mittlerweile ist das der Fall und an- und abschalten lässt sich die Funktion auch: Perfekt für einen ersten Geschwindigkeitsvergleich.
Ashes of the Singularity DirectX-12-Leistungsexplosion - ComputerBase

Leider gibt es nicht soviel zum vergleichen, aber man hat zu Hitman Entwickler Aussagen und zu Ashes und Time Spy Benchmark-Ergebnisse.
Hitman 5-10% für Radeons. (Entwickleraussage auf der GDC)
Ashes of the Singularity so grob 6-12% (Avg. FPS von Tonga bis Fury X bei CB)
Und Time Spy 10-16% (Graphis Score bei CB von P10 bis Fury X)

Interessant wären Informationen zu Rise of the Tombraider, Forza, Quantum Break und paar weiteren Spielen.
 
Zuletzt bearbeitet:
Der Sprung von 11.0 auf 12.1 wäre aber schon enorm, wenn man den (leider unrealistischen) Fall annimmt das die Hardware die Features effektiv implementiert und die Software davon auch breiten Gebrauch macht.
Deshalb meine Andeutung, dass der Breitflächige Einsatz bzw die Vorraussetzung von FL12.1 so lange dauern würde, dass die Titan X sowieso schon für das meiste zu langsam sein wird.
Mit 12.0/1 kann man bindless-resources verwenden und mit ROVs und Conservative Rasterization gibt es potentiell sehr viel Eye-Candy was bessere Transparenzen und Schatten und alles mögliche angeht.
Das wird leider noch sehr viele Jahre bezüglich FL12.1 dauern.
Deshalb meine Andeutung, dass der Breitflächige Einsatz bzw die Vorraussetzung von FL12.1 so lange dauern würde, dass die Titan X sowieso schon für das meiste zu langsam sein wird.
Die Konsolen können es nicht und leider ebenso wenig die neue Polaris Hardware von AMD und wenn Polaris dann noch in die Konsolen wandert hat man automatisch noch einen weiteren Zyklus wo die meisten Entwickler sich darum keine Gedanken machen werden.
Es ist leider so zu befürchten. Sehr schade, dass man nach der an und für sich fortschrittlichen GCN Architektur Featuretechnisch mit Polaris nicht wieder ganz vorne mitspielt, Maxwell 2.0 unterstützt 12_1 ja schon seit 2 Jahren - und ja, das heißt leider auch, dass die "Neo" usw Konsolen dies nicht haben werden - ja und somit werden wir es, wie du schon sagst, flächendeckend erst mit dem nächsten Konsolenzyklus sehen.
 
Wer jetzt noch behauptet Oxid Games/AotS ist eine AMD PR/Vorzeige-Benchmark ist ein ignoranter Rotzlöffel.

Vor allem sind es unwichtige Dinge bzw spiele die kaum einer spielt. Das ist mal Fakt. Wenn wir mal ehrlich zu uns sind, werden wir merken das viele nur bei DX12 mitmischen weil es darum geht Nvidia eins auszuwischen. Das sollte grade der Community hier im Forum sehr gut gefallen. Aber davon ab, verstehe ich ehrlich gesagt nicht wie du erwarten kannst das sich hier auch nur EINER deine im beitrag auf englisch zitierten Infos wirklich liest oder gar übersetzt nur um dinge daraus zu lesen die er weder wissen will noch versteht.

90% der Community hier, mischt einzig und alleine nur mit weil sie eh nen Hass auf Nvidia haben und sich da richtig ausleben können jetzt. Die haben weder Ahnung von Grafik, noch von DX12 noch von sonstwas. In meinen Augen ist eine DX12 Diskussion auch vollkommen unwichtig, da sich DX 12 erstmal durchsetzen muss. Ich glaube nicht dran weil Windows 10 auch so seine schwierigkeiten hat, aber dann kommt eben Vulkan dran. Und selbst bei Vulkan macht Pascal ne gute Figur. Diese Diskussion würde ich verstehen wenn wir jetzt eine AMD Karte hätten die unter Vulkan / DX12 eine Pascal Karte platt macht, aber das haben wir nicht. Also bleibt doch nur Nvidia für die Spitze. Ob sie nun Kunden verarschen oder nicht, genau sowas bringt nunmal Marktanteile.
 
Vor allem sind es unwichtige Dinge bzw spiele die kaum einer spielt. Das ist mal Fakt. Wenn wir mal ehrlich zu uns sind, werden wir merken das viele nur bei DX12 mitmischen weil es darum geht Nvidia eins auszuwischen. Das sollte grade der Community hier im Forum sehr gut gefallen. Aber davon ab, verstehe ich ehrlich gesagt nicht wie du erwarten kannst das sich hier auch nur EINER deine im beitrag auf englisch zitierten Infos wirklich liest oder gar übersetzt nur um dinge daraus zu lesen die er weder wissen will noch versteht.

90% der Community hier, mischt einzig und alleine nur mit weil sie eh nen Hass auf Nvidia haben und sich da richtig ausleben können jetzt. Die haben weder Ahnung von Grafik, noch von DX12 noch von sonstwas. In meinen Augen ist eine DX12 Diskussion auch vollkommen unwichtig, da sich DX 12 erstmal durchsetzen muss. Ich glaube nicht dran weil Windows 10 auch so seine schwierigkeiten hat, aber dann kommt eben Vulkan dran. Und selbst bei Vulkan macht Pascal ne gute Figur. Diese Diskussion würde ich verstehen wenn wir jetzt eine AMD Karte hätten die unter Vulkan / DX12 eine Pascal Karte platt macht, aber das haben wir nicht. Also bleibt doch nur Nvidia für die Spitze. Ob sie nun Kunden verarschen oder nicht, genau sowas bringt nunmal Marktanteile.

Hass auf NVidia ? Warum ? Weil sie einfach gute arbeit abliefern und dabei nur ab und zu mal ihre Macht/Markt Situation ausnutzen oder mit ihrer Problem Kominikation unnötig Kunden Vergraulen :) (Speicher Gate).

Finde AMD da wirklich Kundenfreundlicher im Umgang mit Komunikation was Probleme angeht aber NVidia hassen ? NEIN !!!
 
FM tut ja so als ob Time Spy ein Blick in die Zukunft erlauben würde und man die Eignung von Karten unter DX12 "testen" könnte, das geht aber mit feature level 11.0 nur sehr bedingt und im Grundsatz unterliegt momentan jeder Benchmarkparcours diesem Problem. Man testest alte Spiele. Guckt man sich AoS, Hitman, Tomb Raider und Doom an, dann sieht man eine klare Tendenz welchen Hersteller man kaufen sollte. (Hinweis fängt mit A an)
 
Guckt man sich AoS, Hitman, Tomb Raider und Doom an, dann sieht man eine klare Tendenz welchen Hersteller man kaufen sollte. (Hinweis fängt mit A an)

Immer diese völlig falschen Relativitätsüberlegungen, geht mir langsam auf den Senkel. Daher mal eine Frage an jemand, der es partout nicht gebacken kriegt, zwischen relativer Leistung basierend auf mindestens einem Vergleich von Produkt A und Produkt N und der absoluten Leistung zu unterscheiden. Welche Grafikkarte soll ich mir kaufen, wenn ich in den von Dir genannten Titel auf einem 144Hz Monitor mit WQHD Auflösung die höchstmögliche Leistung unter DX12 erhalten möchte? Wenn Du diese Frage ehrlich beantwortet hast, dämmert Dir vielleicht auch, worauf ich hinaus will... Als kleine Hilfe kannst Du Dir ja diverse Benchmarks anschauen.
 
Zurück