AMD vs. Nvidia: Die GameWorks-Kontroverse

Der will den Firmen nicht allzu offen auf die Füße treten, mit einem NDA-Bruch hat das herzlich wenig zu tun.
 
Sorry, langsam aber sicher kann ich mir echt nicht mehr ansehen, was ich hier lese und wie einseitig hier immer Richtung der gleichen Firmen "gehetzt" wird.

Wie kann man eigentlich so naiv sein und glauben, das ein gewinnorientiertes, börsennotiertes Unternehmen wie AMD absolut immer in der Opferrolle ist und selbst nicht den geringsten Dreck am Stecken hat?

Egal um welches Thema es geht, in diesem Fall eben Gameworks, wird so getan als wäre es absolut außer Frage, dass der Marktfeind von AMD das absolute Böse ist.
Es wird immer alles dramatisiert und vom absolut schlimmsten Fall ausgegangen.

Dabei sieht man doch an vielen Beispielen deutlich, das auch AMD nicht in diese Engelsposition gehoben werden dürfte.

Grid Autosport: Grid Autosport im Mega-Test: Grafikkarten-Benchmarks und CPU-Kernskalierung [Test der Woche]

Man kann an den Benchmarks doch deutlich sehen, das AMD noch einiges bei ihren DX11 Treibern aufzuholen hat. Das man jetzt selbst eine völlig eigene Low Level APi anpreist mag zwar schön sein, ändert aber nichts an der Tatsache, das AMD nur begrenzte Ressourcen hat. Sprich das Treiberteam wird nicht unbedingt größer sondern muss sich gleichzeitig um mehr Baustellen kümmern. Da fällt es natürlich leicht so etwas wie Gameworks vors Loch zu schieben.

Mantle:
Mantle wurde von AMD als eine Low Level APi angekündigt, von der man behauptet hatte, sie wäre sehr leicht zu integrieren.
9 Monate später hat man gesehen wie leicht das war. BF4, das nie mit Mantle Out of the Box angekündigt wurde, sollte eine Update bekommen. Das zog sich dann bis Februar 2014, also mehrere Monate hin und erschien auch dann nur als Beta für ausgewählte Grafikkarten.
Bei Thief ein ähnliches Spiel und hier mmn sogar fataler. Thief war das erste Spiel, das mit Mantle (und True Audio) out of the Box angekündigt wurde. Daraus wurde nichts und der Patch kam dann einen Monat(?) später. Besonders fatal mmn deswegen weil es sich hier "nur" um ein Singleplayerspiel handelt, was die meisten nicht nochmal durchspielen werden, nur weil es jetzt Mantle hat. Aber das ist nur meine Meinung dazu.
Plants Versus Zombies Garden Warfare: Plants vs Zombies: Garden Warfare - Dank Frostbite hübsch und effizient - Techniktest mit Benchmarks
Während das Spiel mit DX11, grade in UHD, auf Nvidia Karten deutlich besser läuft - und das trotzt Engine von Dice, einem aktuellen AMD Partner - hat man "vergessen" eine IngameConsole einzubauen, mit der man auch Mantle messen könnte. Da frage ich mich an dieser Stelle wie AMD die eigenen Werte gebencht hat.
Star Swarm: Hier hat man einen eigenen Benchmark um die Überlegenheit von Mantle zu zeigen. Blöd nur das man dabei nicht zeigt, wie gut auch die DX11 Treiber laufen könnten.
Nvidia GeForce 337.50 im Test (Seite 3) - ComputerBase
Diagramm 3. Star Swarm.
Hier schafft der ältere DX 11 Treiber von Nvidia bereits 50% mehr als der DX11 Treiber von AMD. Als dann Nvidia seinen Wundertreiber veröffentlichte war man sogar deutlich(20%) über den Mantle Werten.
Nun kommen wir zum Testsystem. Zum Einsatz kommt ein i7-4770k@ Stock.
Da viele nun argumentieren möchten, das grade Mantle bei schlechterer CPU wieder aufholen dürfte:
1. Schaut euch aktuelle Beratungen an. Ich sehe nirgends, das eine deutlich schlechtere CPU empfohlen wird mit dem Hinweis das Mantle es schon richten wird. Es ist ja eben nicht so, das eine Person nur Mantle Spiele spielt und deshalb kann man auch nicht sagen "für Mantle riecht diese CPU und DX Spiele musst du dann eben mit weniger FPS spielen."
2. Bricht der AMD DX Treiber auch mit schwächerer CPU noch weiter ein und man bleibt hinter Nvidia.



Und so könnte ich noch einige Themen anschneiden, aber das würde am Ende zu weit führen.
Für mich zeigt sich hier deutlich das AMD mit ihrem Treiber einiges aufzuholen hat, was DX Overhead betrifft. Aber solang man Mantle als Allheilmittel verspricht und gleichzeitig gegen Gameworks wettern kann, wird da nicht viel passieren. Zudem erwarte ich da auch nicht viel, da die User, wie man bei diesem Thema ja deutlich sieht, unsinnigerweise ausschließlich hinter AMD stehen und gar nichts in deren Richtung fordern und gleichzeitig das Treiberteam von AMD nicht die Ressourcen dazu haben sollte sich darum zu kümmern.

Generell habe ich das Gefühl, das AMD sich beim nächsten angekündigten Titel mit Gameworks einfach zurücklehnen und das Treiberteam komplett in den Urlaub schicken könnte. Wenn dann jemand fragt warum das Spiel so schlecht auf AMD Karten läuft könnte man einfach sagen: "Gameworks" und 3/4 aus diesem Forum würde nicken und Hasstiraden über Nvidia verfassen.


Aber wie das eben so ist. "Wenn das Feindbild klar ist, hat der Tag Struktur." Komischerweise wird bei der Kritik an Gameworks fast immer der Spiele-Entwickler vergessen, der freiwillig Gameworks nutzt und sogar dafür bezahlt damit die AMD Karten in seinen Spielen dann angeblich schlechter laufen.


Ich würde mir wünschen, dass diverse Themen hier mal wieder etwas objektiver betrachtet werden würden. Ich persönlich habe auch meine Zweifel was Gameworks betrifft aber ich wenn man sich anschaut welche Formen die Anschuldigungen hier im Forum teilweise annehmen ist ein ernsthaftes Diskutieren der Sache gar nicht mehr möglich und das ist gefühlt leider bei vielen Themen in letzter Zeit so.

Ich erwarte auch nichts geringeres als den Scheiterhaufen für meinen Post. Sei's drum.




Du sprichst von direkter Schädigung am Kunden.
Dir ist aber auch bewusst, das der Titel ohne Gameworks gleichzeitig weniger graphische Effekte aufweisen würde oder?
Es ist ja nicht so als würde das Entwicklerstudio dann sagen, dass sie die Effekte selbst entwickeln und einbauen und deswegen der Marktstart des Titels verschoben wird.

Ich meine ich weiß ja nicht wie es dir geht, aber ich freue mich wenn ein aktueller Titel auch gut aussieht.
Wenn man hier einige Kommentare so liest könnte man denken das Gameworks eher so etwas wie ein Virus für AMD User ist.
Das es hier eigentlich um Effekte für das Spiel, durch welche das Spiel besser aussieht ist irgendwie auf der Strecke geblieben.

Am lustigsten fand ich auch den Posts eines anderen Users(das Zitat editier ich gleich noch).
Dort wurde gegen Gameworks Agrumentiert, am Beispiel Physx. Es würde ja auf AMD Karten schlechter laufen.
Komisch. Also soweit ich weiß laufen Physx Effekte entweder nur über die CPU oder über Nvidia Karte. Mir ist kein Physx bekannt, das von einer AMD Karte berechnet wird.
Wie soll Physx dann bitte auf einer AMD Karte langsamer laufen? Es läuft in dem Fall über die CPU und dann auch genauso langsam egal ob man eine AMD oder Nvidia Karte verwendet. Das liegt aber an der CPU und nicht an der AMD Karte.

Edit: Zitat gefunden:


Nochmal: Wie soll Physx auf AMD Karten möglichst ineffizient laufen, wenn Physx generell gar nicht - und das ist kein Geheimnis - auf AMD KArten läuft sondern in dem Fall über die CPU?

super Beitrag kann man da nur sagen. AMD ist selbst nicht in der Lage gescheite Treiber zubasteln dann beschuldigt man Nvidia.. Dann auch immer das Argument AMD würde nie teuere Preise machen wie Nvidia, was war dann mit der 7000er Reihe. Als Nvidia erst im März ihre GTX600 Reihe brachte verlangte AMD 550 Euro für 7970. Es wird Grundsätzlich so hingestellt als wenn AMD das gute in Person wäre und Nvidia das böse, egal was AMD auch macht sie sind nie selbst schuld.
AMD verwendet schon seit Jahren Gpus die deutlich höher am takt limit laufen wie Nvidia Karten oder sogar mit einen Übermode daher kommen. Wenn man jetzt aber Coustum gegen Coustom vergleicht heist es das ist ja Unfair schau dir mal die Takt raten an der Nvidia Karten an.
Über das Thema Gameworks braucht man gar nicht mehr reden seit den Grid Benchmarks, weil es nur noch lächerlich ist was AMd da behauptet. Ihrer DX Treiber sind einfach deutlich schlechter und nur unter Mantel schaffen sie es auszuschließen. Man braucht also eine komplette eigene Api um auf Nvida Werte zu kommen ,das ist doch schon ein Armutszeugnis wenn man mal bedenkt was man erwartet hat. Da war die Rede von 50% schneller minimum 30%, ja zu den Dx Treiben von AMD was aber keine Kunst ist.
Ich finde man merkt einfach das AMD frustriert ist, Cpu markt verloren im Gpu Markt hat man es bald mit wesentlich effizienteren Maxwell Karten zutun. Ich glaube nicht da AMD an die Leistung pro Watt aufschließen kann, weil der unterschied zu Kepler ist mehr als deutlich. Wenns dumm läuft verlieren sie noch mehr Boden und dann...
 
Der Unterschied zu Kepler liegt bei 10 bis maximal 20%. Es ist darüberhinaus interessant wie schnell Nvidias Thermi hier aus dem Gedächtnis gestrichen wurde - da war der Effizienzunterschied zur Evergreen-Familie Teils 50% und mehr zugunsten AMDs. Aber schon eine Generation später ist plötzlich jeder der Meinung Nvidia hätte die Effizienz erfunden und für sich gepachtet. Auch AMD pennt nicht und wird wohl noch dieses Jahr deutlich effizientere Chips vorstellen, die Gerüchteküche meldet ja immer wieder Häppchen über "Tonga" als neuen Mittelklassechip der neuen, effizienteren Generation.
 
Es ist darüberhinaus interessant wie schnell Nvidias Thermi hier aus dem Gedächtnis gestrichen wurde - da war der Effizienzunterschied zur Evergreen-Familie Teils 50% und mehr zugunsten AMDs.

Warum aus dem Gedächtnis gestrichen? Thermi war ein Ausrutscher, der nur den GF100 betraf, und den man bereits 6 Monate später in Form des GF110 korrigierte. Alle anderen Fermi GPUs waren schnell und (halbwegs) effizient.
 
Warum aus dem Gedächtnis gestrichen? Thermi war ein Ausrutscher, der nur den GF100 betraf, und den man bereits 6 Monate später in Form des GF110 korrigierte. Alle anderen Fermi GPUs waren schnell und (halbwegs) effizient.
GF110 war auch kaum effizienter. Nur der neue Gegespieler Cayman war auch schon weniger effizient als Cypress.
 
Das kann man sehen, wie man will. Bei gleicher Architektur 10% mehr Takt, ~15% mehr Leistung und etwas weniger Stromverbrauch sind mMn eine ordentliche Steigerung der Effizienz im Vergleich zum missratenen GF100.
Das ändert aber auch nichts daran, dass der Begriff Thermi nur für einen einzigen, sehr kurzlebigen Chip galt.;)
 
super Beitrag kann man da nur sagen. AMD ist selbst nicht in der Lage gescheite Treiber zubasteln dann beschuldigt man Nvidia.. Dann auch immer das Argument AMD würde nie teuere Preise machen wie Nvidia, was war dann mit der 7000er Reihe. Als Nvidia erst im März ihre GTX600 Reihe brachte verlangte AMD 550 Euro für 7970. Es wird Grundsätzlich so hingestellt als wenn AMD das gute in Person wäre und Nvidia das böse, egal was AMD auch macht sie sind nie selbst schuld.
AMD verwendet schon seit Jahren Gpus die deutlich höher am takt limit laufen wie Nvidia Karten oder sogar mit einen Übermode daher kommen. Wenn man jetzt aber Coustum gegen Coustom vergleicht heist es das ist ja Unfair schau dir mal die Takt raten an der Nvidia Karten an.
Über das Thema Gameworks braucht man gar nicht mehr reden seit den Grid Benchmarks, weil es nur noch lächerlich ist was AMd da behauptet. Ihrer DX Treiber sind einfach deutlich schlechter und nur unter Mantel schaffen sie es auszuschließen. Man braucht also eine komplette eigene Api um auf Nvida Werte zu kommen ,das ist doch schon ein Armutszeugnis wenn man mal bedenkt was man erwartet hat. Da war die Rede von 50% schneller minimum 30%, ja zu den Dx Treiben von AMD was aber keine Kunst ist.
Ich finde man merkt einfach das AMD frustriert ist, Cpu markt verloren im Gpu Markt hat man es bald mit wesentlich effizienteren Maxwell Karten zutun. Ich glaube nicht da AMD an die Leistung pro Watt aufschließen kann, weil der unterschied zu Kepler ist mehr als deutlich. Wenns dumm läuft verlieren sie noch mehr Boden und dann...

Du machst es dir deutlich zu leicht! So wie Cook meinte, Dass Fermi nur ein Ausrutscher war, meine ich halt jetzt, dass es bei Grid einer war.
Was viele mit Nvidia für ein Problem haben sieht man doch gut an dem Beispiel vom gerade getesteten Sniper Elite V3. Stimmige Grafik inklusive Tesselation (die den Nvidias besser liegt), aber in einem vernünftigen Maß. Keine Abstriche in der Grafikqualität und ausgewogene Leistung auf beiden Seiten. Das nennt man anständig Programmiert und optimiert. Genau das ist es aber, was Nvidia mit Gameworks eben nicht tut. Hier sollte es ebenso laufen, tut es aber nicht. Ist doch nur gut und recht, dass man da mal NAchfragt und sich von Nvidia verarscht fühlt, oder?
 
Keine Abstriche in der Grafikqualität und ausgewogene Leistung auf beiden Seiten. Das nennt man anständig Programmiert und optimiert. Genau das ist es aber, was Nvidia mit Gameworks eben nicht tut. Hier sollte es ebenso laufen, tut es aber nicht. Ist doch nur gut und recht, dass man da mal NAchfragt und sich von Nvidia verarscht fühlt, oder?

Also verhindert jetzt Gameswork definitiv und erwiesen das die Spiele auf AMD Karten vernuenftig laufen. Gameswork bremst AMD aus?

Oder verstehe ich deine Aussage schon wieder falsch? :)
 
Also verhindert jetzt Gameswork definitiv und erwiesen das die Spiele auf AMD Karten vernuenftig laufen. Gameswork bremst AMD aus?

Oder verstehe ich deine Aussage schon wieder falsch? :)
Du verstehst die Aussage falsch. mMn. Die Entwickler haben aber den meisten Einfluss auf die Optimierung, und wenn deren Zeitbegrenzt ist zu dieser, dann kommt dabei Grütze raus, die dann bestens ins Schema F der Fanboys passt um über den jeweils anderen Hersteller herzufallen.

AMD verwendet schon seit Jahren Gpus die deutlich höher am takt limit laufen wie Nvidia Karten oder sogar mit einen Übermode daher kommen. Wenn man jetzt aber Coustum gegen Coustom vergleicht heist es das ist ja Unfair schau dir mal die Takt raten an der Nvidia Karten an.
Tonga wirds nicht reißen, dafür scheint die Architektur zu nah an der jetzigen dran zu liegen und wird genauso wieder hochgeprügelt um die selbe oder bessere Leistung als Maxwell zu erreichen (AMD wäre schon vorgesprescht um die 750/750TI abzusägen hätten sie ein gleichwertiges Produkt um den Markt zu füllen - AMD wird getrieben und läßt die Grakapartner den Job machen durch überzüchten der Karten um auf Konkurrenzfähige Leistung zu kommen). Die 280X und 290X kommen mit mehr Units daher als die CUDA basierte Architektur der GTX770er 780er und sind bei dem Mehr nur in der Lage die selbe Leistung zu bringen.
 
Es ist leichter für einen Entwickler die Schuld einem anderen zu geben, man hindere ihn, als selber die Arbeit zu machen und die eigenen Treiber ordentlich zu programmieren. Oder allgemein die eigens verwendete Software, um diese auf den eigenen Grafikkarten Produkten lauffähig zu machen. Dasselbe bei der GPU Architektur. Andere Partner die Arbeit machen zu lassen und sich dann auf deren Loorbeeren auszuruhen ist auch nicht das gelbe vom Ei. Ich hoffe, dass AMD es schafft eine effizientere Architektur zu machen, die Maxwell Konkurenz bietet - oder diesen sogar überflügelt.
Ich enthalte mich hierzu zu diesen Behauptungen gegen NV. Wenn AMD Mantle nicht richtig zum laufen kriegen kann werden sie weiterhin gegen NV wettern ob berechtigt, oder unberechtigt. Weder AMD noch NV sind die Engel, eher haben beide Dreck am Stecken. In diesem Fall sieht sich AMD in der Opferposition und beschuldigt NV.
 
Tonga wirds nicht reißen, dafür scheint die Architektur zu nah an der jetzigen dran zu liegen und wird genauso wieder hochgeprügelt um die selbe oder bessere Leistung als Maxwell zu erreichen (AMD wäre schon vorgesprescht um die 750/750TI abzusägen hätten sie ein gleichwertiges Produkt um den Markt zu füllen - AMD wird getrieben und läßt die Grakapartner den Job machen durch überzüchten der Karten um auf Konkurrenzfähige Leistung zu kommen). Die 280X und 290X kommen mit mehr Units daher als die CUDA basierte Architektur der GTX770er 780er und sind bei dem Mehr nur in der Lage die selbe Leistung zu bringen.

Du bist ja offenbar ein großer Experte (und darüber hinaus hellseherisch begabt), dass du nicht nur weißt wie ähnlich Tonga zu Tahiti und Hawaii ist, sondern sogar dass er mit hohen Spannungen und Taktraten laufen müssen wird.

Und wie immer ist das Zählen der Rechenwerke zwischen Chips verschiedener Architekturen und verschiedener Hersteller sinnlos. Da ein "CUDA-core" und ein "GCN-SP" unterschiedlich organisiert sind, sagt die reine Anzahl nichts über die Leistungsfähigkeit der Architektur aus. Wenn man die Effizienz der Architektur an sich bewerten will, muss man betrachten, wie viele Transistoren in einem Chip mit dieser Architektur gebraucht werden, um eine Leistung X zu erreichen. Wenn wir GK110 und Hawaii vergleichen, stehen 7,1 Mrd Transistoren bei big Kepler gegenüber 6,2 Mrd Transistoren bei Hawaii (in einem Kepler-Cuda-core sind daher auch mehr -Transistoren als in einem GCN-SP, was die nicht-Vergleichbarkeit noch einmal unterstreicht), also etwa 16% mehr im GK110. Taktnormiert ist ein GK110 im Vollausbau aber keine 16% schneller als ein Hawaii im Vollausbau (siehe PCGH-Performanceindex für Grafikkarten in der aktuellen Ausgabe - die Titan Black ist taktnormiert im PCGH-Benchmarkparcours 6% schneller als die 290X). Es ist also festzuhalten, das die Kepler-Architektur nicht mehr Leistung aus der gleichen Anzahl Transistoren wie GCN herausholt, die Architektur ist nicht effizienter.
Wenn man zur Double Precision Performance schielt, ist GCN sogar deutlich überlegen, mit einer DP:SP-Rate von 1:2 gegenüber 1:3 bei Kepler; trotz weniger Transistoren, trotz kleinerem Chip.
Mit Maxwell wird Nvidia hier wieder einiges aufholen, aber Maxwell bekommt es ebenfalls mit einer verbesserten GCN-Architektur zu tun, ob sie nun "GCN 2.0" oder "Hans Dieter" heißen mag. Ein architekturelle Überlegenheit Nvidias ist zum jetzigen Zeitpunkt also einfach nicht gegeben, und es ist albern Maxwell schon jetzt in den Himmel zu heben, wenn sein Gegespieler noch nicht einmal enthüllt wurde.
 
Du bist ja offenbar ein großer Experte (und darüber hinaus hellseherisch begabt), dass du nicht nur weißt wie ähnlich Tonga zu Tahiti und Hawaii ist, sondern sogar dass er mit hohen Spannungen und Taktraten laufen müssen wird. ... Ein architekturelle Überlegenheit Nvidias ist zum jetzigen Zeitpunkt also einfach nicht gegeben, und es ist albern Maxwell schon jetzt in den Himmel zu heben, wenn sein Gegespieler noch nicht einmal enthüllt wurde.
Ich schrieb mir scheint - Konjunktiv. AMD hat seit langem nicht mehr vorgelegt, sondern sie ziehen nach was NV vorgibt. Genauso scheint es mir wird es mit dem Nachfolger von Hawai laufen. Wie das erreicht wird, ist mir Hubba Bubba - vielmehr ist es doch erfreulich, dass beide Leistungsmäßig gleich kommen und wenn dann um den Preis gekämpft wird - profit für uns als Kunden. Allerdings wenn der Hawaii Nachfolger gut wäre, wäre er eben schon als ein Maxwell Konkurrent da. Die Frage ist eher warum wurde der Gegenspieler noch nicht enthüllt? Ich lob Maxwell nicht in den Himmel, vielmehr mißbillige ich sogar die Umsetzung bei den 750ern kein SLI zu erlauben, nur um die eigenen 760er/770er/780er zu schützen.

Und wie immer ist das Zählen der Rechenwerke zwischen Chips verschiedener Architekturen und verschiedener Hersteller sinnlos.
Joa ist es hindert dich aber nicht an, dem Vergleich der Transistorenanzahl wa?

Wenn man die Effizienz der Architektur an sich bewerten will, muss man betrachten, wie viele Transistoren in einem Chip mit dieser Architektur gebraucht werden, um eine Leistung X zu erreichen. Wenn wir GK110 und Hawaii vergleichen, stehen 7,1 Mrd Transistoren bei big Kepler gegenüber 6,2 Mrd Transistoren bei Hawaii (in einem Kepler-Cuda-core sind daher auch mehr -Transistoren als in einem GCN-SP, was die nicht-Vergleichbarkeit noch einmal unterstreicht), also etwa 16% mehr im GK110
Bezieh mal die Fläche ein. AMD liegt mit mehr ShaderEinheiten SMID Einheiten und Raster-Endstufen auf kleinerer Fläche vorn obgleich NV mehr Textureinheiten hat. 12.9Mio/mm² Transistoren pro mm² bei 7.100/550mm² Chips von NV vs. AMD 6.200/438mm²=14,15Mio/mm. Wenn NV pro mm² genausoviele Transistoren hättet, würde sich da nicht etwas verschieben? Wird aber eben der Architektur nach nicht möglich sein genausoviele Transistoren auf die selbe Chipfläche zu bekommen.
 
da wird man ganz wirre wenn man hier alles durchliest!

Mein Fazit : 2 Gpu Hersteller sind zu wenig . Beide Hersteller sind zu Gierig.


Stellt euch mal Vor wir hätten nur 2 Auto Hersteller :-) Wird ja gar nicht gehen ,. :D:D
 
da wird man ganz wirre wenn man hier alles durchliest!

Mein Fazit : 2 Gpu Hersteller sind zu wenig . Beide Hersteller sind zu Gierig.


Stellt euch mal Vor wir hätten nur 2 Auto Hersteller :-) Wird ja gar nicht gehen ,. :D:D
Was dabei rauskommt wenn es nur zwei Konkurrenten gibt ist gut zu sehen und historisch aufgearbeitet bei der Elektrifizierung der USA Gleichstrom vs Wechselstrom Netz. Und genauso unfair wie die damals gegen die Konkurrenz gewettert haben mit elektrischem Stuhl als Randnotiz des Eklat, geht es halt auch zwischen AMD und NV zu.
 
Was dabei rauskommt wenn es nur zwei Konkurrenten gibt ist gut zu sehen und historisch aufgearbeitet bei der Elektrifizierung der USA Gleichstrom vs Wechselstrom Netz. Und genauso unfair wie die damals gegen die Konkurrenz gewettert haben mit elektrischem Stuhl als Randnotiz des Eklat, geht es halt auch zwischen AMD und NV zu.

Es ist schon ein Monopol wo die beiden sich abhalten .
Dabei sollte man auch sagen das beide Hersteller über leichen gehen würden .
Da ist keiner besser wie der andere .
 
Ich schrieb mir scheint - Konjunktiv. AMD hat seit langem nicht mehr vorgelegt, sondern sie ziehen nach was NV vorgibt.

Das ist auch falsch. AMD war mit der 65nm-Fertigung, der 55nm-Fertigung, der 40nm-Fertigung und DX11-fähigen Karten vor Nvidia, ebenso mit 28nm und DX11.1/11.2. In dieser Generation, Kepler vs. Southern Islands, ist Nvidia auch zum ersten Mal seit Jahren energieeffizienter als AMD/Ati. Die nächste Runde ist noch nicht entschieden, weder wer als erstes auf 20nm wechselt (was wohl sowieso nicht vor 2015, und damit erst mit den nächsten Refresh-Karten fällig wird), noch wer den effizienteren oder schnelleren Chip haben wird.

Übrigens ist diese Diskussion im Grafikkartenforum, zb. dem Maxwell-Thread, besser aufgehoben...
 
Zuletzt bearbeitet:
Wieso überhaupt diskutieren nach Grid? AMD würde wohl schlecht zugeben ja wir haben schlechte Treiber und haben keine Ahnung wie Nvidia so einen Vorsprung erreichen konnte.
Ich wette auch das Grid nicht das letze Beispiel sein wird. Weil was sollen sie auch sonst sagen, Angriff ist ja bekanntlich die beste Verteidigung. Wie erklärt AMd den massiven unterschied jetzt in Grid wahrscheinlich gar nicht.
 
Zurück