AW: AMD: Navi für 2019 bestätigt, Markt wegen hoher Preise träge
Rede kein Unsinn, AMD hatte noch nie schwache Treiber! Was man aber AMD vorwerfen kann ist, dass es ein Mangel an fanatischen Fanboys ala Schaffe89 denen fehlte.
Nvidia ist immer wieder dadurch aufgefallen, durch Softwaremanipulation (Treiber, Benchmark) ihre Karten in ein besseres Licht zu rücken. Und jetzt haben sie Gameworks - die Effekte sind offensichtlich und trotzdem wird das noch bestritten? Und dabei ist Gameworks nicht nur proprietäre Technologie, sondern auch noch der Zugang von Nvidia zu den Entwicklerstudios. Prominentes Beispiel war Assassins Creed, bei dem der Entwickler den dx 10.1 support wieder zurückgezogen hat, weil AMD dadurch einen Vorteil bekommen hat.
Das nennt sich Gameworks Entwickler support von Nvidia und hat sich bis heute nicht geändert.
"Noch nie schwache Treiber!", fehlen da nicht noch einige Ausrufezeichen?
Like come on, während der ATI-Zeit gab es mehrere Treiberverarschungen (nicht nur von ATI natürlich), wo speziell für Anwendungen "optimiert" wurde, indem man bei der Texturfilterung gespart hat oder mit geringerer Präzision gerechnet.
Es gab Probleme mit VIA Chipsätzen, es gab getrennte Treiber pro Betriebssystem, wo neuere Windows-Versionen teils deutlich langsamer liefen.
Und als AMD übernommen hat, wurde es ja auch nicht urplötzlich besser, die selbe Basis und die selben Leute am Werk.
AMD liefert nach wie vor schwache OGL-Treiber für Windows aus, mit Bugs und schwacher Performance.
Die DX11-Treiber zeigen nach wie vor stellenweise höhere CPU-Kosten.
Fast jedes mal bei einem Megatreiber am Ende des Jahres gab es viele Problemen bei unterschiedlichen Leuten, mal funktionieren neue Funktionen wie Wattmann nicht sauber, mal hat man bugs beim aufwachen von Idle-Phasen oder falschen Taktfrequenzen bei 3D/Video-Last/idle.
Es gibt ständig known issues bei AMD, was natürlich völlig normal ist, weniger normal ist es, wenn sich Known Issues über mehrere Monate bei einem populären Spiel wie Overwatch ziehen bis sie gefixt werden.
ROCm und alles was dazu gehört, benötigt noch mehrere Jahre bis es ein gutes Niveau erreicht.
Nvidia hat es auch nicht selten mal "verkackt" und G-Sync-Probleme für Monate verschleppt, aber deswegen sieht das bei AMD nicht sauber aus.
Übrigens war Schaffe89 vor dem Polaris Launch 2016 noch Pro-AMD und hat nicht selten gegen Nvidia gewettert.
Nein fehlende Fanboys ist nicht das, was AMD fehlt(te).
GameWorks haut teils tendenziös rein, aber wie viele Spiele verwenden die problematischen Bibliotheken wie HairWorks/Turfs?
Weniger als 5, von tausenden von Spielen.
Wenn interessiert das und wer kauft sich deswegen Nvidia Hardware?
In den meisten Fällen wird HBAO+ verwendet und das ist performancetechnisch gleich unter den Herstellern, der Rest ist Krims Krams, der höher aufgebauscht wird, als er tatsächlich ist.
AC1 hat DX10.1 entfernt, aber wegen Nvidia?
Von mir aus ist das fishy, aber wenn ich eher von Manipulation ausgehen müsste, dann würde ich eher Crysis 2 und Batman nennen, wo schon deutlicher ein Bias zu erkennen ist, wo völliger Bullshit mit Tessellation betrieben wurde und das direkt von der Entwicklerseite kam.
DX10.1 wurde nicht beworben von Ubisoft und mit der Begründung herausgenommen, dass es Probleme mit der Implementierung gibt, die man erst lösen möchte und danach wieder veröffentlichen.
Das ist leider nicht geschehen, ob ein Anruf von Nvidia kam und man meinte, joa guys das nicht cool, macht mal bitte weg, dass kann jeder für sich entscheiden.
Es gab auch viele die sofort meinten das Ark keinen DX12-Pfad wegen Nvidia hat, nun den hat das Spiel bis Heute nicht und es ist völlig offensichtlich, wieso es den nicht hatte.
Oder Rise of the Tomb Raider, was später doch einen DX12-Pfad nachgepatched bekommen hat.
Oder DX12 Spiele, wo DX12 nur schlecht läuft wegen Nvidia, dann kamen AMD gesponserte Spiele wie Deus Ex: Mankind Divided oder Hitman 2016 die am Anfang genauso schlecht liefen.
Oder bei Project Cars war Nvidia Schuld, wobei man eindeutig gesehen hat, dass AMD völlig im CPU-Limit klebt und der Treiber dafür verantwortlich ist, später gab es noch AMD-Treiber mit teils 20% mehr Performance und das Spiel war seit mindestens 2012 im Early Access, also da kann AMD auch nicht behaupten, wir hatten keine Builds zum optimieren.
Nvidia hat nicht die Mittel jedes Studio zu bestechen und würden sie das tun, würde das auch offensichtlich rauskommen.
Again, die Dinge werden höher aufgebauscht, als sie tatsächlich sind.
Sicher gab es taktsteigernede Maßnahmen in der Architektur, das ein Großteil der Transistoren jedoch zur Bewerkstelligen von höheren Taktraten vorhanden ist stimmt halb schlicht nicht. Wenn das der Fall wäre würden 56er Chips die ja Teildefekte auch mitenhalten maßgeblich weniger Takt fahren können. Das ist aber schlicht nicht der Fall.
Der Hauptvorteil von Nvidia liegt im Treiber im Verbund mit dem Chip seit Maxwell in einem effizienten nicht berechnen von unnützer Geometrie. Das ist in meinen Augen der Knackpunkt der es den Chips ermöglicht deutlich höher zu takten.
Es hängt hauptsächlich vom Design ab und da gibt es keinen Unterschied zwischen 56 und 64, es ist der selbe Chip, nur einer ist ein wenig teildeaktiviert und anders sortiert.
Einen Ryzen 1600X bekommst du ja auch ungefähr auf 4Ghz und einen 1800X ähnlich hoch, +/- 200 Mhz, aber es bleibt bei grob 4Ghz.
Versuch mal einen Jaguar-Kern auf 4Ghz zu bringen, schaffst du nicht, weil die Pipeline viel zu kurz ist und das Design nicht darauf ausgelegt ist.
Bei Vega das selbe, AMD hat eine Menge Transistoren investiert, um das Taktniveau im Vergleich zu Polaris anzuheben.
Bei Nvidia liegt es mehr als nur am Tiled Cache Renderer, wieso das Design höher Takten kann, was Nvidia mit Pascal ebenfalls noch einmal verbessert hat und sicherlich auch ein paar Transistoren investiert, die Taktskalierung nach oben kam nicht nur von 16nm.
Es kommt stark darauf an, welche Logikblöcke und Signallaufzeiten im Chip den Takt beschränken, welche man dann modifizieren muss, um ein höheres Taktniveau zu erreichen und die Problemstellen könnten überall sein, bei den ALUs, den TMUs, ein paar Caches etc.
Jede Anwendung hat übrigens einen anderen Charakter in Bezug auf unsichtbare Geometrie und Overdraw und es gibt teils stärkere Taktunterschiede je nach Anwendung, aber weder Nvidia, noch AMD takten 400 Mhz je nach Spiel und 3D oder Compute-Last auseinander, was ein generelles Taktniveau widerspiegelt und keine spezifische Abhängigkeit, ob Tiled Rendering (effektiv) eingesetzt wird oder nicht.