Hallo OnePPT_X
und willkommen im Forum.
AMD und Nnvidia (und auch Intel) benutzen für ihre GPUs verschiedene Microarchitekturen.
Durch diese Unterschiede lassen sich Karten (anhand der Specs) aus unterschiedlichen Generationen nicht ohne weiteres miteinander vergleichen.
AMD bekommt seine Rohleistung eher durch eine große Anzahl kleiner Shadereinheiten auf engem Raum und mit weniger Takt.
Nvidia hingegen benutzt weniger Shadereinheiten auf größerer Fläche, die schneller Takten.
Andere Teile der GPU haben natürlich auch einen sehr großen Einfluss (Caches, Geometrie Prozessoren etc.) auf die letztendlich Leistung.
So hat dann aber eine gtx 1060 mit dem gp106 200mm² während die rx 480 mit Polaris 10 232mm² Diefläche besitzt.
Großer Unterschied in der Rohleistung, der Anzahl der Shadereinheiten und der Taktung, aber kleiner Unterschied in der Leistung und der DIE-Fläche.
Ein großer Kritikpunkt an den AMD GPUs, ist seit langer Zeit da Verhältnis von Rohleistung und realer Leistung.
Seit GCN wird darum gekämpft, alle vorhandenen Shadereinheiten möglichst effektiv auszulasten.
Damit haben die Karten insbesondere unter DX11 Probleme -> aus diesem Grund versucht AMD DX12 und insbesondere Vulkan zu pushen.
Wenn man sich an die Fury X zurückerinnert, dann brauchte man meist eine höhere Auflösung (1440p oder 4k) um auf eine ähnliche Leistung zu kommen.
Warum das aber genau so ist, weiß ich leider auch nicht.
Da hat es Verschiedene Theorien von Treiber über Sceduler bis Gameworks oder alles zusammen.
Grüße,
EyRaptor