AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern
Meinst du nicht dass die eingesetzten Transistoren für den höheren Takt den man sich versprochen hat, gar nicht viel gebracht haben?
Vega56/64 liegt in der Praxis bei etwa 1300 bis 1400 mhz, Polaris den man offenkundig nicht für höhere Taktraten optimiert hatte, liegt in der Praxis zwischen 1200 und 1450 Mhz je nach Referenz/Custom.
Die Taktraten haben sich kaum erhöht, im Gegensatz zu Nvidia.
Bei AMD gehen gerade so 1700Mhz, bei Nvidia 2100mhz, teilweise auch 2200mhz.
Meine GTX 1060 lief mit kaum höherem verbrauch stabil auf 2100mhz.
Ich meine vom derzeitigem Stand, dass die Effizienzverbesserungen bzw. die gewählte Spannung gar nicht gut genug ausfällt, um praktisch die höheren Taktraten vom Design ausfahren zu können.
Das ist bei Vega ein echtes Problem, ansonsten wären 15-30% mehr Takt im Schnitt möglich.
Gegenüber Fiji verwendet Vega insgesamt 40% mehr Transistoren, dabei gab AMD lediglich an, dass der größte Anteil davon in das Taktdesign gewandert ist.
Man wird nie erfahren wieviel HBM nun genau gebracht hatte, ich kann mir aber nicht vorstellen dass es mehr als 20 oder 30 Watt sind.
Mit GDDR5x und einem etwas weniger aggressiven clock hätte man das auch noch abfedern können.
10 Gbps sind das Minimum welches Micron offiziell ausliefert und AMD müsste 384-Bit verwenden für die gleiche Bandbreite, was mehr Strom und Platz verbrauchen würde.
Und langsamerer Speicher hätte zu einem noch größerem Interface geführt und damit auch einen größeren Chip oder zu weniger Bandbreite.
Von der Perf/Watt und Perf/mm² würde es immer einen Nachteil geben, die Gewichte wären nur je nachdem stärker verschoben.
Also bei Fiji hatte man doch auch das Frontend von Tonga übernommen und die Skalierung war zumindest noch eingermaßen.
20% mehr Rohleistung haben nur 9-10% mehr Leistung ergeben:
Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert (Seite 4) - ComputerBase
Bei Vega ist es relativ ähnlich, 14% mehr Rohleistung bedeuten nur ~6% mehr Leistung:
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase
Polaris hat 2304 Shader, Vega hat 4096, eine neue Architektur, ca 20% mehr Takt und liegt in Spielen trotz Roheistungverdopplung gerade mal etwas mehr als 50% schneller.
Das ist die schlechteste Skalierung nach oben die man seit Jahren produziert hat, wieso dann ein doppelter Polaris nicht die bessere Lösung gewesen wäre, erschließt sich mir nicht.
Bei CB ist eine RX 580 Nitro 2% schneller, als die Referenzvorgaben.
Eine Nitro OC scheint sich kaum zu unterscheiden, da im Vega Index die Nitro OC auch nur 2% schneller ist, als die Referenzvorgaben und die Nitro OC erreicht in vier Spielen häufig 1,4 Ghz:
AMD Radeon RX 580 & 570 von Asus bis Sapphire im Test (Seite 2) - ComputerBase
Bei Vega sind die Angaben leider gröber, im Schnitt sind es 1520 Mhz bei 19 Spielen, aber wenn man das spätere Asus Strix Review anschaut und Doom + TW3 + RotTR vergleicht, sind es dort ~ 1,430 Mhz.
Radeon RX Vega 64 Strix im Test: Asus Vorserie schlagt das Referenzdesign deutlich (Seite 2) - ComputerBase
Das existiert fast kein Taktgewinn gegenüber einer RX 580 Nitro.
Unter Doom ist die Vega 64 38% schneller, bei TW3 63% und bei RotTR 62%, bei ungefähr 80% mehr Rohleistung. (1080p)
Im Index sind es 48-53% Vorsprung für die RX Vega 64.
Aber die ganzen Features die bei Vega eingesetzt wurden, bringen stand jetzt eigentlich gar nichts.
Sie bringen etwas, Primitive Shader scheinen aber praktisch noch nicht zu existieren und irgendetwas beim Treiber scheint noch sehr unreif zu laufen.
Man kann sich den pro Takt-Vergleich von CB anschauen, eine Fury X ist bei AotS und Gears of War 4 6% schneller, wieso?
BF1 läuft aber satte 25% schneller pro Takt! Das ist ein Spiel wo 14% mehr CUs, nur 3% mehr Leistung bringen, dass heißt irgendetwas von der neuen Architektur schlägt bei dem Spiel kräftig durch.
Es ist auch nicht das einzige, Titanfall 2 läuft 24% schneller, hier skaliert aber die größere Anzahl an CUs 1zu1, aber der reine Zugewinn von der Architektur scheint geringer.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase
Bei so einer Varianz ist es für mich offensichtlich, dass Vega noch eine Menge Treiberpflege benötigt.
Vega hängt sowieso an der Bandbreite, etwas was man mit HBM eigentlich fixen wollte.
Weniger als Polaris 10, wenn man den OC-Ergebnissen von CB und anderen Webseiten vertrauen darf.
Bei der Vega 64 kommen von 16% mehr Bandbreite nur 3% mehr Leistung an.
Eine Vega 64 ist auch nur 11% (4K) schneller, als die Vega 56, trotzt 18% mehr Bandbreite und 14% mehr CUs + mehr Takt im Schnitt.
AMD scheint immer dem Konkurrenten mit der Hardware eine Generation vorraus zu sein, kann es aber nie umsetzen.
Gerade AMD müsste also für jetzt eine Architektur bauen die gut funktioniert.
Das heißt ohne diesen ganzen Schnickschnack der dann in ein paar Spielen mal relevant werden wird.
Pascal besitzt schon einige Features, welche Polaris fehlen, Vega geht "nur" einen halben Schritt weiter.
Eine Generation ist eine Definitionssache, aber ich würde es nicht als gewaltigen Fortschritt gegenüber Pascal definieren, Intel hat es schon als erster mit Gen9 umgesetzt und Volta wird in einigen Monaten sicherlich auch folgen.
Es stellt eine natürliche Entwicklung dar.
Weil sich jeder gefragt hatte wo die von AMD beworbene Effizienz hingekommen ist.
AMD verheizt es offensichtlich auf die ein oder andere Art.
Man schaue sich nur das Ranking von Polaris 10 GPUs an:
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/4/#abschnitt_performance_pro_watt
Da besitzt eine RX 480 eine 9% höhere Perf/Watt im Vergleich zur RX 580, eine RX 470 gar 23% gegenüber einer RX 570.
Das ist nur der Spielraum vom Power-Target und den eingestellten Taktraten und Spannungen.
AVFS wurde ja schon damals bei Carrizo eingesetzt und erhöhte da die Effizienz, aber ich kann diese thepretischen Effizienzgains auch wieder komplett mit hoher Spannung, zu hohem Takt etc. kaputt machen.
In der Theorie wie hier:
http://radeon.com/wp-content/uploads/2016/08/Polaris-Tech-Day-Architecture-Final-6.24.2016.pdf
Ändert nichts daran, dass AVFS die Effizienz erhöht und GCN Gen 2 das noch gar nicht implementiert hat.
Carrizo verwendet GCN Gen 3.
alles schön, aber ob es letztendlich auch etwas nutzt ist immer die Frage.
Ich habe Polaris aufgrund der ganzen Änderungen fest bei maximal 110 Watt TDP erwartet. So kann man sich irren.
Und ein Hawai @ 28nm war mit etwas engerem PT auch bei etwa 200 Watt bei RX 480 Leistung zu halten.
Ein Hawai @ 14nm FinFet wäre einem heutigen Polaris in kaum etwas nachgestanden und man hätte den Chip weiter für HPC anbieten können, mit besserer Effizienz.
Natürlich nützt es was, die Techniken sind nicht nur für PR-Bilder als Placebo eingebaut worden.
Die Effizienz kommt von der verbesserten Fertigung, den Verbesserungen bei der Architektur und der physischen Implementierung.
Wenn ich deiner Logik folgen würde, könnte ich theoretisch zu einem völlig unsinnigen Schluss kommen.
Z.B. hätte AMD einen Hawaii @ 14nm ungesund hochgedreht, um einen direkten Konkurrenten gegenüber einem Pascal-Modell zu stellen, dabei wäre die Perf/Watt gleich geblieben oder gar schlechter ausgefallen, da AMD den ganzen Effizienzgewinn der neuen Fertigung verheizt hätte.
Hierbei könnte ich die Behauptung aufstellen, dass 14nm sich gar nicht lohnen und teurer sind, hätte AMD lieber weiterhin 28nm verwendet und einen größeren Chip designed.
Oh das wäre vermutlich Fiji gewesen, der schlecht skaliert hat.
Hawaii @ 14nm wäre für HPC nur beschränkt interessant gewesen, weil die Steigerung relativ gering wäre und man den Overhead für die restlichen Märkte tragen müsste.
Und anstatt dort halbgar dazustehen, hat man mit Polaris 10 einen kleineren Chip entwickelt, der eine ähnliche Leistung bei anderen Anwendungen erreicht.
Nur weil etwas neu ist und mit neuen Funktionen und Features vollgestopft ist, muss es nicht besser sein.
Vega und Polaris waren überspitzt gesagt ziemliche Fails für die ganzen Änderungen die angeblich soviel bringen.
Nur ist es in dem Fall so oder findest du bei Polaris einen Haufen an Gründen, wieso die IP gegenüber der Älteren schlechter sein sollte?
Bei Vega sieht man dagegen offensichtlich, dass die Resultate sehr variieren können und AMD die neue Basis nicht fertig optimiert hat.
Der DSBR ist Stand jetzt völlig umsonst implementiert, 3% mehr Leistung/Effizienz im Schnitt, laut AMD. Peaks bis 8%.
Das lohnt doch einfach nicht. Der DSBR wurde auch bei Nvidia weit überschätzt. Die IPC, sofern man die bei Grafikkarten überhaupt bestimmen kann, stieg laut einschlägigen Tests bei gleichem Takt zu Fiji kaum bis gar nicht.
In wie fern lohnt sich ein Feature nicht, welches die Perf/watt um ~6% (10% peak) erhöht hat bei diesen Spielen?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60915&stc=1&d=1503391629
Hat das den Chip 6% größer gemacht?
Sehe ich nicht so, bei Pascal lässt sich mit 70% Power Target und Undervolting auf 0,9 Volt extrem viel rausholen.
Ich kann meine GTX 1080 bei gleichbleibender, sogar leicht höherer Leistung bei etwa 130 Watt betreiben.
AMD betreibt ihren Vega nicht mit zu hoher Spannung. Schlimm wird es erst bei + 50% PT und OC wo man dann bei 400 Watt herauskommt.
Aber es ist absolut üblich für Hawai, Fiji und Vega bei knapp 300 Watt rauszukommen.
Wenn die Performance gestimmt hätte, wäre das kein Problem gewesen.
Mit UV schafft man bei Vega 64 auch eine ~15-20% höhere Perf/Watt:
https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html
Wenn man das erste BIOS verwendet und den Eco-Mode im Treiber ausfällt, ist der Verbrauch auch viel geringer, für nur ein paar % Verlust.
Das verhält sich natürlich alles logisch, aber bei Vega bedeutet ein wenig Einschnitt, gleich viel Ersparnis.
Wieso AMD da überhaupt einen Turbo-Mode hat, der nur Strom zu sich zieht ohne etwas zu leisten, erschließt sich mir gar nicht.