AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Ja, aber jeder halb normale Mensch versteht das als Stichelei und nicht als aussage seitens AMD das Vega schneller ist als Volta. Sonst müsste auf dem Aufkleber ja Vega stehen. Dieser Hype ist in den Foren entstanden und nicht durch AMD.
Vielleicht wird Navi ja schneller als Volta weiss man es?Nö.

Ist alles eine Sache de Betrachtungswinkels

Und was bitte für ein Ende der Geschichte meinst Du?

Oha....Du bist der Alpha Fanboy :hail:
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Das mag aus Gamersicht richtig sein, aber VEGA ist nicht nur für Gamer. Ich denke nichtmal, daß die Leistung einer 1080ti bei Spielen das Ziel der VEGA-Entwicklung war.

AMD entwickelt keine Architektur in 3 Jahren nur am Ende zu sagen, daß die Leistung mies ist und sie es mit der nächsten Generation wieder versuchen. Die Intention dahinter liegt in einer komplett neuen Plattform, die eben noch keine (sichtbaren) Früchte trägt. Insofern warte ich einfach ab und schau erstmal, was bei den APUs rauskommt. Dann wird die nächste Iteration von VEGA interessant.
Dafür das Vega (10) nicht für Gamer ist, hat AMD ironischerweise aber ein Großteil der Änderungen für dieses Segment investiert.
An Vega hat AMD laut eigener Aussage ~5 Jahre gearbeitet.

Nein, Ziel war es AMDs GPUs wieder in die Rechen-, bzw. Datenzentren zu bekommen und auch ne konkurrenzfähige Karte im Gamingsektor zu haben. Im Enterprisebereich ist AMD kaum noch existent und wäre ein Wachstumsgeschäft. Außerdem soll VEGA dank IF mit EPYC zusammenarbeiten und als Cluster von mehreren GPUs besser skalieren. Der Gamermarkt ist eher ein UND-Geschäft.

Diese Aussage verstehe ich zu diesem Zeitpunkt überhaupt nicht. VEGA ist doch gerade erst angelaufen, es sind kaum Profikarten auf dem Markt, APUs fehlen und die RX sind erst seit einer Woche da.
Vega 10 hat aber keine ECC-Bits bei seinem SRAM-Strukturen, es hat keine hohe FP64-Rate, auch kein xGMI für höhere Bandbreiten im Verbund mit EPYC.
Genauso so sieht ein Produkt aus, welches "nur" gewisse Marktsegmente bedient und nicht alle gleichzeitig.
Aus meiner Sicht gibt es wenig "Ausreden" für Vega 10.
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Skeptisch wurde ich bei Vega, als die ersten News andeuteten dass Vega vom Aufbau her sehr ähnlich zu Fiji ist.
Damals hatte ich aber noch die Hoffnungen das die vielen neuen Features es raus reißen werden, wie HBCC, Draw Stream Binning Rasterizer, Primitive Shader, u.s.w.
Die letzten Vergleiche zeigen aber im Vergleich mit Fiji kaum wirklich Verbesserungen, selbst die IPC ist nur minimal höher, als ob AMD viele der neuen Features kaum optimiert hat.
Viel Potential sehe ich immer noch. Aber ob AMD das noch umsetzen kann, da bin ich jetzt sehr skeptisch.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Vega :what:....der Drops ist gelutscht :nene:
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Dafür das Vega (10) nicht für Gamer ist, hat AMD ironischerweise aber ein Großteil der Änderungen für dieses Segment investiert.
An Vega hat AMD laut eigener Aussage ~5 Jahre gearbeitet.
Hmm, HBCC, primitive Shader, IF und rapid packed Math sind eher Workstation bzw. Serverfeatures. Wenn auch teilweise Games davon profitieren werden. Bleibt der Renderer, aber davon hab ich zu wenig Ahnung.

Vega10 ist primär für KI, Virtualizierung und HPC, trotz niedriger FP64-Werte Also versucht AMD im nVidia Territorium zu wildern.

It’s their flagship consumer GPU, but it’s also their flagship professional GPU, and it’s their flagship server GPU. This goes for both deep learning (Vega Instinct) and potential other future server products, such as virtualization cards. As AMD likes to boast, they had to do it all with one chip rather than NVIDIA’s hyper-segmented stack. Of course the reality is that AMD doesn’t have the resources to mirror NVIDIA’s efforts 1-to-1, so it means they have to be smarter about what they do in order to make the most of Vega 10. (1)

Vega 10 hat aber keine ECC-Bits bei seinem SRAM-Strukturen, es hat keine hohe FP64-Rate, auch kein xGMI für höhere Bandbreiten im Verbund mit EPYC.
Genauso so sieht ein Produkt aus, welches "nur" gewisse Marktsegmente bedient und nicht alle gleichzeitig.
Aus meiner Sicht gibt es wenig "Ausreden" für Vega 10.
Stimmt, sie haben ECC auf CU-Ebene nicht implementiert. Allerdings hat HBM dieses Feature automatisch. (1) Ich schätze mal, das ist im KI-Bereich von höherer Bedeutung. Vielleicht hätte das den Chip einfach nur noch aufwendiger bzw. komplexer gemacht.

Ich suche keine Ausreden für irgendwas. Ich sagte ja schon vor ein paar Tagen, die Gamingleistung ist halt nicht besonders. Allerdings gibt es dafür Gründe und ist nicht einfach nur "Pech".

(1) Vega 10: Fiji of the Stars - The AMD Radeon RX Vega 64 & RX Vega 56 Review: Vega Burning Bright
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Really AMD? Muss man sich das mit Hbm so schwer machen oder isses einfach nichts für den Massenmarkt.

Es wurde von Kritikern immerschon gesagt dass HBM² AMD das Genick bricht.
Ich persönlich kapiere nicht wieso sie sich das antun und die Produktionskosten dermaßen erhöhen um ein paar mm² einsparen zu können.
So wie das aussieht hat HBM² beim Stromverbrauch sogut wie nichts eingespart. Schaut man sich einen Polaris und Vega an, dann ist Vega trotz HBM2 nicht effizienter.
Ein doppelter Polaris wäre in allen Belangen besser gewesen. 5120 Shader ~1000mhz Takt und 250 Watt TDP wären drinngewesen inkl. GDDR5x. und einem 320er SI.

Er hat nach einer Quelle für Gaminkarten mit Volta-GPU gefragt.

Das sind Gamingkarten. GV100 wird schon lange produziert.

Machen sie aber nicht, GV100 ist nichts für Gamingkarten...

Ist ja auch nicht GV100 über den in der News dort gesprochen wird.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Es wurde von Kritikern immerschon gesagt dass HBM² AMD das Genick bricht.
Ich persönlich kapiere nicht wieso sie sich das antun und die Produktionskosten dermaßen erhöhen um ein paar mm² einsparen zu können.
So wie das aussieht hat HBM² beim Stromverbrauch sogut wie nichts eingespart. Schaut man sich einen Polaris und Vega an, dann ist Vega trotz HBM2 nicht effizienter.
Ein Vega mit Standard-GDDR hätte noch mehr verbraucht und die Effizienz wäre vollends ins Bodenlose gesunken.
Technisch ist HBM ja eigentlich die Zukunft, nur hat die Technik den Laborzustand zu früh verlassen.:schief:
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Viel früher wird sich das nicht ausgehen, NVIDIA wird für "Gaming-Volta" auf 10nm Bulk setzen müßen.

AMD könnte so gegen Ende 2018 schon mit den ersten 7nm GPUs auf dem Markt sein.
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Nvidia bringt alle 2 Jahre neue Chips.
Einzig der Abstand zwischen Kepler und Maxwell war etwas größer.
Als Überbrückung gabe es da aber den Kepler Refresh.
Und da es keinen Pascal Refresh offiziell gab, bis auf die 1060/1080 mit schnelleren Speicher, wird der auch nicht mehr kommen, sondern Anfang 2018 GV 104/106.
Das passt dann auch zum Produktzyklus den Nvidia seit langer Zeit hat, selbst ohne große Konkurrenz.

Und das es keine Infos zu den Gaming-Voltas gibt, ist bei Nvidia auch ganz normal, wenn man sich die Generationswechsel davor ansieht.
Die werden mit Sicherheit nicht auf AMD Rücksicht nehmen, und plötzlich einen deutlich längeren Produktzyklus machen.
Pascal hat sich gut verkauft, aber der Markt ist hier schon sehr gesättigt.
Nur neue und schnellere GPUs würden den Markt wieder beleben.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Hmm, HBCC, primitive Shader, IF und rapid packed Math sind eher Workstation bzw. Serverfeatures. Wenn auch teilweise Games davon profitieren werden. Bleibt der Renderer, aber davon hab ich zu wenig Ahnung.
Man muss natürlich alles relativ sehen, jedes Feature verbraucht die-space, verkompliziert das Design oder kostet möglicherweise Energie im Unterhalt.
Für Spiele stellt sich die Frage, welche der neuen Features sind dafür zu Gebrauchen und wie groß fällt die Überscheidung aus?
Bei Vega sind fast alle neuen Features auch zu einem gewissen Rahmen, auch für Spiele nützlich.

- Der HBCC kann für Spiele zum Einsatz kommen, AMD hat sogar anhand von Spielen ein Teil der Fähigkeiten demonstriert und nach drei Tests haben wir gemischte Resultate, mit Vor- und Nachteilen, je nach Spiel.
- Primitive Shader überschneiden sich absolut mit Spielen, da 99% der Spiele mit Primitives aufgebaut werden.
- Packed Math lässt sich an mehreren Ecken für Spiele einsetzen und Sony hat es auf Wunsch in der PS4 Pro implementiert, für den PC erscheinen auch in naher Zukunft Wolfenstein II und Far Cry 5 mit RPM.
- Zusätzlich gibt es den DSBR, wo Rendering-Arbeit mit hohem Overdraw profitiert, seien es Spiele oder professionelle Anwendungen.
- Das AMD die ROPs direkt an den L2$ angeschlossen hat, um bei Render-to-Texture-Operationen seltener die Caches leeren zu müssen, kommt primär Spielen zu Gute.
- Allgemein hat AMD mit Vega praktisch die ganze DX12 Spezifikation umgesetzt, Hauptnutzer davon sind auch Spiele, auch wenn Workstation Apps von ein paar Features ebenso profitieren könnten.

Mit der Virtualisierung und den Sicherheitsfunktionen können Konsumspiele nichts anfangen, aber ansonsten gibt es fast überall gewisse Überschneidungen, in Bezug auf Spiele, andersherum allerdings deutlich weniger.

Vega10 ist primär für KI, Virtualizierung und HPC, trotz niedriger FP64-Werte Also versucht AMD im nVidia Territorium zu wildern.
Hier kommen die Relationen ins Spiel, wie viel kostet welches Feature und wie groß sollten wir das Fass aufmachen oder damit das schlechte Abschneiden erklären können?
Jeder Pascal kann auch einen 49-Bit großen Adressraum adressieren und besitzt eine Page Migration Engine, welche Pages mit bis zu 2MB Größe unterstützt und Pages on demand holen kann.
Was Pascal fehlt sind Access Counter und vermutlich dazugehörend eine Historie, wie oft welche Pages angefordert werden und vorgehalten werden müssen, dass beherrscht vermutlich der HBCC von AMD.
Aber es ist nicht so, als ob bei Nvidia eine Hinterwälder-Lösung im Vergleich verbaut hat und der HBCC bei AMD für's nichts tun zusätzlich 50mm² Platz verbraucht und 50W Strom zu sich nimmt.

Was GP106-102 fehlt ist Packed-Math, dafür zahlt AMD einen gewissen Anteil an Overhead bei den NCUs.
Wie viel? Das ist eine gute Frage, übermäßig würde ich das allerdings nicht einschätzen, da die zusätzliche Komplexität sich in Grenzen hält.
Ansonsten fehlen Vega 10 wie gesagt die ECC-Bits beim SRAM, er hat keine FP64-Schaltungen für eine hohe Leistung, welche die Komplexität stärker erhöhen, da eine höhere Präzision bei Multipliern unweigerlich viel kostet.
Ein NVLINK-Äquivalent wird auch nicht verbaut.

Wenn man es so nimmt, dann ist die Situation auch nicht großartig anders, als damals zu Tahiti/Hawaii-Zeiten.
Tahiti bot eine relativ hohe FP64-Leistung (1:4), die kleineren Kepler-GPUs gar nicht (1:24).
Hawaii war der FP64-Champ und bot die ECC-Bits, deswegen musste sich die GPUs aber nicht mit deutlich kleineren Geforce-GPUs prügeln und gleichzeitig 100W mehr verbrauchen.

Stimmt, sie haben ECC auf CU-Ebene nicht implementiert. Allerdings hat HBM dieses Feature automatisch. (1) Ich schätze mal, das ist im KI-Bereich von höherer Bedeutung. Vielleicht hätte das den Chip einfach nur noch aufwendiger bzw. komplexer gemacht.
Die ECC-Bits hätten natürlich etwas Fläche und Energieeffiienz gekostet.
Beim HBM hilft ECC dann natürlich nur bei möglichen Fehlern, welchen den DRAM betreffen, nicht die GPU und ECC ist auch unter HBM ein optionales Feature, wobei ich nicht weiß, ob AMD die RX Vegas mit ECC Stacks ausliefert.
Das hätte aber auch kaum Auswirkungen gehabt, bei HBM senkt ECC nicht die effektive Bandbreite und Kapazität und selbst wenn die Energieeffizienz ein paar % leidet, so wäre der Speicher dennoch viel effizienter gegenüber einer GDDR5-Lösung.

Ich suche keine Ausreden für irgendwas. Ich sagte ja schon vor ein paar Tagen, die Gamingleistung ist halt nicht besonders. Allerdings gibt es dafür Gründe und ist nicht einfach nur "Pech".
Es hat Gründe, aber in meinen Augen haben diese wenig damit zu tun, was Vega 10 gegenüber Pascal auf den Tisch legt, was die Features anbelangt.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Und wie Sie alle die Meinung aufgenommen haben, was die VEGA 64 doch für eine schlechte Karte ist..
es erinnert mich an Juni 2015 - noch gar nicht lange her - die FuryX erblickt das Licht der Welt und kann sich teils nur 15% von einer 290X absetzen. Stromfressendes Monster, bringt die Leistung nicht auf die Straße, hieß es schon damals..

Ich habe Sie gekauft - alle- und konnte glücklicherweise die Regler ingame bedienen. Post Processing - Tesselation - zweimal ein Stück nach Links verschoben und ab ging die Post.
In Kombination mit einem 4K FreeSync, dem Frame Rate Target Control und heute Radeon Chill - habe ich immer meinem Spaß gehabt. Vllt nie am Zenit der High-FPS, aber absoluter Spaß!
Die FuryX ist der 1070 bis heute dicht auf den Fersen - mit meinem Bios (1150/666MHZ und 682GB/s) vermutlich auf Augenhöhe - jaa - diese olle, drecks, FuryX von Mitte 2015. Sicherlich das interessanteste Drecksstück von Hardware welches sich in meinem Besitz findet. (okay, meine full-copper 1900GT ist auch geil^^)

Heute fühlt es sich genauso an wie vor zwei Jahren.. macht mal euer Ding..
Ich find einfach das ist eine geile GPU und HBCC ein Geschenk des VRAM-Gottes ;)

Witcher 3 4K on RX VEGA 64 - YouTube
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

[...]
So wie das aussieht hat HBM² beim Stromverbrauch sogut wie nichts eingespart. Schaut man sich einen Polaris und Vega an, dann ist Vega trotz HBM2 nicht effizienter.
Ein doppelter Polaris wäre in allen Belangen besser gewesen. 5120 Shader ~1000mhz Takt und 250 Watt TDP wären drinngewesen inkl. GDDR5x. und einem 320er SI.
[...]
Und Vega frisst ohne Ende wenn man das Power-Target erhöht oder noch zusätzlich das zweite BIOS wählt.
Der Primärverbrauch kommt vom Chip, offensichtlich das HBM da nicht viel retten kann, wenn die GPU alleine über 100W für wenig zusätzliche Leistung konsumieren kann.

Bei Vega 10 skaliert die Leistung mit den CUs in einigen Spielen kaum, AMD hätte ja nicht einfach einen doppelten Polaris bauen können und alles hätte schön funktioniert und skaliert.
5120 Shader mit 1Ghz hätten weniger Rohleistung bedeutet, zusammen mit der schlechteren Skalierung hätte das nicht besser funktioniert.
1 Ghz bedeuten auch weniger Geometrie- und Rasterizer-Durchsatz, dass wäre mies für einige Spiele, außer man geht von 8 Shader-Engines aus, aber das hätte AMD auch erst einmal hinbekommen müssen und das hätte ordentlich die-space gekostet.
GDDR5X wird auch nur von Micron hergestellt, auch doof sich das mit Nvidia teilen zu müssen.

Zusätzlich fehlt der Polaris-IP eine Menge an neuen Rendering-Features, die ich mir definitiv nicht gespart hätte.

Man mag vom Bauchgefühl her irgendein Zeug überschlagen, aber die Skalierung anhand von bekannten Ergebnissen kann man nicht einfach beibehalten.
Schon zu Polaris gab es den Unsinn, wieso AMD nicht einfach GCN Gen 2 verwendet hat, Gen 4 böte keine höhere Effizienz.
Der Unsinn kam auch von dir, als ob AVFS, MBFF und die DCC die Effizienz nicht erhöhen.
Gen 4 ist besser, als Gen 2, genauso wie Gen 5 besser, als Gen 4 ausfällt.
Was AMD letztendlich daraus macht, ergibt sich aus der Konkurrenzsituation und den (unvernünftigen) Takt- und Spannungseinstellungen.
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Wie sieht das denn eigentlich mit OC-Ergebnissen von ersten VEGA Besitzern hier aus?
Klar, mit der VEGA 64 black edition reißt mann noch keine Bäume aus. Selbst lasse ich zum Beispiel den HBM aktuell noch komplett außen vor - auf meiner FuryX musste ich für die besten Ergebnisse um die 60°C liegen - die VEGA Referenz-Karte mit Ihren rund 80°C liegt da für gute Ergebnisse viel zu hoch.
Freue mich daher demnächst auf meine WaKü - morgen in der Firma mal nen vernünftigen Schraubenzieher zur Hand nehmen, um der Tatsache ob VEGA 64 nun vergossen oder nicht ist auf den Grund zu gehen.

Liege ansonsten bei:
1632MHz (mit 1105mV) bis stabil 1677MHz (mit 1125mV)
1702 sind mit rund 1140mV möglich

@ max. 3000RPM und Temp´s um die 80°C
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Und Vega frisst ohne Ende wenn man das Power-Target erhöht oder noch zusätzlich das zweite BIOS wählt..

Meinst du nicht dass die eingesetzten Transistoren für den höheren Takt den man sich versprochen hat, gar nicht viel gebracht haben?
Vega56/64 liegt in der Praxis bei etwa 1300 bis 1400 mhz, Polaris den man offenkundig nicht für höhere Taktraten optimiert hatte, liegt in der Praxis zwischen 1200 und 1450 Mhz je nach Referenz/Custom.
Die Taktraten haben sich kaum erhöht, im Gegensatz zu Nvidia.
Bei AMD gehen gerade so 1700Mhz, bei Nvidia 2100mhz, teilweise auch 2200mhz.
Meine GTX 1060 lief mit kaum höherem verbrauch stabil auf 2100mhz.

Der Primärverbrauch kommt vom Chip, offensichtlich das HBM da nicht viel retten kann, wenn die GPU alleine über 100W für wenig zusätzliche Leistung konsumieren kann.

Man wird nie erfahren wieviel HBM nun genau gebracht hatte, ich kann mir aber nicht vorstellen dass es mehr als 20 oder 30 Watt sind.
Mit GDDR5x und einem etwas weniger aggressiven clock hätte man das auch noch abfedern können.

Bei Vega 10 skaliert die Leistung mit den CUs in einigen Spielen kaum, AMD hätte ja nicht einfach einen doppelten Polaris bauen können und alles hätte schön funktioniert und skaliert.

Also bei Fiji hatte man doch auch das Frontend von Tonga übernommen und die Skalierung war zumindest noch eingermaßen.
Polaris hat 2304 Shader, Vega hat 4096, eine neue Architektur, ca 20% mehr Takt und liegt in Spielen trotz Roheistungverdopplung gerade mal etwas mehr als 50% schneller.
Das ist die schlechteste Skalierung nach oben die man seit Jahren produziert hat, wieso dann ein doppelter Polaris nicht die bessere Lösung gewesen wäre, erschließt sich mir nicht.

5120 Shader mit 1Ghz hätten weniger Rohleistung bedeutet, zusammen mit der schlechteren Skalierung hätte das nicht besser funktioniert.

Vielleicht etwas weniger Rohleistung, dafür hätte man aber schöne Customdesigns gehabt die mit 1,2ghz oder bisschen mehr hätten laufen können.
Und ob die Skalierung soviel schlechter als bei Vega gewesen wäre, weiß niemand. Aber die ganzen Features die bei Vega eingesetzt wurden, bringen stand jetzt eigentlich gar nichts.

GDDR5X wird auch nur von Micron hergestellt, auch doof sich das mit Nvidia teilen zu müssen

Vega hängt sowieso an der Bandbreite, etwas was man mit HBM eigentlich fixen wollte.
Das bedeutet dass HBM eigentlich zum Pferdefuß wird, dort wo es eigentlich helfen sollte.
4 HBM stacks wären wohl einfach zu teuer gewesen, hätten aber die Performance sicherlich nochmal hochgerissen.

Demzufolge könnte mit Vega 20 noch ein ganz guter Performanceboost kommen.

Zusätzlich fehlt der Polaris-IP eine Menge an neuen Rendering-Features, die ich mir definitiv nicht gespart hätte.

AMD scheint immer dem Konkurrenten mit der Hardware eine Generation vorraus zu sein, kann es aber nie umsetzen.
Gerade AMD müsste also für jetzt eine Architektur bauen die gut funktioniert.
Das heißt ohne diesen ganzen Schnickschnack der dann in ein paar Spielen mal relevant werden wird.

Schon zu Polaris gab es den Unsinn, wieso AMD nicht einfach GCN Gen 2 verwendet hat, Gen 4 böte keine höhere Effizienz.

Weil sich jeder gefragt hatte wo die von AMD beworbene Effizienz hingekommen ist.
Pascal wurde einfach nur geshrinkt inkl. zusätzlicher Transistoren für höheren Takt. Die Effizienz ist aber ähnlich dem gestiegen was AMD auch vollbracht hatte mit Polaris.
Daher rechne ich das dem Prozess zu und nicht AMD´s Erfolgen mit Polaris gegenüber Hawai.
Und wenn man heute schaut wo Polaris wieder liegt, dann liegen Customdesigns in der aktuellen PCGH bei bis zu 260 Watt Strombedarf, ich meine WTF, da ist man schon wieder bei Hawai für vielleicht 10 bis 15% mehr Leistung.

Der Unsinn kam auch von dir, als ob AVFS, MBFF und die DCC die Effizienz nicht erhöhen.

AVFS wurde ja schon damals bei Carrizo eingesetzt und erhöhte da die Effizienz, aber ich kann diese thepretischen Effizienzgains auch wieder komplett mit hoher Spannung, zu hohem Takt etc. kaputt machen.
In der Theorie wie hier: http://radeon.com/wp-content/uploads/2016/08/Polaris-Tech-Day-Architecture-Final-6.24.2016.pdf

alles schön, aber ob es letztendlich auch etwas nutzt ist immer die Frage.
Ich habe Polaris aufgrund der ganzen Änderungen fest bei maximal 110 Watt TDP erwartet. So kann man sich irren.
Und ein Hawai @ 28nm war mit etwas engerem PT auch bei etwa 200 Watt bei RX 480 Leistung zu halten.
Ein Hawai @ 14nm FinFet wäre einem heutigen Polaris in kaum etwas nachgestanden und man hätte den Chip weiter für HPC anbieten können, mit besserer Effizienz.
Gen 4 ist besser, als Gen 2, genauso wie Gen 5 besser, als Gen 4 ausfällt.

Nur weil etwas neu ist und mit neuen Funktionen und Features vollgestopft ist, muss es nicht besser sein.
Vega und Polaris waren überspitzt gesagt ziemliche Fails für die ganzen Änderungen die angeblich soviel bringen.

Der DSBR ist Stand jetzt völlig umsonst implementiert, 3% mehr Leistung/Effizienz im Schnitt, laut AMD. Peaks bis 8%.
Das lohnt doch einfach nicht. Der DSBR wurde auch bei Nvidia weit überschätzt. Die IPC, sofern man die bei Grafikkarten überhaupt bestimmen kann, stieg laut einschlägigen Tests bei gleichem Takt zu Fiji kaum bis gar nicht.
Was AMD letztendlich daraus macht, ergibt sich aus der Konkurrenzsituation und den (unvernünftigen) Takt- und Spannungseinstellungen.

Sehe ich nicht so, bei Pascal lässt sich mit 70% Power Target und Undervolting auf 0,9 Volt extrem viel rausholen.
Ich kann meine GTX 1080 bei gleichbleibender, sogar leicht höherer Leistung bei etwa 130 Watt betreiben.

AMD betreibt ihren Vega nicht mit zu hoher Spannung. Schlimm wird es erst bei + 50% PT und OC wo man dann bei 400 Watt herauskommt.
Aber es ist absolut üblich für Hawai, Fiji und Vega bei knapp 300 Watt rauszukommen.
Wenn die Performance gestimmt hätte, wäre das kein Problem gewesen.
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Hmm, HBCC, primitive Shader, IF und rapid packed Math sind eher Workstation bzw. Serverfeatures. Wenn auch teilweise Games davon profitieren werden. Bleibt der Renderer, aber davon hab ich zu wenig Ahnung.

Vega10 ist primär für KI, Virtualizierung und HPC, trotz niedriger FP64-Werte Also versucht AMD im nVidia Territorium zu wildern.

Ich bin mir nicht sicher ob AMD wirklich den weg in Workstations und Server findet mit der geringen FP64 leistung und dem gigantischen Stromverbrauch und der Abwärme.
 
AW: AMD Radeon RX Vega 64 & 56: Unterschiedliche Packages könnten Custom-Designs verzögern

Meinst du nicht dass die eingesetzten Transistoren für den höheren Takt den man sich versprochen hat, gar nicht viel gebracht haben?
Vega56/64 liegt in der Praxis bei etwa 1300 bis 1400 mhz, Polaris den man offenkundig nicht für höhere Taktraten optimiert hatte, liegt in der Praxis zwischen 1200 und 1450 Mhz je nach Referenz/Custom.
Die Taktraten haben sich kaum erhöht, im Gegensatz zu Nvidia.
Bei AMD gehen gerade so 1700Mhz, bei Nvidia 2100mhz, teilweise auch 2200mhz.
Meine GTX 1060 lief mit kaum höherem verbrauch stabil auf 2100mhz.
Ich meine vom derzeitigem Stand, dass die Effizienzverbesserungen bzw. die gewählte Spannung gar nicht gut genug ausfällt, um praktisch die höheren Taktraten vom Design ausfahren zu können.
Das ist bei Vega ein echtes Problem, ansonsten wären 15-30% mehr Takt im Schnitt möglich.
Gegenüber Fiji verwendet Vega insgesamt 40% mehr Transistoren, dabei gab AMD lediglich an, dass der größte Anteil davon in das Taktdesign gewandert ist.

Man wird nie erfahren wieviel HBM nun genau gebracht hatte, ich kann mir aber nicht vorstellen dass es mehr als 20 oder 30 Watt sind.
Mit GDDR5x und einem etwas weniger aggressiven clock hätte man das auch noch abfedern können.
10 Gbps sind das Minimum welches Micron offiziell ausliefert und AMD müsste 384-Bit verwenden für die gleiche Bandbreite, was mehr Strom und Platz verbrauchen würde.
Und langsamerer Speicher hätte zu einem noch größerem Interface geführt und damit auch einen größeren Chip oder zu weniger Bandbreite.
Von der Perf/Watt und Perf/mm² würde es immer einen Nachteil geben, die Gewichte wären nur je nachdem stärker verschoben.

Also bei Fiji hatte man doch auch das Frontend von Tonga übernommen und die Skalierung war zumindest noch eingermaßen.
20% mehr Rohleistung haben nur 9-10% mehr Leistung ergeben:
Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert (Seite 4) - ComputerBase

Bei Vega ist es relativ ähnlich, 14% mehr Rohleistung bedeuten nur ~6% mehr Leistung:
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase

Polaris hat 2304 Shader, Vega hat 4096, eine neue Architektur, ca 20% mehr Takt und liegt in Spielen trotz Roheistungverdopplung gerade mal etwas mehr als 50% schneller.
Das ist die schlechteste Skalierung nach oben die man seit Jahren produziert hat, wieso dann ein doppelter Polaris nicht die bessere Lösung gewesen wäre, erschließt sich mir nicht.
Bei CB ist eine RX 580 Nitro 2% schneller, als die Referenzvorgaben.
Eine Nitro OC scheint sich kaum zu unterscheiden, da im Vega Index die Nitro OC auch nur 2% schneller ist, als die Referenzvorgaben und die Nitro OC erreicht in vier Spielen häufig 1,4 Ghz:
AMD Radeon RX 580 & 570 von Asus bis Sapphire im Test (Seite 2) - ComputerBase

Bei Vega sind die Angaben leider gröber, im Schnitt sind es 1520 Mhz bei 19 Spielen, aber wenn man das spätere Asus Strix Review anschaut und Doom + TW3 + RotTR vergleicht, sind es dort ~ 1,430 Mhz.
Radeon RX Vega 64 Strix im Test: Asus Vorserie schlagt das Referenzdesign deutlich (Seite 2) - ComputerBase
Das existiert fast kein Taktgewinn gegenüber einer RX 580 Nitro.
Unter Doom ist die Vega 64 38% schneller, bei TW3 63% und bei RotTR 62%, bei ungefähr 80% mehr Rohleistung. (1080p)
Im Index sind es 48-53% Vorsprung für die RX Vega 64.

Aber die ganzen Features die bei Vega eingesetzt wurden, bringen stand jetzt eigentlich gar nichts.
Sie bringen etwas, Primitive Shader scheinen aber praktisch noch nicht zu existieren und irgendetwas beim Treiber scheint noch sehr unreif zu laufen.
Man kann sich den pro Takt-Vergleich von CB anschauen, eine Fury X ist bei AotS und Gears of War 4 6% schneller, wieso?
BF1 läuft aber satte 25% schneller pro Takt! Das ist ein Spiel wo 14% mehr CUs, nur 3% mehr Leistung bringen, dass heißt irgendetwas von der neuen Architektur schlägt bei dem Spiel kräftig durch.
Es ist auch nicht das einzige, Titanfall 2 läuft 24% schneller, hier skaliert aber die größere Anzahl an CUs 1zu1, aber der reine Zugewinn von der Architektur scheint geringer.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase

Bei so einer Varianz ist es für mich offensichtlich, dass Vega noch eine Menge Treiberpflege benötigt.

Vega hängt sowieso an der Bandbreite, etwas was man mit HBM eigentlich fixen wollte.
Weniger als Polaris 10, wenn man den OC-Ergebnissen von CB und anderen Webseiten vertrauen darf.
Bei der Vega 64 kommen von 16% mehr Bandbreite nur 3% mehr Leistung an.
Eine Vega 64 ist auch nur 11% (4K) schneller, als die Vega 56, trotzt 18% mehr Bandbreite und 14% mehr CUs + mehr Takt im Schnitt.

AMD scheint immer dem Konkurrenten mit der Hardware eine Generation vorraus zu sein, kann es aber nie umsetzen.
Gerade AMD müsste also für jetzt eine Architektur bauen die gut funktioniert.
Das heißt ohne diesen ganzen Schnickschnack der dann in ein paar Spielen mal relevant werden wird.
Pascal besitzt schon einige Features, welche Polaris fehlen, Vega geht "nur" einen halben Schritt weiter.
Eine Generation ist eine Definitionssache, aber ich würde es nicht als gewaltigen Fortschritt gegenüber Pascal definieren, Intel hat es schon als erster mit Gen9 umgesetzt und Volta wird in einigen Monaten sicherlich auch folgen.
Es stellt eine natürliche Entwicklung dar.

Weil sich jeder gefragt hatte wo die von AMD beworbene Effizienz hingekommen ist.
AMD verheizt es offensichtlich auf die ein oder andere Art.
Man schaue sich nur das Ranking von Polaris 10 GPUs an:
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/4/#abschnitt_performance_pro_watt

Da besitzt eine RX 480 eine 9% höhere Perf/Watt im Vergleich zur RX 580, eine RX 470 gar 23% gegenüber einer RX 570.
Das ist nur der Spielraum vom Power-Target und den eingestellten Taktraten und Spannungen.

AVFS wurde ja schon damals bei Carrizo eingesetzt und erhöhte da die Effizienz, aber ich kann diese thepretischen Effizienzgains auch wieder komplett mit hoher Spannung, zu hohem Takt etc. kaputt machen.
In der Theorie wie hier: http://radeon.com/wp-content/uploads/2016/08/Polaris-Tech-Day-Architecture-Final-6.24.2016.pdf
Ändert nichts daran, dass AVFS die Effizienz erhöht und GCN Gen 2 das noch gar nicht implementiert hat.
Carrizo verwendet GCN Gen 3.

alles schön, aber ob es letztendlich auch etwas nutzt ist immer die Frage.
Ich habe Polaris aufgrund der ganzen Änderungen fest bei maximal 110 Watt TDP erwartet. So kann man sich irren.
Und ein Hawai @ 28nm war mit etwas engerem PT auch bei etwa 200 Watt bei RX 480 Leistung zu halten.
Ein Hawai @ 14nm FinFet wäre einem heutigen Polaris in kaum etwas nachgestanden und man hätte den Chip weiter für HPC anbieten können, mit besserer Effizienz.
Natürlich nützt es was, die Techniken sind nicht nur für PR-Bilder als Placebo eingebaut worden.
Die Effizienz kommt von der verbesserten Fertigung, den Verbesserungen bei der Architektur und der physischen Implementierung.

Wenn ich deiner Logik folgen würde, könnte ich theoretisch zu einem völlig unsinnigen Schluss kommen.
Z.B. hätte AMD einen Hawaii @ 14nm ungesund hochgedreht, um einen direkten Konkurrenten gegenüber einem Pascal-Modell zu stellen, dabei wäre die Perf/Watt gleich geblieben oder gar schlechter ausgefallen, da AMD den ganzen Effizienzgewinn der neuen Fertigung verheizt hätte.
Hierbei könnte ich die Behauptung aufstellen, dass 14nm sich gar nicht lohnen und teurer sind, hätte AMD lieber weiterhin 28nm verwendet und einen größeren Chip designed.
Oh das wäre vermutlich Fiji gewesen, der schlecht skaliert hat.

Hawaii @ 14nm wäre für HPC nur beschränkt interessant gewesen, weil die Steigerung relativ gering wäre und man den Overhead für die restlichen Märkte tragen müsste.
Und anstatt dort halbgar dazustehen, hat man mit Polaris 10 einen kleineren Chip entwickelt, der eine ähnliche Leistung bei anderen Anwendungen erreicht.

Nur weil etwas neu ist und mit neuen Funktionen und Features vollgestopft ist, muss es nicht besser sein.
Vega und Polaris waren überspitzt gesagt ziemliche Fails für die ganzen Änderungen die angeblich soviel bringen.
Nur ist es in dem Fall so oder findest du bei Polaris einen Haufen an Gründen, wieso die IP gegenüber der Älteren schlechter sein sollte?
Bei Vega sieht man dagegen offensichtlich, dass die Resultate sehr variieren können und AMD die neue Basis nicht fertig optimiert hat.

Der DSBR ist Stand jetzt völlig umsonst implementiert, 3% mehr Leistung/Effizienz im Schnitt, laut AMD. Peaks bis 8%.
Das lohnt doch einfach nicht. Der DSBR wurde auch bei Nvidia weit überschätzt. Die IPC, sofern man die bei Grafikkarten überhaupt bestimmen kann, stieg laut einschlägigen Tests bei gleichem Takt zu Fiji kaum bis gar nicht.
In wie fern lohnt sich ein Feature nicht, welches die Perf/watt um ~6% (10% peak) erhöht hat bei diesen Spielen?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60915&stc=1&d=1503391629

Hat das den Chip 6% größer gemacht?

Sehe ich nicht so, bei Pascal lässt sich mit 70% Power Target und Undervolting auf 0,9 Volt extrem viel rausholen.
Ich kann meine GTX 1080 bei gleichbleibender, sogar leicht höherer Leistung bei etwa 130 Watt betreiben.

AMD betreibt ihren Vega nicht mit zu hoher Spannung. Schlimm wird es erst bei + 50% PT und OC wo man dann bei 400 Watt herauskommt.
Aber es ist absolut üblich für Hawai, Fiji und Vega bei knapp 300 Watt rauszukommen.
Wenn die Performance gestimmt hätte, wäre das kein Problem gewesen.
Mit UV schafft man bei Vega 64 auch eine ~15-20% höhere Perf/Watt:
https://www.hardwareluxx.de/index.p...vega-56-und-vega-64-im-undervolting-test.html

Wenn man das erste BIOS verwendet und den Eco-Mode im Treiber ausfällt, ist der Verbrauch auch viel geringer, für nur ein paar % Verlust.
Das verhält sich natürlich alles logisch, aber bei Vega bedeutet ein wenig Einschnitt, gleich viel Ersparnis.
Wieso AMD da überhaupt einen Turbo-Mode hat, der nur Strom zu sich zieht ohne etwas zu leisten, erschließt sich mir gar nicht.
 
Zuletzt bearbeitet:
Zurück