AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren

AMDs Vega-10-GPU auf den Radeon-RX-Vega-Grafikkarten hat 3,6 Milliarden Transistoren mehr als Fiji, wie er unter anderem auf der R9 Fury X sitzt. Auf seinem Tech Day verriet der Chiphersteller, dass der Großteil der zusätzlichen Schaltungen für den höheren GPU-Takt notwendig sind. Zudem wurde gesagt, dass die Radeon Vega Frontier Edition den Draw Stream Binning Rasterizer noch nicht nutze.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren
 
Hm, das mit den Performance Gains durch den Rasterizer klingt nicht gut. Hatte da mit wesentlich mehr als 5% Mehrleistung im Minimum gerechnet. Somit lag es also nicht nur an Pascals Tile Based Rasterizer, dass sie bei gleicher Rohleistung in Spielen weit vor Polaris liegen.
 
Das Liegt einfach an der Immensen Mehrleistung von Pascal ( 8,87 TFlops ) gegenüber Polaris ( 5,5 TFlops ) ... und noch anderen Features die Polaris nicht hatte, dazu gehört halt auch der
Rasterizer
 
Hm, das mit den Performance Gains durch den Rasterizer klingt nicht gut. Hatte da mit wesentlich mehr als 5% Mehrleistung im Minimum gerechnet. Somit lag es also nicht nur an Pascals Tile Based Rasterizer, dass sie bei gleicher Rohleistung in Spielen weit vor Polaris liegen.

Wie viel das im Mittel ist, muss sich erst noch zeigen. Je besser eine Engine ab Werk mit Overdraw umgeht, desto geringere Gewinne durch den DSBR. Bei richtig vielen ineffizient dargestellten Polygonen könnte das heftig durchschlagen. Ich sehe gerade das virtuelle San Fransicso von Watch Dogs 2 mit 100 % Extradetails neben mir am Benchrechner und kann mir vorstellen, dass solche High-Poly-Szenarien ordentlich profitieren werden.

MfG,
Raff
 
Hätte man das Mehr an Transistoren nicht lieber in mehr Shadereinheiten reinstecken sollen statt die 4096 Shadereinheiten "breiter" zu machen/hoch zu takten? Klar hatte AMD immer Probleme die Einheiten auszulasten, aber man hätte sie schön niedrig takten können wenn man über 6000 genommen hätte. Zudem die neuen breiteren Einheiten auch nicht besser ausgelastet werden wie es bisher scheint.

Edit: Auf Basis von Polaris hätten vielleicht schon 5000 Einheiten gereicht, Polaris kann deutlich besser als Fiji ausgelastet werden.

Edit2: Warscheinlich war der Fokus bei Vega alles andere als der Gaming-Bereich, die Architektur scheint stark auf den professionellen Bereich ausgelegt zu sein. AMD wird wahrscheinlich nicht drumherum kommen wie Nvidia getrennte Linien zu fahren.
 
Zuletzt bearbeitet von einem Moderator:
Battlefield 4 stellt mit gut 33 Prozent Fps-Vorteil den absoluten Best-Case dar, den AMD in seiner Präsentation nennt. Ansonsten können es auch mal nur 5 Prozent sein.


Falls damit die AMD Grafik aus der Bildergalerie gemeint ist, ist das grob falsch. Dort steht 'Saved Bytes per Frame', was mitnichten gleichzusetzen ist mit 'mehr FPS'. Der FPS Gewinn wird wahrscheinlich noch ein gutes Stück niedriger sein.
 
Irgendwie fühle ich mich an Power VR Karten von anno dazumal erinnert. Damals war das glaub ich auch arg spieleabhängig, wie viel deren Tiled Rendering brachte.
Hab hier übrigens ein Spiel, welches ich wegen "PowerVR only" nicht mehr spielen kann. Nennt sich ReVolte.
 
Bitte bitte bitte - wenn ihr schon technische Nachrichten bringt dann stellt auch sicher das ihr nichts falsches schreibt.

TilebasedRendering bzw Draw Stream Binning Rasterization verringern den benötigten Cache und somit Speicherzugriffe. Es bringt nur in den aller seltensten Fällen wirklich Leistung.
Sieht man ja auch so schön bei Nvidia - die haben da nicht groß rumposaunt weil es eben auch keine Leistung brachte (im Gegensatz zur Behauptung einiger verblendeter).

Auch sollte man bedenken das doch HBM2 ja ach so toll sein soll - wenn die Latenzen wirklich so viel geringer sind wie oft angedeutet wird dann bringt hier TBR noch weniger als mit GDDR5 - und dort ist es schon in den seltensten Fällen mehr als im niedrigen einstelligen Bereich.


Das die Karte aber jetzt so viele extra Transistoren hat - naja, die Architektur hat ja auch ein paar neue Features erhalten, da gehe ich mal davon aus das von den extra Transistoren gleich mal die 1/3tel dafür gebraucht wird.
 
TilebasedRendering bzw Draw Stream Binning Rasterization verringern den benötigten Cache und somit Speicherzugriffe. Es bringt nur in den aller seltensten Fällen wirklich Leistung.
Sieht man ja auch so schön bei Nvidia - die haben da nicht groß rumposaunt weil es eben auch keine Leistung brachte (im Gegensatz zur Behauptung einiger verblendeter).
Ist doch Quatsch. TBR war einer der Hauptgründe warum Maxwell gegenüber Kepler im gleichen 28 nm Verfahren so stark zulegen konnte.
 
Hätte man das Mehr an Transistoren nicht lieber in mehr Shadereinheiten reinstecken sollen statt die 4096 Shadereinheiten "breiter" zu machen/hoch zu takten? Klar hatte AMD immer Probleme die Einheiten auszulasten, aber man hätte sie schön niedrig takten können wenn man über 6000 genommen hätte. Zudem die neuen breiteren Einheiten auch nicht besser ausgelastet werden wie es bisher scheint.

Edit: Auf Basis von Polaris hätten vielleicht schon 5000 Einheiten gereicht, Polaris kann deutlich besser als Fiji ausgelastet werden.

Edit2: Warscheinlich war der Fokus bei Vega alles andere als der Gaming-Bereich, die Architektur scheint stark auf den professionellen Bereich ausgelegt zu sein. AMD wird wahrscheinlich nicht drumherum kommen wie Nvidia getrennte Linien zu fahren.

Einfach nur zusätzliche Shadereinheiten zu implementieren bringt wenig, wenn man bereits Auslastungsdefizite hat. AMD hätte zusätzlich das gesamte Front-End und gegebenenfalls auch die Caches weiten müssen. Die hierfür anfallenden Transistorkosten sind bei GPUs zwar deutlich geringer als bei CPUs, aber dennoch nicht zu verachten. Außerdem wäre der Entwicklungsaufwand bei diesen komplexen Einheiten möglicherweise größer und damit die Entwicklung noch länger gewesen als bei den C&P-Shadern. In jedem Fall wäre es für AMD eine reine High-End-Investition geworden, von der nur der größte Chip profitiert. Schnellere Shader zahlen sich dagegen auch bei kleineren Vega-Modellen aus.


Bitte bitte bitte - wenn ihr schon technische Nachrichten bringt dann stellt auch sicher das ihr nichts falsches schreibt.

TilebasedRendering bzw Draw Stream Binning Rasterization verringern den benötigten Cache und somit Speicherzugriffe. Es bringt nur in den aller seltensten Fällen wirklich Leistung.
Sieht man ja auch so schön bei Nvidia - die haben da nicht groß rumposaunt weil es eben auch keine Leistung brachte (im Gegensatz zur Behauptung einiger verblendeter).

Auch sollte man bedenken das doch HBM2 ja ach so toll sein soll - wenn die Latenzen wirklich so viel geringer sind wie oft angedeutet wird dann bringt hier TBR noch weniger als mit GDDR5 - und dort ist es schon in den seltensten Fällen mehr als im niedrigen einstelligen Bereich.


Das die Karte aber jetzt so viele extra Transistoren hat - naja, die Architektur hat ja auch ein paar neue Features erhalten, da gehe ich mal davon aus das von den extra Transistoren gleich mal die 1/3tel dafür gebraucht wird.

TBR und DSBR senken die Anforderungen an den Cache nicht; ohne einen großen Cache sind sogar ziemlich ineffektiv. Der Kyro II hatte meiner Erinnerung nach deutlich mehr Cache als andere Grafikkarten seiner Zeit (genaugenommen wäre mir zu nicht-GPUs gar keine Cache-Größen bekannt), konnte dadurch aber viele Berechnungen komplett ohne Speicherzugriff ausführen. Der VRAM spielt (fast) nur beim Wechsel von einer Kachel zur nächsten eine Rolle, dementsprechend kann man viel Speicherbandbreite einsparen – aber nur wenn sich Berechnungen auch vollständig innerhalb einer Kachel respektive einem Bin abfertigen lassen. Bei Effekten, die große Bildareale betreffen, ist dies nicht der Fall, weswegen der Nutzen der Technik stark schwankt.

Latenzangaben liegen mir zur HBM2 übrigens keine vor, aber allein aufgrund des niedrigen Taktes sollten die absoluten Latenzen ziemlich schlecht sein. Selbst mit CL1 müsste man bei Vega-Taktraten noch länger auf eine Reaktion warten, als auf einer 4-GHz-GTX-1070 bei CL20. Und so schlecht ist GDDR meinem Wissen nach nicht einmal. (Sehr zur Freude aller Miner. Weswegen wir hoffen sollten, dass Vega besonders miese Latenzen und trotzdem genug Spieleleistung hat. :-))
 
Ob sich der Aufwand bzw die Menge an Transistoren für AMD gelohnt hat?
Wenn man mit einer guten Polaris Karte schon in Richtung 1450 Mhz kommt,
dann sind die 1677 Mhz ja jetzt nicht so sehr viel mehr.

Kann mir gut vorstellen das AMD selbst etwas enttäuscht von dem Ergebnis ist
und wahrscheinlich eher in die Regionen kommen wollte in denen sich Nvidia zurzeit bewegt (~1900+) ?!

Ein Fiji Shrink mit Polaris Architektur, evtl mit ein paar weiteren Verbesserungen am Front-end,
hätte evtl die selbe Leistung erzielt....

Nur mal so ein Gedanke! :)
 
Ein doppelter Polaris 20 ala RX580 hätte viel zu viel verbraucht, der Takt soll ja bis 1700MHz und drüber reichen. Da würde Polaris 20 sicher 225-250w verballern.

Meinte auch, den Takt auf Polaris Niveau belassen, dafür die Transistoren für größere Chaches etc verwenden.
So wie Torsten schon geschrieben hat. Fiji in 14nm bei ~ 1400Mhz und, mal in den Raum geworfene 10% höhere IPC
durch die Chaches und evtl Verbesserungen am Frontend, sollte doch ähnliche Leistungsregionen erreichen ?!
Der niedrigere Takt sollte dem Verbrauch doch auch entgegen kommen, oder?

Wie gesagt, bloß ein Gedanke.
Hab in dem Gebiet jetzt auch nicht die große Ahnung,
deshalb kläre mich gerne auf wenn mein Gedankengang so verkehrt ist! ;)
 
Ist doch Quatsch. TBR war einer der Hauptgründe warum Maxwell gegenüber Kepler im gleichen 28 nm Verfahren so stark zulegen konnte.

Irgendwelche Beweise dafür? Nein? Auch Nvidia hat davon nier irgendwas erwähnt.

Ich finds lustig das hier einige imner wieder die selbe falsche Behauptung aufstellen.
 
Irgendwelche Beweise dafür? Nein? Auch Nvidia hat davon nier irgendwas erwähnt.


In Verbindung mit der Speicherkompression soll der Tiled Cache Renderer auf einer hypothetischen HBM2-Karte mit dem GP102 die Bandbreite von 500 GB/s auf 1.200 GB/s erhöhen. 400 MB sollen in dem Fall von der Kompression und 300 MB vom Tiled Cache Renderer kommen.
GeForce GTX 1080 Ti: Schneller als die Titan X fur 819 Euro - ComputerBase


Tile Based Rasterization als Geheimrezept hinter der Maxwell/Pascal-Architektur enthullt - Hardwareluxx
 
Falsch! Natürlich "hält AMD mit". Nvidia geniesst bei TSMC derzeit Sonderkonditionen und besonders die großen Chips sind nicht für die Masse geeignet.
Masse heisst umgerechnet von Kapstadt bis Nowosibirsk 200-400€.
Eine Vega 56 ist die optimale Karte. HBM2, leistungsfähig, günstiger als eine 1070 und halb so teuer wie eine 1080TI, mit viel Steigerungspotential bis hin zu 4K.
Dazu ein Threadripper mit 8-16 Kernen, Quad Channel und 64 PCIe-Lanes und wir haben endlich mal wieder keinen kastrierten PC.
Danke AMD!
 
Eine Vega 56 ist die optimale Karte. HBM2, leistungsfähig, günstiger als eine 1070 und halb so teuer wie eine 1080TI, mit viel Steigerungspotential bis hin zu 4K.
Dazu ein Threadripper mit 8-16 Kernen, Quad Channel und 64 PCIe-Lanes und wir haben endlich mal wieder keinen kastrierten PC.
Danke AMD!

günstiger in der Fertigung oder günstiger für den Endkunden ? Klar Vega 56 ist die interessantere Karte. Aber damit macht AMD kein Geld, da ist teurer HBM Speicher auf dem DIE.

Wäre ich AMD würde ich die Preise so hoch setzen wie es nur geht und die Karten nicht für einen Appel und Ei abgeben, nach 3 Monaten kann man die Preise immer noch senken. Dank des Mining Booms kosten ja die GTX 1070 wieder um die 500 Euro, da würde ich mit Vega 56 ansetzen, erstmal jedenfalls.
 
Eine Vega 56 ist die optimale Karte. HBM2, leistungsfähig, günstiger als eine 1070 und halb so teuer wie eine 1080TI, mit viel Steigerungspotential bis hin zu 4K.
Dazu ein Threadripper mit 8-16 Kernen, Quad Channel und 64 PCIe-Lanes und wir haben endlich mal wieder keinen kastrierten PC.

Was soll ein Vega 56 Käufer mit 64 PCIe Lanes? Ein Multi GPU System aufbauen, was die gleiche Leistung und gleichen Preis wie ein 1080ti Single GPU System hat? Sehr sinnvoll bzgl Energieverbrauch...

Wie leistungsfähig die Vega 56 wirklich ist, werden wir erstmal sehen. Ich bin mir nicht sicher ob die GTX 1070 geschlagen wird. Vor dem Miningboom kostete diese übrigens ab 380€ und wäre damit günstiger als die Vega 56.
 
Zurück