• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Radeon Pro Vega 20/16: Vega Mobile steckt in Apples Macbook Pro

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu AMD Radeon Pro Vega 20/16: Vega Mobile steckt in Apples Macbook Pro

AMD hat seine Vega-Mobile-GPU, vermutlich mit dem Codenamen Vega 12, offiziell veröffentlicht. Sie steckt als Radeon Pro Vega 20 beziehungsweise 16 in Apples aktualisiertem Macbook Pro 15 Zoll, wenn man sich für eine teurere Konfiguration entscheidet. Die Vega-12-GPU nutzt bis zu 1.280 Shader und einen HBM2-Stack als Grafikspeicher.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Radeon Pro Vega 20/16: Vega Mobile steckt in Apples Macbook Pro
 

Cuddleman

BIOS-Overclocker(in)
Hauptsache es wird nicht auch so eine unausgereizte Sache wie in den HP-Derivaten mit Ryzen-CPU und Vega-GPU.
Der Intel-Prozessor sollte nicht nur das Tüpfelchen auf dem i sein, sondern die eingesetzten Vega's müßen auch ein optimales Bild abgeben, so, oder so, halt.
 

Gurdi

Kokü-Junkie (m/w)
Viel relevanter ist die veränderte Geometriepipeline der neuen Chips. Offenbar konnte man die Primitv Shader zum leben erwecken.
 

NuVirus

PCGH-Community-Veteran(in)
Mit 8GB wäre es zumindest etwas besser passend zum hohen Preis der Macbooks - mal sehen ob da evtl. dann nächstes Jahr ne 7nm Neuauflage für Apple kommt hoffentlich dann 8GB^^
 

Gamer090

PCGH-Community-Veteran(in)
Mit 8GB wäre es zumindest etwas besser passend zum hohen Preis der Macbooks - mal sehen ob da evtl. dann nächstes Jahr ne 7nm Neuauflage für Apple kommt hoffentlich dann 8GB^^

Haben die Vega Karten nicht alle 4GB HBM? Das müsste wohl eher AMD als Apple anpassen weil Apple kauft nur ein und AMD stellt es her und ich bezweilfe das sie nur für Apple 8GB HBM Speicher verbauen.
 

Blackout27

Volt-Modder(in)
Viel relevanter ist die veränderte Geometriepipeline der neuen Chips. Offenbar konnte man die Primitv Shader zum leben erwecken.

Und was genau bedeutet das für aktuelle Vega56-64 Besitzer bzw. für uns Gamer? Kenne mich in dem Gebiet leider nicht sehr gut aus und weiß grob gesagt nur, das Vega Features besitzt die noch deaktiviert sind ...

Grüße :)
 

Gurdi

Kokü-Junkie (m/w)
Und was genau bedeutet das für aktuelle Vega56-64 Besitzer bzw. für uns Gamer? Kenne mich in dem Gebiet leider nicht sehr gut aus und weiß grob gesagt nur, das Vega Features besitzt die noch deaktiviert sind ...

Grüße :)

Weiß noch keiner. Mal sehn ob es überhaupt auf Vega 10 funktioniert. Kommende Treiberversionen werden zeigen ob es gelungen ist die Sache via Software zu lösen. Ich bleibe noch skeptisch, aber zumindest scheint es einen Lösungsansatz zu geben. Wenn die PS funktionieren entlastet das die Geometriepipeline beträchtlich. Ein großes Problem von Vega da dieser mit weniger Takt hantiert als Pascal z.B.
Das könnte zwischen 5-20% alles sein, schwer einzuschätzen und wohl sehr anwendungsabhängig.

Haben die Vega Karten nicht alle 4GB HBM? Das müsste wohl eher AMD als Apple anpassen weil Apple kauft nur ein und AMD stellt es her und ich bezweilfe das sie nur für Apple 8GB HBM Speicher verbauen.
Es wird ein 4GB Stack verwendet, die Vegakarten haben alle 2 Stacks, also 8GB keine 4!
 

Blackout27

Volt-Modder(in)
Danke für die Aufklärung Gurdi :)

Die Architektur von Vega ist wirklich interessant aber auch ziemlich komplex. Ich freue mich schon wie Navi Performen wird und wie du Navi die Sporen geben wirst :D
 

EyRaptor

BIOS-Overclocker(in)
Es wird ein 4GB Stack verwendet, die Vegakarten haben alle 2 Stacks, also 8GB keine 4!

Kleine Anmerkung
Das klingt so, als würde sich das "alle" auf die Anzahl der Stacks und deren Kapazität beziehen.
Vega Frontier benutzt ja z.B 8GB Stacks, also müsste im Macbook auch möglich sein.
Wird Apple aber eh nicht machen.
 

Gurdi

Kokü-Junkie (m/w)
Kleine Anmerkung
Das klingt so, als würde sich das "alle" auf die Anzahl der Stacks und deren Kapazität beziehen.
Vega Frontier benutzt ja z.B 8GB Stacks, also müsste im Macbook auch möglich sein.
Wird Apple aber eh nicht machen.

Ja hast recht. Die 8GB Stacks sind aber völliger Overkill, zumal der HBCC eigentlich reichen sollte bei so einem Gerät. Wegen der 4GB wäre das mal sehr interessant zu testen.

Aber wie bereits erwähnt, die PS Shader laufen jetzt. DAS ist eigentlich das wichtigste! Mal sehn ob wir auch was abbekommen, das wäre ja mal richtig fein wenn wir nochmal mehr Leistung oben drauf bekommen würde.
Die PS laufen jetzt automatisch und Anwendungsunabhängig.

Die nächsten 1-2 Treiberversionen werden interessant :devil:
 

Locuza

Lötkolbengott/-göttin
[...]
Aber wie bereits erwähnt, die PS Shader laufen jetzt. DAS ist eigentlich das wichtigste! Mal sehn ob wir auch was abbekommen, das wäre ja mal richtig fein wenn wir nochmal mehr Leistung oben drauf bekommen würde.
Die PS laufen jetzt automatisch und Anwendungsunabhängig.
[...]
Und eins, zwei, drei, *zu Schlussfolgerungen springen*
Und eins, zwei, drei, *Schlussfolgerungen, als Fakten verkaufen*
Und eins, zwei, drei ...
 

DARPA

Volt-Modder(in)
Locuza, du weisst doch, das alternative Culling läuft irgendwie auf V10. Hat AMD ja an verschiedenen Stellen mal durchblicken lassen.

Problem ist nur das irgendwie :D
 

seahawk

Volt-Modder(in)
Wenn es da läuft wird es auch bei Vega 20 für den Desktop laufen und das dürfte einen erheblichen Leistungssprung bedeuten. Damit kann Vega 7nm an die 2080ti heran kommen.
 

Locuza

Lötkolbengott/-göttin
Locuza, du weisst doch, das alternative Culling läuft irgendwie auf V10. Hat AMD ja an verschiedenen Stellen mal durchblicken lassen.

Problem ist nur das irgendwie :D
Ja, irgendwie gar nicht. :ugly:

Nach der Aussage von einem Treibermitarbeiter halte ich die Wahrscheinlichkeit für gering, dass bei Vega noch wirklich etwas rum kommt.

Wenn es da läuft wird es auch bei Vega 20 für den Desktop laufen und das dürfte einen erheblichen Leistungssprung bedeuten. Damit kann Vega 7nm an die 2080ti heran kommen.
Kowalski, Psychoanalysis, wieso führt dieser Mensch seit Jahren mit voller Absicht Beiträge durch, die nur darauf abzielen völlig übertriebenen Unsinn wiederzugeben?
 
K

KrHome

Guest
Da kommt nix mehr mit PS für die alten Vegas. Das Treiberteam dürfte längst mit der Arbeit für die 7nm Chips ausgelastet sein.

Genauso könnte man drauf warten, dass AC nochmal anständig auf Pascal läuft, obwohl das Problem inzwischen mit Turing gefixt wurde.
 

Locuza

Lötkolbengott/-göttin
Glaub was du willst, hindert dich keiner dran.
PRIMITIVE CULLING USING AUTOMATICALLY COMPILED COMPUTE SHADERS
[BILD]
3DCenter Forum - AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017 - Seite 703

Ich habe mir zwei Patente bezüglich Combined Stages und dem Primitive Shader angesehen und kenne die vorgestellten Konzepte, dass ändert aber nichts an der praktischen Welt, die nicht nur auf Patenten und möglichen Konzepten beruht, sondern darauf was die Hardware wirklich umsetzt und über die Software aktiv ist.
NGG mit Primitive Shader ist im öffentlichen Vulkantreiber nicht aktiv und soll laut AMD-Mitarbeiter laut Email-Konversation vom August 2018 auch nicht mehr für GFX9/Vega umgesetzt werden:
Re: Making a GDS Allocation for NGG

Nun gibt es keine Anhaltspunkte auf die man sich beziehen könnte, dass sich daran etwas geändert hat.
Und Marketing-Aussagen kannst du in der Pfeife rauchen.

AMD bewirbt die Frontiers Edition mit >2 so großem Geometrie-Durchsatz, obwohl Primitive Shader bis Heute vermutlich in keiner einzigen App aktiv sind, ein reines Marketing Exempel.
Bis zu 2-FACHER GEOMETRIEDURCHSATZ pro Taktzyklus2 zwecks Beschleunigung des Renderns in Echtzeit.
Radeon™ Vega Frontier Edition Grafikkarte | AMD

Bei AMD Radeon Pro ist die Darstellung schon anders:
VERBESSERTE GEOMETRIE-ENGINE ermöglicht reibungsloses Rendern komplexer, detaillierter Modelle in Echtzeit.
Radeon™ Pro Vega Grafikloesungen | AMD

Und so heißt es im Prinzip auch wieder bei der AMD Radeon Pro 16/20, was auch ohne Primitive Shader vom Marketing genannt werden kann, wo sich das Marketing sowieso an fast keine Regeln halten muss.
Die Geometrie-Engines bei Vega sind aber auch ohne Primitive-Shader im Vergleich zu Polaris optimiert, der Parameter-Cache fällt doppelt so groß aus und es gibt einen besseren Arbeitsverteiler, welcher zu weniger Context-Switches führt.

Man kann sich auch gerne Vega-M in Erinnerung rufen, welcher Vega als Produktnamen trägt, wo auf Marketing-Folien die Rede von Vega Pixel-Engine und HBCC war und nichts davon in der praktischen Realität zutrifft.
https://cdn01.hardwareluxx.de/razun...sdeck-10_B12BDCCAC6A8496F9E1A86C693264D16.jpg


Entsprechend steht man zu früh an der Theke, wenn man schon jetzt "lauffähige Primitive Shader" verkaufen möchte.
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Die 330 wurde verändert in Pre-Processing Compute Shader Stage.
Die Aufgabe übernimmt nun der Treiber.
Screenshot (439).png

Ob Vega 10 das beherrscht ist unklar. Das ganze wurde zum heutigen Tag angemeldet.

"[0034] A pre-processing compute shader stage 330 is coupled to the graphics processing pipeline 134. The pre-processing compute shader stage 330 allows computational work to be performed on primitives received from outside of the APD 116 (e.g., from the processor 102) before being processed by the graphics processing pipeline 134. The pre-processing compute shader stage 330 executes pre-processing compute shader programs received from, for example, the processor 102. These pre-processing compute shader programs accept specified inputs, such as primitives or vertices, and produce specified outputs, such as modified primitives or vertices. "
 
Zuletzt bearbeitet:

Locuza

Lötkolbengott/-göttin
Es ist unklar, wie irgendein Vega die Technik im Detail umsetzt, entsprechend könnte man sich auch 20 Patente anschauen und keines davon muss die Implementierung der realen Hardware darstellen.
Wer sich mit Treibern im Detail auskennt, kann sich die NGG-Stücke im öffentlichen Vulkan-Treiber anschauen und eine bessere Vorstellung gewinnen.

Aktuell gibt es zwei bzw. wahrscheinlich drei Vega-Chips draußen, Vega10 (GFX900), Raven-Ridge (GFX902) und FireFly in der Subor Z China Konsole, bald erscheint Vega12 (GFX904) und offiziell auch Vega20 (GFX906).
Vega11 gibt bzw. gab es auch mal, aber dieses Projekt wird vermutlich nicht mehr auf den Markt erscheinen.

Im aktuellem Vulkan-Treiber gibt nur wenige Unterschiede zwischen AMDs Vega-GPUs.
Bei keinem ist bisher NGG aktiv oder alternative Pfade für das Geometry-Processing.
 

Gurdi

Kokü-Junkie (m/w)
Es ist unklar, wie irgendein Vega die Technik im Detail umsetzt, entsprechend könnte man sich auch 20 Patente anschauen und keines davon muss die Implementierung der realen Hardware darstellen.
Wer sich mit Treibern im Detail auskennt, kann sich die NGG-Stücke im öffentlichen Vulkan-Treiber anschauen und eine bessere Vorstellung gewinnen.

Aktuell gibt es zwei bzw. wahrscheinlich drei Vega-Chips draußen, Vega10 (GFX900), Raven-Ridge (GFX902) und FireFly in der Subor Z China Konsole, bald erscheint Vega12 (GFX904) und offiziell auch Vega20 (GFX906).
Vega11 gibt bzw. gab es auch mal, aber dieses Projekt wird vermutlich nicht mehr auf den Markt erscheinen.

Im aktuellem Vulkan-Treiber gibt nur wenige Unterschiede zwischen AMDs Vega-GPUs.
Bei keinem ist bisher NGG aktiv oder alternative Pfade für das Geometry-Processing.

Das will ich nicht bestreiten, dennoch auf Basis deiner Analyse hast du folgende Probleme genannt:
Das Problem ist das der Output von den Primitive Assembler groß ausfällt und die Crossbar von jeder World-Space-Pipeline die Geometrie zu den entsprechenden Screen-Space-Pipelines weiterreichen kann, dass bedeutet es gibt viele Verbindungen für den Transport.
Aktuell sind es 4x4-Verbindungen, die weitere Skalierung davon erscheint entsprechend kostspielig und ungünstig, da der Aufwand quadratisch zunimmt, wenn man nach wie vor einen gleichmäßigen Austausch gewährleisten möchte.

Ein anderes Problem ist das man effektiv die API-Regeln befolgen muss, dass heißt das erste Dreieck was reinkommt, muss auch als erstes raus, wobei man zwischenzeitlich Out-of-Order arbeiten kann, aber allgemein kann folgendes auftreten; mehrere Dreiecke überlappen mehrere Screen-Tiles und müssen von mehreren Screen-Space-Pipelines berechnet werden.
Nun kommt es vor das die Arbeitslast nicht identisch zwischen den Screen-Space-Pipelines ausfällt.
Wird eine Screen-Space-Pipeline stärker belastet bzw. müssen dort mehr Daten in den Buffer geschrieben werden, kann der zuerst volllaufen.
Ist der Buffer voll, kann die Screen-Space-Pipeline keine weitere Arbeit mehr entgegen nehmen und wenn ein Dreieck von mehreren Screen-Space-Pipelines bearbeitet werden muss, dann muss jede andere Screen-Space-Pipeline auf die warten die gerade voll ist.

Problem 1: Die World-Space-Pipeline fällt komplett weg, das übernimmt nun die pre-processing compute shader stage. Nach vorheriger Verarbeitung(Culling, offenbar Treiber mit Berechnung der CPU) wird weitergeleitet.
Problem 2: Entfällt nun wahrscheinlich, siehe folgendes
" [0035] One use for the pre-processing compute shader stage 330 is to perform culling. Culling involves removing elements that will not significantly impact the final rendered scene. Elements outside of the view frustum (i.e., the 3D portion of space that can be viewed by the view camera for which rendering is being performed) are removed in a process referred to as frustum culling. Elements that are invisible to the camera because the "back" face of such elements face the camera are removed in a process referred to as "back-face culling." Elements that are blocked or "occluded" by other elements and are therefore not visible in the rendered scene are removed in a process referred to as occlusion culling. Elements that are too small to be visible in the rendered scene (e.g., primitives that are so small that the primitives do not "cover" any pixel sample) are removed in a process referred to as small primitive culling. Other types of culling operations are known in the art as well. The preprocessing computer shader stage 330 operates in an "asynchronous" manner

with respect to the rest of the graphics processing pipeline 134, in that the graphics processing pipeline 134 can process data (e.g., culled primitives) as soon as such processed data has been processed by the compute shader stage 330. "


Die API bestimmt also nicht mehr die Regeln, da das Culling bereits vorher bestimmt was in die Pipeline kommt.Der Rest wird auf zwei Ebenen vorgehalten.Belastet aber nicht mehr aktiv Pipeline.
Ein schönes Beispiel hierzu wäre FFXV, das sinnlose Sachen berechnet in seinem Benchmark.
 

Locuza

Lötkolbengott/-göttin
Ugh, Patente lesen macht mir keinen Spaß, kostet viel Zeit, ist unübersichtlich, definiert jedes mal Krimskrams und wiederholt sich gerne.
Die Zielsetzung und teilweise die Umsetzung ist ähnlich zu dem Patent Primitive Shader.
Hier erzeugt der Treiber auf Basis vom Vertex-Shader unterschiedliche Ausführungsprogramme, welche die Compute-Units berechnen und unnötige Geometrie rausfiltern, die Ergebnisse werden in einen Buffer geschrieben, aus dem die Grafikpipeline liest und somit keine unnötigen Berechnungen ausführt.

Bei den Primitive Shadern muss natürlich auch der Treiber das entsprechende Programm erzeugen, hier culled die Grafikpipeline am Anfang die Geometrie und verarbeitet auch nicht weiter unnötige Geometrie.
Dort wird aber noch mehr in Bezug auf die High-Level-Umsetzung beschrieben und wie der Rest der GPU aufgebaut ist.

An die API-Regeln muss man sich aber immer halten, bis zudem Punkt, ab welchem man noch API-Konform ist und keine Bildfehler auftauchen.
Auch aktuell culled AMDs/Nvidias Hardware über Fixed-Function-Einheiten unnötige Geometrie und der Rasterization-Vorgang geschieht später auch nicht strikt In-Order, sondern kann zwischenzeitlich Out-of-Order ausgeführt werden, aber der Output muss sich an die Reihenfolge halten, wie der Input sie eingeschoben hat.
 

sterreich

Software-Overclocker(in)
Da kommt nix mehr mit PS für die alten Vegas. Das Treiberteam dürfte längst mit der Arbeit für die 7nm Chips ausgelastet sein.

Genauso könnte man drauf warten, dass AC nochmal anständig auf Pascal läuft, obwohl das Problem inzwischen mit Turing gefixt wurde.

Was Treiberunterstützung älterer Karten angeht ist AMD aber doch ein anderes Kaliber als Nvidia.
 

Locuza

Lötkolbengott/-göttin
Das hat nichts mit Schlechtreden zu tun.
Die einzige GPU welche Ende 2018 erscheinen soll und das eig. nur für Enterprise-Kunden ist Vega20, welcher unter 7nm hergestellt wird, bis zu vier HBM2-Stacks bietet und laut Leaks weiterhin nur 4096 ALUs.

Wenn AMD V20 für Konsumenten bringen würde, haben sie was davon einen 7nm Chip mit HBM2-Speicher für 399€ zu verkaufen?
Sicherlich keine guten Finanzen.
 

Gurdi

Kokü-Junkie (m/w)
Das hat nichts mit Schlechtreden zu tun.
Die einzige GPU welche Ende 2018 erscheinen soll und das eig. nur für Enterprise-Kunden ist Vega20, welcher unter 7nm hergestellt wird, bis zu vier HBM2-Stacks bietet und laut Leaks weiterhin nur 4096 ALUs.

Wenn AMD V20 für Konsumenten bringen würde, haben sie was davon einen 7nm Chip mit HBM2-Speicher für 399€ zu verkaufen?
Sicherlich keine guten Finanzen.

Er bezieht die Preise auf V56/64, nicht auf V20!
Naja betreiben wir kein unnötiges Schattenboxen hier, kommt Zeit kommt Rat.
 

Locuza

Lötkolbengott/-göttin
Er bezieht die Preise auf V56/64, nicht auf V20!
Naja betreiben wir kein unnötiges Schattenboxen hier, kommt Zeit kommt Rat.
Er sprach von 2070/2080-Leistung (-5-10%) für 399/499€ und hat auf das Event verwiesen, wo AMD ausführlich über 7nm Produkte sprechen möchte.
Eine V64 ist im CB-Index 25-27% langsamer, als eine 2080FE und eine V56 18% langsamer, als eine 2070 Turbo.
Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase

Eine V56 kostet bei Mindfactory >399€, eine V64 >470€.
Die einzige Möglichkeit für V10, um den Wunsch zu erfüllen, wäre spekulativ ein 12nm Refreshe von V10, damit der Abstand ungefähr dort liegt, wo man es möchte.
 

Locuza

Lötkolbengott/-göttin
Achja stimmt...
Bin schon sehr auf das Horizon-Event gespannt, die Katze aus dem Sack, Primitive Shader, 399€ und so weiter...
 

seahawk

Volt-Modder(in)
Ist doch konservativ. Sagen wir 10% durch die Primitiveshader und 20% Takt und man ist an der 2080er locker flockig vorbei.
 

ATIR290

Software-Overclocker(in)
Die 7nm Karten sicherlich, aber dies dauert noch gute 8 Monate!
Dafür muss Vega 56 / 64 herhalten und zum guten Preis echt eine Alternative, zudem die NV Karten derzeit andere Probleme bereiten!
20% schneller und man ist knapp drann,- bei Neuen Games wohl fast Gleichstand.
 

Gurdi

Kokü-Junkie (m/w)
"After generating the automatically generated shader programs, the software module transmits the automatically generated shader programs to the graphics processing pipeline for execution. These shader programs process primitives received from the host CPU for processing by the graphics processing pipeline and thus act as a sort of “front end filter” for the graphics pipeline. After culling primitives, the automatically generated shader programs output culled primitives to the remainder of the graphics processing pipeline. The graphics processing pipeline thus avoids processing primitives that are culled by the shader programs, reducing the amount of work to be performed by the graphics processing pipeline and improving performance of the graphics processing pipeline."
 

DARPA

Volt-Modder(in)
Hier gehts um den DSBR, welcher bisher per default deaktiviert war und APP spezifisch aktiviert werden musste. Denn er konnte die Performance auch negativ beeinflussen,
Nun hat sich wohl gezeigt, dass inzwischen die meisten/populärsten Vulkan Titel unter Linux vom primitive binning profitieren, so dass es ab sofort per default aktiv ist im Treiber.
 
Oben Unten