AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Conservative Rasterization (Windows)

InnerCoverage interaction

[FONT=&quot]"This feature is required by, and only available in, Tier 3. The runtime will fail shader creation for shaders that use this mode when an implementation supports a Tier less than Tier 3."
[/FONT]
[FONT=&quot]
Die bessere Shaderauslastung gibs nicht umsonst, da steckt Arbeit dahinter ;)[/FONT]
[FONT=&quot][/FONT]
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

[...]
Du hast genauso behauptet (wegen deinem verlinkten Twitterthread) Primitveshader müssen unter Paht's wie directX nicht vom Entwickler angesprochen werden. Der Primitivshader ist zwar Teil der AMD NGGP Strategie, dass bedeutet aber nicht - das er nicht angesprochen werden muss, von APIs, Engines und Treiber unterstützt wird und ein Selbstläufer ist (du wirfst dabei einfach alles in einen Topf). Ansonsten fällt das Modell in einem Fallbackmodus und coexistiert mit bekanntem Geometrieprocessing. Das war die grundlegende Aussage die Dir nicht in den Kram passte und das Vega z.Z. die am weiten entwickelte directX GPU im Comsumer-Markt ist, weil du gerade vorher deinem Weltbild fröntest wie toll nVidia doch alles weiterentwicklet hat.
Rys Aussage ist eindeutig, ich behaupte doch nicht einfach aus der heißen Luft heraus, dass Primitive-Shader keine direkte Entwicklerkontrolle voraussetzen, sondern beziehe mich auf das, was ein AMD-Mitarbeiter sagt.
Und wenn es transparent über den Treiber funktioniert, dann ist die API egal, da die logische Pipeline was die Geometrie-Erzeugung angeht unter den APIs praktisch gleich ausfällt.

Der dickgetruckte Vorwurf ist mal wieder Unsinn aus dem nirgendwo, der von mir nicht genannt oder in der Art dargestellt wurde, ebenso hast du mir nicht beantwortet woher dein Einwurf mit RPM-Support bei Wolfenstein 2 herkam, der von mir auch nicht angekratzt wurde, ebenso wenig irgendeine Darstellung davon, dass die neuen explicit APIs oder irgendeine Treibereffizienz keinen Sinn ergibt.
Entsprechend nein, ich provoziere nicht und stelle dich auch nicht in eine falsche Opferrolle, sondern es kommt konstant Unsinn auf den Tisch, welcher wenig bis nichts mit meinen Beiträgen zu tun hat.
Würde das nicht stimmen, dann könntest du mir ja all meine Fragen bezüglich deiner Vorwürfe beantworten und woher diese kommen, mit einem direkten Zitat oder einer logischen Ableitung.
Los probiere es mal.

Wenn eine programmierbare Geometriepipeline also überhaupt nicht angesprochen wird, wie soll sie dann in Hardware funktionen. Letztlich braucht es dann auch keinen Treiber der etwas aktiviert oder nicht aktiviert. Die Leistungsgewinne bezogen sich bei AMDs Präsentationen grundsätzlich auf Deferred-Shading-Anwendungen, die von dem Loadbalacing der neuen Pipeline besonders profitieren können und natürlich ging RTG dabei von Fijis Leistungsvermögen aus.
Die Spieleentwickler verwenden irgendeine API, DX11/12/OGL/Vulkan und verwenden die logische Renderingpipeline davon, sprich wenn jemand Vertex/Hull/Domain/Pixel-Shader oder ähnliches schreibst, nimmt das der IHV-Treiber entgegen und mapped das passend auf die Fähigkeiten der Hardware.
ARM hat den Tessellationschritt unter den APIs intern über das Shader-Array gemapped, ohne extra Fixed-Function-Hardware dafür zu verbauen.
Einfach nur als Beispiel welche Freiheit bei der Umsetzung der APIs existiert, solange die Spec erfüllt wird.

Bei Primitive-Shadern nimmt der Treiber den Vertex/Domain/Geometry-Shader-Input von der API auf und erstellt einen monolithischen Primitive-Shader, was angeblich den Durchsatz stark erhöhen soll.
Bei den Leistungsangaben wird nirgendwo darauf aufmerksam gemacht, dass man sich grundsätzlich nur auf Deferred-Shading bezieht, dass wird in keiner Präsentation direkt genannt:
Hier das White-Paper (Primitive-Shader ab Seite 6):
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Marketingfolie:
https://cdn01.hardwareluxx.de/razun...sdeck-27_52F58B13B6A94879BA8D8AFE2DCC2615.jpg

Marketingbeschreibung:
Enhanced Geometry Engine

The “Vega” architecture is designed to tackle the ever-increasing demand for more complex and detailed 3D graphics with an efficient new geometry engine. It combines the brute force of dedicated parallel processing pipelines with intelligent load balancing and new fast paths to deliver a major step forward in polygon throughput.

The most challenging workloads for a GPU can present it with millions of geometry primitives per frame, all of which must be evaluated to determine their contribution to the final image. New primitive shader technology allows Radeon Pro Vega graphics to perform geometry culling at an accelerated rate, eliminating unnecessary work for the rest of the GPU. An advanced workload distribution mechanism then assigns processing tasks to the available pipelines in a way that maximizes their utilization and avoids idle time. The result is Radeon Pro Vega graphics is capable of rendering extremely complex 3D models and scenes smoothly in real time.
Radeon Pro Vega | Radeon Creators

Beim IWD stellt AMD besondere Vorteile für Anwendungen heraus, welche oft den Render-Zustand der dargestellten Szene ändern und kommt das bei Deferred-Renderer deutlich häufiger vor, als bei Forward?
One factor that can cause geometry engines to idle is context switching.
Context switches occur whenever the
engine changes from one render state to another, such as when changing from a draw call for one object to that of a different object with different material properties.
The
amount of data associated with render states can be quite large, and GPU processing can stall if it runs out of available context storage.
The IWD seeks to avoid this
performance overhead by avoiding context switches whenever possible.

Das "tradionelle" Geometrieprocessing mit directX_Path (en) sieht völlig anders aus, als das was AMDs Hardware kann, nur willst du das einfach nicht verstehen und kommst mit dem, was unter anderen Extensionen möglich ist!
Die Behauptung war, dass Primitive-Shader die logische Pipeline von den APIs intern anders auf die Hardware mappen, als bisher und das es ohne Engine-Änderungen oder API-Erweiterungen funktioniert.
Gleichzeitig habe ich auch am Anfang gesagt, dass mit einer direkten Entwicklerkontrolle möglicherweise mehr Potential bereitsteht, eine absolute Notwendigkeit würde laut Rys Aussagen aber nicht bestehen, im Gegenteil, zu dem Zeitpunkt seines Tweets war nicht einmal eine direkte Entwicklerkontrolle geplant.

Ich habe übrigens gar keine Exentsions als Beispiele von irgendwelchen Möglichkeiten genannt oder findest du ein Zitat von mir diesbezüglich?

Die AMD Einheit kann dabei vermutlich gleichzeitig über Surface, Tesselator und VS/DS Primitive direkt (Position, Culling, Attribute) weiterleiten und zurück über GS ausführen (bidirectional), oder aber den (unidirectionalen) Weg über die neuen zusätzlichen Primitivshader wählen, was den Peak merklich anheben sollte (was vermutlich in Eigenverwaltung der Hardware umsetzbar ist), da die Shader sehr effizient sein sollen und dabei deren Energiebedarf kaum ins Gewicht fällt, wodurch durch das frühzeitige Verwerfen von Primitiven die Pipeline einfach viel mehr ausführen kann. Und nur da kommt es auf die Logik des Treibers an.
Siehe oben, wo ich im Prinzip das gleiche meine.

Die Einheit kann also tatsächlich aktiv sein, nur bringt es eben nichts. Zu behaupten sie erst gar nicht vorhanden macht es nicht besser.
Meine Behauptung war, dass der neue Geometrie-Pfad existiert und ich nicht vermute das irgendetwas kaputt ist.
Aus unbekannten Gründen scheint AMD die neuen Möglichkeiten noch nicht auszunutzen und es gibt keinen öffentlichen Treiber, welcher die neue Geometrie-Pipeline umsetzt.
Keine Ahnung was AMD aufhält, aber der letzte aktuelle Stand und der ist monatelang her, war das Primitive-Shader nicht aktiv sind.

Das war jetzt mein letztes Posting dazu, weil mich das "Mimimi" drumherum einfach nervt, denn das größte Problem damit haben nicht mal die AMD Fans oder Besitzer einer Vega, sondern alle anderen!
"Mimimi"
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Zurzeit gibt kein einziges Game, welches dieses feature bisher verwendet, weil es bis Vega keine leistungsfähige Hardware gab, die das kann.
Wie soll es auch ein Game geben, wenn das Feature im Treiber einfach nicht freigeschaltet ist? :ugly:

Die bessere Shaderauslastung gibs nicht umsonst, da steckt Arbeit dahinter
Besser als was? Fiji? :ugly:

:lol:
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

In DX12 ab einer bestimmten Windows Version 1703 oder gar die letzte 1709, davor war es nur im Entwicklermodus verfügbar, wie aktuell SM6.1.
SM6.0 welches über den neuen Compiler übersetzt wird stellt nur ein Softwareupdate dar, zwar kamen Wave-Operations dazu, diese müssen von den Treibern aber nicht zwingend implementiert werden.
Ab FL12.0 ist das neue Modell aber eine Voraussetzung unter DX12.

----

PCGH und viele weitere Nachrichtenquellen haben über erste AMD Aussagen berichtet oder ihre Interpretation der ersten schwammigen Präsentationen dargelegt.
In einem Interview ganz am Jahresanfang von 2017 mit Scott Wasson hieß es auch, dass Entwickler das steuern können, ganz im Widerspruch zu den Plänen, welche Rys nachdem Launch der Radeon Frontiers Edition getweetert hat und der transparenten Funktionsweise im Treiber.
Es liegt in diesem Fall auch nicht an mir die Widersprüche aufzulösen, sondern an AMD selber.

Ich vertraue aber auf Rys Darstellung und einer direkten Nachfrage von Anandtech:
24. August 2017 schrieb:
Quick note on primitive shaders from my end: I had a chat with AMD PR a bit ago to clear up the earlier confusion. Primitive shaders are definitely, absolutely, 100% not enabled in any current public drivers.

The manual developer API is not ready, and the automatic feature to have the driver invoke them on its own is not enabled.
AMD Vega Hardware Reviews | Page 59 | Beyond3D Forum

Zum RX Vega Launch hat Computerbase das gleiche berichtet:
Laut AMD soll die maximale Durchsatzleistung für Geometrie auf Vega durch die „Next-Generation Geometry Engine“ um den Faktor vier höher ausfallen als beim traditionellen Rendern. Die Primitive Shader werden vom Treiber verwaltet und müssen nicht manuell in die Software integriert werden. Entwickler können das aber tun.

Problem: Auch dieses Funktion ist im Treiber derzeit noch deaktiviert. Vega nutzt aktuell also nur die traditionelle Pipeline. Wann sich das ändert? AMD nennt keinen Termin.
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten - ComputerBase

----

Mimimi ist gar nicht meine Meinung, aber deinen Eindruck darfst du von mir aus behalten.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Sag doch lieber in verständlichen Worten, was der eigentliche Bezugspunkt bezüglich SM6.x sein soll?
Wieso wurde das Thema genannt und was soll es verdeutlichen?

Und was erhoffst du dir davon, wenn ich noch einmal alles durchlese beginnend ab DX11.3?
Komm, anstatt das ich ~10 Seiten lese, hilf mir doch gleich die Abkürzung zu nehmen und sag worauf du hinaus willst.

Ich ziehe Schlüsse anhand der Quellen die ich verlinkt habe.
Du schmetterst die Nachfrage von Ryan Smith von Anandtech ab, welche du pauschal als B3D über den Kamm scherst, die praktisch gleiche Computerbase Aussage wird ignoriert und bei Rys Tweets hast du am Anfang versucht den ganzen Kontext auf eine Vulkan-Erweiterung zu beschränken.

Du kannst ja gerne bessere Quellen oder Ausführungen mir darlegen und aufzeigen, wie fehlgeleitet meine Schlüsse doch sind.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Hallo PCGH Community!

Die Diskussion, die sich in diesem Thread zugetragen hat, finde ich sehr interessant und ich nahm das als Anlass mich hier zu registrieren. Ich habe mir ein paar Quelltextdateien des Linux Mesa OpenGL Treibers angesehen, und festgestellt, dass dort bereits Unterstützung für die kombinierten Shader Stages von Vega vorhanden ist. In den Kommentaren des Quelltextes wird auch erklärt, dass der Shader Compiler das Kombinieren übernehmen muss. Allerdings bin ich mir nicht sicher, ob man kombinierte Shader Stages mit Primitive Shadern gleichsetzen kann.

si_shader.h\radeonsi\drivers\gallium\src - mesa/mesa - The Mesa 3D Graphics Library
si_shader.c\radeonsi\drivers\gallium\src - mesa/mesa - The Mesa 3D Graphics Library

LLVM git erhält auch immer noch kleinere Fixes für die Codegeneration auf Vega und bekam vor 20 Tagen sogar noch Support für neue Instruktionen nachgereicht - die vollständige Unterstützung für Vega ist also anscheinend noch nicht erreicht:

Search * gfx9 * GitHub

Mein Wissen reicht leider nicht aus, um einschätzen zu können, wie aufwendig es ist, einen Compiler für eine neue Grafikkartenarchitektur zu entwickeln, aber ich stelle einfach mal die Hypothese in den Raum, dass AMD hier noch Probleme mit Vega hat, beziehungsweise sich ein schwer zu diagnostizierender Compilerfehler eingeschlichen hat.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

@ kiffmet

Willkommen an Board, mit einer der besten Einstiegsbeiträge in einem Forum. :daumen:

Als Laie werde von den Mesa-Patches nicht besonders schlau, sowie es aussieht existieren bei Vega immer nur zusammengeführte Zustände.

Eine Passage am Anfang sieht interessant aus:
* Since GS and tessellation are only possible in the OpenGL core profile,
* only these semantics are valid for per-vertex data:
*
* Name Location
*
* POSITION 0
* PSIZE 1
* CLIPDIST0..1 2..3
* CULLDIST0..1 (not implemented)
* GENERIC0..31 4..35
Soll das eine nicht implementierte Funktion darstellen oder gäbe es in dem Fall logisch gesehen einfach keine Location?

Da die PR weitergab, dass Primitive Shader noch nicht aktiviert sind, muss da noch ein Tick fehlen, gegenüber der aktuellen Funktionsweise von Vega.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Um Shader effektiver zu machen, hat nV bei Maxwell und dessen Workloadbalancing Änderungen vorgenommen in dem man letztlich Latenzen reduzierte um die Effektivität zu steigern. Das gelang ihnen mit einem Warp Scheduler wobei diese festen Shadereinheiten zugeordnet sind. Diese sind in der Lage mathematische Operationen an die Shader weiterzuleiten und genauso auch Speicheroperationen an die LSU (load_store_unit) zu liefern, wobei es dabei möglich ist nur bei einer Art Operation alle Shadereinheiten effektiv auszulasten.

AMDs Vega Shaderarchitektur soll in Grunde genommen ähnlich aufgebaut sein, wobei nV's auf Cuda und damit wohl proprietären Technologieansätzen basiert. Vermutlich fehlt AMD derzeit die Unterstützung für deren Load/Store_Architecture und damit für die "Next-generation Vega architecture". Das lässt sich dann nicht mit einem einfachen Treiberupdate beheben.
Und woher kommt jetzt dieser Einfall und bezieht sich auf was?

Der grundlegende Aufbau von GCNs Compute-Units hat sich seit der ersten Generation nicht verändert.
Ein Scheduler füttert der Reihe nach 4xSIMD16 durch, mit jeweils einer 64-Thread großen Workgroup.
Eine SIMD arbeitet die Workgroup statisch in 4-Zyklen durch und bekommt dann wieder die nächste Workgroup vom Scheduler.
Die Load/Store-Umsetzung ist genauso identisch geblieben.

Nvidia hat dagegen von Kepler, zu Maxwell, GP100 Pascal und jetzt neuerdings Volta immer mal etwas am Aufbau verändert.
Bei Maxwell/Pascal sind es eben vier fest zugestellte Scheduler, welche jeweils eine SIMD32 versorgen mit einer 32-Thread großen Workgroup.
Die Latenzen (für gängige) arithmetische Operationen waren bei Fermi sehr hoch (~20?), bei Kepler waren es ~9, bei Maxwell/Pascal sind es 6.
Volta setzt ebenso wie GCN auf eine Latenzzeit von 4.

Alle Architekturen setzen auf völlig proprietäre Technologie auf, dass ist deren ISA und IP, niemand teil irgendeinen Bestandteil davon mit anderen.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Imho zeigt es klar, dass AMD auf einem guten Weg ist und wir noch viel von Vega erwarten dürfen.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Ich hab mal wieder ein paar (13) Postings entfernt. Bitte bleibt beim Thema und klärt persönliche Probleme per PM!
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Soll das eine nicht implementierte Funktion darstellen oder gäbe es in dem Fall logisch gesehen einfach keine Location?

Ich glaube das bezieht sich nur auf die Location. Culldist selbst wird schon seit längerem von anderen Radeon Karten genutzt.

Unklar ist für mich noch, inwieweit die Location Funktion von Culldist für den neuen Geometriepfad benötigt wird, beziehungsweise, wie man diesen aktiviert. Wahrscheinlich muss man wie beim primitive Binning zuerst Bits in bestimmten Registern setzen. Da AMD bis jetzt aber nur die ISA Dokumentation herausgegeben hat und die "3D/Compute Programming Guide", sowie die "3D/Compute Register Reference Guide" noch fehlen, könnte sich das für Hobbyentwickler aber als sehr schwierig bis unmöglich herausstellen.

Etwas habe ich aber noch gefunden: gfx9d.h\common\amd\src - mesa/mesa - The Mesa 3D Graphics Library Ganz oben in der Datei steht "Vega 3D Registers", also zu mindest eine Liste von Registern und Registerinhalten, die einen gewissen Status des Chips anzeigen bzw. setzen gibt es. Wie man diese Dinge vernünftig verwendet, weiß bis jetzt aber nur AMD.

Hier noch mein Versuch, die Präfixe in den Einträgen zu entschlüsseln:

R_ .... (Register) Beispiel: mesa/si_state_shaders.c at 9f54675dbe01518ec4b71e8fc9b4f6e777b27185 * mesa3d/mesa * GitHub
S_ .... (Set) Konversionsroutine für den Programmierer, um Registerinhalte zu setzen. Kodiert ein gegebenes Bitmuster aus dem Treiber für die Hardware, wird verwendet mit si_pm4_set_reg();
G_ .... (Get) Wie Set, nur anders herum. Hardwarestatus als Bitmuster wird für den Treiber umkodiert. Beispiel : mesa/si_state_shaders.c at 9f54675dbe01518ec4b71e8fc9b4f6e777b27185 * mesa3d/mesa * GitHub
C_ .... Konstanten bzw Registeraddressen/-bezeichner??
V_ .... (Value) Zulässige Werte für einen Registerinhalt, siehe AMD Evergreen Registerdokumentation: http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/10/evergreen_3D_registers_v2.pdf

Hier gibt es noch eine Grafik, die aufzeigt, welche Teile des Treibers die Registerdefinition verwenden:
https://fossies.org/dox/mesa-17.3.0/gfx9d_8h__dep__incl.png

An mehreren Stellen im Code wird kommentiert, dass der Treiber Workarounds für dysfunktionale Elemente in LLVM verwendet, wie zum Beispiel hier: https://github.com/mesa3d/mesa/blob...5/src/gallium/drivers/radeonsi/si_pipe.c#L808

gfx9d.h enthält auch V_028A90_ENABLE_NGG_PIPELINE, dieses wird jedoch noch nicht im Treiber verwendet.

Inwieweit sich die Erkenntnisse aus dem Linux Treiber auf Windows übertragen lassen, ist mir unklar, vor allem, was den Status von LLVM anbelangt, da dieses unter einer BSD-ähnichen Lizenz steht und AMD dadurch einen eigenen, internen Fork machen darf, ohne dies irgendwie nennen zu müssen, bzw. ohne den Zwang, Änderungen in den öffentlichen Hauptzeig zurück einzupflegen. Aufgrund dessen, dass AMD aber auch den quelloffenen Linux Treiber pflegt, werden zu mindest ein paar der Änderungen auch wieder im Hauptzweig landen.

Eine m.M.n. vernünftige Annahme wäre es jedoch, dass AMD mit der Implementierung der restlichen Hardwarefeatures noch wartet, bis der Compiler korrekt funktioniert. NGG setzt korrekt funktionierende Primitive Shader voraus, welche wiederum auf den Compiler angewiesen sind. Anscheinend wird aber momentan daran gearbeitet, da seit Adrenalin das Vertex Processing im Treiber nicht richtig funktioniert laut https://github.com/PCSX2/pcsx2/issues/1552 (Post ganz unten). Das ist ein Indiz dafür, dass der Codegenerator für Vertexshader überarbeitet wurde/wird.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Auf Sprachen und die reine Unterstützung durch APIs, dazu hatte ich schon "Buzzwords" geliefert, da schriebst Du noch im DX Delirium.

Die Sprachen haben alle große Ähnlichkeit mit C. GLSL (OpenGL Shading) von OpenGL ist nicht unter directX lauffähig. HLSL (High Level Shading) als directX Komponente für die Shaderprogrammierung nicht unter OpenGL lauffähig. Cg (C for Graphics) von nV läuft unter OpenGL und directX, wobei als Besonderheit an Cg ist, dass sich Cg Code für GLSL und HLSL compilieren lässt.

Was einem vielleicht noch Sorge machen könnte und das ist reines spekulieren, AMD ist mit seiner Entwicklung zu nahe an nV und müsste dann unter directX vermutlich mit einer Patentklage rechnen. Das wäre der schlimmste anzunehmende Fall.

Bis dort eine Einigung besteht, müsste das Primitiveshading out verbleiben.
Das ist jetzt schon der vierte(?) Themensprung in Folge, ohne auf vorherige Beiträge oder darin enthaltenden Fragen einzugehen, um der aus meiner Sicht konfusen Lage, irgendeinen schlüssigen Boden zu geben.
Davor war es ein Absatz über Scheduler/Load/Store-Implementierung etc. und nun sind es Shading-Sprachen und eine Spekulation, dass AMD zu nah an Nvidias Technologie entwickelt und unter DX eine Patentklage drohen könnte.
Das ergibt alles keinen Sinn, vor allem eine mögliche Patentklage unter der DX-API und es hat auch keinen erkenntlichen Zusammenhang mit AMDs Primitive-Shadern.

@Locuza
Hast Du wirklich übersehen, was ich anfänglich geschrieben habe oder hast du es ignoriert?

11.3+ (deshalb habe ich Dich gebeten es nochmal nachzulesen).

Vermutlich weisst Du das diese nur für W10 angeboten werden und Multi_device synchronization mitbringen, wobei die Hardware (soweit fähig) darunter den NV12_texture Support (Suballocation, Ringbufferfunktionalität usw.) ausführen kann und das Level auch bestimmte Multithreadedfunktionalität mitbringt, die unter anderen Windowskerneln eben so nicht ausgeführt werden kann (so jedenfalls M$ - was @CB damals geschrieben hat = W8.1 usw. dürfte nicht stimmen). Ich möchte die ganze Diskusssion rund um das Thema (und auch was Rys Bemerkungen angeht) trotzdem auf dem jetzigen Level belassen, warum M$ das vermutlich so machte habe ich versucht anzudeuten. Das hat auch nichts mit Dir persönlich zu tun.

Zumindest sind wir beide einer Meinung, wenn wir schreiben - dass nur AMD PR das Thema rund um die Primitiveshader direkt auflösen kann. Zumindest sind sie nach Erkenntnissen hier, mehr vorhanden als sie fehlen.
Wieder Hokuspokus neue Einwürfe (NV12-Format) aus dem Nichts, was keinen logischen Bezug zu Primitive-Shadern oder den vorherigen Beiträgen besitzt.
Das bringst du jetzt kannst frisch heraus, mit maximalen Bezug was "DX11.3+" angeht, ohne dich davor konkret darauf bezogen zu haben.

Ich bin schon gespannt, welche Wundertüte man mit dem nächsten Beitrag erwarten kann.

[...]Da AMD bis jetzt aber nur die ISA Dokumentation herausgegeben hat und die "3D/Compute Programming Guide", sowie die "3D/Compute Register Reference Guide" noch fehlen, könnte sich das für Hobbyentwickler aber als sehr schwierig bis unmöglich herausstellen.
[...]
Inwieweit sich die Erkenntnisse aus dem Linux Treiber auf Windows übertragen lassen, ist mir unklar, vor allem, was den Status von LLVM anbelangt, da dieses unter einer BSD-ähnichen Lizenz steht und AMD dadurch einen eigenen, internen Fork machen darf, ohne dies irgendwie nennen zu müssen, bzw. ohne den Zwang, Änderungen in den öffentlichen Hauptzeig zurück einzupflegen. Aufgrund dessen, dass AMD aber auch den quelloffenen Linux Treiber pflegt, werden zu mindest ein paar der Änderungen auch wieder im Hauptzweig landen.

Eine m.M.n. vernünftige Annahme wäre es jedoch, dass AMD mit der Implementierung der restlichen Hardwarefeatures noch wartet, bis der Compiler korrekt funktioniert. NGG setzt korrekt funktionierende Primitive Shader voraus, welche wiederum auf den Compiler angewiesen sind. Anscheinend wird aber momentan daran gearbeitet, da seit Adrenalin das Vertex Processing im Treiber nicht richtig funktioniert laut Meta: AMD Issues * Issue #1552 * PCSX2/pcsx2 * GitHub (Post ganz unten). Das ist ein Indiz dafür, dass der Codegenerator für Vertexshader überarbeitet wurde/wird.
Beim nachschauen sehe ich gerade, dass es nach GCN Gen 2 keine 3D/Compute Register Docs mehr gab.
Aber irgendeine konkrete Register-Implementierung muss ja irgendwann öffentlich werden, da der Kernel-Treiber AMDGPU offen ist, AMD an RadeonSI mitwirkt und auch bald ihren Vulkan-Treiber veröffentlichen möchte, wo die Situation zusammen mit dem LLVM-Status vielleicht ein wenig klarer wird.

Bridgman von AMD hat sich am 18. August bezüglich der Pläne für Linux grob geäußert:
bridgman schrieb:
Draw Stream Binning Rasterizer is not being used yet in the open drivers yet. Enabling it would be mostly in the amdgpu kernel driver but optimizing performance with it would be mostly in radeonsi and game engines.

HBCC is not fully enabled yet, although we are using some of the foundation features like 4-level page tables and variable page size support (mixing 2MB and 4KB pages). On Linux we are looking at HBCC more for compute than for graphics, so SW implementation and exposed behaviour would be quite different from Windows where the focus is more on graphics. Most of the work for Linux would be in the amdgpu kernel driver.

Primitive Shader support - IIRC this is part of a larger NGG feature (next generation geometry). There has been some initial work done for primitive shader support IIRC but don't know if anything has been enabled yet. I believe the work would mostly be in radeonsi but haven't looked closely.

For both DSBR and NGG/PS I expect we will follow the Windows team's efforts, while I expect HBCC on Linux will get worked on independently of Windows efforts.
More Benchmarks Showing How Gallium3D With RX Vega Smacks AMDGPU-PRO's OpenGL Proprietary Driver -

Phoronix Forums



Bezüglich des PCSX2 Issue, es könnte auch leider nur ein Bug sein, aber in D3D investiert AMD wenigstens mehr Ressourcen und entweder das wird gefixt oder AMD verändert tatsächlich die zugrundeliegende Implementierung.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Also ich habe das hier geschrieben und der Post ist soweit unverändert. Wenn ich etwas abändere schreibe ich grundsätzlich warum und diese Passage war davon nicht betroffen, sondern PS wurde nachträglich hinzugefügt.

http://extreme.pcgameshardware.de/n...hader-und-mehr-haeuft-sich-9.html#post9168033
-------------------

Auch diese Aussage hat keinerlei Bedeutung, weil sie sich auf den Launch von Vega FE bezog und der Treiber zu diesen Zeitpunkt unfertig war, was AMD auch einräumte.

Die Treiber werden in unterschiedlichen Stacks fortentwickelt und es geht dabei um die AMD GPU Pro Serie.
-------------------

Unter Linux dürfte NGG eher keine Rolle spielen.

Siehe auch:


Letztlich versucht er nur die Frage zu beantworten welchen Feature z.Z. der Äußerung aktiv waren und was dabei open source sein wird und was zu closed gehört. SI ist dabei open source und Pro closed, weil proprietär.

Es geht dabei auch darum, wofür sich der Entwickler entscheiden will/muss und was er dafür braucht (2D/3D), weil die FE beide Stacks unterstützt (oder jetzt beide unterstützt, weil sie es im August noch nicht vollständig tat - oder wie gewünscht).
--------------------

Ab Zeile 1099 wird es vermutlich interessant, und das sie in Hardware ausgeführt werden können.:D
1. Und da steht eben nur das:
Was soll man davon halten? Jedes Spiel das zu DX12 portiert wurde unterstützt DX11.3+. Das ist auch keine Frage der Hardware, wie du das hier gerne darstellst.
Was nicht korrekt ist und in deinen vorherigen Beiträgen meintest du ich soll ab da noch einmal deine Beiträge lesen und ganz frisch hast du NV12 und multi-device synchronization genannt.
Wenn du von DX11.3+ Unterstützung redest, dann meinst du hoffentlich damit das die API explizit verwendet wird und von der Anwendung auch angeboten wird und nicht das man Features die man unter DX12 verwendet, teilweise oder ganz zu DX11.x portieren kann, was aber manuelle Arbeit erfordert und die Aussage "jedes Spiel das zu DX12 portiert wurde unterstützt DX11.3+" nicht gilt, weil es nicht automatisch abläuft.

2. Die Fragestellung bezieht sich allgemein auf Vegas Features und welche Treiber entsprechende Funktionalität umsetzen müssen und möglicherweise es schon tun.
Dabei wurde kein einziges mal der Pro-Stack explizit erwähnt, sondern der offene AMDGPU-Kernel-Treiber und der offene User-Space Treiber RadeonSI.
Dabei meint bridgman, dass man die DSBR und Primitive-Shader Funktionalität wahrscheinlich so ähnlich umsetzen wird, wie unter Windows, während der HBCC für Linux anders optimiert wird.

Seit seiner Aussage ist Huge-Page-Support als Grundlage für die HBCC-Funktionalität dazu gekommen und Primitive Binning wurde für Vega 10 und Raven-Ridge in RadeonSI implementiert, aber für Vega10 wieder deaktivieren, da die erste Implementierung nur für Raven-Ridge optimiert war und es anscheinend Performanceregressionen mit Vega10 gab:
/* Tunable parameters. Also test with DFSM enabled/disabled. */
+ unsigned context_states_per_bin; /* allowed range: [0, 5] */
+ unsigned persistent_states_per_bin; /* allowed range: [0, 31] */
+ unsigned fpovs_per_batch; /* allowed range: [0, 255], 0 = unlimited */
+
+ switch (sctx->b.family) {
+ case CHIP_VEGA10:
+ case CHIP_RAVEN:
+ /* Tuned for Raven. Vega might need different values. */
+ context_states_per_bin = 5;
+ persistent_states_per_bin = 31;
+ fpovs_per_batch = 63;
Marek schrieb:
Our driver implementation is known to decrease performance for some tests, but we don't know if any apps and benchmarks (e.g. those tested by Phoronix) are affected.
This disables the feature just to be safe.
[Mesa-dev] [PATCH 3/3] radeonsi/gfx9: implement primitive binning
[2/2] radeonsi: disable primitive binning on Vega10 (v2) - Patchwork
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Es geht um die Performance (Benchmarks) des AMDGPU-PRO OpenGL Proprietary Driver unter open source Gallium3d, was die Entwicklung von plattformunabhängigen Treiber ermöglichen soll, dort wird halt gefragt was wie wo möglich ist und was nicht. Das kann man nicht auf Windows übertragen.
Da bist du ja richtig schön auf den DX11.3+ Absatz eingegangen und mit richtig schön meine ich gar nicht.

Dein neuer Beitrag ergibt, on a broken record, erneut keinen Sinn.
Pro-Treiber unter open source Gallium, was plattformunabhängige Treiber ermöglichen soll?
Irgendeinen Quatsch wieder interpretiert, welche die Fragestellung und Bridgmans Antwort gar nicht ermöglicht.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Wie würdest du denn deinen Link übersetzen?
So lautet das Thema vom Artikel und den darin enthaltenden Benchmarks.
Das hat aber mit der Fragestellung im Forum und der Antwort nichts zu tun, du verpackst wieder ganz andere Brötchen, um die es gar nicht geht.

Dein on a Borken kommt von dir selbst, weil du seit Ewigkeiten auf einem offtopic String umherreitest und keinen Abschluss findest. Warum auch immer.
Wegen deiner minderwertigen Diskussionskultur.
Du hast das Thema genannt, ich habe darauf geantwortet, du bist aber nicht konkret darauf eingegangen, hast rumgeeiert, bist in völlig andere Richtungen gelaufen und hast es erst kürzlich wieder selbst hervorgebracht ("lies ab DX11.3+ meine Beiträge") und Zusätze (NV12, multi device sync) addiert.
Darauf habe ich erneut geantwortet und du lässt es wieder offen.

Dieses Muster zieht sich durch fast alle Beiträge durch, du lässt eine Diskussion lose liegen, nur um neue Diskussionsgegenstände in den Ring zu werfen, die keiner logischen Führung folgen.

Primitivshader gehören zur NGGP und die hat unter Linux keine so große Bedeutung, dass lese ich dort heraus (und darum ging es ja hier grundsätzlich auch nicht). Die Shader sind imo in vorhanden...wie kiffmet's Register_Link beweist:
Die Bedeutung von NGG die Geometrie-Verarbeitung zu beschleunigen und neue Techniken zu ermöglichen liegt im Prinzip immer vor.
Es wird unter Linux ja auch gespielt und es gibt professionelle Anwendungssoftware, wo das Feature in der Theorie helfen kann.

Bei Vega existieren offenkundig ein paar States nicht mehr und die entsprechenden Shader-Typen werden anders erzeugt, aber zusammen mit den öffentlichen Aussagen von AMDs PR und auch Benchmark-Ergebnissen, deutet es nicht darauf hin, dass dies das versprochene Feature darstellt.

Vielleicht hast du auch ein Teil von kiffmets Beitrag übersehen:
kiffmet schrieb:
gfx9d.h enthält auch V_028A90_ENABLE_NGG_PIPELINE, dieses wird jedoch noch nicht im Treiber verwendet.

Alles Linux, was soll das mit directX zu tun haben?
Nichts hat das damit zu tun, erneut kann ich dich nur danach fragen, wie du auf diesen Zusammenhang aufgrund meiner Beiträge gekommen bist.

Wer macht das sonst?
:schief:
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Unten Getrolle mit Smilies, in der Mitte irgendwas - wie: könnte - würde - sollte und entspricht dabei nicht dem Versprochenem (Frage worauf das basiert das) und oben offtopic. Was erwartest du für Antworten?
Eine Antwort die logisch auf einen vorherigen Beitrag eingeht oder überhaupt noch einmal an den Kontext anknüpft.
- Z.B., woher kam dein Einwand bezüglich RPM was Wolfenstein 2 anging? Es gab keine Grundlage dazu ausgehend von meinen Beiträgen, richtig?
- Woher kam dein Einwand bezüglich der LL APIs und der Treibereffizienz, die ich angeblich als unsinnig dargestellt habe? Ich habe nichts davon in dem Aspekt zur Diskussion gebracht.
- Die Darstellung das es mir angeblich nicht passt, dass Vega das fortschrittlichste DX-Modell umsetzt, was auch nirgendwo Gegenstand der Debatte war und mein "Weltbild" welches sich gefrönt hat, wie toll sich alles bei Nvidia weiter entwickelt hat.
Das Nvidia mit Maxwell eine Menge verbessert hat im Vergleich zu Kepler ist praktisch erwiesen und wurde auf eine Frage von Schaffe89 ein wenig ausgeführt, ebenso ist es offensichtlich das Nvidia deutliche Fortschritte bei der Entwicklung ihrer IP erzielt, was kein Fanboy-Gelaber darstellt.
Das der Perf/Watt Abstand schlecht für AMD aussieht und ich dank AMDs geringen R&D-Budget für Navi und die Zukunft keine überdurchschnittlichen Zuwächse erwarte und damit weiterhin nur beschränkte Konkurrenzfähigkeit, ist auch keine grundlose Befürchtung und stellt kein AMD flame/bash dar.
- Der Abschnitt bezüglich des Warpschedulers/Load/Store-Unit und der Shader-Architektur hat sich auf Nachfrage hin (Es kam zu meiner eigenen Überraschung tatsächlich mal vor, dass du den Bezug genannt hast) angeblich auf die Sprachen und die Unterstützung der APIs bezogen, dann gab es ein Ausflug was Cg angeht, was offiziell nicht mehr von Nvidia unterstützt wird und auch keine Bedeutung bezüglich AMDs Technologie besitzt.
Es gibt keine Sorgen die man sich bezüglich Patentklagen machen muss und der ganze Ausflug von Schedulern/Load/Store auf Shading-Languages usw. kann von mir in kein logisches Gebilde eingefügt werden.

Eine Menge Offtopic, ja, aber alles Punkte die von dir aus dem Boden gehievt worden sind, von mir auch eingegangen, nur um mehrheitlich ignoriert zu werden.
Öffentlich musst du auch nicht darauf antworten, da Offtopic, aber fühl dich frei mir eine PN zu schreiben.

Mesa ist Linuxgerödel, was AMD unter Linux abliefert ist doch wieder was völlig anderes. Selbst wenn es in einer Art Virtuallisierung läuft kannst du das doch nicht allgemein einfach auf Windows oder directX übertrage, wenn der Treiber etwas nicht tut, kann es nur sein das ist so gewollt oder nicht gewollt. Die Absicht bleibt unerklärt. Lösen tut es AMD selbst. Und was PR Abteilungen von sich geben, dass ist so wie bei Politikern - "Was interessiert mich der Scheiß den ich gestern gesagt habe".
Der Beitrag hat sich auf kiffmets Fragestellung bezogen, in wie fern sich die Linux-Erkenntnisse auf Windows übertragen werden können.
Der Zusammenhang wurde von mir nicht schön verlinkt, aber ich habe es teils allgemein eingeworfen, was Bridgman bezüglich der Linux-Pläne gesagt hat und in wie fern sich die Pläne an die Arbeiten vom Windows-Team halten.

Du spekulierst hier wild umher indem du einfach Forenlinks und Twitterlinks kopierts, sie als Datenbasis hernimmst, diese hier rein stellst und einfach deine Knowhowgeschichte drumherum zimmerst. Das ist doch wie ein Gummiband, dass man in alle Richtungen ziehen kann.
Sorry das ich nicht wie die meist anderen direkt beim Unternehmen arbeite oder Insider-Quellen zum nachfragen besitze, welche 100% korrekte Antworten liefern.
Oh Moment, dass ist glaube ich nur bei den wenigsten der Fall und trifft auch auf dich zu.

Am Besten ist, Du fragst bei den Autoren nach, dann hast du 100% Geweissheit was sie meinen/gemeint haben. Die hauen Dir immer nur kurze Sätze an Kopf, so wieder jeder andere Entwickler auch und sieh zu was du daraus machst.
Was Rys Tweets, Ryan Smiths Nachfrage und den Absatz von Computerbase angeht, muss man nicht nachfragen, die Sätze stehen verständlich da.

Was suchst du? Etwas womit du AMD angehen kannst, beweisen das ihre Hardware fehlerhaft ist, kaputt, nicht wie versprochen? Darauf erhälst du von mir keinen Antworten, ich kann sie dir nicht liefern. Ich kann nur spekulieren so wie du, was die Sache aber nicht wahr macht.
Ich habe es schon mindestens zwei mal in diesem Thread erwähnt, dass ich persönlich nicht davon ausgehe, dass etwas kaputt ist.
Das die Primitive-Shader bzw. der NGG-Pfad noch nicht transparent implementiert ist, stellt für mich aufgrund der Informationslage einen Ist-Zustand dar.
Was AMD aufhält weiß ich nicht und lasse ich offen, dass es schon wie geplant funktioniert oder zwingend direkte Entwicklerkontrolle benötigt, sehe aufgrund der Informationslage nicht ein.

Ich kann mir nicht vorstellen das so viele Seiten oder TPU daneben liegen bei ihrer Berichterstattung. Das heißt man muss einfach warten. Das mag nicht jedermanns/frau Ding sein aber man wird auch nicht gezwungen.
Aber Anandtech und Computerbase liegen schon daneben und ein technischer AMD Mitarbeiter tweetet Unsinn, denn sonst muss man alles offen lassen bei den Widersprüchen.
Ich wiege die Aussagen von Rys und die Bestätigung einer direkten Nachfrage an AMDs PR von Ryan Smith schwerer, als die Berichterstattung anderer Webseiten.

Die Darstellung von TPU gefällt mir persönlich schon zu Beginn nicht.
Primitive-Shader sollen angeblich dabei helfen den Durchsatz von der Native-Pipeline um 100% im Vergleich zu Fiji zu erhöhen und später bezieht man sich erneut darauf mit Faktor 2 und dem NGG-Fast-Path, worunter vom Text her das den direkten Entwicklersupport darstellen sollte.
Nur erhöhen die Primitive-Shader im Fall der Native-Pipeline überhaupt nicht den Durchsatz, denn der liegt weiterhin bei einem Primitive pro Takt pro Engine.
Die höhere Discard-Rate kommt einzig und alleine von Vegas ~60% höheren Takt und damit Faktor ~1.6, welche TPU großzügig auf 2 aufrundet.

Was DX angeht haben wir jetzt über zig Seiten das Forum offtopic zugespammt. Der Konsens war, es gibt unterschiedliche APIs, deren Level und es ist ein "Mischbetrieb" bei Parametern möglich, der zuweilen komplexe 3dGrafik ausschließt sich aber anderweitig anwenden lässt, wobei man auch Ports ausführen kann (wieviel Aufwand das macht ist doch egal, es ist möglich - ob sinnvoll ist wieder ein anderes Thema)
Meine Aussage war, dass kein Spiel DX11.3 unterstützt, dein Einwand meinte jedes nach DX12 portierte Spiel tut es.
Das kann es aber nicht, wenn es nicht automatisch abläuft und entsprechend ist der Aufwand relevant.
Ich habe schon davor gesagt, wenn du von Anfang an gesagt hättest, du meinst es eig. nicht so streng bzw. die Vereinfachung was die Portabilität angeht, dann wäre das Thema sofort abgehackt gewesen.

. Das man wenn man in bestimmten Leveln unterwegs doch schon für höhere Feature entwickeln kann (HL vs LL aber berücksichtigen muss). Die üblichen DX12 Ports einiger AAA Titel in 2016 wurden durch Nixxes ausgeführt und damit auf nV Hardware (die haben und verwenden nichts anderes), wobei AMD dort mit Treiberupdates gegensteuern musste und Entwickler Patches liefern, wie auch W10 seitens M$ gepacht werden musste (Gamingmode usw.) und AMD immer noch an Treiberanpassungen arbeitet (siehe aktuelle Issuses), neue Hardware macht es nicht besser. Aber auch deren Treiberteams ist auf die Zuarbeit/Input/Output anderer Entwicklerteams angewiesen, was manchmal schleppend vorangeht und man Lösungen nicht zeitnah anbieten kann. Jeder arbeitet erstmal sein ab und guckt dann was man noch liefern kann.
Nixxes war auch drei mal Kooperationspartner von AMD, einmal bei Deus Ex: Human Revolution, dann bei ersten Neuauflage von Tomb Raider (2013) und zuletzt von Deus Ex: Mankind Divided (2016).
Unwahrscheinlich das die keine AMD-GPUs besitzen.
Übrigens lief DX12 bei Deus EX: MD zu Beginn auch miserabel und im CPU-Limit weiterhin ein wenig schlechter bei AMD:
Deus Ex Benchmark: DirectX 12 legt in Mankind Divided massiv zu - ComputerBase

Der Gaming-Modus ist völlig allgemein, indem das Verhalten vom Thread-Scheduler verändert wird und es funktioniert sowohl unter DX11, als auch DX12.
Ob es bessere Performance gibt hängt auch von der Hintergrundlast und der CPU und der Anzahl der Threads ab.
Schlechte DX12-Umsetzungen werden dadurch nicht gefixt.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Du wolltest schon mal nicht mehr schreiben und dann kamen noch ne Menge neue Beiträge.
Ziemlich aktiv für jemanden, der seinen Account löschen lassen will.
MErkst noch nicht mal, wenn andere Leute hier antworten, so verbohrt ist das mittlerweile.
 
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

Könnt ihr das nicht per PN regeln?

Bitte nicht. Ich finde das hochinteressant. Auch wegen den vielen technischen Details, aus denen ich immer wieder das eine oder andere mitnehme. Ich bin sicher, ich bin nicht der einzige, der die Diskussion gespannt verfolgt!


Warun kommst du jetzt mit älteren Titeln daher was Nixxes betrifft, was soll das? Das hatte ich mit dir überhaupt nicht diskutiert.

Das quote ich jetzt mal als Beispiel. Locuza geht auf fast alles ein, was Du schreibst, widerlegt, begründet, argumentiert. Leider kommt von Dir aber kaum etwas, nur solche Knaller. Erst behauptest Du in einem Posting, dass Nixxes keine AMD GPUs besitzt (ein AAA Studio, das keine AMD GPU besitzt um ihr Spiel zu testen? Alleine das ist absurd), dann beweist Dir Locuza das Gegenteil, in dem er die letzten drei veröffentlichten Spiele von Nixxes aufführt, die alle drei von AMD sowohl direkt finanziell unterstützt wurden als auch spezielle AMD-Features nutzen. Und dann antwortest Du mit diesem Satz? Ist das Dein Ernst?

Und so ist es bei fast jedem Deiner Beiträge. Auch das mit dem Windows 10 Gamemode ist einfach nur polemik ohne technisches Hintergrundwissen. Ich finde das schade. Nachplappern kann jeder. Aber im Netz ist so viel Bullshit unterwegs, dass jemand, der ohne eigenen technischen Background nachplappert, dazu verurteilt ist, zu 90% Müll zu plappern.
 
Zuletzt bearbeitet:
AW: AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich

1. Die Feature-Levels sind fast, aber nicht ganz identisch und da viele grundlegende APIs nicht gleichzeitig unter DX11.x und DX12 existieren, funktioniert auch keine automatische Konvertierung und kein Spiel verwendet explizit die DX11.3 API.
Ich habe es in einen älteren ausführlicher dargelegt:
http://extreme.pcgameshardware.de/n...ader-und-mehr-haeuft-sich-16.html#post9170883

2. Ich habe mich auf den Punkt bezogen, dass Nixxes keine AMD-GPUs besitzt, dabei waren sie drei mal Kooperationspartner von AMD.
Die haben AMD GPUs und haben auch direkt mit AMDs Ingenieuren an Feature-Implementierungen und Optimierungen gearbeitet.

PS: Lebewohl.
 
Zurück