AMD: Optimierungen für Shaderaufteilungen im Chiplet-Design

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD: Optimierungen für Shaderaufteilungen im Chiplet-Design

AMD hat vor dem Wechsel von monolithischen GPU-Chips zum Chiplet-Design zahlreiche Patente eingereicht, die Optimierungen bezüglich der Aufgabenverteilung zwischen den Chiplets beschreiben. Dabei geht es hauptsächlich um eine kleinteilige Zerlegung des Workloads für die Einzel-Chiplets und einen dynamischen Scheduler, der für eine gleichmäßige Auslastung sorgen soll. Lesen Sie dazu im Folgenden mehr.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD: Optimierungen für Shaderaufteilungen im Chiplet-Design
 
Eine Verständnisfrage: Warum ist bei der CPU der Scheduler Teil von Windows und bei der GPU Teil des Chips oder Teil des Treibers?
 
Eine Verständnisfrage: Warum ist bei der CPU der Scheduler Teil von Windows und bei der GPU Teil des Chips oder Teil des Treibers?
Bei der CPU werden komplett unterschiedliche Programme auf unterschiedliche Cores verteilt, das wird vom OS und der CPU zusammen gemacht.

Bei GPUs wird ein und dieselbe Last auf identische "Cores" (hier Shader) aufgeteilt / parallelisiert. Hier ist die Latenz entscheidend, wenn bei der CPU ein Programm mal ein paar Millisekunden auf Zuteilung warten muss merkt der User das im Zweifel nicht, bei der GPU sind dann schon einige Frames vorbei. Das OS ist schlicht viel zu langsam.
 
Eine Verständnisfrage: Warum ist bei der CPU der Scheduler Teil von Windows und bei der GPU Teil des Chips oder Teil des Treibers?

Grundsätzlich sagst du mit Hilfe der CPU (bzw. die CPU sagt der GPU) was die Grafikkarte überhaupt machen soll. Die CPU gibt der GPU Speicheradressen, welche Befehle und Daten beinhalten, welche die GPU dann ab arbeitet.

Sprich das was die GPU verarbeiten soll holt sie sich in Ihren eigenen Speicher aus dem Hauptspeicher den ihr die CPU vorher zugeordnet hat. Sobald das ganze da ist, wird innerhalb der Grafikkarte mit der Firmware (BIOS) gesteuert, anhand der Auslastung, wie das ganze innerhalb des Chips auf die Compute Units verteilt wird. Dazu werden Ausführungsstränge nach ihrer Ähnlichkeit in den Befehlen zu Warps zusammengefasst und dann einer Compute Unit zugeteilt und dort bearbeitet.

Wenn ich es noch richtig im Kopf habe, hat eine Compute Unit bei Nvidia max. 32 Ausführungseinheiten (Shader) und bei AMD max. 64 und ein Warp enspricht dann bei Nvidia 32 bzw. bei AMD 64 Ausführungssträngen.

Durch den Treiber wird dabei die Vorlast verteilt, weil so dass System weiß, wieviele Ausfühungsstränge, kann die Karte maximal verarbeiten usw. und dem entsprechend bekommt die Karte Daten im Hauptspeicher zugeordnet, so dass sie immer ausgelastet werden kann.

Der Hauptgrund, warum es aber am Ende in der Karte geschedult wird, ist weil es einfach in der Hardware schneller geht, als wenn es Windows tut. Die Scheduler in der Karte kennen die genaue Anzahl der momentanen Ausführungsstränge die in Warps abgearbeitet werden müssen und können die Warps dann immer so welchseln, wie auch die Daten vorhanden sind, welche aus dem Grafikspeicher in die Compute Units geladen werden. So ein Ausführungsstrang kann dabei mehreren Warps angehören und es wird nach Möglichkeit immer gewartet bis alle Ausführungsstränge gerechnet werden können, um die Ausführungseinheiten einer Compute Unit optimal auszulasten.

Hoffe es hat dir ein bissel geholfen. Wollte nicht versuchen zu krass ins Detail zu gehen. Wenn es dich dolle intressiert, schau dir am besten mal den Aufbau von Nvidias CUDA Architektur an. Die ist wenn man sich dazu in bissel einließt sehr nachvollziehbar struktuiert aufgebaut, wo man die Zusammenhänge gut nachvollziehen kann.
 
NVidia wird sich in den Allerwertesten beißen, hatte man die Technik doch bereits vor 20 Jahren eingekauft und dann irgendwo beim Umzug in den goldenen Palast im alten Schreibtisch von Ikea vergessen und mit auf den Sperrmüll gegeben. ^^ ;-P
 
NVidia wird sich in den Allerwertesten beißen, hatte man die Technik doch bereits vor 20 Jahren eingekauft und dann irgendwo beim Umzug in den goldenen Palast im alten Schreibtisch von Ikea vergessen und mit auf den Sperrmüll gegeben. ^^ ;-P
Du wieder... NV hat auch MCM Patente.
 
Ich bin mal gespannt was dabei raus kommt und ob es besser läuft wie mit den ersten Ryzen oder den 1200er Intel.

Wenn hier nur ein Fehler im BIOS oder Treiber ist wird es lustig zu Anfang.
 
Hoffe es hat dir ein bissel geholfen. Wollte nicht versuchen zu krass ins Detail zu gehen. Wenn es dich dolle intressiert, schau dir am besten mal den Aufbau von Nvidias CUDA Architektur an. Die ist wenn man sich dazu in bissel einließt sehr nachvollziehbar struktuiert aufgebaut, wo man die Zusammenhänge gut nachvollziehen kann.
Danke dir :)
 
NVidia wird sich in den Allerwertesten beißen, hatte man die Technik doch bereits vor 20 Jahren eingekauft und dann irgendwo beim Umzug in den goldenen Palast im alten Schreibtisch von Ikea vergessen und mit auf den Sperrmüll gegeben. ^^ ;-P
Ich würde gerne schreiben "selten so einen Blödsinn gelesen", aber das "selten" wäre dann doch vollkommen unzutreffend.
nVidia hat hier keinerlei Grund sich zu beißen oder anderweitig zu geißeln, denn wie alle anderen Hersteller auch entwickeln auch die MCM-Designs und auch bei denen gibt es keinen Grund anzunehmen, dass die hier in irgend einer Art und Weise "hinten dran hängen", "den Zug verpasst haben", o. Ä. Das was damals war, hat mit der heutigen Entwicklung und Technik mal reichlich wenig zu tun und ist nicht im entferntesten übertragbar oder für eine heutige Bewertung sinnvoll verwertbar.
Wärend AMD das MCM zwingend für eine effiziente Fertigung benötigte und daher "früh" auf den Zug aufspringen musste, weil es sonst mit einer signifikanten Gewinnung von Marktanteilen nichts geworden wäre, bewerten die anderen Hersteller die Technologie und den richtigen Zeitpunkt für eine entsprechende Einführung schlicht anders, was jeweils an ihrer individuellen Marktsituation liegt. nVidia ist aktuell offensichtlich nicht der Meinung, dass sie schon in dieser Gen den zusätzlichen (kosten)technischen Aufwand betreiben müssen, um 2022/23 konkurrenzfähig zu sein und bspw. bei Intel hinderte die Firma das zwangsweise lange Verbleiben auf dem 14nm-Node frühzeitig sinnvoll auf eine MCM-Fertigung hin zu wechseln. Jedoch, bereits das was Intel schon Ende 2019 mit Lakefield vorstellte, war bereits wesentlich fortschrittlicher als AMDs i. V. dazu recht einfaches Zen-Design.
Also nein, da beißt sich gesichert niemand in den Allerwertesten.
Darüber hinaus ist es auch ein reichlich navies bis beschränktes Denken von dir zu meinen, dass der Marktführer, der um ein Vielfaches mehr Ressourcen und absehbar auch KnowHow besitzt, sich hier so leicht die Butter vom Brot nehmen lässt.

Zurück zum eigentlichen Thema der News: Mit dieser kann man reichlich wenig anfangen, außer dass wem aufgefallen ist, dass es hier ein Bündel neuer Patente von AMD gibt, mehr aber auch nicht und das ist, so leid es mir für dich tut, schlichtes daily business. Mal abgesehen, davon, dass so manches Patent auch nur ein Schattendasein führen und in der beschrieben Form niemals realisiert werden wird, d. h. man kann von dieser vermeintlichen News hier wenig ableiten, erst recht nicht den Anlass für einen Hochgesang auf dein heißgeliebtes Lieblingsbrand (oder einen Abgesang auf einen Konkurrenten, erst recht nicht den Marktführer).
Aber um diese 56 Patente mal in einen Kontext zu setzen: Eine Firma wie Intel gibt pro einzelnem Jahr mehrere Tausend Patente auf. ;-) Beispielsweise für das Jahr 2020 belegte Intel bei erteilten US Patenten den 5. Platz in der Liste der Firmen mit den meisten Patenten. Angeführt mit deutlichem Abstand wird die Liste von IBM die zudem, vielleicht auch für so manchen überraschend, mehrere Tausend Patente im Bereich AI einreichten.
Zu deiner Enttäuschung sind die Firmen AMD und nVidia nicht in dieser Top20-Liste (nicht einmal in der Top50 in 2021) vertreten und entsprechend wenig aussagekräftig ist diese News hier für eine etwaige (Markt)Abschätzung oder konkrete Bewertung ihrer zukünftigen Produkte. ;-)

 
Zuletzt bearbeitet:
Zurück