AMD bringt Hardware-basierte GPU Virtualisierung heraus: Multiuser GPU

SKPC

Freizeitschrauber(in)
Nachdem nVidia GRID 2.0 angekündigt hat, hat AMD auf der VMworld 2015 "the world's first hardware-based GPU virtualization solution, the AMD Multiuser GPU." (die erste Hardware-basierte GPU Virtualisierungslösung, die AMD Multiuser GPU) herausgebracht.

AMD Multiuser GPU erlaubt "up to 15 users on a single AMD GPU...each user is provided with the virtualized performance to design, create and execute their workflows without any one user tying up the entire GPU." (bis zu 15 Nutzer auf einer AMD GPU... jeder Nutzer ist mit der virtuellen Performance versehen zu entwerfen, zu erstellen und deren Workflows auszuführen ohne dass ein Nutzer die gesamte GPU beanspruchen kann.)

AMD Multiuser GPU beruht auf Single Root I/O Virtualization (SR-IOV) und die Virtualisierungstechnik von AMD wurde entwickelt, um mit den OpenCL 2.0, OpenGL 4.4 und DirectX 12 APIs zu arbeiten. AMD Multiuser GPU arbeitet mit VMware vSphere/ESXi 5.5 und neuer.

Quelle: AMD Unveils World's First Hardware-Based Virtualized GPU Solution at VMworld 2015 - MarketWatch
 
Hrm stell ich mir interressant vor.
Lieber einmal die Leistungsstärkste firepro und diese aufteilen, als 4-6 mal eine etwas kleinere auf mehreren PCs, während aber vielleicht gerade mal 1-3 leute im moment etwas wirklich berechnen müssen.
 
Ja, das hört sich wirklich spannend an. Interessant wäre, ob da irgendeine Form von Inputlag auftritt, und wenn nein, wie das geht. Ob da z.B: Shaderblöcke zugeteilt werden oder etwas in der Art.
 
Ja, das hört sich wirklich spannend an. Interessant wäre, ob da irgendeine Form von Inputlag auftritt, und wenn nein, wie das geht. Ob da z.B: Shaderblöcke zugeteilt werden oder etwas in der Art.

Dies wird wohl erst die Zeit bzw. entsprechende Benchmarks zeigen. Sollte aber besser als nVidias Grid (2.0) sein, da AMDs Multiuser GPU Hardware-basiert ist und nVidias Grid (2.0) Softwarebasiert.
 
Ich könnte mir gut vorstellen dass da im Endeffekt fast genau so die ACEs genutzt werden wie für Asynchronous Shader.
Was allerdings auch heißt dass die "up to 15 users" noch nicht zu aktueller Hardware passen.
 
Zuletzt bearbeitet:
Les meinen ersten Satz auch ;). Ich vermute (!), dass das einzelne Ansprechen von ACEs genutzt wird um das Feature in Hardware anzubieten. Und davon haben die GPUs aktuell maximal 8, also weniger als 15.
 
Les meinen ersten Satz auch ;). Ich vermute (!), dass das einzelne Ansprechen von ACEs genutzt wird um das Feature in Hardware anzubieten. Und davon haben die GPUs aktuell maximal 8, also weniger als 15.
Ich würde ja eher tippen dass sie die CUs unterteilen. Also eine bestimmte Anzahl an CUs der GPU für einen der jeweiligen Nutzer. Oder es geht soweit, dass es die Anzahl dynamisch anpasst und die benötigte Rechenleistung pro User optimal über die Shadereinheiten verteilt mit dem Ziel die GPU optimal auszulasten. Wohlgemerkt ich habe keine Ahnung was möglich ist und was nicht. Das sind reine Vermutungen von jemandem der mit gefährlichem Halbwissen um sich wirft :ugly:
 
Warum, ist bei nem Server oder Großrechner ja nichts ungewönliches.

Die nutzen haben auch einen Hypervisor, der auf Hardware-Ebene (ein minimalistisches OS, was nur Ressourcen verteilen kann) liegt. Da läuft dann jedes OS, was als Produktivsystem genutzt wird als Virtuelles OS.
Dagegen wird bei der "normalen" Virtualisierung unter Windows und Linux alles "durchgeschleift". Das führt dann zum Beispiel zu problemen bei Timings und Befehlen im Kernel Mode. Also, sofern man als normaler User nicht umbedingt einen hardwarenahen Hypervisor installieren will und alle OS als VM aufsetzen will, ist das schon etwas besonderes.

Es gibt übrigens deutlich freundlichere Architekturen, als x86 zum virtuellisieren. Daher ist das für einige Server auch kein Problem, solche Dinge zu vollziehen.
 
Les meinen ersten Satz auch ;). Ich vermute (!), dass das einzelne Ansprechen von ACEs genutzt wird um das Feature in Hardware anzubieten. Und davon haben die GPUs aktuell maximal 8, also weniger als 15.

Man muss auch differenzieren für was wie viele User realistisch sind. AMD schreibt selbst, dass die 15 User auf einer Karte für Office-workloads gemeint sind (also kaum mehr als Bildausgabe); während es für "Grafikintensive Design-Anwendungen" nur noch 2-6 sein sollen.
http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

Mit der Anzahl der ACEs sollte das aber weniger zu tun haben.
 
Wobei es für Bildaufgabe nicht viel sinn macht. Schließlich hat ja fast jede CPU ne iGPU drin und man kann den Monitor einfach ans Board anschließen.
 
Ja, aber nein. Denn da schnallt man sich einen Vielkerner dazu, der ebenso alle versorgt.
//Zumindest, wenn ich das Konzept richtig verstanden habe
 
Ja, aber nein. Denn da schnallt man sich einen Vielkerner dazu, der ebenso alle versorgt.
//Zumindest, wenn ich das Konzept richtig verstanden habe
Ja, wird schon so sein. Ein Arbeitsplatz besteht dann aus praktisch nichts außer Maus/Tastatur + Bildschirm. Spart also eine Menge Hardware im Zweifelsfall.
 
Thin vs. Fatclient ist eh ein ewiges hin und her. Erst gab es nur Terminals weil man keinen Platz für die Rechenleistung hatte, dann kam der PC und man war nicht mehr vom Netz abhängig und jetzt soll wieder alles in die "Cloud". In zehn Jahren kommt wieder jemand auf die Idee dass die Technik doch so weit ist dass man die Rechenleistung direkt bei sich am Arbeitsplatz stehen haben kann ohne große Netzwerkstrukturen zu brauchen.
 
Kommt eben wahrscheinlich darauf an, was für ein Netzwerk man hat. Im Uni-Netz ist es schon Praktisch, das man sich von jedem Rechner aus anmelden kann. Das wird sich aber bei wenigen PCs nicht lohnen.
 
Zurück