DirectX 12: Microsoft arbeitet an Multi-GPU-Layer

DX12 war noch lange gar kein Thema, erst AMD's Mantle hat das ganze in's Rollen gebracht.
Afaik hat Mantle auch was mit Vulkan am Hut (Habe mich da nicht genauer eingelesen)
Afaik hatte AMD auch die ersten Karten mit Tesslation (Radeon 8500, oder sogar schon die 7000?), was es dann ja auch in's DX geschafft hat.
Freesync haben sie genau so in's Leben gerufen, wie sogar angekurbelt, dass es in die Home/HiFi-Szene aufgenommen wird, bzw. per HDMI.
Eyefinity ist auch net von schlechten Eltern.
AMD hat auch die ersten 64 Bit CPUs auf den Markt gebracht (was sich Intel abgeschaut hat)
(haben die net auch die ersten Dual, Quads & Octas, vor allem auch APUs gebracht? Sogar für Server)
Dann gibt's auch noch weitere Dinge wie True-Audio usw.
Liquid-VR hat sicher auch Innovatives Zeugs dabei, aber da habe ich jetzt noch fast nix drüber gelesen.
Irgend was Richtung CPU+GPU Programmierung haben die doch auch vor einiger Zeit gemacht, was recht abgefahren sein soll (HSA HUMA oder sowas?!)


Sicher habe ich noch ganz viel vergessen.
Aber fehlende Innovation kann man AMD beileibe nicht vorwerfen.

Andere Hersteller bringen natürlich auch viel Innovatives, AMD bringt's aber halt gerne (leider oft zu-)früh
und macht vieles auch frei nutzbar oder Open Source.


Anm.:
Ich habe so das Gefühl, dass AMD/ATI gerne mal etwas zu weit in die Zukunft greifen und auf
Zeugs setzen was "noch" nicht genutzt wird, oder zu wenig, oder nicht vollständig.

Nvidia und Intel fahren da lieber auf dem Sicheren Gleis und reizen den Kram für den aktuellen Stand voll aus.
 
Zuletzt bearbeitet:
Afaik hat Mantle auch was mit Vulkan am Hut (Habe mich da nicht genauer eingelesen)
A Brief Overview Of Vulkan API

AMD hat auch die ersten 64 Bit CPUs auf den Markt gebracht (was sich Intel abgeschaut hat)
64bit gab es schon lange davor, nur nicht für uns Heimanwender.
Intel wollte uns IA64 vorsetzen, aber MS wollte nicht für IA64 und AMD64 entwickeln, das war der Todesstoß für IA64.
 
Cool. Jetzt warte ich nur noch auf 4x Titan X Black im SLI damit ich alles in 8k und max Details zocken kann. Will keine so popelige Konsolengrafik auf dem PC :D
 
Galt SLI bei 2x980 noch als Nice,ließt man seit der Nichtunterstützung durch Nvidia immer,wie sinnlos Das doch Alles mit Mittelklasse ist.
Warum eigendlich?Die 480/1060 sind doch genau so schnell und haben mehr VRAM?
Gruß Yojinbo
 
Das war damals. Da war die 980 noch oberklasse und für damalige Zeiten gut..

Heute ist sie untere Mittelklasse, genau wie die 480.
Wenn das game kein cf oder Sli unterstützt, dann hast du halt ne einfache untere Mittelklassekarte.
 
Also ein Produkt von ATI. AMD baute damals nur Prozessoren.

Ich kaufe habe auch nicht Goodyear auf und behaupte das der Gummireifen ein Produkt, bzw Erfindung, von mir sei. ;)
 
DX12 war noch lange gar kein Thema, erst AMD's Mantle hat das ganze in's Rollen gebracht.
Afaik hat Mantle auch was mit Vulkan am Hut (Habe mich da nicht genauer eingelesen)
.

Vulkan basiert zu einem Großteil auf Mantle. Hatte auch den Vortel das man damit sehr schnell "releasefähig" war. Ist ja kaum ein Jahr von der ersten Ankündigung bis zu 1.0 vergangen :)
 
Ich fände es super, wenn Spiele nativ und auch ohne Ruckler mehrere GPUs unterstützen. Die IGPUs werden mittelfristig immer potenter und bleiben aber ungenutzt. Ich bin dafür weg vom AFR und hin zu gemischten Kombis, dann gibts auch keine Ruckler mehr.
Aktuelle Intel GPUS schaffen bereits im i3 so 450 GFlops, wenn daraus mal 2TFlops werden ist das für mich gratis Leistung.
Man braucht immer mehr Leistung, z.B. braucht 4k meiner Meinung nach mindestens 11-12 TFlops also locker das doppelte was meine 980 aktuell leistet, das auf einen Chip zu konzentrieren wird einfach immer teurer, mit der aktuellen Technologie.
Mehrkern GPUs haben zwangsläufig Zukunft, genau wie MultiCore CPUs.

Zahlen sind relativ.
Wenn heute onboard Grafik 450 GFlops schafft ist es das selbe wenn onboard Grafik in ~5 Jahren 2TFlops schafft.
Interessant fände ich es wenn die Onboard Grafik andere Dinge berechnen könnte ( z.B. Physik) um CPU / Grafikkarte zu entlasten.
=> natürlich auch so das man ein Vorteil davon hat (denke gearde an die T&L bzw. ersten 3D Karten zurück wo es teilweise langsammer lief)
 
So sehr ich das begrüßen würde, die internen GPUs aus dem Winterschlaf zu wecken, so sehr bezweifle ich, dass es zum Massengeschäft wird. Jede Programmierung und damit Arbeitseinsatz auf Seiten der Entwickler wird nach Kosten / Nutzen abgewogen werden und ob Multi gpu hier einen großen Stellenwert einnimmt, naja.... Zudem muss man beachten, dass sollte man bei der Implementierung Fehler machen bzw es nicht rund laufen eine nicht unerhebliche Folgearbeit nach sich ziehen kann.

Mir ist bewusst, dass ich damit vielleicht die ein oder andere Träumerei vielleicht platzen lasse und ich würde es ja selbst gut finden, nur bin ich mir im klaren, dass die Wirtschaft da draußen nicht nach Wunschdenken funktioniert. Ich wäre schon dankbar, wenn bei aktuellen Releases nicht ein Day One Patch nötig ist, damits überhaupt läuft....
 
Zahlen sind relativ.
Wenn heute onboard Grafik 450 GFlops schafft ist es das selbe wenn onboard Grafik in ~5 Jahren 2TFlops schafft.
Interessant fände ich es wenn die Onboard Grafik andere Dinge berechnen könnte ( z.B. Physik) um CPU / Grafikkarte zu entlasten.
=> natürlich auch so das man ein Vorteil davon hat (denke gearde an die T&L bzw. ersten 3D Karten zurück wo es teilweise langsammer lief)

T&L war ja eigentlich klasse damals als es mit den GF das Licht der Welt erblickte. Die anderen hatten es nicht und mussten es von der CPU rechnen lassen, womit die damaligen <1GHz-CPUs deutlich überfordert waren, genauso wie die Geforce selbst auch, aber auf der Verpackung sah T&L besser aus als echte 4xAA :nene:. Na zum Glück wurden die Geforces und Radeons später stärker, wie auch die CPUs. :ugly:

Ich bin bei der ganzen Sache was Multichip-Designs angeht eher skeptisch, egal ob es jetzt Grafikkarten oder sonst was sind. Oberflächlich betrachtet hat es jedes mal Vorteile gebracht, höhere Integrationen zu schaffen, seien es die SOCs von mobilen Geräten oder die jüngsten APUs, aber Multichip-Designs verschwanden immer wieder vom Markt oder waren Nischenlösungen, egal ob von 3dfx, ATI, Nvidia, AMD (als Prozessorhersteller) oder Intel. Selbst mehrere DIEs auf einem Substrat werden nur kurzfristig als Übergangslösung eingeschoben (Pentium D, C2Q,..), um nachher eine Lösung mit einem DIE nachzureichen. Die Hersteller schlagen sich seitdem ich denken kann mit den Schwächen von Multichip-Lösungen herum, und die einzige Methode, die anscheinend wirklich funktioniert ist einen Chip daraus zu machen. Ja klar, mit den immer feineren Fertigungstechniken wird das nicht gerade einfacher, aber bis jetzt ist anscheinend keinem eine bessere Lösung eingefallen. Ich denke sonst hätten wir längst modular aufgebaute Grafikkarten, bei denen der Hersteller einen zweiten Chip für erhöhte DP oder bestimmte Features einfach dazulöten könnte, wie es 3dfx damals noch beim SST-1, Voodoo Rush gemacht hat und bei Rampage/Sage nochmal versuchen wollte.
Ich glaube nicht dass es jetzt plötzlich nach 18 Jahren wieder zu einer sinnvollen Aufteilung der (inzwischen wesentlich komplexeren und ineinander verknüpften) Aufgaben zwischen verschiedenen GPUs kommen wird, von der auch der Massenmarkt profitiert. Natürlich wirds immer ein paar Programme geben die das Potential nutzen können, aber das wird dann eher wie heute bei Simulationssoftware oder Video/Photobearbeitung eher Randgruppen betreffen. Am klassischen Spielersystem wird sich vermutlich nichts ändern.
 
Noch eine API für DirectX12.
Schon heutige Grafikkarten unterstützen DirectX12 noch nichtmal richtig und jetzt wird nochmal irgend eine API Aufgesetzt für Multi-GPU.
DirectX12 ist extrem unübersichtlich.
Hat das Spiel jetzt FL_12_1 und Tier 1 oder doch eher Tier 3 und FL_12_0. Die Grafikkarte kann FL_12_0 mit Tier 2. Welches Tier hat die Mulit-GPU, oder doch eher anderes FL_12_?

Chaos Pur...

Zumal das DirectX 12 kompatibel auf den Kartons (Beispiel das vorpreschen von Nvidia mit ihrer ersten DX12 kompatiblen Karte) mal so garnichts aussagt, da dort auch nicht alle Features unterstützt werden.
 
Auch wenn ich das Ganze prinzipiell unterstütze, bin ich persönlich durch mit Multi-GPU. Schade, dass sich da so wenig getan hat in den letzten Jahren. Aber heutzutage würde ich mir schon aufgrund des geringeren Spielekonsums und den gesunkenen Anforderungen mit einer GPU zufriedengeben, und das, obwohl ich in 4k spiele... Mit einer R9 280x :D

Grüße

Micha
 
Ich hoffe auf eine gute Umsetzung. Hatte noch nie ein Multi-GPU System und erfreue mich beim nächsten Rechner auf Nvidia spezifische Effekte die meine hoffentlich gute Vega Grafikkarte dabei unterstützen.
 
Multi GPU würde mich schon interessieren... wenn nur eine andere Technik als AFR zum Einsatz käme. Man gewinnt dabei zwar an Frames, jene werden aber durch die Microruckler imo wieder zunichte gemacht. Mit Tiled Rendering würde man insgesamt zwar weniger Frames gewinnen, aber da man alle Grafikchips an ein und demselben Frame arbeiten lassen kann, wäre das Resultat viel gleichmäßiger; zudem könnte man damit problemlos die Bildqualität erhöhen ohne so schnell ins stocken zu geraten und anstelle einen neuen, dicken High-end Karte alternativ auch mal eine zweite Midrange akufen um auf dem selben Niveau zu landen.
 
Zurück