DirectX 12 Multiadapter vorgestellt: Grafikkarte und integrierte Grafikeinheit berechnen das Bild gemeinsam

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DirectX 12 Multiadapter vorgestellt: Grafikkarte und integrierte Grafikeinheit berechnen das Bild gemeinsam

Auf der Build 2015 hat Microsoft das neue Multiadapter-Feature für DX12 vorgestellt, das es der Grafikkarte und der integrierten GPU des Hauptprozessors unter Windows 10 erlaubt, eine Szene gemeinsam darzustellen. Im Gegensatz zu SLI oder Crossfire arbeiten beide Pixelbeschleuniger gemeinsam an jedem Frame.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: DirectX 12 Multiadapter vorgestellt: Grafikkarte und integrierte Grafikeinheit berechnen das Bild gemeinsam
 
Stell ich mir interessant vor. Da Intel und AMD beide immer stärkere iGPUs verbauen in denen durchaus Leistung schlummert ist diese Technologie nicht ganz uninteressant. Wie hoch der Effekt dann unter realen Bedingungen und nicht in einer Demo ausfällt muss man natürlich sehen :)
 
Da die Entwickler das ganze selbst entscheiden und die Spiele wohl noch extra darauf optimieren müssen wird sich das wohl in die lange Schlange der interessanten, aber ungegenutzten, Funktionen einreihen. Viel interessanter wäre es zu erfahren ob sie bei dem gut 12 Jahre alten Versprechen mal einen Schritt weitergekommen sind und SLI/CF mal ohne die gravierenden Nachteile funktionieren können. Das Mehrprozessorverprechen von DX 11 wartet auch noch darauf erfüllt zu werden.

Ich sehe schon, das wird wieder nichts...
 
Das gehört zu den mitunter besten Features von DX12 und ich bin sehr froh, dass es seinen Weg in die API geschafft hat.
 
Damit würden dann auch die Intel Prozessoren mal komplett Sinn haben. XD

Aber ich finde man sollte daran weiter arbeiten. So das man Igpu/Apu und jede Grafikkarte verbinden kann. Dann würde es mit der Grafik viel schneller Sprünge machen. Wenn ich alle 2 Jahre eine Mittelklasse Karte kaufen würde, müsste ich diese nicht direkt ersetzen sondern erst nach 4 Jahren. Es kommt zwar noch immer alle 2 Jahre eine neue Karte aber die alte bleibt halt noch bestehen. Wichtig wäre halt das die Karten Typ und Hersteller ungebunden sind. Das wäre in meinen Augen für Spiele ein großer Schritt nach vorne
 
Damit würden dann auch die Intel Prozessoren mal komplett Sinn haben. XD

Aber ich finde man sollte daran weiter arbeiten. So das man Igpu/Apu und jede Grafikkarte verbinden kann. Dann würde es mit der Grafik viel schneller Sprünge machen. Wenn ich alle 2 Jahre eine Mittelklasse Karte kaufen würde, müsste ich diese nicht direkt ersetzen sondern erst nach 4 Jahren. Es kommt zwar noch immer alle 2 Jahre eine neue Karte aber die alte bleibt halt noch bestehen. Wichtig wäre halt das die Karten Typ und Hersteller ungebunden sind. Das wäre in meinen Augen für Spiele ein großer Schritt nach vorne

Das Multi GPU Versprechen bleibt wie gesagt seit 12 Jahren unerfüllt, alle tollen Versprechen haben sich als Lügen erwiesen. Ich kann meine GTX 260 nicht an meine GTX 670 koppeln, obwohl diese Funktion am Anfang mit den Worten "kommt bald" umschrieben wurde, es gehen nochnichmal verschiedene Grakas in einer DX Version - obwohl auch das angekündigt war, besonders von ATI. Von den versprochenen durchgehenden 95% Effizienz ist nicht soviel zu sehen und Microruckler gibt es bis heute.

Mißtrauisch macht mich das sie die Hardware nicht genannt haben. Ich tippe auf eine GTX 960 im Verbund mit einem 4770R (Iris pro) für den die ganze Sache auchnoch handoptimiert wurde.
 
Durch die Latenz bringt es meiner Meinung nach kaum einen Vorteil. Was bringen einem 40 FPS, wenn sie sich wie 30-35 anfühlen weil die Frametimes doch unterschiedlich sind?
Man kauft sich extra einen Monitor mit geringem Input-Lag, nur damit man das wieder kaputt macht.
Ich sehe jetzt schon wieder alle Onlinespieler schreien, dass andere cheaten.. dabei haben die einfach das Optimum aus ihrere Hardware rausgeholt und verzichten auf solche Spielereien.
 
Durch die Latenz bringt es meiner Meinung nach kaum einen Vorteil. Was bringen einem 40 FPS, wenn sie sich wie 30-35 anfühlen weil die Frametimes doch unterschiedlich sind?
Man kauft sich extra einen Monitor mit geringem Input-Lag, nur damit man das wieder kaputt macht.
Ich sehe jetzt schon wieder alle Onlinespieler schreien, dass andere cheaten.. dabei haben die einfach das Optimum aus ihrere Hardware rausgeholt und verzichten auf solche Spielereien.
Zumindest ist es ein Anfang auf dem Weg zu besseren Lösungen...
 
Der iGPU einen solchen Sinn zu geben hoffte ich schon vor Jahren :)
Ja es ist echt schön, es endlich zu sehen:
Seit Jahren EXPLODIERT die Leistung in Intels iGPUs und jeder Intel Prozessor hat eine drin. Jedes Jahr 40-50% mehr Leistung - schön, dass es endlich genutzt wird.
Mir geht der Ansatz zwar noch nicht weit genug (Physik und KI sollte endlich mal in einer API definiert sein und die auch auf iGPUs usw zugreifen) aber immerhin :)
 
Ja es ist echt schön, es endlich zu sehen:
Seit Jahren EXPLODIERT die Leistung in Intels iGPUs und jeder Intel Prozessor hat eine drin. Jedes Jahr 40-50% mehr Leistung - schön, dass es endlich genutzt wird.
Mir geht der Ansatz zwar noch nicht weit genug (Physik und KI sollte endlich mal in einer API definiert sein und die auch auf iGPUs usw zugreifen) aber immerhin :)

Was du schreibst, ist genau auch das, was ich mir seit Jahren wünschen würde :daumen: Ich würde tippen, inzwischen haben > 50% der Gamer-PCs mit dedizierter Grafikkarte auch eine iGPU (die sich beim Zocken die ganze Zeit nur langweilt).
 
Seit Jahren EXPLODIERT die Leistung in Intels iGPUs und jeder Intel Prozessor hat eine drin. Jedes Jahr 40-50% mehr Leistung - schön, dass es endlich genutzt wird.
Mir geht der Ansatz zwar noch nicht weit genug (Physik und KI sollte endlich mal in einer API definiert sein und die auch auf iGPUs usw zugreifen) aber immerhin :)
Ausgehend vom Startpunkt, konnte Intels iGPU Leistung auch nur "explodieren".

Für Multiadapter fällt Sandy-Bridge aus dem Rahmen.
Kein Support für DX11/OCL.
Ivy-Bridge unterstützt zwar DX11 und OCL ist aber zu unflexibel was das Binding angeht, entsprechend wird hier ebenso der DX12 Support fehlen.
Bei AMDs VLIW Architekturen ebenso.
Llano und Trinity/Richland wird man nicht verwenden können.

Übrig bleiben Haswell/Broadwell und Kaveri/Carrizo/Kabini/Beema.
Das ist eine eher kleine Basis.
2013/14.

Und beim Ansatz, ich weiß nicht was dir da fehlt.
Alles möglich.
 
Und beim Ansatz, ich weiß nicht was dir da fehlt.
Alles möglich.

Es ist ja auch nicht der Fehler von Intel. Der Fehler ist, dass es keine marktübergreifende gute Spiele-Physik-Engine gibt, die auf OpenCL basiert, und somit auf jeder GPU (und iGPU) gleich gut läuft. Wer daran nun die Schuld hat, ist schlecht zu sagen. Zu einem gewissen Teil auf jeden Fall die Hersteller, die ihre propietären Lösungen aggressiv pushen, um die Konkurrenz fernzuhalten (so z.B. Nvidia's PhysX, aber auch AMD hat ja AMD-exklusive Effekte).

Gerade bei so etwas wie Spiele-Physik würde ein offener, herstellerübergreifender Standard endlich mal Not tun...
 
Ausgehend vom Startpunkt, konnte Intels iGPU Leistung auch nur "explodieren".

Für Multiadapter fällt Sandy-Bridge aus dem Rahmen.
Kein Support für DX11/OCL.
Ivy-Bridge unterstützt zwar DX11 und OCL ist aber zu unflexibel was das Binding angeht, entsprechend wird hier ebenso der DX12 Support fehlen.
Bei AMDs VLIW Architekturen ebenso.
Llano und Trinity/Richland wird man nicht verwenden können.

Übrig bleiben Haswell/Broadwell und Kaveri/Carrizo/Kabini/Beema.
Das ist eine eher kleine Basis.
2013/14.

Und beim Ansatz, ich weiß nicht was dir da fehlt.
Alles möglich.

AMD wird wahrscheinlich mehr profitieren als alle anderen , Carizzo soll ungefähr noch immer 3 mal so Leistungsfähig sein wie eine Intel Skylake , die GPU natürlich.
 
Es ist ja auch nicht der Fehler von Intel. Der Fehler ist, dass es keine marktübergreifende gute Spiele-Physik-Engine gibt, die auf OpenCL basiert, und somit auf jeder GPU (und iGPU) gleich gut läuft. Wer daran nun die Schuld hat, ist schlecht zu sagen. Zu einem gewissen Teil auf jeden Fall die Hersteller, die ihre propietären Lösungen aggressiv pushen, um die Konkurrenz fernzuhalten (so z.B. Nvidia's PhysX, aber auch AMD hat ja AMD-exklusive Effekte).

Gerade bei so etwas wie Spiele-Physik würde ein offener, herstellerübergreifender Standard endlich mal Not tun...
Toll wäre es, aber ich empfinde das auch nicht als so schlimm.
Hoffentlich bemühen sich die ISVs einfach um solche Sachen bei ihren Engines und die IHVs pushen da vielleicht auch etwas.

Ich denke CUDA/OpenCL werden relativ wenig verwendet, wenn überhaupt. (Wobei es hoffentlich bei OCL, zusammen mit Vulkan klappt)
Eher setzen die ISVs/IHVs dann auf DirectCompute als Schnittstelle.

Und da gibt es eine Menge an netter Sachen, von AMD und Nvidia.
Intel hat Havok, die konzentrieren sich zwar weiterhin auf die CPU, aber so langsam machen sie auch paar GPU-Sachen.

AMD wird wahrscheinlich mehr profitieren als alle anderen , Carizzo soll ungefähr noch immer 3 mal so Leistungsfähig sein wie eine Intel Skylake , die GPU natürlich.
Ich bin überzeugt davon, dass deine Information, die zwei noch nicht auf den Markt befindliche Produkte vergleicht, sehr nah an die Realität kommen wird.
 
Zurück