• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Xe DG1 SDV: Teardown gibt Auskunft über die Hardware

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel Xe DG1 SDV: Teardown gibt Auskunft über die Hardware

Igor Wallossek von Igor's Lab hat die Intel Xe DG1 SDV einem Teardown unterzogen und dabei interessante Hardware-Details herausgefunden. Der Versuch, die Grafikkarte einem synthetischen Benchmark zu unterziehen, ist jedoch gescheitert. Das SDV-Modell richtet sich in erster Linie an Entwickler, die ihre Software auf Xe-GPUs ausrichten möchten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Xe DG1 SDV: Teardown gibt Auskunft über die Hardware
 

Rollora

Kokü-Junkie (m/w)
Dann lieber eine APU oder so. Ruhig auch gebraucht. 100 Euro ist einfach viel zu viel dafür.
nein, weil dann müsste man eben den gesamten Unterbau tauschen statt nir eine Karte dazu stecken. DG1 ist sowieso nicht mehr als der Versuch Intels mal wieder etwas Erfahrung zu sammeln. Werd mir auf jeden Fall eine holen, spezielles BIOS hin oder her, das kommt in die Exotensammlung
 

CyLord

PC-Selbstbauer(in)
Mehr als ein Sammerstück wäre es nicht. Wen es die 100€ wert ist... Denn laut seinem Test ist das Ding im Grunde Schrott, wenn es gar keine wirkliche Funktion hat. Er hat ja gesagt, dass die Entwickler das Ding in die Ecke gelegt haben. Man kann darauf nichts entwickeln & testen, wenn es kaum Funktionen besitzt. Selbst die Ports funktionieren max. mit 800x600 oder wenn überhaupt. Selbst Intel schrieb wohl in den Specs, dass man den Monitor an den Ports von der iGPU anschließen soll. Mal von dem speziellen Prozessor & Motherboard abgesehen.
 

kampfschaaaf

PCGHX-HWbot-Member (m/w)
GT1030 stimmt ja nicht, sondern zwischen 1010 und 1030. Das macht viel aus? Es wird sicher noch irgendwie irgendwas werden...
... vielleicht.
Doof ist, daß sie im aktuellen Setting nur bestimmte intel-Chipsätze mit bestimmten intel-CPUs unterstützt.
Da intel das sicherlich nicht so läßt, wird man noch abwarten müssen, was wirklich kommt. Igor hat allerdings Recht, wenn er sagt, daß es unmöglich sei, die Karte ohne jegliche 3d-funktionale Treiber oder Softwareunterstützung zu verschicken.

Ich denke mal, daß hier einfach ein Test gemacht wurde, indem eine integrierte Grafikeinheit aus nem i7 auf ne Platine extrahiert wurde. Jetzt müssen die Entwickler gucken, was sie damit machen wollen.
Intel verspricht sich vermutlich Anstöße und kostenlose Fehleranalysen, auf die sie nie gekommen wären. . ., . . .

Zum Beispiel: Can it run Crysis?
 

northstar

Komplett-PC-Aufrüster(in)

Rollora

Kokü-Junkie (m/w)
Mehr als ein Sammerstück wäre es nicht. Wen es die 100€ wert ist... Denn laut seinem Test ist das Ding im Grunde Schrott, wenn es gar keine wirkliche Funktion hat. Er hat ja gesagt, dass die Entwickler das Ding in die Ecke gelegt haben. Man kann darauf nichts entwickeln & testen, wenn es kaum Funktionen besitzt. Selbst die Ports funktionieren max. mit 800x600 oder wenn überhaupt. Selbst Intel schrieb wohl in den Specs, dass man den Monitor an den Ports von der iGPU anschließen soll. Mal von dem speziellen Prozessor & Motherboard abgesehen.
grade sowas ist ja das spannende daran
 

CyLord

PC-Selbstbauer(in)
Spannend wäre eher der Hintergrund bei Entwicklung & wieso die Karte ist, so wie sie ist. Aber an sich verliert die Karte an Spannung, wenn man die Karte kaum Funktionen hat. Er sagte, dass die Entwickler es als verlorene Zeit betrachten, trotz allen Probierens.
 

Rollora

Kokü-Junkie (m/w)
Spannend wäre eher der Hintergrund bei Entwicklung & wieso die Karte ist, so wie sie ist. Aber an sich verliert die Karte an Spannung, wenn man die Karte kaum Funktionen hat. Er sagte, dass die Entwickler es als verlorene Zeit betrachten, trotz allen Probierens.
Das liegt daran, dass die Karte ursprünglich als Laptop-Interne Karte gedacht war und Intel 0 Resourcen in die Richtung schickt. Man merkt auch, dass Performance kein Ziel war, wenn man LPDDR4 verwendet (was wiederum mit der Laptop-Herkunft auch zu tun hat).
Spannend ist sie halt deshalb, weil sie nicht mehr als ein Prototyp ist. Und Prototypen sind schon geil. Da gehts überhaupt nicht darum, die jemals voll funktionsfähig zu beommen. Wär zwar fein, aber ist nicht immer das Ziel.
Denk mal an die V5 6000 oder gar die Rampage-Karten
 

Löschzwerg

BIOS-Overclocker(in)
Und man kann es nur noch einmal betonen, Iris Xe Max (DG1) funktioniert in den Notebooks ziemlich problemlos bzw. wie man es eben erwarten würde.
Ich hätte mir da einen wesentlich neutraleren Bericht gewünscht, aber so wird einfach ein falsches Bild gezeichnet und hängen bleibt bei der Allgemeinheit "die Treiber sind *********************" (obwohl das nicht mal mehr ansatzweise stimmt!).
 

0Martin21

Tippmeister DFB-Pokal 2010/2011
Und man kann es nur noch einmal betonen, Iris Xe Max (DG1) funktioniert in den Notebooks ziemlich problemlos bzw. wie man es eben erwarten würde.
Ich hätte mir da einen wesentlich neutraleren Bericht gewünscht, aber so wird einfach ein falsches Bild gezeichnet und hängen bleibt bei der Allgemeinheit "die Treiber sind *********************" (obwohl das nicht mal mehr ansatzweise stimmt!).
Die Karte hat nichts gerissen, jeder Versuch sie zum laufen zu überreden hat nichts gebracht. Und es ist eine DESKTOPKARTE, da ist mir egal das sie in Laptop läuft. Genauso läuft ein Auto mit einem Rasenmähermotor auch nicht unbedingt gut. Wenn dann die Fejler auch noch ignoriert werden, was hast du dann? Schrott? Auto ist super, der Motor auch, aber nicht im Auto. Es gibt st immer ein Zusammenspiel von allem das es Super läuft. Da hat Intel einfach versagt mit der Testkarte, es könnte noch was werden mit den offiziellen Karten, aber die Hoffnung schwindet. Zumal Intel für gute Traiber bekannt ist
 

Löschzwerg

BIOS-Overclocker(in)
Der Unterschied zwischen Mobile und Desktop ist eigentlich nur der Formfaktor und nachdem das getestete DG1 SDV Probleme mit grundlegenden Funktionen hat, diese aber bei den Mobiles gegeben sind, ist es doch ziemlich offensichtlich dass da etwas faul war am kompletten Testsystem.
Wie journalistisch sinnvoll es dann ist entsprechend Rückschlüsse auf kommende Produkte zu ziehen, das darf jeder für sich beurteilen.
 

FormatC

igor'sLAB
Ich will ja nicht unken und darf leider auch nicht alles veröffentlichen, was da so abläuft, aber fast die komplette Consumer-Graphics-Sparte löst sich gerade selbst auf. Die iGP wird natürlich bleiben, auch wenn DG2 ein Jahr hinterherhängt, HPC wohl auch, obwohl es dort wegen der ganzen Verzögerungen auch kriselt (Argonne National Labs). Nur denke ich, dass gerade Pat diesen kleinen Betriebsausflug schneller beenden wird, als manche glauben. Ich sehe ja, wer alles weg ist und wohin. Selbst AMD hat wieder eingestellt :D

Der Unterschied zwischen einer Notebook iGP oder GPU zu einer echten, dedizierten Desktop-GPU ist gewaltig. Was im Notebook läuft, wird nicht zwangsläufig auch autark lauffähig sein. Die journalistische Intention hinter meinem Test war übrigens die Frage, warum das alles auf einer Präsentation schon einmal lief (so hatte es zumindest den Anschein) und viele Monate später dann plötzlich nicht mehr. Also entweder hat man den Treiber zurückentwickelt, oder auf der CES einfach nur die Leute verarscht. Oder um es mit den Worten vom Löschzwerg zu kommentieren:
das darf jeder für sich beurteilen.
 
Zuletzt bearbeitet:

Löschzwerg

BIOS-Overclocker(in)
Der Unterschied ist größtenteils Firmware und dass die Kontrolllogik letztendlich enger miteinander verzahnt ist.

Dass das getestete SDV sich so dermaßen bescheiden verhält wundert mich auch, aber ich denke nicht das Intel die Leute auf der CES verarscht hat. Mit gezielten Hotfixes lässt sich prinzipiell viel bewerkstelligen, damit dann genau die drei Anwendungen laufen.
Das erklärt aber immer noch nicht warum das Testsystem gar so schlecht läuft. Für mich ist entweder die FW veraltet, korrupt oder irgendetwas an der HW ist hinüber. Das erinnert mich ein wenig an die R600 Rev A11 GPU, da läuft auch nur 2D und 3D ist extrem eingeschränkt (in diesem Fall ein HW Fehler der GPU).
 

PCGH_Torsten

Redaktion
Teammitglied
"Teardown Grafikkarte": "Hier haben wir den Kühler. Da das PCB. Fertig." :-D

Oh je. Mittlerweile sollten eigentlich die Treiber funktionieren, aber pustekuchen

Schon die echte Desktop-DG1 gibt es vorerst nur für bestimmte Hardwarekombinationen und über OEMs, wobei die Grenzziehung hinten und vorne der Chipverteilung/den technischen Grundlagen in Intels Portfolio widerspricht. Das kann eigentlich nur bedeuten, dass die Firmware extrem selektiv ist und auf Systemen abseits des abgesegneten bestenfalls ein Notfallmodus zur Verfügung steht. Igor hat jetzt offensichtlich eine Karte, die für Mobile-DG1-Development-Kits bestimmt war, aber scheinbar ohne die zugehörige Workstation. Bei so mekeliger Software ist es gut möglich, dass der einfache Aufbau eines gleichwertigen, aber nicht identischen Systems, für einen Normalbetrieb nicht reicht. Tatsächlich erinnern die Beschränkungen bei Auflösung und Ausgängen und Rendering stark an einen Notfallmodus. Da muss man zuerst einmal prüfen, ob man nicht in einem Windows-Fallback ganz ohne Hardwarebeschleunigung gelandet ist und selbst wenn Einheiten der GPU angesprochen werden, ist die Chance auf eine Funktion wie vorgesehen eher gering.


Das liegt daran, dass die Karte ursprünglich als Laptop-Interne Karte gedacht war und Intel 0 Resourcen in die Richtung schickt. Man merkt auch, dass Performance kein Ziel war, wenn man LPDDR4 verwendet (was wiederum mit der Laptop-Herkunft auch zu tun hat).
Spannend ist sie halt deshalb, weil sie nicht mehr als ein Prototyp ist. Und Prototypen sind schon geil. Da gehts überhaupt nicht darum, die jemals voll funktionsfähig zu beommen. Wär zwar fein, aber ist nicht immer das Ziel.
Denk mal an die V5 6000 oder gar die Rampage-Karten

Die V5 6000 hatte das Ziel, vollfunktionsfähig zu sein und das schon mindestens ein halbes Jahr vor den Modellen, mit denen man sich an die Presse gewagt hat. Das sie es nicht war, hat den Untergang von 3dfx noch einmal spürbar beschleunigt. ;-) Rampage war noch nicht in diesem Zustand, war aber zum Zeitpunkt der Pleite auch noch mindestens ein Jahr von dem Punkt entfernt, an dem man ihn außer Haus gegeben hätte – DG1 ist dagegen ein kommerziell vertriebenes Produkt. Das muss voll funktionsfähig und stabil sein, in diesem konkreten Fall aber leider auch laut Hersteller nur unter bestimmten (nicht vollständig bekannten) Bedingungen.

LPDDR4 ist übrigens auch für Mobile-GPUs eine absolute Ausnahme und wirft eher eine Licht auf Intels Vorgehen in der Entwicklung: 2× 64 Bit LPDDR4 ist nichts weiter als ein stinknormaler Mobile-CPU-IMC. Und wenn ich es mir recht überlege, dann hat man PCI-Express 4.0 ×8 da auch schon mal gesehen => TGL - 4 CPU-Cores = DG1?
 

FormatC

igor'sLAB
Wir haben das mit weiteren Testsystemen natürlich verglichen, aber die kontaktierten Leute, die was haben, hatten von Anfang an nur Stress. Es gab keine einzige Erfolgsmeldung und es lief auch bei keinem besser. Wohlgmerkt von Anfang an.

Igor hat jetzt offensichtlich eine Karte, die für Mobile-DG1-Development-Kits bestimmt war, aber scheinbar ohne die zugehörige Workstation.
Hast Du den Artikel eigentlich gelesen? Es ist exakt das offizielle, von Intel bereitgestellte System gewesen. Ob die sich zwischen den einzelnen Empfängern noch unterscheiden, kann ich nicht nachvollziehen, aber man wird das schon leicht variiert haben, um ggf. Lecks zun erkennen. Deshalb habe ich das Originalsystem und seine Fingerprints ja ausgepixelt. :)

Ohne die originale Firmware des MB wird die Karte ja nicht einmal erkannt. So clever bin ich durchaus noch, um das zu erkennen ;)

TGL - 4 CPU-Cores = DG1?
DG2. Intel wird 2022 aus TGL die dedizierte DG2 machen. So hat man es den Notebook OEM bereits schon kommuniziert. Deshalb TGL <> DG1 (MAX)


Kleiner Tipp für Eure News-Kollegen:
Mal die Auflösungserscheinungen bei Intel genauer hinterfragen. Ich habe hier eine ellenlange Liste von Namen, die sich auch mit denen der VGA Consumer Sparte decken. Zufall? ;)
 
Zuletzt bearbeitet:

Rollora

Kokü-Junkie (m/w)
"Teardown Grafikkarte": "Hier haben wir den Kühler. Da das PCB. Fertig." :-D



Schon die echte Desktop-DG1 gibt es vorerst nur für bestimmte Hardwarekombinationen und über OEMs, wobei die Grenzziehung hinten und vorne der Chipverteilung/den technischen Grundlagen in Intels Portfolio widerspricht. Das kann eigentlich nur bedeuten, dass die Firmware extrem selektiv ist und auf Systemen abseits des abgesegneten bestenfalls ein Notfallmodus zur Verfügung steht. Igor hat jetzt offensichtlich eine Karte, die für Mobile-DG1-Development-Kits bestimmt war, aber scheinbar ohne die zugehörige Workstation. Bei so mekeliger Software ist es gut möglich, dass der einfache Aufbau eines gleichwertigen, aber nicht identischen Systems, für einen Normalbetrieb nicht reicht. Tatsächlich erinnern die Beschränkungen bei Auflösung und Ausgängen und Rendering stark an einen Notfallmodus. Da muss man zuerst einmal prüfen, ob man nicht in einem Windows-Fallback ganz ohne Hardwarebeschleunigung gelandet ist und selbst wenn Einheiten der GPU angesprochen werden, ist die Chance auf eine Funktion wie vorgesehen eher gering.




Die V5 6000 hatte das Ziel, vollfunktionsfähig zu sein und das schon mindestens ein halbes Jahr vor den Modellen, mit denen man sich an die Presse gewagt hat. Das sie es nicht war, hat den Untergang von 3dfx noch einmal spürbar beschleunigt. ;-) Rampage war noch nicht in diesem Zustand, war aber zum Zeitpunkt der Pleite auch noch mindestens ein Jahr von dem Punkt entfernt, an dem man ihn außer Haus gegeben hätte – DG1 ist dagegen ein kommerziell vertriebenes Produkt. Das muss voll funktionsfähig und stabil sein, in diesem konkreten Fall aber leider auch laut Hersteller nur unter bestimmten (nicht vollständig bekannten) Bedingungen.

LPDDR4 ist übrigens auch für Mobile-GPUs eine absolute Ausnahme und wirft eher eine Licht auf Intels Vorgehen in der Entwicklung: 2× 64 Bit LPDDR4 ist nichts weiter als ein stinknormaler Mobile-CPU-IMC. Und wenn ich es mir recht überlege, dann hat man PCI-Express 4.0 ×8 da auch schon mal gesehen => TGL - 4 CPU-Cores = DG1?
ich sprach von der speziellen Entwicklerversion, die ich eher sls Prototyp/kleinstserie einordne.
DG1 ist dann nochmal was anderes, das wird auch gekauft, kommt aber neben Karten wie die Volari V8 in den Schrank. Das wird wohl eher unter dem Label "Exotenkarte" laufen
 

PCGH_Torsten

Redaktion
Teammitglied
Wir haben das mit weiteren Testsystemen natürlich verglichen, aber die kontaktierten Leute, die was haben, hatten von Anfang an nur Stress. Es gab keine einzige Erfolgsmeldung und es lief auch bei keinem besser. Wohlgmerkt von Anfang an.


Hast Du den Artikel eigentlich gelesen? Es ist exakt das offizielle, von Intel bereitgestellte System gewesen.

Der Halbsatz ist mir in der Tat entgangen. Die längeren Ausführungen zum Foto-Equipment und das Altbekannte zur DG1 habe ich nur quergelesen und bin dann bei den Ausführungen bezüglicher mehrerer Mainboards und CPUs (an Stelle eines Developer-Kits) und Schilderungen der vorliegenden Karte als Teil des Artikels wieder eingestiegen. Mea culpa.
 

FormatC

igor'sLAB
Ich weiß mittlerweile, dass das System identisch mit den CES Systemen ist. Da verwundert mich umso mehr, dass hier nichts läuft wie ehemals präsentiert. Oder man zumindest glaubt, gesehen zu haben.

Wobei ich persönlich nicht mehr an Intels Consumer-GPU als dedizierten Konkurrenten glaube. Murthy wurde gefeuert, das komplette GPU CC Team ist gegangen (worden) und jede Menge mehr interner Personalentscheidungen irritieren mich da schon extrem. Pat ist kein Freund des Projekts und Raja wird froh sein müssen, wenn er im Data Center seinen Allerwertesten (vorerst) retten kann, solange PVC nicht floppt. DG1 wird intern als Fail behandelt und DG2 hängt ein volles Jahr zurück. Da ist die K..ke am dampfen. :(
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Du weißt offensichtlich mehr als andere, also musst du selber spekulieren. :-)
Ich kann Gelsinger diesbezüglich nicht einschätzen, aber fest steht, dass Intel weiterhin eine Entwicklung für massiv parallele HPC-Beschleuniger ebenso braucht wie immer stärkere IGPs für den mobilen Markt, wenn sie diese Geschäfte nicht AMD und Nvidia überlassen wollen. Und wenn es eine Konstante in Intels Tradition gab, dann die Bereitschaft SEHR große Summen in die Sicherung von Märkten zu investieren. Mit den Summen, die sie im Tablet/Netbook-Fight damals verbraten haben, hätten sie AMD aufkaufen können. (Gäbe es keine Kartellämter)

Das heißt umgekehrt, dass Intel auch in Zukunft zwei Technologien rumliegen hat, aus denen man mit überschaubarem Aufwand brauchbare GPUs zimmern kann. Und da wären wir bei der zweiten Konstante der Intel-Geschichte: Wenn ihnen irgend jemand in ihrern Stammmärten auf die Pelle rückt, dann versuchen sie immer auch einen Gegenangriff. Mal mit mehr Erfolg ("Günstige Gaming-Prozessoren" nachdem AMD im Office- und Servergeschäft erstmals deutlich zweistellige Marktanteile erreichte), mal mit weniger (Intel-Smartphone CPUs, nachdem ARM-Designs in den Low-End-Arbeits- und Multimedia-Markt eindrang). Aber immer mit Keksen statt Krümeln und ansehnlicher Ausdauer. Beides hat Intel in Sachen Desktop-GPUs noch nicht bewiesen.
 
Oben Unten