Intel Xe DG 1: Anzeichen auf holprigen Start der dedizierten Grafikeinheit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Xe DG 1: Anzeichen auf holprigen Start der dedizierten Grafikeinheit

Es gibt Anzeichen auf einen holprigen Start der dedizierten Grafikeinheit DG1, die auf Intels Xe-Architektur basiert. Im Geekbench ist eine Messung doch deutlich hinter den Erwartungen - mutmaßlich wegen Treiberproblemen. Und Produkte, die "zeitnah" erscheinen sollten, kommen nun erst Anfang 2021.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Xe DG 1: Anzeichen auf holprigen Start der dedizierten Grafikeinheit
 
Ausgezeichnet! Für Intel läuft bald alles nach Plan. Bleiben sie nicht an einem Mangel an verfügbarem Videospeicher hängen, sieht man hier einen neuen Versuch, es besser zu machen. Nicht alle Leute werden interessiert sein, doch wenn firmenintern alle Mitarbeiter zufriedengestellt werden können, ist eine eigene Fertigungsstraße ein Segen.
 
zu den 178.000 Punkten einer 3080 ist schon noch etwas Luft und das wird sich auch mit neuem Treiber nicht ändern; oder mit einer Vervierfachung. Wenn Intel mit dem Topmodell überhaupt eine 5700 in Reichweite hat, werden sie zufrieden sein können. Genug um Fertig-PCs von der Stange zu verkaufen (Vgl. Gaming -PCs mit 1650 und 1660 im MediaMarkt).

In den Forensignaturen hier im Forum würde ich jetzt mal keine Intel Grakas erwarten so schnell.
 
Mindestens viermal so viel Leistung und mindestens doppelt so viel VRAM, und man könnte sich die Sache mal ansehen ...
 
Auch wenn mir Intel wohl nie mehr wieder ins Haus kommen wird, ist es schon spannend, dass es einen neuen Konkurrenten gibt.
Über den Preis wird Intel aber sicher noch länger nicht versuchen werden zu konkurrieren, wen überhaupt jemals.
 
Nach ersten Gerüchten hätte man davon ausgehen können, dass sie sogar echte Oberklasse anviesieren aber 4096 Shader bei etwa 1/3 weniger Leistung pro Shader sagt sehr deutlich, dass sie höchstens mit einer 3070 konkurrieren dürften. Dabei dürften sogar die kolportierten über 7000 Shader dringend notwenidig sein, um überhaupt an eine 3080/6800 XT heran zu kommen. Also wird das nichts mit dem Eintritt ins Highend-Gaming für Intel...
 
Also wird das nichts mit dem Eintritt ins Highend-Gaming für Intel...
Was für den Einstieg doch erstmal egal ist.
Intressanter wird es ob, Intel in der Einstiegs- bis Mittelklasse etwas konkurrenzfähiges liefern kann und versucht durch entsprechend günstige Preise an Marktanteile zu kommen.

Kann für uns (Kunden) eigentlich nur gut sein, wenn AMD und Nvidia mal wieder etwas Konkurrenz bekommen.
 
Was für den Einstieg doch erstmal egal ist.
Intressanter wird es ob, Intel in der Einstiegs- bis Mittelklasse etwas konkurrenzfähiges liefern kann und versucht durch entsprechend günstige Preise an Marktanteile zu kommen.

Kann für uns (Kunden) eigentlich nur gut sein, wenn AMD und Nvidia mal wieder etwas Konkurrenz bekommen.
Sehe ich auch so, wer hat den mit klarem Verstand erwartet dass die Dinger mit der aktuellen HighEnd Riege konkurrieren?
 
Nach ersten Gerüchten hätte man davon ausgehen können, dass sie sogar echte Oberklasse anviesieren aber 4096 Shader bei etwa 1/3 weniger Leistung pro Shader sagt sehr deutlich, dass sie höchstens mit einer 3070 konkurrieren dürften. Dabei dürften sogar die kolportierten über 7000 Shader dringend notwenidig sein, um überhaupt an eine 3080/6800 XT heran zu kommen. Also wird das nichts mit dem Eintritt ins Highend-Gaming für Intel...
Bei dem 4096-ALU-Design handelt es sich gerade mal nur um ein einziges Tile und angesichts der Tatsache, dass dieses sich größentechnisch auf etwa um die 250 mm2 zubewegt (also Navi 10), wäre ein Leistungsäquivalent im Bereich einer RTX 3070 dagegen eher sogar recht gut.
Darüber hinaus bleibt abzuwarten, ob das Design auch im "GPU-Betrieb" skalierbar ist, denn Intel demonstrierte bereits ein 4-Tile-Design mit 42 TFlops FP32-Leistung. Weiterhin handelte es sich lediglich um einen ES-Chip, d. h. da ist es eh noch zu früh für eine finale Einschätzung und letzten Endes hat Intel mehr als einmal in den letzten Monaten explizit erklärt, das Xe-HPG auf das Enthusiasts-Segment abzielt und da wäre es schon etwas merkwürdig, wenn effektiv schon im upper Midrage schluss sein sollte. Dein Post liest sich eher, als wenn du hier einen viel zu frühen Nachruf auf Xe schreiben möchtest. Einfach mal abwarten. Mit Xe-HPG wird das abesebar eh erst was im 2HJ21, d. h. das dauert noch ein Weilchen, bis sich da tatsächliche Leistungswerte in der Gerüchteküche verdichten, geschweige denn, bis man wirklich belastbare Aussage auf dem Tisch hat. Darüber hinaus kommt aller Voraussicht nach TSMCs N6 zum Einsatz, d. h. in Summe darf man hier durchaus hoffen, dass was Konkurrenzfähiges geboten wird und wie meine beiden Vorposter schon erklärten, ist ein absoluter Leistungswert oder gar "Sieg" auch gar nicht erforderlich, denn am Ende ist das P/L-Verhältnis ausschlaggebend.
 
Sehe ich auch so, wer hat den mit klarem Verstand erwartet dass die Dinger mit der aktuellen HighEnd Riege konkurrieren?
Ich hoffe niemand. Aber etwas, was für Medienwiedergabe über- und für Gaming unterdimensioniert ist, scheint mir kein Produkt zu sein, das außer im Segment "OEM für komplett Uninformierte" irgend einen Sinn ergibt.

3 GByte VRAM sind selbst in der Einstiegsklasse heutzutage mächtig dünn und was die Rechenleistung angeht ... Sagen wir mal, der noch nicht endgültige Treiber habe die Leistung halbiert, dann wäre das Optimum immer noch unbeeindruckend. Das wäre dann eine speicherkastrierte GTX 1050 oder RX 560.

Irgendwie sehe ich dafür keinen Slot im augenblicklichen Marktgeschehen. Selbst wenn sich die Mondpreise bei Karten von AMD und Nvidia, die sich bis ins unterste Segment durchziehen, noch eine Weile halten, müsste Intel schon sehr niedrige Preise machen und wäre immer noch unter der Mittelklasse, in welcher der größte Umsatz gemacht wird. Darüber, was mit der Architektur prinzipiell möglich sein könnte, spekuliere ich nicht, mir geht es um das konkrete Einstiegsprodukt.
 
Der springende Punkt wird der Treiber sein, nicht welche Leistunsgklasse Intel auf dem Papier erreicht. Wenn nicht ein Wunder geschieht, wird der Support und die ordentliche Funktion bei einer breiten Palette von Games für lange (Entdecker)Gesichter sorgen. Nur Masochisten und Intel-Hardcore'ler werden sich das länger als nötig antun.
 
Auf dem Punkt Treiber & SW-Stack haben sie offensichtlich einen besonderen Fokus, was auch nicht wundert, da die Bedeutung offensichtlich ist, insbesondere da Xe generell einen sehr hohen Stellenwert in Intel's Geschäftsstrategie einnimmt. Insofern darf man hier auch auf Synergieeffekte hoffen und die (personellen) Ressourcen hat Intel alle Mal.


@Mahoy: LP zielt bisher ausschließlich auf das mobile Segment ab, d. h. da passt alles. Ob es davon noch EntryLevel-PCIe-Karten geben wird, muss man vorerst abwarten, aber selbst da würde das passen, denn die passenden Gegenstücke von AMD und nVidia hast du ja bereits selbst zitiert. Intel plant hier das volle Spektrum von iGPU/Mobile bis HPC mit Xe abzudecken und LP stellt gerade mal den kleinsten architektonsichen Ausbau dar. (Beispielsweise hardwarebasiertes Raytracing wird erst XE-HPG unterstützen.)
 
Zuletzt bearbeitet:
LP zielt bisher ausschließlich auf das mobile Segment ab, d. h. da passt alles.
Da es ausdrücklich um dedizierte GPUs geht, ändert sich das Problem im mobilen Segment - von dem ich übrigens ausging - kein bißchen: Bereits existierende iGPUs mit eine mobilen dGPU zu paaren, die letztlich auch nicht mehr kann, wäre sinnlos und teuer.

Als dGPU für Gaming wäre LP auch in Mobilgeräten einfach zu schlapp. Ich habe ja bereits optimistisch konzediert, dass es mit dem endgültigen Treibern doppelt so viel Leistung liefert wie jetzt, obwohl nicht einmal das übermäßig wahrscheinlich ist. Die Chance auf drei- oder gar vierfache Leistung ist noch geringer und selbst wenn es so wäre, würde die dGPU an den lediglich 3 GByte VRAM verhungern.

Die Frage, wo und wie sich die sogenannte Einstiegsklasse positionieren soll, bleibt also bestehen, wenn hier nicht irgendwo eine wesentliche Information falsch ist und deren Streichung den Widerspruch auflöst.
 
Da es ausdrücklich um dedizierte GPUs geht, ändert sich das Problem im mobilen Segment - von dem ich übrigens ausging - kein bißchen: Bereits existierende iGPUs mit eine mobilen dGPU zu paaren, die letztlich auch nicht mehr kann, wäre sinnlos und teuer.
Bei Neuware ist das tatsählich ziemlich sinnloss.
Schätze, dass das eher etwas zum aufrüsten für alte Office-PC´s mit langsamer iGP oder für Serverboards ohne integrierte GPU wird. Quasi ein besserer Ersatz für die mittlerweile "uralten" GT 710 und GT 730.

Beim Topmodell wird es etwas intressanter.
Wenn ich raten müsste, würde ich das Topmodell etwa auf Höhe einer RX560 einordnen.
Damit wäre das Topmodell schneller als die APU´s (~RX550 / GT1030) und die 3GB VRAM limitieren noch nicht zu stark.
 
Zuletzt bearbeitet:
Da es ausdrücklich um dedizierte GPUs [...]
Kannst du deine Kritik mal auf den Punkt bringen, denn das ist bei dir irgendwie bisher recht diffus und wenig schlüssig außer das pauschale aber bezugslose "Ich bin dagegen". ;-)

Was man hier bei Intel mit Xe derzeit sieht, ist gerade erst mal der Anfang mit den kleinstmöglichen Modellen (und zudem der ersten Gen). Mit HighEnd-Mobile-Gaming hat das noch gar nichts zu tun. *) Beispielsweise die 96 EUs umfassende DG1 lässt sich leistungstechnisch mit einer nVidia MX350 vergleichen, aber nicht mit so etwas wie einer mobilen RTX 2060 Super (erstere max. 80 mm2 und 25 W, letztere > 400 mm2 und bis zu 115 W).

Für "richtige" oder "Hardcore"-Gamer ist erst Xe-HPG vorgesehen, das die Architektur noch ein wenig erweitert, so u. a. um hardwarebasiertes Raytracing.
Hier wird man einfach abwarten müssen. Eine erste umfängliche Aussage zu Xe wird man wohl nicht vor Ende 2021 treffen können, denn erst dann werden Produkte über das gesamte Spektrum von Intel veröffentlicht worden sein.

*) Du kannst dir an zwei Fingern ausrechen, dass im Bereich von 1000+ € wohl weitaus mehr Business-Laptops als Gamer-Laptops verkauft werden, d. h. hier ist die Frage, ob Intel derzeit überhaupt versucht letzteren Markt zu adressieren. Ich würde eher annehmen, dass sie das derzeit nicht tun.

**) Darüber hinaus: Bereits die DG1 ist nicht grundlegend sinnbefreit/nutzlos, obwohl sie ebenso 96 EUs hat wie die iGPU in den größeren Tiger Lake U's.
Der Chip taktet 300 MHz höher, unterstützt bis zu 4 GiB dediziertes LPDDR4X, verwendet den gleichen Treiberstack (d. h. viel effizienter und einfacher zu implementieren für die Hersteller), kann von Intel mit günstigen Paketpreisen angeboten werden ("Alles-aus-einer-Hand") und zudem lassen sich die GPUs für Compute, AI und Media Workloads zusammenschalten ("Deep Link"), wofür bereits einige bekannte Hersteller/Apps ihre Unterstützung zugesagt haben.
 
Kannst du deine Kritik mal auf den Punkt bringen, denn das ist bei dir irgendwie bisher recht diffus und wenig schlüssig außer das pauschale aber bezugslose "Ich bin dagegen". ;-)
Zugegeben, es ist Samstag und da ist so Mancher etwas abgespannt und kann nicht so recht folgen, aber was an meinen Ausführungen diffus oder unschlüssig sein soll, ist mir ebenso unverständlich wie dein - Warum eigentlich? - leicht angepiept wirkender Trugschluss, ich wäre gegen irgend etwas.

Es geht hier darum, dass Intel eine dedizierte Einsteiger-GPU auf den Markt bringen will, die selbst im (angenommenen) besten Fall schwächer ist als alles, was derzeit als Einsteigermodell durchgeht.
Das kann Intel selbstverständlich machen, ich habe aber auch so was von gar nichts dagegen. Ich sehe nur nicht, wo sich das Ganze sinnvoll platzieren soll. Und du offenbar auch nicht :D, sonst hättest du bereits eine informierte Vermutung abgegeben, statt mir überflüssigerweise zu erzählen, die kleinste Ausbaustufe wäre für das mobile Segment gedacht, was - wie ebenfalls ausführlich dargelegt - am Sachverhalt nichts ändert: Weder im Laptop noch im Desktop gibt es meines Erachtens eine Lücke, die DG1 schließen würde.

Zudem weichst du ständig auf zukünftige Ausbaustufen aus, über die ich explizit schrieb, das sie nicht Gegenstand meiner Überlegung sind. Ja, kann sein, dass die richtig gut werden und das Midrange-Segment aufmischen; das würde ich sogar sehr begrüßen. Den Sinn von DG1 erklären sie allerdings immer noch nicht.

Ich weiß nicht, wie ich noch einfacher formulieren soll, dass ich für die kleinste Ausbaustufe zwischen derzeit erhältlichen iGPUs und derzeit erhältlichen dGPUs keinen Markt sehe und ich gerne wüsste, wo Intel damit hinzielt. Ich könnte ein paar Piktogramme zeichnen, falls das hilft? ;)

Darknesss' Antwort hat da Hand und Fuß, denn das ist ein Segment, in das DG1 passt. Warum Intel allerdings ausgerechnet auf den nicht eben lukrativen oder prestigeträchtigen Altsystem-Aufrüstermarkt schielen sollte, bleibt trotzdem rätselhaft. Wenn es nur darum geht, alten Krücke moderne Grafikausgänge zu spendieren, gibt es bereits genug (nicht ganz so alte) Karten, die diese Aufgabe für billig erfüllen. Dafür eine neue Architektur zu entwickeln und bei dieser für Abwärtskompatibilität mit besagten alten Krücken und womöglich auch darauf laufenden älteren Betriebssystemen zu sorgen, bindet Mannstunden und sorgt dabei nicht gerade für Rendite.
Es bleibt mysteriös.

Oder daran ist gar nichts mysteriös, sondern es ist einfach ein doofes Produkt, welches man über starke OEM-Partner trotzdem auf den Markt drückt und auf genug Dumme hofft. Das könnte sogar funktionieren, wäre aber aus Verbrauchersicht unbefriedigend.
 
Zuletzt bearbeitet:
Zurück