Intel DG1 Launch: Desktop-Grafikkarte Iris Xe zusammen mit Asus und Colorful

Finde das sehr erfreulich, das wir ggf. etwas mehr Konkurrenz in dem Bereich bekommen. Ausreichend finanzielles Polster sollte Intel ja auf jeden Fall haben, so dass sie sich im Zweifelsfall auch eine defizitäre Sparte locker leisten können. Ob sie das wollen steht auf einem anderen Blatt. Microsoft hätte es sich rein finanziell sicher auch leisten können, weiter an Ihrer Smartphone Sparte festzuhalten und hat sich dagegen entschieden.
Klar ist, dass man Intel jetzt auch im Mainstream- oder sogar Enthusiasten-Bereich nicht schon abschreiben sollte, nur weil deren erste Karte jetzt eher in Einsteiger- bzw. Office-Klasse angesiedelt ist. Spannend wird es (für uns), wenn sie das Modell hochskalieren.
 
Die Gurkenkarten rentieren sich seit dem Intel, mit Sandy Bridge, die IGPs in die meisten CPUs gepflanzt hat, einfach nichtmehr.
Ja - nur dass die alten iGPUs (und sogar die neuen) nichts mit modernen Videocodecs anfangen können wie etwa dem AV1, selbst für volle HEVC-Untertützung muss es schon ne CPU einer der letzten Generationen sein und, ne iGPU hilft einem halt nicht wenn... man keine hat (HEDT-Bereich oder halt Ryzen).

Klar ist das anscheinend nicht besonders wirtschaftlich (sonst würden AMD/NV es ja machen) aber ärgerlich ists trotzdem.
 
es fehlt in eurer Meldung das die dg1 Karte nur mit coffe-Lake und Rocket-Lake zusammen arbeitet. Es werden auch bestimmte Mainboard chipsätze benötigt B460, H410, B365 oder H310C mit Bios Updates damit diese Karte funktioniert.
 
Das ist wohl nur die Ruhe vor dem Sturm(angriff). Einfach wird es nicht.

Vermutlich hatte man vor vielen Jahren, als Xe in die Planung ging, eine klare Idee: Man holt sich die schlausten Köpfe ins Boot (check) und fertigt das Ganze mit der famosen "Alien Fab Tech", die Intel einst groß machten - hoppla, das ging zwischenzeitlich über Bord. Macht aber nichts, Xe ist zweifellos spannend und ich freue mich auf die ersten Muster. :-)

MfG
Raff

Als Xe öffentlich wurde, kämpfte Intel schon seit längerem damit, dass ein neuer Prozess zwar endlich brauchbare Yields, aber weiterhin miserable Taktraten ausspuckte – und das zum zweiten Mal in Folge. Ich vermute seitdem, dass die Verantwortlichen einfach mal die Frage in den Raum gestellt haben: "Gibt es eigentlich keinen Markt für Chips mit vielen, kleinen, aber nur 1-2 GHz erreichenden Transistoren? UND WIESO HABEN WIR KEINE DAVON IM ANGEBOT, SONDERN LASSEN UNSERE FABS 1-2 JAHRE LANG SINNLOSE VORSERIENPRODUKTION FAHREN?"


Ich frage mich, wie groß ist der dedizierte (OEM) Einsteiger GPU Markt? Die Karte kann am Ende doch nicht mehr wie eine iGPU warum also nicht direkt nur die CPU mit iGPU verkaufen?
Oder verkaufen sich Office PCs mit dedizierter GraKa besser?

Office-PCs nicht (deswegen schneidet sich AMD ja mit den immer erst stark verspätet verfügbaren APUs so tief ins eigene Fleisch), aber Endanwender-Multimedia-Krempel. Man hat den Kunden in den 0er Jahren sehr wirkungsvoll dazu erzogen, um alles mit IGP einen ganz großen Bogen zu machen. Deswegen gibt es auch so viele Notebooks, deren dedizierte GPU sowieso kaum schneller als das ist, was die APU schon mitbringen würde.

Allerdings gelangt auch Intel langsam an einen Punkt, an dem die IGP stark durch das Speicherinterface limitiert wird. Das heißt auch wenn die DG1 weder mehr Features noch mehr Recheneinheiten hat, könnte sie trotzdem deutlich stärker als interne Xes sein. Bei einem derartigen Testballon ist das aber ohnehin nicht so wichtig, Intels Ziel sind ganz klar Karten mit deutlich mehr Leistung. Aber sie wollten wohl nicht riskieren, direkt mit einem großen Chip zu starten und sich dann gegebenenfalls mit richtig viel Aufmerksamkeit auf die Fresse zu legen.


Dedizierte Karten bieten nicht nur eine höhere Leistung, sondern auch zusätzliche Display-Ausgänge. Das fiele mir als Pluspunkt selbst bei absoluten Sparkarten ein.

MfG
Raff

Die IGPs können mittlerweile alle drei Ausgänge ansteuern und mehr haben Sparkarten auch nicht, oft sogar weniger.


Alles gut aber... es gibt Punkte zu sammeln? :D

Jup. Und wer drei Stück im Bonusheft hat, bekommt einen Gratis-Kurzurlaub! (Corona-konform natürlich in den eigenen vier Wänden.)
 
Also als Fuß in der Tür und erste Basis, um sich davon ausgehend zu verbessern, finde ich die Desktop GPU von Intel schon interessant.

Wird spannend, in wie fern Intel später mal(paar Jahre) ein Konkurrenzprodukt z.B. zu einer 60er Nvidia bieten kann.
Es wäre natürlich gut noch eine dritte Wahlmöglichkeit zu haben. Man sieht ja, dass selbst so eine 3070 einen stolzen Preis haben kann, der nichts mehr für Einsteiger ist(vor Pascal gingen ja die 70er Preise noch einigermaßen).
So eine "Intel Xe 5060" wäre schon gut.

Am Besten wäre natürlich noch eine ganz neue GPU aus einem anderen Land, als der USA, z.B. (Süd-)Korea, oder China(also nicht nur made in China, aber Firmen-Sitz USA).
Wer weiß ... vielleicht gibt's ja auch irgendwann GPUs aus Indien ?
Why not ? :)

Aber in der näheren Zukunft(also so bis 2024) sehe ich weiter erst mal nur AMD(Radeon) und Nvidia(RTX) als "Wahlmöglichkeit", wenn's jetzt auch um anspruchsvollere Titel in WQHD geht.
 
Zuletzt bearbeitet:
Ich denke den Markt wird die Geforce 1010 besser abdecken und sich auch die reiferen Treiber bieten.
Ja - nur dass die alten iGPUs (und sogar die neuen) nichts mit modernen Videocodecs anfangen können wie etwa dem AV1, selbst für volle HEVC-Untertützung muss es schon ne CPU einer der letzten Generationen sein und, ne iGPU hilft einem halt nicht wenn... man keine hat (HEDT-Bereich oder halt Ryzen).

Klar ist das anscheinend nicht besonders wirtschaftlich (sonst würden AMD/NV es ja machen) aber ärgerlich ists trotzdem.
 
AMD steht derzeit am besten da und Intel macht das ganze nach. Nur Nvidia nicht.

Nvidia geht es blendend. Im Gamingbereich haben sie 80-90% Marktanteil und im Profibereich ist AMD quasi nicht vorhanden. Größter Konkurrent und Gefahr könnte Intel werden, denn die können ihnen große Teile des extrem lukrativen Profimarkts wegnehmen.

Vielleicht etwas neues als x86?

Bei ARM war Nvidia bisher nicht sonderlich Erfolgreich, der Versuch, den Tegra als ultimativen premium ARM Chip zu etablieren ist völlig fehlgeschlagen. Den Platz hat sich Qualcomm, mit ihren Snapdragon CPUs gesichert. Dann gibt es noch Mediatek, die die Billigchips herstellen, der Rest setzt auf Eigenentwicklungen.

Außerhalb der beiden Architekturen gibt es momentan nichts ernstzunehmendes.
Ich denke den Markt wird die Geforce 1010 besser abdecken und sich auch die reiferen Treiber bieten.

Schwer zu sagen, Intel hat einen hervorragenden Ruf und wenn sie es, wie AMD bei den Laptops getan hat, machen (der CPU noch eine billige GPU hinterherschmeißen), dann könnten sie durchaus Erfolg haben.
 
Die Karte hat 'eine TDP von um 30w und das bekommt man irgendwann nicht mehr in einer IGP untergebracht, weil auch die Fläche des Trägersubstrat für mehr Cores wachsen muss, wobei diese der Sockeldimension entsprechend begrenzt ist. Und schnell, billig kleiner (shrinken) war wohl gestern. Selbst 5nm ist zu ineffizient und stellt neue Anforderungen an Materialien.

Das Intel sie in den OEM schickt, hat einfach etwas damit zu tun das Namen dort absolut unwichtig sind und der Bereich immer wieder durch die Customgamer (die ihre Systeme teilweise allein aufsetzen) massiv unterschätzt wird. Da zählt allein was ich für mein Geld bekomme. Da gehts mit dx12.1 relativ "modern" zu. So eine Karte dürfte deutlich mehr leisten als eine IGP je könnte.
 
Na endlich - eine Karte im <30W Bereich mit allen modernen Codecs für ne Handvoll Euro für HTPCs und als Notfall-GPU wenn die eigene mal stirbt (und es weit und breit keine Ersatzkarten zu kaufen gibt.
Danke, Intel - das verschlafen AMD und NV seit vielen Jahren.


Ah und nebenbei: Hier gehts um Grafikkarten, nicht um politische Diskussionen. Nur falls sich einer wundert warum Posts verschwinden und Spampunkte kommen.
Solche Karten sind auch sehr nützlich wenn man Papas neuen Arbeitsrechner zusammenschraubt und vergessen hat das Ryzen keine Gpu hat.
...öhm...ist einem Freund passiert :D
 
@Xagi Wenn AMD es einem nicht so schwer machen würde als Privatmensch an neue APUs zu kommen würde das seltener passieren. Ich hab schon einige Tray-APUs verbaut die letzte Zeit weil AMD die Renoirs einfach nicht in den Retail geben weill. :motz:

(Fun-Fact: Der letzte AMD-APU-PC war tatsächlich für meinen Papa :haha:)
 
Kann unter Umständen schwierig werden, die Karten benötigen scheinbar ein UEFI mit Anpassungen:
Das macht sie umso wertvoller ;)
Nö aber im Ernst: das ist kein Problem.
Versteh ich das jetzt richtig?
Die aktuelle Preislage bei GPU´s machst du allein an AMD fest?
Korrigiere mich bitte falls ich das falsch verstehe.
Ja, das hast du leider falsch verstanden.
Ich schrieb AUCH. Es gehören 2 dazu. Nvidia hat die Preise ihrer Produkte, die schneller waren als die schnellsten bereits am Markt befindlichen natürlich nach oben gesetzt, aber AMD hat dann nicht wieder die alte Preisklasse eingenommen, sondern auch nach oben gesetzt - somit war eine Preiserhöhung fixiert.
 
Zuletzt bearbeitet:
@Xagi Wenn AMD es einem nicht so schwer machen würde als Privatmensch an neue APUs zu kommen würde das seltener passieren. Ich hab schon einige Tray-APUs verbaut die letzte Zeit weil AMD die Renoirs einfach nicht in den Retail geben weill. :motz:

(Fun-Fact: Der letzte AMD-APU-PC war tatsächlich für meinen Papa :haha:)

Nicht zu vergessen, dass der "Ryzen Pro"-Preisaufschlag in Kombination mit der indirekten Lieferung in den Endkundenmarkt zum Teil immer noch dafür sorgt, dass man die gleiche CPU-Leistung mit IGP bei Intel billiger bekommt. Ich hoffe mal, dass für Cezanne deutlich mehr Kapazitäten gebucht wurden, sodass mal ein paar Exemplare für Selberbauer abfallen. Man kommt sich reichlich dämlich vor, wenn man die Grafikausgänge auf Retail-B550-Platinen benoten will, für es gar keine offizielle Nutzungsmöglichkeit gibt.
 
Ja, das hast du leider falsch verstanden.
Ich schrieb AUCH. Es gehören 2 dazu. Nvidia hat die Preise ihrer Produkte, die schneller waren als die schnellsten bereits am Markt befindlichen natürlich nach oben gesetzt, aber AMD hat dann nicht wieder die alte Preisklasse eingenommen, sondern auch nach oben gesetzt - somit war eine Preiserhöhung fixiert.
AMD hat keine Preise nach oben gesetzt. Das waren die Händler.
 
AMD hat keine Preise nach oben gesetzt. Das waren die Händler.
Du redest von den Straßenpreisen, ich rede von den Listenpreisen. Und die hat AMD sehr wohl deutlich erhöht.
Ich habe 2009 eine Radeon 5850 gekauft. Das war die zweitschnellste Karte am Markt. 180€. Was kostet heute die zweitschnellste Karte von AMD?
 
Du redest von den Straßenpreisen, ich rede von den Listenpreisen. Und die hat AMD sehr wohl deutlich erhöht.
Ich habe 2009 eine Radeon 5850 gekauft. Das war die zweitschnellste Karte am Markt. 180€. Was kostet heute die zweitschnellste Karte von AMD?
Ähm, 2009, schon klar.
Autovergleich:
Ein GOLF 1 GTI kostete 13500 D-Mark, ein GOLF 8 GTI kostet 35.633,44 Euro.
Wie kann das sein? Was ist da los?
 
Ähm, 2009, schon klar.
Autovergleich:
Ein GOLF 1 GTI kostete 13500 D-Mark, ein GOLF 8 GTI kostet 35.633,44 Euro.
Wie kann das sein? Was ist da los?
Die Inflation in den letzten 10 Jahren war deiner Meinung nach also 300%?
Achso und du vergleichst einen Zeitraum von ~45 Jahren mit den letzten 10

Wer nicht sehen will, dass eine Preiserhöhung stattgefunden hat ist eben blind.
Wie Intel nur überleben konnte, die die 300€ Preisklasse lange als Spitze ihres "normalen" Desktopsockels hatten... trotz Inflation.
 
Zurück