News Intel Arc ("Battlemage"): Next-Gen-GPU soll mit bis zu 64 Xe-Cores und 8.192 Shadern an den Start gehen

inwiefern Geschichte ? Intel steigt doch nicht in den Grafikmarkt ein , um nach ein paar Jahren wieder ein Rückzieher zu machen.
Schon mal was von Project Larabee gehört?
Nicht, dass ich es mir nicht wünschen würde, aber das Intel am Ball bleibt ist alles andere als in Stein gemeißelt.
Das wäre sehr dumm; aktuell attackiert Alchemist ja die Speicherknausrigkeit von AMD und Nvidia.
Nvidia versteh ich, aber wo ist AMD im Vergleich knausrig beim Speicher? Die A770 gibts ja primär in 8GB.
 
Der nächste logisch Schritt wären 32GB und die würden einiges kosten. Ob der Preis die Erfolge rechtfertigt?
Warum bitte? Auch das Speicherinterface kann angepasst werden und dann wären z.B. auch 20 oder 24 GiB möglich - siehe AMD und Nvidia.

Marketingtechnisch wird es eher interessant, wenn es bei 16 GiB bleiben sollte. Verdoppelung der Shader, aber gleiche Speichermenge? Mit der Menge des Caches kann man den Otto Normal-Verbraucher nicht locken, mit der VRAM-Menge schon. Und wenn man tatsächlich leistungstechnisch wenigstens bei der 3090 landen sollte, vielleicht sogar bei der 3090ti (die auch noch GDDR6X und nicht den Non-X nutzen), dann würden sich bei potenziellen Kunden noch mehr Fragezeichen auftun.
 
inwiefern Geschichte ? Intel steigt doch nicht in den Grafikmarkt ein , um nach ein paar Jahren wieder ein Rückzieher zu machen. Das die ersten Jahre eher mager werden, ist doch logisch. Intel wird sich vermutlich weiterhin erstmal im Midsegment rumtummeln und dort könnten sie dann auch ne ernsthafte Alternative werden. Evtl. bekommen wir dann auch mal wieder vernünftige Preise in dieser Leistungsklasse , aber ist wohl eher Wunschdenken.

Das ist aber schon Intels dritter Versuch.

Und es wurde nicht schon umsonst darüber gemunkelt, dass man erneut versucht sein könnte das Kind in den Brunnen fallen zu lassen.
Immerhin müssen ja auch schon wichtige Leute ihren Hut nehmen udn das gesamte Unternehmen Geld einsparen, u.a., eben weil die Grafiksparte Unsummen an Gelder frisst.
Also wenn man jetzt nicht kürzlich diesen Wundertreiber mit dem DX9-Workaround "Proton"-Like hinbekommen hätten, wäre das vermutlich mit Battlemage und Co. ganz anders gelaufen, nämlich eher gar nicht.

Gibt es jetzt eigentlich bald den A580?
Ist ja schon wieder fast ein ganzes Jahr vorbei!
So viel zum Thema Termingestaltung und Lieferbarkeit von Intelprodukte...
 
Zuletzt bearbeitet:
Ob der Preis die Erfolge rechtfertigt? Ich habe meine Zweifel, ob man der RTX 4090 (Ti) damit die Kundschaft abspenstig macht.
Naja, die DIE-Size (in N4 statt 4N) soll ähnlich zu AD103, also dem Chip der 4080, ausfallen. Entsprechend ist es halt wichtig, dass gegenüber der 4080 etwas geboten wird.
An Konkurrenz zur 4090 (Ti) glaube ich absolut gar nicht. Die Watttargets machen das unwahrscheinlich, die Fertigung macht das unwahrscheinlich.
Abseits dessen wird dann vielleicht auch bereits eine RefreshGen in den Regalen stehen.
 
Marketingtechnisch wird es eher interessant, wenn es bei 16 GiB bleiben sollte. Verdoppelung der Shader, aber gleiche Speichermenge? Mit der Menge des Caches kann man den Otto Normal-Verbraucher nicht locken, mit der VRAM-Menge schon. Und wenn man tatsächlich leistungstechnisch wenigstens bei der 3090 landen sollte, vielleicht sogar bei der 3090ti (die auch noch GDDR6X und nicht den Non-X nutzen), dann würden sich bei potenziellen Kunden noch mehr Fragezeichen auftun.
16GB sollte noch bei Battlemage völlig ausreichen.
Ich denke nicht, dass die 2024 wirklich genug Leistung für UHD + RT haben werden.
Und für WQHD reichen derzeit 12GB der 4070 Ti aus, also ist man mit 16GB dann die nächsten paar Jahre soweit sicher.
Der zusätzliche Cache auf den Karten ist hingegen schon ein Leckerli, da das Zusatzleistung bringt.
NVidia hat das nicht umsonst von AMD abgeschaut, und auch bei Prozesoren hat AMD damit Intel ein Schnippchen geschlagen und sich locker die Leistungskrone zurückgeholt, bei ebenfalls überagender Effizienz.
Mein 5800X3D frisst bei Division 2 und 120FPS nur 30-40 Watt und wird lauwarm. :-)
Also warum nicht auch bei Grafikkarten? Davon kann man fast nie genug haben.
Aber du hast schon Recht, einfache Käufer kann man damit nicht beeindrucken, außer man druckt das ebenfalls vorne groß auf die Verpackung aka "Superschneller, supergroßer 3D-Cache für enormen Performanceboost".
 
Schon mal was von Project Larabee gehört?
Nicht, dass ich es mir nicht wünschen würde, aber das Intel am Ball bleibt ist alles andere als in Stein gemeißelt.
Wenn man hier eine Analogie ziehen möchte, sollte man nichtaußer acht lassen, dass Larabee keine MArkteinführung hatte und vor Release schon gecancelt wurde, bevor diese zu Ende entwickelt wurde. Dagegen sind die XE Grafikarten tatsächlich Realität und kaufbar. Ebenso die Developer und Treiber Abteilungen, die schon massig daran gearbeitet haben.
Die Karten werden mit jedem Update besser und für produktive Tätigkeiten sind jetzt schon eine sehr gute Alternative, auch wenn noch nicht besser oder Augenhöhne mit dem High End. Das alles jetzt einfach fallen lassen, wäre ein sehr blöder Schritt. bin mir sicher das sie die nächsten Gens noch bringen, hängt aber dann von vom Erfolg ab, ob es weiter geht.
 
Nvidia versteh ich, aber wo ist AMD im Vergleich knausrig beim Speicher?
Ich habe leider lange nach meinen alten Postings zu dem Thema gesucht, daher antworte ich jetzt erst. Das Posting bezog sich auf RDNA2 vs Ampere:
Zu den V-RAM-Diskussionen: AMD nutzt diese Generation bislang ausschließlich einfache Bestückung und hier geht es genauso weiter. (erst die 6700 non XT soll von dieser Linie abweichen und nur halbe Bestückung bieten) Nvidia hingegen nutzt hingegen diesmal oft auch halbe Bestückung, wie bei der 3080 (ti) oder 3070 (ti) und 3060ti. Die 3090 und 3060 stechen dadurch heraus, dass es sie mit einfacher Bestückung gibt. Doppelte Bestückung, wie man sie früher oftmals kaufen konnte, gibt es bei keiner Karte. Einfach eine 3090 auch mit 48GiB kaufen zu können oder eine 6900 XT mit 32GiB ist aktuell nicht drinne. (früher konnte man beispielsweise die GTX 680 auch mit 4GiB erwerben oder die 290 (X) mit 8GiB)
Bei RDNA3 vs Ada gab es folgende Änderungen:
Nun nutzen AMD und Nvidia nun durchgängig beide je nach Blickwinkel einfache Bestückung --- oder aber bloß halbe Bestückung! Schließlich ist seit dem RDNA2-Launch schon einiges an Zeit vergangen und entsprechend liegt eigentlich nahe, das man mal zur doppelten Kapazität pro GDDR-DIE greifen könnte:
Vorher hatte eine 6800(XT)/6900XT 16GiB an einem 256bit-Interface, jetzt hat eine 4080 16GiB an einem 256bit-Interface und eine 7800XTX wird auch 16GiB an einem 256bit-Interface tragen. Üblicher Fortschritt bleibt aus. Weiterhin gibt es auch keine doppelseitig bestückten Modelle.

Zurück zur 7900XTX: Sie trägt 24GiB, genauso viel oder genauso wenig wie die 4090. 48GiB wären sogar noch einseitig mit Hochkapzitäts-GDDR6-DIEs möglich, doppelseitig sogar 96GiB.

Zurück zu AMD aktuell insgesamt: Sie erscheinen großzügiger, weil das Preismatching gerade so merkwürdig ausfällt. Aus der 7900 XT, dem eigentlichen Gegner der 4080, wurde eine Karte, die jetzt mit der 4070ti konkurriert und entsprechend über viel mehr Speicher verfügt. Es ist klar, dass das an der generellen Schwäche von RDNA3 liegt und dass die V-Cache-Lösung anscheinend einfach nicht fertig geworden ist.
 
Das sagen die Leute (Trolle) doch schon seit 3-4 Jahren und Intel ist immer noch da.

Aber gut, dir ging es wohl nur ums rumtrollen.



Der nächste logisch Schritt wären 32GB und die würden einiges kosten. Ob der Preis die Erfolge rechtfertigt? Ich habe meine Zweifel, ob man der RTX 4090 (Ti) damit die Kundschaft abspenstig macht.

Wenn man realistisch bleibt: 16GB ist immer noch eine ordentliche Menge und viel besser, als alles, was Nvidia ab der RTX 4070Ti abwärts bietet. Bei AMD wird vermutlich auch die RX 7700XT abwärts übertroffen.

Wenn alles gut geht, dann hätte sich Intel in etwa einem Jahr, was das Preissegment angeht, knapp verdoppelt. Das ist eine respektable Leistung.

Wobei ich, als alter RAM Junkie, eine 32GB Karte sehr interessant fände, eventuell als Sonderversion.
Wie gesagt, ich lass mich überraschen. Die haben schon so viele Bereiche eingestampft und imho verdienen sie mit den GPUs nicht das Big Money, wenn überhaupt.
 
Herzlichen Dank für diese Publikation @PCHG!
Mir sind zwar bei der Intel'schen Politik keine sogenannten "step ups" bekannt, allerdings würde ich mich sehr darüber freuen, wenn Intel sagt: "Jup du hast z.B. ne A770 offiziell erworben, also hier haste im Tausch und Aufpreis ne B770 von uns." LG
 
Wenn man hier eine Analogie ziehen möchte, sollte man nichtaußer acht lassen, dass Larabee keine MArkteinführung hatte und vor Release schon gecancelt wurde, bevor diese zu Ende entwickelt wurde. Dagegen sind die XE Grafikarten tatsächlich Realität und kaufbar. Ebenso die Developer und Treiber Abteilungen, die schon massig daran gearbeitet haben.
Die Karten werden mit jedem Update besser und für produktive Tätigkeiten sind jetzt schon eine sehr gute Alternative, auch wenn noch nicht besser oder Augenhöhne mit dem High End. Das alles jetzt einfach fallen lassen, wäre ein sehr blöder Schritt. bin mir sicher das sie die nächsten Gens noch bringen, hängt aber dann von vom Erfolg ab, ob es weiter geht.
Na und? Ist ja nicht so, dass Intel ein (deutlich länger) existierendes Produkt nicht auch einstampfen würde, wenn es sich nicht rechnet (Optane).
Larabee hat auch einiges an Entwicklungskosten verschlungen und wurde trotz potentieller Marktfähigkeit eingestampft da nicht lukrativ (genug)

Ich habe leider lange nach meinen alten Postings zu dem Thema gesucht, daher antworte ich jetzt erst. Das Posting bezog sich auf RDNA2 vs Ampere:

Bei RDNA3 vs Ada gab es folgende Änderungen:
Nun nutzen AMD und Nvidia nun durchgängig beide je nach Blickwinkel einfache Bestückung --- oder aber bloß halbe Bestückung! Schließlich ist seit dem RDNA2-Launch schon einiges an Zeit vergangen und entsprechend liegt eigentlich nahe, das man mal zur doppelten Kapazität pro GDDR-DIE greifen könnte:
Vorher hatte eine 6800(XT)/6900XT 16GiB an einem 256bit-Interface, jetzt hat eine 4080 16GiB an einem 256bit-Interface und eine 7800XTX wird auch 16GiB an einem 256bit-Interface tragen. Üblicher Fortschritt bleibt aus. Weiterhin gibt es auch keine doppelseitig bestückten Modelle.

Zurück zur 7900XTX: Sie trägt 24GiB, genauso viel oder genauso wenig wie die 4090. 48GiB wären sogar noch einseitig mit Hochkapzitäts-GDDR6-DIEs möglich, doppelseitig sogar 96GiB.

Zurück zu AMD aktuell insgesamt: Sie erscheinen großzügiger, weil das Preismatching gerade so merkwürdig ausfällt. Aus der 7900 XT, dem eigentlichen Gegner der 4080, wurde eine Karte, die jetzt mit der 4070ti konkurriert und entsprechend über viel mehr Speicher verfügt. Es ist klar, dass das an der generellen Schwäche von RDNA3 liegt und dass die V-Cache-Lösung anscheinend einfach nicht fertig geworden ist.
Ehhh, wo ist Intel da besser?
Mir ist egal wie eine Karte bestückt ist, mich interessiert wie viel darauf ist und wie viel Sinn macht. Würdest du auch eine 6500 mit 24GB kaufen? Ich nicht, das wären verschwendete Chips. Macht in meinen Augen wenig Sinn.
Darum stören mich auch die 24GB der 7900XTX nicht, mehr bringt wohl derzeit noch nicht viel. Zumal die 3090 die primär für semi-professionelle Zwecke gehabt haben dürfte. Das braucht schon einige Skyrim-Mods um 24GB VRAM auszunutzen.
Die 20GB der 7900XT sehen selbst gegen die nächstbessere 4080 noch gut aus, gegen die 4070TI sowieso)
A770 gibt's in 8 und 16 GB ("Limited" Edition) Bester Gegenspieler sind 6700XT mit 12GB und 3060 TI/3070 mit 8 GB
Dabei muss man bedenken, dass es Intels "Top"-Modell ist.

Was deine Zahlen zur 7800 angeht sind sie vermutlich korrekt, aber jetzt schon Aussagen über zukünftige Karten zu machen, deren Daten wir noch nicht einmal 100% sicher wissen, ist relativ sinnlos.
 
Ich habe leider lange nach meinen alten Postings zu dem Thema gesucht, daher antworte ich jetzt erst. Das Posting bezog sich auf RDNA2 vs Ampere:

Bei RDNA3 vs Ada gab es folgende Änderungen:
Nun nutzen AMD und Nvidia nun durchgängig beide je nach Blickwinkel einfache Bestückung --- oder aber bloß halbe Bestückung! Schließlich ist seit dem RDNA2-Launch schon einiges an Zeit vergangen und entsprechend liegt eigentlich nahe, das man mal zur doppelten Kapazität pro GDDR-DIE greifen könnte:
Vorher hatte eine 6800(XT)/6900XT 16GiB an einem 256bit-Interface, jetzt hat eine 4080 16GiB an einem 256bit-Interface und eine 7800XTX wird auch 16GiB an einem 256bit-Interface tragen. Üblicher Fortschritt bleibt aus. Weiterhin gibt es auch keine doppelseitig bestückten Modelle.

Zurück zur 7900XTX: Sie trägt 24GiB, genauso viel oder genauso wenig wie die 4090. 48GiB wären sogar noch einseitig mit Hochkapzitäts-GDDR6-DIEs möglich, doppelseitig sogar 96GiB.

Zurück zu AMD aktuell insgesamt: Sie erscheinen großzügiger, weil das Preismatching gerade so merkwürdig ausfällt. Aus der 7900 XT, dem eigentlichen Gegner der 4080, wurde eine Karte, die jetzt mit der 4070ti konkurriert und entsprechend über viel mehr Speicher verfügt. Es ist klar, dass das an der generellen Schwäche von RDNA3 liegt und dass die V-Cache-Lösung anscheinend einfach nicht fertig geworden ist.
Du brauchst also 48 GiB oder 96 GiB ........weil....????
Ich weiß nicht ob ich etwas übersehen oder eine Wissenslücke habe, aber mir wäre kein Spiel bekannt was jenseits der 16GiB alleine nur durch VRam besser oder schöner laufen kann/würde , falls doch bitte mal ein paar Beispiele angeben mit Referenz. Bin ich sehr gespannt drauf.
 
Ich weiß nicht ob ich etwas übersehen oder eine Wissenslücke habe, aber mir wäre kein Spiel bekannt was jenseits der 16GiB alleine nur durch VRam besser oder schöner laufen kann/würde (...)
Natürlich nicht, aber genau das war auch damals bei der 6GiB-Edition der 7970 der Fall.
In den darauf folgenden Jahren hat sich das geändert und es hat sich sehr gelohnt. Das gleiche galt auch für 4GiB-Edition der 680 oder der 680m; bei letzterer habe ich das selbst erlebt.

Bin ich sehr gespannt drauf.
Daher bleibt keine Alternative, als dich in diesem Punkt zu enttäuschen; aber ich hoffe du siehst, dass alles andere auch gar nicht passen würde.
 
Na und? Ist ja nicht so, dass Intel ein (deutlich länger) existierendes Produkt nicht auch einstampfen würde, wenn es sich nicht rechnet (Optane).
Larabee hat auch einiges an Entwicklungskosten verschlungen und wurde trotz potentieller Marktfähigkeit eingestampft da nicht lukrativ (genug)
Na und und, wen interessiert das jetzt? AMD war Jahrelang *** und vor dem konkurs. Und jetzt reiten sie davon…
 
Mir ist egal wie eine Karte bestückt ist, mich interessiert wie viel darauf ist und wie viel Sinn macht. Würdest du auch eine 6500 mit 24GB kaufen? Ich nicht, das wären verschwendete Chips. Macht in meinen Augen wenig Sinn.
Die 6500 gab es mit verdoppeltem VRAM und trug dann 8GiB. Als Option hat das Sinn ergeben, genauso wie eine 6600XT / 6650 XT mit 16GiB, 6700XT / 6750 XT mit 24GiB, eine 6800 (XT) / 6900 XT mit 32 GiB jeweils Sinn gehabt hätte. Eine 6500 mit nochmals verdoppeltem VRAM hätte dann 16GiB getragen, das hätte und halte ich für Ressourcenverschwendung. Selbst das wäre unterhalb der 24GiB angesiedelt, die du angegeben (parodistisch, nehme ich mal an...) hattest.
 
Ich würde mal Larrabee und Xeon Phi googlen an deiner Stelle ;)

Xeon Phi wurde sechs bis sieben Jahre kommerziell angeboten. Soweit ich weiß ab der zweiten vertriebenen Generation auch mit genug Erfolg, um sich selbst zu tragen. Die Einstellung erfolgte eher, weil man wegen der Fertigungsprobleme nicht weiter skalieren konnte und das Phi-Zielgebiet im nächsten Node zwischen E-Core-Xeons, Co-Prozessoren in normalen Xeons und Xe HPC aufgeteilt werden soll(te). Gut, erstere gibt es immer noch nicht, mittlere erst jetzt und statt letzterer kam nur Datacenter-Max, aber Intel hat weder das Know-How hinter noch den Markt für Phi aufgegeben, obwohl der ganz große Durchbruch ausblieb. Nimmt man noch Larrabee sowie den Phi-Abverkauf mit dazu, lief MIC rund 1,5 Jahrzehnte und ist somit ein explizites Gegenbeispiel zu der Behauptung, dass Intel problembehaftete Projekte schnell wieder einstellen würde. Aber auch beispielsweise bei Smartphone-CPUs wurde rund fünf Jahre lang Geld reingebuttert, in der Hoffnung doch noch etwas zu reißen, und selbst für Optane wurde zwar schon ein paar Jahre nach Markteinführung die Einstellung beschlossen, aber die letzte Generation erst vor kurzem veröffentlicht.

Wenn Intel bei Arc ähnlich träge ist, wäre zumindest für Celestial noch eine Entwicklung bis zur Marktreife zu erwarten. Möglich, dass das schneller geht als die Veröffentlichung von Battlemage, sodass dieser nicht mehr erscheint. Aber wenn Probleme in der (TSMC!-)Fertigung ausbleiben und die Finanzen von Intel nicht allgemein den Bach runtergehen, würde ich auch noch mit einem Verkauf von Druid rechnen. Ob diese Produte dann auch jemand haben möchte, steht auf einem anderen Blatt – aber wenn nicht ist es von Intel nicht zu erwarten, dass sie rechtzeitig die Reißleine ziehen. Das hat selbst bei Netburst 2,5 Jahre gedauert. Obwohl man damals in eine unverkaufbare Richtung entwickelt hatte und parallel eine wesentlich bessere Alternative in der legendären Schublade lag, auf die man nur wechseln musste. Diesmal gibt es keinen Plan B und die Xe-Weiterentwicklung ist eng mit IGPs und HPC-Beschleunigern verzahnt, kann also gar nicht komplett abgetrieben werden.
 
Zuletzt bearbeitet:
Lustig, dass es vor 5 Tagen bereits ne gegenläufige Info aus der Leaker Scene gab, nämlich von Moore'sLawIsDead. Dieser war sich aus seinen Kontakten sehr sicher (auch wenn er betont hat, dass er "keine absolut 100% Sicherheit" hat), dass der geplante Top-Die von Battlemage gecancelt ist (wahrscheinlich der hier geleakte Chip) und "nur" eine Low/Mid-Tier Karte erscheinen wird. Auch war bei ihm die Rede davon, dass Battlemage frühestens im zweiten Halbjahr 2024 kommt. Ich will gar nicht darauf eingehen wer hier glaubwürdiger ist, sondern nur aufzeigen, wie uneinig sich die (prominenten) Leaker so sind.
Einstellen wird Intel seine Xe-Sparte sicherlich nicht (dafür sind HPC und die Verwendung in Laptops viel zu verlockend), aber wie lange Intel sich den HPG-Teil noch antut bleibt abzuwarten.
 
Die Leistung einer erstmals für 2022 angekündigten Oberklasse-Grafikkarte (dem Namen und Design nach) würde ich für Battlemage nicht ausschließen. Intel sollte sich zumindest Ziele gesetzt haben, bei denen diese Performance in Spannungskeulen-Reichweite ist.
Aber das so ein Produkt dann 2025, wenn ein Großteil der Auslieferung einer "2H24"-Karte erfolgt, für 500 Euro ein Renner wird, daran glaube ich nicht. Warum sollte man dafür auf Intel warten, wenn die ggf. effizienteren RTX 5060 und RX 8700 in dem Preis- und Leistungssegment längst verfügbar sein werden? Braucht Intel wirklich so lange, dann müssen sie entweder mehr bieten oder kleinere Preise machen. Sonst steht Arc B genauso das wie Arc A: Zu spät, zu wenig, dafür auch kein Schnäppchen.
 
Zuletzt bearbeitet:
Intel Arc könnte Nvidia und AMD mal gefährlich werden. Denn so schlecht sind die Arc Karten nicht. Wer so eine im Betrieb gesehen hatte kennt das Potential was darin steckt.
 
Der Release wurde immer weiter nach hinten geschoben, am Stichtag wurde nur der asiatische Markt bedient und es gab so gut wie keine Karten.
Der Release war im Sommer 2022, jetzt haben wir fast April 2023.
Die Treiber waren absolut unterste Kanone und die meisten Spiele liefen bescheiden.
Der aktuelle. stand ist zufriedenstellend was die Treiber betrifft. Treiber sind das Zeitintensivste überhaupt und reifen wie Bananen, beim Kunden.
Also wenn man jetzt nicht kürzlich diesen Wundertreiber mit dem DX9-Workaround "Proton"-Like hinbekommen hätten, wäre das vermutlich mit Battlemage und Co. ganz anders gelaufen, nämlich eher gar nicht.
DirectX 9 hat kaum noch Priorität.
Wenn Intel sich nur auf Directx12 und Vulkan konzentriert hätte, wäre das spätestens nach Battlemage auch egal gewesen. Mut zur Lücke.
 
Zuletzt bearbeitet:
Zurück