News Intel Arc ("Battlemage"): Next-Gen-GPU soll mit bis zu 64 Xe-Cores und 8.192 Shadern an den Start gehen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc ("Battlemage"): Next-Gen-GPU soll mit bis zu 64 Xe-Cores und 8.192 Shadern an den Start gehen

27.03.2023 07:30 Die zweite Generation der erstmals überhaupt im Juni 2022 an den Start gegangenen Arc-Grafikkarten von Intel soll auf Basis der neuen Architektur Xe² HPG ("Battlemage") endlich auch mit Nvidia Geforce und AMD Radeon konkurrieren können. Gerüchte sprechen von einer Verdopplung der Xe-Cores, was in insgesamt 8.192 FP32-Shadereinheiten resultieren würde.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc ("Battlemage"): Next-Gen-GPU soll mit bis zu 64 Xe-Cores und 8.192 Shadern an den Start gehen
 
Da ja der größte Anteil an Mehrleistung durch die Verdoppelung der Shadereinheiten erreicht wird. Was gut möglich ist, da Intel im Vergleich mit AMD & Nvidia hier in Rückstand ist. Es ist so sehr leicht mehr Leistung zu generieren. Wie sich das auf die Preise niederschlägt, wird den meisten nicht zusagen. Aber die Ausbeute wir mehr als halbiert und der Gewinn gemindert. Das wird die Preise anziehen lassen. Im ganzen aber Positiv für uns Spieler sein, da der druck auf AMD & Nvidia erhöht wird.
 
Da bin ich mal gespannt ob Intel AMD und Nvidia angreifen kann. Wird aber auch auf Kosten der TDP sein. Nachdem ich meine 3070OC durch eine 4080 ersetzt habe und so fasziniert war von der Effizienz und Leistung (155 Watt im Schnitt, bei konstanten 120FPS und auf Hohen Einstellungen), wird es sehr schwierig für Intel da mitzuhalten!
 
inwiefern Geschichte ? Intel steigt doch nicht in den Grafikmarkt ein , um nach ein paar Jahren wieder ein Rückzieher zu machen. Das die ersten Jahre eher mager werden, ist doch logisch. Intel wird sich vermutlich weiterhin erstmal im Midsegment rumtummeln und dort könnten sie dann auch ne ernsthafte Alternative werden. Evtl. bekommen wir dann auch mal wieder vernünftige Preise in dieser Leistungsklasse , aber ist wohl eher Wunschdenken.
 
Im direkten Vergleich mit der Intel Arc A770, würde eine kolportierte Intel Arc B770 in Sachen Spezifikationen einen großen Sprung nach vorne machen. Nur im Bereich des Grafikspeichers soll mit je 16 GiByte GDDR6 an einem jeweils 256-Bit breiten Speicherinterface demnach eine gewisse Waffengleichheit herrschen.
Das wäre sehr dumm; aktuell attackiert Alchemist ja die Speicherknausrigkeit von AMD und Nvidia. Das ausgerechnet zur nächsten Generation aufzugeben, die rundherum sehr viel konkurrenzfähiger werden soll, ergäbe wenig Sinn.
 
inwiefern Geschichte ? Intel steigt doch nicht in den Grafikmarkt ein , um nach ein paar Jahren wieder ein Rückzieher zu machen. Das die ersten Jahre eher mager werden, ist doch logisch. Intel wird sich vermutlich weiterhin erstmal im Midsegment rumtummeln und dort könnten sie dann auch ne ernsthafte Alternative werden. Evtl. bekommen wir dann auch mal wieder vernünftige Preise in dieser Leistungsklasse , aber ist wohl eher Wunschdenken.
Ich würde mal Larrabee und Xeon Phi googlen an deiner Stelle ;)
 
Ich würde mal Larrabee und Xeon Phi googlen an deiner Stelle ;)
Die Situation ist aber eine andere als damals:
Intel hat kaum eine wirkliche Alternative als weiter in Grafikarchitektur zu investieren: In der Chipletära werden sie schließlich Gesamtpakete verkaufen müssen, die auch (auf Wahl hin) eine starke GPU enthalten werden. Die Frage lautet nur, ob in der Zwischenzeit das Vermarkten der Zwischenentwicklungsstufen als Endkundenprodukte funktioniert oder nicht.
Würde Intel ihr Grafikprojekt ohne Nachfolger einstellen, könnten sie sich ohnehin bereit für ihren Untergang machen. In der Chipletära werden sie eine konkurrenzfähige GPU-Technologie brauchen, genauso, wie Nvidia dann eine konkurrenzfähige CPU-Technologie brauchen wird und ansonsten aufgeschmissen sein würde.
Larrabee und Xeon Phi waren hingegen Projekte, die nicht aus einer Not herausgeboren wurden. Sie wurden geboren, weil Intel Potential für eine billige Resteverwertung sah...
 
Wie ich schon sagte:

ca. 3060 Ti x 2 < 3090

+ Designverbesserungen => 3090 Ti ?

Natürlich nur, wenn die Treiber mitspielen.

Das war vermutlich auch mal das besagte Ziel, allerdings ohne bis zu 2 Jahre Verzögerung und einer komplett neu Aufgestellten Konkurrenz.

Selbstverständlich dürfte die Leistung erst einmal für viele Gamer reichen, aber es ist dann halt nicht das, was man mit Battlemage groß angekündigt hatte, nämlich die Spitze der anderen anzugreifen.
Deshalb durfte Koduri wohl auch gehen.
Interessant wird es werden, wie die Chipgröße, Kosten und die Effizienz bei dem "Big Chip" ausfallen werden, gerade Letzteres hatte ja noch ein wenig Probleme, trotz besserer Fertigung war die ja schlechter.
 
Bitte was? :lol:
Der Release wurde immer weiter nach hinten geschoben, am Stichtag wurde nur der asiatische Markt bedient und es gab so gut wie keine Karten. Die Treiber waren absolut unterste Kanone und die meisten Spiele liefen bescheiden.
ich glaube es ist für intel im moment weniger wichtig einen großen umsatz zu machen, als den ruf stätig zu verbessern und werbung über Influencer und tech gurus zu machen. und meiner meinung nach ist ihnen das gelungen. in letzter zeit kenne ich nur videos die das vorranschreiten von intel loben und wo schon vorsichtig gesagt wird, das man die karten für den preis schon fast empfehlen kann wenn man ein wenig experimentier freundlich ist. und genau das ist es, was für intel wichtig ist. so könnte die nächste generation vielleicht wirklich schon eine consumer empfehlung werden für alle die normalerweise aktuellere spiele spielen.
 
Bitte was? :lol:
Der Release wurde immer weiter nach hinten geschoben, am Stichtag wurde nur der asiatische Markt bedient und es gab so gut wie keine Karten. Die Treiber waren absolut unterste Kanone und die meisten Spiele liefen bescheiden.
Das war der (restlos vermurkste) Launch.

Seitdem geben die aber gerade Treiberseitig gut Gas.
 
Da kann man nur hoffen, das Intel seine eigene Chipproduktion demnächst für folgende Gens besser in den Griff bekommt.
Was ist eigentlich mit Samsung, will Keiner mehr mit denen GPU´s billig produzieren?

Nur Beide könnten evtl. die Preise von TSMC drücken.

Was dann beim Grakakäufer ankommt, ist natürlich ne ganz andere Frage, solange Jensen noch 30 Jahre die
Riesenmargen einstreicht. (und Lisa sich im Windschatten ranhängt)

Wünschenswert wäre es natürlich das Intel gegen Beide über den Preis kommen will und evtl. auch in Zukunft
kommen wird.
 
Zuletzt bearbeitet:
Da ja der größte Anteil an Mehrleistung durch die Verdoppelung der Shadereinheiten erreicht wird. Was gut möglich ist, da Intel im Vergleich mit AMD & Nvidia hier in Rückstand ist.
Naja angreifen ja, aber halt nicht im Highendbereich.
Tatsächlich ist die 750 derzeit eigentlich Preis/Leistungstechnisch gar nicht so schlecht im direkten Vergleich zur Konkurrenz.
Das 8GB Modell kriegt man schon um ca 250€
Es ist so sehr leicht mehr Leistung zu generieren. Wie sich das auf die Preise niederschlägt, wird den meisten nicht zusagen.
wenn alle in der Leistung steigern muss auch irgendwo ein Konkurrenzkampf entstehen
Aber die Ausbeute wir mehr als halbiert und der Gewinn gemindert.
Battlemage wird in einem neuen Prozess kommen, über Chipgröße und ausbeute ist noch nichts bekannt.
Ebensowenig über mögliche Architektornische Änderungen
Das wird die Preise anziehen lassen. Im ganzen aber Positiv für uns Spieler sein, da der druck auf AMD & Nvidia erhöht wird.
Ich bin jetzt eher gespannt ob das so sein wird. Koduri hat immer wieder betont, dass die Investitionen bis mindestens inklusive Celestial weitergehen.
Kann jetzt, nachdem man ihn rausgeschmissen hat aber auch sein, dass man von diesen Plänen abgerückt ist.
Bitte was? :lol:
Der Release wurde immer weiter nach hinten geschoben,
ja, das war bitter, aber zu erwarten.
am Stichtag wurde nur der asiatische Markt bedient und es gab so gut wie keine Karten.
was auch heißt, dass man die Nachfrage unterschätzt hat.
Allgemein war ja zu erwarten, dass die ersten 2-3 Generationen eher zum Lernen gedacht sind.
Die Treiber waren absolut unterste Kanone und die meisten Spiele liefen bescheiden.
was auch zu erwarten war.
inwiefern Geschichte ? Intel steigt doch nicht in den Grafikmarkt ein , um nach ein paar Jahren wieder ein Rückzieher zu machen. Das die ersten Jahre eher mager werden, ist doch logisch.
Das ist halt unklar.
1. Aktuell kann Intel es sich nicht ewig leisten, Verluste zu machen
2. der jetztige Chef war nicht derjenige der die Idee hinter dem GPU Einstieg hatte
3. die lukrativsten Zeiten hat man verpasst. Ein ARC Release Anfang 2020 wäre was anderes gewesen
4. jemand, der immer wieder betont hat (und dafür war), dass viel Investitionen getätigt werden bis Druid, wurde rausgeschmissen (Raja Koduri) oder ging freiwillig. So oder so kann das heißen a) man bricht das ganze ab oder b) man verstärkt die Investitionen und ist mit dem aktuellen Fortschritt unzufriend. Mal sehen
5. Intel hat immer wieder mal Projekte nach kurzer Zeit beendet. Das ist für Tech Unternehmen nichts besonderes, siehe "Google Graveyard" https://killedbygoogle.com/ und Google Cemetery https://gcemetery.co/


Intel wird sich vermutlich weiterhin erstmal im Midsegment rumtummeln und dort könnten sie dann auch ne ernsthafte Alternative werden.
Wenn man weitermacht wie bisher, ja.
Im Moment (Umstellung auf Low Level APIs geht voran, DX11 und davor interessieren bald kaum noch, und das sind ja die Problemfelder bei Intel). Ebenso der Wechsel auf Raytracing - auch hier ist Intel bislang schon mal nicht schlecht aufgestellt gewesen.
Evtl. bekommen wir dann auch mal wieder vernünftige Preise in dieser Leistungsklasse , aber ist wohl eher Wunschdenken.
kann sein, dass Intel auch weiterhin etwas versucht über die RAM-Menge (und damit den Preis) geringfügig bessere Angebote zu stellen.


Was Hoffnung gibt, dass Intel weiter macht ist, dass auch im Profi/HPC/Serverbereich Milliarden lungern, man also sowieso GPUs entwickeln sollte/will. Und ob dann als "Abfallprodukt" nicht auch einige Milliarden an Umsatz aufgrund von Gamern lukriert werden sollte?

2024 ist halt reichlich spät. Klar wird man nicht schon 5 Monate nach ARC Launch was neues bringen, aber 1 Jahr später was deutlich potenteres wär schon gut.
 
Zuletzt bearbeitet:
Schade erst Q2 2024.......wenn es nicht verschoben wird.
Bis dahin wird Nvidia und AMD viel zeit haben ihren Vorsprung auszubauen und ihre Preise zu halten.
Bin aber trotzdem sehr gespannt was Intel abliefern wird, fand jetzt allen Unkenrufen zu trotz das ihr einstand extrem gut war und ich mit viel weniger gerechnet habe.
 
Die Treiberarbeit bleibt (und gerade) auch bei diesen Aussichten das Wichtigste! Immerhin muss auch Intel es schaffen die Karten ordentlich auszulasten, erst recht wenn die Anzahl der Shader deutlich ansteigt!
Es ist aber sehr positiv, dass sie weitermachen und sich die Gerüchte der Einstellung offenbar als falsch erweisen. Da hat MLD mit seiner Vorhersage mal wieder kräftig ins Klo gegriffen. :D
 
Zurück