News Intel Battlemage: "Brillante Performance" im nächsten Monat?

PCGH_Sven

PCGH-Autor
Aus China kommen spannende Gerüchte zu Intels kommender Generation von Desktop-Grafikkarten aus der Arc-Serie auf Basis von Intel Xe2-HGP ("Battlemage"). Demnach soll es schon im kommenden Monat mit "brillanter Performance" losgehen.

Was sagt die PCGH-X-Community zu Intel Battlemage: "Brillante Performance" im nächsten Monat?

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Das wird in der Tat spannend ob 7900xt -Niveau erreicht werden kann, ... vs. 8800xt, um brilliant zu sein.
wenn Intel schon das Weihnachtsgeschäft mitnehmen kann, = good Job
(da gings mit dem Treiber wohl schneller als gedacht)
 
Die Daten in der Tabelle sind falsch bzw. nicht mehr aktuell. Battlemage G10 wurde gecancelt, auch die 64 Xe Kerne sind falsch. Es wären 28 Xe Kerne gewesen. Zuerst wird es Battlemage G21 mit 20 Xe Kernen geben. G31 mit 32 Xe Kernen ist noch in Entwicklung, der würde später kommen. Falls den Intel nicht noch streicht. Vielleicht kann die G21 RTX 4060 Niveau erreichen, das muss man mal abwarten.
 
Das wird in der Tat spannend ob 7900xt -Niveau erreicht werden kann, ... vs. 8800xt, um brilliant zu sein.
wenn Intel schon das Weihnachtsgeschäft mitnehmen kann, = good Job
(da gings mit dem Treiber wohl schneller als gedacht)
"Gedacht", also erwartet, war ja eigentlich spätestens Oktober, um zwei Jahre nach ACM-G10 live zu gehen. Jetzt kriegen wir das Ding spät und anscheinend nur die kleine Variante, aber vor Weihnachten ist natürlich clever.

Falls den Intel nicht noch streicht. Vielleicht kann die G21 RTX 4060 Niveau erreichen, das muss man mal abwarten.
RTX 4060 mit 12 GiByte und höchstens 249 Euro Preisschild, so als Vorschlag, wäre ziemlich attraktiv.

MfG
Raff
 
"Gedacht", also erwartet, war ja eigentlich spätestens Oktober, um ...
Intel hatte aber schonmal zwischendurch etwas gebremst, Richtung Launch 2025
vermutlich, um nicht den Shareholdern falsche Hoffnungen zu machen

btw.
bei AMD gibts evtl. Konkurrenz ums Silicon, wenn jetzt erstmal Sony dran ist
da wirds schwierig N48 vorzuziehen
 
Würde Intel bis Quartal 1 2025 warten, wären die Karten direkt Sondermüll, und man könnte gleich auf einen Vergleich mit der imaginären Chinakarte MTT100 oder 120 warten, die dann mit ausgereifteren DX 12 Treibern Intel in den Rücken fällt. lol
"Gedacht", also erwartet, war ja eigentlich spätestens Oktober, um zwei Jahre nach ACM-G10 live zu gehen. Jetzt kriegen wir das Ding spät und anscheinend nur die kleine Variante, aber vor Weihnachten ist natürlich clever.


RTX 4060 mit 12 GiByte und höchstens 249 Euro Preisschild, so als Vorschlag, wäre ziemlich attraktiv.

MfG
Raff

Sind die nicht schon mindestens 2 volle Jahre im Verzug? Es gab doch mal Roadmaps, als Koduri noch endgeile Hardware versprochen hat. Jährliche Steps mit A,B,C und D. Angesagter Angriff im Enthusiasten-Segment, Attacke auf die 4090! 2020 bis 2022 war doch das goldene Zeitalter Intels Grafikkarteningenieurskunst. Arc sollte ursprünglich noch gegen RTX 2000 antreten, dann kam die eher Ende der RTX 3000 udn musste direkt gegen die RTX 4000 weiterkämpfen. Und jetzt schaffen die das mit dem Nachfolger vielleicht nicht einmal mehr vor der RTX 5000?
Merkt ihr was? Die wollten durch schnelel Steps aufholen, stattdessen werden die jetzt immer weiter nach hinten durchgereicht. Selbst wenn die Karten selber 50% zulegen udn eine 4590 nur 40%, dann gewinnt NVidia trotzdem massiv mehr an reiner Geschwindigkeit dazu. Intel bräuchte dann also alleine mehrere Zyklen, um erst einmal da zu landen, wo NVidia vielleicht schon in Kürze steht.
 
Zuletzt bearbeitet:
Generell glaube ich, dass sowohl Intel als auch AMD guttun, wenn die den High End Market erstmal NV überlassen. Gerade AMD kann ggfls. die Chipletgeschichte weiter ausbauen und da einen Erfahrungsvorsprung herausarbeiten. Denn schlussendlich werden die Hersteller irgendwann umschreiben müssen und MCM basierte GPUs anbieten.
 
Generell glaube ich, dass sowohl Intel als auch AMD guttun, wenn die den High End Market erstmal NV überlassen. Gerade AMD kann ggfls. die Chipletgeschichte weiter ausbauen und da einen Erfahrungsvorsprung herausarbeiten. Denn schlussendlich werden die Hersteller irgendwann umschreiben müssen und MCM basierte GPUs anbieten.
Mit "Guttun" hat das nichts zu tun, die können beide einfach nicht wirtschaftlich sinnvoll mithalten in dem Segement.

Darüber hinaus, bei AMD tritt gerade das Gegenteil ein und man lässt die Chiplet-Geschichte erst mal bis RDNA5 liegen, weil man die mit RDNA4 ja vor die Wand gefahren hat. Die Gerüchteküchte spricht hier recht deutlich von Entwicklungsproblemen bei dem neuen Chiplet-Design und das klingt auch keinesfalls abwegig, da AMD sich hier anscheinend etwas überambitionierte Ziele gesetzt hat. Da man die aber anscheinend nicht in einer vertretbaren Zeit lösen konnte, hat man das Projekt eingestampft, weil es ansonsten nur Geld verbrannt hätte. Bereits bei Navi31 hatte sie ja mit einem kleineren, unlösbaren Problem zu kämpfen, das am Ende für die beträchtliche Releaseverzögerung und Treiber-Mitigation verantwortlich war.

Darüber hinaus, MCM im LowEnd und regulären MidRange wird so schnell weiterhin nicht kommen, schlicht weil das derzeit ebensowenig wirtschaftlich ist. Ein kleiner, kompakter Chip ist weitaus besser in ein fertiges Produkt zu münzen, als ein aus vielen Chips bestehendes, komplexes Design, dass noch aufwendig zusammengesetzt werden muss und dann dennoch nur für einen vergleichsweise geringen Preis verkauft werden kann.
 
Würde Intel bis Quartal 1 2025 warten, wären die Karten direkt Sondermüll, und man könnte gleich auf einen Vergleich mit der imaginären Chinakarte MTT100 oder 120 warten, die dann mit ausgereifteren DX 12 Treibern Intel in den Rücken fällt. lol
Bis MTT den Status "ausgereift" erreicht, vergehen noch einige Jahre. Gerade DX12 ist eine Großbaustelle. Ich teste ja nun jedes neues Spiel auch auf der MTT S80 mit dem jeweils aktuellen (DX12-)Treiber und da läuft sehr wenig. Und wenn etwas läuft, dann idR mit Grafikfehlern (etwa RDR) ...

Kleiner Verschreiber? Sollte das nicht "Leaker" heißen?
Sicherlich - gefixt. :-)

MfG
Raff
 
Mit "Guttun" hat das nichts zu tun, die können beide einfach nicht wirtschaftlich sinnvoll mithalten in dem Segement.
Merkst du eigentlich noch was?

Natürlich hat das was mit gut daran tun zu tun, deine Äußerungen sind eine Erklärung warum sie gut daran tun es so zu handhaben.


Da man die aber anscheinend nicht in einer vertretbaren Zeit lösen konnte, hat man das Projekt eingestampft
Ich will hoffen, dass sie das nich getan haben und glaube auch, dass dies so ist. AMD, NV, Intel werden alle wissen, das MCM am Ende der nächste große Step sein wird müssen, trotz aller Nachteile. Aber wir werden bei Blackwell bereits sehen, dass wir in N4 800 bis 900 mm² monolithisch belichten müssen um einen Chip zu produzieren der einigermaßen sinnvoll über dem Vorgänger platziert ist
 
Nachdem man kürzlich den "quasi Ausstieg" aus dem Rennen um performante Consumer-GPUs kommuniziert hat, bleibt abzuwarten wie sich diese Info auf die Kaufentscheidung zugunsten einer dedizierten INTEL GPU auswirken wird. Ich könnte mir vorstellen, dass es viele potenzielle Käufer abschreckt.
Es bleibt natürlich abzuwarten, was INTEL genau meint, wenn sie sagen dass sie sich aus der "aggressiven" Entwicklung neue dedizierter GPUs zurückziehen und ihr Portfolio konsolidieren. Aber nach dem Willen vorn mitzuspielen klingt es nicht. Es klingt eher nach Rückzug in die iGPU Komfortzone in der INTEL schon seit jeher eine gute Marktposition hat.
Schändlich.
 
Nah weis ich nicht ob Battlemage so der Hammer wird.
Muss man mal abwarten.
Laut Datenblatt sieht es aber nicht so nach top Tier aus.

Intel hinkt mit den Karten ca. 2-3 Jahre hinterher.
Genau wie ARC währen diese mind. 2 Jahre früher released worden hätten diese durchaus Konkurenz Potential gehabt.

Nvidia legt z.B. bald schon mit G-DDR 7 auf während Battlemage noch stink normalen G-DDR 6 Hat.

Nun gut, Intel hat aber eh angekündigt falls Battlemage auch floppt dann werden Desctop Grafikkarten auch wieder eingestampft.

- und dabei hätte ich denen durchaus eine chance gegeben. Aber es nützt ja nichts wenn andere Hersteller dann den Boden damit aufwischen.
 
Merkst du eigentlich noch was?

Natürlich hat das was mit gut daran tun zu tun, deine Äußerungen sind eine Erklärung warum sie gut daran tun es so zu handhaben.



Ich will hoffen, dass sie das nich getan haben und glaube auch, dass dies so ist. AMD, NV, Intel werden alle wissen, das MCM am Ende der nächste große Step sein wird müssen, trotz aller Nachteile. Aber wir werden bei Blackwell bereits sehen, dass wir in N4 800 bis 900 mm² monolithisch belichten müssen um einen Chip zu produzieren der einigermaßen sinnvoll über dem Vorgänger platziert ist
Natürlich merke ich noch was, sonst hättest du nicht obige Antwort von mir erhalten ;-), denn das lapidare "Guttun" klang nach bzw. hinterlies einen Tenor der Art ach ne, komm, wir könnten aber wir lassen es einfach mal, kein Bock ... So ist es jedoch definitiv nicht, Es ist ganz klar dem Marktdruck geschuldet, da es sie wirtschaftlich überfordert. nVidia hat nahezu den gesamten Markt in der Hand und entsprechend bleibt kaum Spielraum um etwas zu verdienen, insbesondere, wenn das gelieferte Produkt dann nicht einwandfrei ist.
Vielleicht haben wir uns auch nur missverstanden und du kannst meine Antwortz auch nur als Präzisierung verstehen, das "merkst du was" war jedenfalls überflüssig.

Zum zweiten Teil: Hier die Aussage nicht missverstehen. MCM dient keinem Selbstzweck oder einem Coolness-Faktor. Eine entsprechende Entwicklung dient einem wohldefinierten Zweck, der von Hersteller zu Hersteller und gar von einzelnem Produkt zu Produkt unterschiedlich gelagert sein kann und so wird es auch weiterhin monolithische Produkte geben.
Bei AMD bspw. diente der MCM-Aufbau von RDNA3 dazu günstiger zu fertigen aber nicht den Marktführer leistungstechnisch in die Schranken zu weisen. Du erinnerst dich vielleicht noch an die Fieberträume so mancher Fanboys hier, die davon träumten ein CDNA-änhliches Design in den Consumer-Markt zu bringen und die Shaderzahl so "beliebig" erhöhen zu können. Am Ende kam ein weitaus konservativeres Design mit einem weiterhin monolithischen Graphics Core und man hatte lediglich das/die Speicher-PHY/Controller ausgelagert, was schlicht eine Maßnahme zur Eindämmung der Komplexität war und weil man wusste, dass man mit dem IF Latenzprobleme bekommen würde, wenn man mit dieser Version Shader-Blöcke zusammenschließen wollte. Und selbst hier lief man schon in handfeste Entwicklungsprobleme.
Bei Intel weiß man, dass MCM schon von Beginn an mit in der Planung war und mit EMIB/Foveros sind sie hier sehr gut aufgestellt. Hier hätte man ihnne tatsächlich glauben können, dass sie mit einer gereiften 3rd Gen Celestial den HighEnd-Markt angehen werden und hier absehbar auch mit einem MCM-Design (das hatte sie ja bereits mit Xe-HPC und mit PVC gar im Extrem). Mit der strategeischen Neuausrichtung Ende 2022/23 und jetzt on top den beträchtlichen finanziellen Problemen in 2024 würde ich diese Ambitionen jedoch auch bei denen komplett auf Eis liegen sehen und man darf froh sein, wenn es von Celestial weiterhin dedizierte LowEnd- und Midrange-GPUs geben und die Arch nicht nur noch als iGPU-Design weiterexistieren wird.
Bei nVidia weiß man aktuell immer noch nicht was der große GB202 sein soll, ggf. doch ein MCM a la dem großen HPC-Blackwell mit zwei zusammengeschalteten Chips (vielleicht 2xGB203?) oder ob es doch ein rein monolithisches Design wird. Entwicklungstechnisch wird nVidia mit seinem R&D sicherlich für beide Szenarien was im Feuer gehabt haben.
Darüber hinaus kann man aktuell schlecht abschätzen, was nVdia abliefern kann und was nicht. Ich würde bzgl. dem GB202 aktuell von einem monolithischen Design ausgehen. Darüber hinaus kann der möglicherweise durchaus kleine Vorteile durch einen Sub-Node-Sprung mitnehmen, da man immer noch nicht 100%ig weiß, was der customized 4N von damals und der jetzige 4NP tatsächlich als Basis nutzen. Selbst heute noch widersprechen sich die Aussagen, d. h. man könnte spekulativ gar vermuten, dass der 4N eine N5-Basis hatte und der 4NP- nun eine N4P oder N4X-Basis.
Ergänzend darf man hier mit sehr hoher Wahrscheinlichkeit davon ausgehen dass nVidia AI-unterstützt entwickelt hat, was signifikante Zugewinne ermöglichen soll. Cadence sprach erst kürzlich bzgl. seiner eigenen AI-Design-Möglichkeiten davon, dass die für seine Kunden in etwa Vergleichbar sein sollen zu einem Full-Node-Sprung bzgl. PPA. Man darf also abwarten, was die abliefern können werden ...


Zur Reticle Size, die ist auf maximal 858 mm2 beschränkt, was eine Limitierung der aktuellen Belichtungsmaschinen darstellt, d. h. 900 mm2-Chips kann es nur per MCM geben. (Das höchst spezielle Beispiel der Wafer Scale Engine hier bitte nicht in diesen Kontext einwerfen.)
Mit der Verwendung späterer High-NA-Scanner (ab Intel 14A und bei TSMC voraussichtlich ab der 2nd 2nm-Gen) wird sich die belichtbare Chipfläche dann gar noch mal halbieren, Das wird dann auch dazu führen, dass bereits für MidRange-Produkte eher eine MCM-Fertigung ins Auge gefasst werden wird, aber bis bspw. Consumer-GPUs eine derart moderne Fertigung nutzen werden, wird noch einige Zeit ins Land gehen. Aufgrund der weiter steigenden Kosten darf man gar vermuten, dass die Hersteller die Fertigung möglicherweise aufteilen werden und für die untere Hälfte des Marktsegmentes eher noch bei einem älteren, günstigeren Node verbleiben werden und nur fürs HighEnd den nächsten Node-Step mitnehmen ...
 
denn das lapidare "Guttun" klang nach bzw. hinterlies einen Tenor der Art ach ne, komm, wir könnten aber wir lassen es einfach mal, kein Bock
Nein, so war es definitiv nicht gemeint und für mich auch aus dem Kontext ableitbar. Es macht aktuell keinen Sinn gegen Nvidias Monster Chips anzutreten, da dort eben das Kapital und die Marktmacht steckt, dort kann man eben die extrem hohen Margen fahren. Man sah ja schon bei RDNA 2 wo AMD defintiv den besseren Chip hatte (bis auf RT), dass man lieber 500 EUR mehr für eine schlechtere 3080 investiert hat, als AMDs Alternative zu nehmen.
 
Zurück