News Intel Arc ("Battlemage"): Next-Gen-GPU soll sich bereits im Testlabor befinden

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc ("Battlemage"): Next-Gen-GPU soll sich bereits im Testlabor befinden

Die zweite Generation der erstmals überhaupt im Juni 2022 an den Start gegangenen Arc-Grafikkarten von Intel soll auf Basis der neuen Architektur Xe² HPG ("Battlemage") endlich auch mit Nvidia Geforce und AMD Radeon konkurrieren können. Gerüchte sprechen von einer Verdopplung der Xe²-Cores, was in insgesamt 8.192 Shadereinheiten resultieren würde. Der Grafikprozessor Intel BMG-10 soll sich schon in Intels Testlabor befinden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc ("Battlemage"): Next-Gen-GPU soll sich bereits im Testlabor befinden
 
"[...] endlich auch mit Nvidia Geforce und AMD Radeon konkurrieren können."

Bliebe die Frage, auf welchem Niveau. Sicherlich bei den Massenmodellen, wünschen wir uns, daß erstmal dieses gelingt.

Man stelle sich vor, man wäre in naher Zukunft wieder in der Lage, eine Karte auf 3080-Level mit 16gb kaufen zu können, für um die 429€. Würde mich schon ansprechen ;-).
 
Glaskugel: Mit doppelter Einheitenzahl (was ja nie zu 100% skaliert) + eventuell mehr Takt und generelle Architekturverbesserungen würde der Vollausbau dann vermutlich so auf 3080 bis 3080 Ti Leistung kommen, mit 16GB Speicher. Vllt maximal auf 4070 TI Leistung. Oder mit AMD verglichen so ne 6900/6950 XT. So meine Schätzung.

Da die RT Leistung bei Intel ebenfalls gut ist und 16GB Speicher mehr als bei den Nvidia Karten wären, warum nicht? Wenn der Preis halt stimmt. Und die Karte nicht zu spät kommt.
 
Ob Intel die bislang als Maximum ausgegebene TDP-Obergrenze von 225 Watt bei mehr als 8.000 Ausführungseinheiten auch weiterhin halten kann ....
Kann zum Einen ja auch mal ein größerer Kühler mit 3x Lü. werden und dann hilft ja auch 6nm-->4nm.
why not 265W+, ... gerade wenn Intel >3GHz anpeilt, sehr wahrscheinlich

Hauptsache, man bleibt preislich in der Nähe von 4070Ti und 7900xt.
 
Abwarten. Die Gerüchteküche ist noch viel zu spärlich und der Release noch zu weit weg, die projizierte Performance ist auch all over the place, was mich vermuten lässt, dass Intel selber noch nicht so genau weiß, wohin die Reise geht.

Außerdem passen bei RedGamingTech die Infos nicht wirklich zusammen, <225W für den G10 sind bei den Daten im Leben nicht zu halten, von 6nm zu 4nm sind kein so riesiger Sprung und sollte man die 4070 erreichen, dann wäre man bei der Effizienz mal eben fast gleichgezogen mit Nvidia und läge sogar ein gutes Stück vor AMD (die 7800XT hat ~260W TDP). Das klingt schon fast irrwitzig, in der letzten Gen war Intel noch deutlich ineffizienter als AMD und das trotz besserer Fertigung (TSMC 6nm) als RDNA2 (TSMC 7nm). Jetzt soll man, bei ähnlicher Ausgangslage (Battlemage N4 vs RDNA3 N5), so deutlich vorne liegen? Das wäre schon echt ein starkes Stück und eine grandiose Leistung, da bleibe ich skeptisch.
Ich bin wirklich interessiert was da kommt, ich hoffe unabhängig der Daten vor allem auf einen geregelten Release, sollte sich das inteltypisch mal wieder verzögern, sind die Nachfolger von AMD und Nvidia nicht weit entfernt.
 
INTEL soll Gas geben mit Celeste und Druid !
Wenn nVidia aus dem GraKa Markt ausscheidet (weil KEINE 1000% Marge), brauchen wir einen neuen Monopolisten.
 
Man stelle sich vor, man wäre in naher Zukunft wieder in der Lage, eine Karte auf 3080-Level mit 16gb kaufen zu können, für um die 429€. Würde mich schon ansprechen ;-).
sollte nicht allzu weit entfernt sein mit der 7800XT für 549€ ab dem 06.09. und im Abverkauf von RDNA3 und der kommenden RDNA4 Karten nächstes Jahr

ansonsten ja wäre super wenn Intel mit Battlemage nächstes Jahr was hinbekommen und so mit einen Preiskampf auslösen würde, mal schauen was sie nächstes Jahr dann abliefern werden
 
"[...] endlich auch mit Nvidia Geforce und AMD Radeon konkurrieren können."

Bliebe die Frage, auf welchem Niveau. Sicherlich bei den Massenmodellen, wünschen wir uns, daß erstmal dieses gelingt.

Man stelle sich vor, man wäre in naher Zukunft wieder in der Lage, eine Karte auf 3080-Level mit 16gb kaufen zu können, für um die 429€. Würde mich schon ansprechen ;-).
Du wolltest 4080 schreiben, oder?
 
Doppelte Leistung entspräche im Prinzip die Leistung einer aktuellen ~RTX 4070t.

Intel GPU's haben allerdings eine hohe Rechenleistung am Papier die sie leider nicht in die Praxis umsetzen, der A770 hat gut 20 Teraflops, ist allerdings nur so schnell wie eine auf dem Papier halb so schnelle RTX 2070 Super bzw RX 6600 XT.

Ich denke da ist auch treiberseitig Potential nach oben vorhanden.
 
Doppelte Leistung entspräche im Prinzip die Leistung einer aktuellen ~RTX 4070t.

Intel GPU's haben allerdings eine hohe Rechenleistung am Papier die sie leider nicht in die Praxis umsetzen, der A770 hat gut 20 Teraflops, ist allerdings nur so schnell wie eine auf dem Papier halb so schnelle RTX 2070 Super bzw RX 6600 XT.

Ich denke da ist auch treiberseitig Potential nach oben vorhanden.
Die A770 liegt zwischen der 6650 XT und 7600. Ist also schon etwas schneller.

Ich würde mich sehr über einen dritten Player am Markt freuen. Auch wenn es kein High End ist.
4070 Leistung (noch nicht mal ti) mit 16 GB für 450-470€ würde ich nehmen!

Ich gebe keine 595€ für eine 4070 oder 549€ für eine 7800 XT aus. Nein danke!

PCGH Leistungsindex 2023:
1693376319777.png
 
Wenn die jetzt noch einen vernünftigen idle Verbrauch hinbekommen, kann man ja fast schon zugreifen bei der kommenden Gen.
 
INTEL soll Gas geben mit Celeste und Druid !

Ich halte es jedenfalls für unwahrscheinlich, dass Intel nach Battlemage die dedizierte GPU Sparte wieder aufgibt. Ganz oben mitspielen werden sie wohl auch damit nicht, nur es ist bereits jetzt so viele Geld investiert worden, dass ich einen Rückzieher für nicht wahrscheinlich halte.

Außer natürlich Battlemage wird leistungstechnisch ein absoluter Rohrkrepierer, das bleibt aber erst einmal abzuwarten.
 
4070 Leistung (noch nicht mal ti) mit 16 GB für 450-470€ würde ich nehmen!

Absolut. Allerdings glaube ich nicht, dass wir solche Preise zu Gesicht bekommen werden. Da spricht einfach der Pessimist in mir. Ganz zu schweigen davon, dass wir noch gar nicht wissen, wo Battlemage am Ende leistungsmäßig landen wird.

Dumm wird's nur, wenn Spiele halt weiterhin auf "Optimierung" a la DLSS setzen, statt vernünftig optimiert zu werden.

"Die Leistung ist doch voll gut, auf einer RTX 5090 für 2.000 € läuft es mit DLSS 4 im Performance Modus auf 60 fps bei 4k Auflösung!!!111eins11elf"

Dieser Trend stimmt mich pessimistisch. Auf meiner 2070 Super nutze ich eigentlich nie DLSS, weil mir die Schlieren auf den Keks gehen. Auch bei aktuellen DLSS-Versionen, ich rede nicht von den Anfängen von DLSS 2 (das war ja optisch noch eine reine Katastrophe in Bewegung, ich erinnere mich noch an Cyberpunk 2077, wo hinter dem Auto 10x die Rückleuchten und die Kontur der Karosserie gerendert wurden, oder generell bei Drehbewegungen alle Objekte Wischeffekte nach sich gezogen haben).

Kurzum: Ich würde bei einer B770 mit ~16 GB (gerne auch mehr, aber wir bleiben mal realistisch) bei einer Rohleistung einer 4070 Ti bei ~500 € ebenfalls zuschlagen. Ich war jahrelang (jahrzehntelang sogar) Käufer von Nvidia Grafikkarten, aber was die Preispolitik von denen jetzt angeht, bin ich einfach raus aus der Nummer. Inakzeptable "Angebote" von denen.
 
Würde mich freuen wenn Intel auf die anderen Zwei aufschließen kann. Klar hätte das Vorteile für uns Kunden aber wenn die Leistung bei Intel stimmt bin ich mehr als bereit eine blaue Karte zukaufen

Ob Rot, Grün oder Blau am ende Zählt die Leistung und was die Karten kosten und nach denn Zweipunkten entscheide ich was ich Kaufen werde. Die Marke ist für mich erstmal egal
 
Absolut. Allerdings glaube ich nicht, dass wir solche Preise zu Gesicht bekommen werden. Da spricht einfach der Pessimist in mir. Ganz zu schweigen davon, dass wir noch gar nicht wissen, wo Battlemage am Ende leistungsmäßig landen wird.
Ganz so pessimistisch bin ich da nicht eingestellt. Der Straßenpreis der 7800 XT könnte Ende des Jahres/Anfang nächsten Jahres dort sein... :)
 
Schon im Testlabor? Na dann hoffentlich auch bald in dem richtigen! Das mit den vier Buchstaben :pcghrockt:

Ansonsten bleibt ja nur zu sagen: Immer man her damit!
 
Ich bin Besitzer eine Intel Arc A770 LE in meiner Workstation, zum gelegentlich mal zocken dort reicht sie mir aus.
Für Workloads in Davinci rockt sie.
Ich bin auf jedenfall gespannt wie eine Battlemage aussehen wird, ganz persönlich hoffe ich das Intel sich nur die RX 7700XT /7800 XT als ziel nimmt. Vor allem Temperaturmäßig. Die große Archmage A780 haben sie ja nicht gebracht, da es nur den Preis für marginale Performance hochgetrieben hat. Was mir Kopfzerbrechen bringt ist das 4/3nm nur einen Effizienzschub von ca 50% bringt, klingt im ersten Moment toll, aber doppelt soviele Xe2 Kerne und 50% mehr Effizienz heißt nicht automatisch TDP bleibt gleich, sondern das der Verbrauch auf 250-260 Watt ansteigt. (50% mehr Effizienz heißt Verbraucht sinkt auf 2/3 bei gleicher Leistung). Das wäre so ziemlich genau ein RX 7800 XT clone. Gleiche Leistung bei gleichen Stromverbrauch, während die RTX 4070 bei 200 Watt sitzt.
Für Intel ist Archmage und Battlemage extrem wichtig, da sie etwas brauchen um ihre iris igp Aufzumotzen.
Handhelds wie das ROC Ally und Steamdeck können aktuell nur von AMD bedient werden, die Phoenix APU für Notebooks machen GPU's überflüssig in vielen Fällen, so denn AMD es gebacken kriegt Notebooks APU's zu liefern etc.
Ich hoffe für Intel das sie nicht so dämlich sind Celestiel einzustampfen bevor es auf den Markt kommt, sie werden bald die Technologie brauchen.
 
Zurück