Intel Arc A380 im Benchmark-Test mit 35 Spielen: Ist der Treiber nun reif für die großen Kaliber A750 und A770?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc A380 im Benchmark-Test mit 35 Spielen: Ist der Treiber nun reif für die großen Kaliber A750 und A770?

Nachdem wir in einem vorhergehenden Artikel die Kompatibilität und Alltagstauglichkeit geklärt haben, geht es nun ans Eingemachte: Welche Bildraten erreicht die Intel Arc A380 in Spielen? Ist sie der weitverbreiteten Full-HD-Auflösung gewachsen? Und was leistet die Konkurrenz im Vergleich? Das haben wir in 35 Spielen geprüft - inklusive Raytracing.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc A380 im Benchmark-Test mit 35 Spielen: Ist der Treiber nun reif für die großen Kaliber A750 und A770?
 
Sehr interessant, danke für die ganze Arbeit!:pcghrockt:
Hätte nicht gedacht, dass RT mit der Karte überhaupt rund läuft aber so wurde man positiv überrascht.
Bin gespannt was da noch so kommt von Intel. Hoffe Intel hat einen langen Atem und lässt Arc (und Nachfolger) nicht sterben.
 
Was für ein geiler Test! Wahnsinn, wenn ich überlege wie viel Arbeit da eingeflossen sein muss. Die Herangehensweise finde ich spitze. Hut ab.

Mein Lieblingswortlaut hier:
Während die RX 6400 dank ihres verhältnismäßig großen Level-3-Caches (nur) bei geringen Datenmengen glänzt, hat die A380 weniger Probleme, wenn die Texturen feiner und die Pixel schwerer werden.

Eine Sache, finde ich, hätte man aber nochmals explizit hervorheben können. So toll der Vergleich A380 vs. RX6400 auch sein mag, der preisliche Gegner ist die 6500XT. Die schwächelt zwar an den gleichen Stellen wie ihre kleine Schwester, aber doch von einer höheren Ausgangsposition ausgehend.

Mein Fazit zu diesem Test fällt jedenfalls äußerst positiv aus. Danke dafür.
 
Zuletzt bearbeitet:
Hat mehr Leistungsaufnahme, ist langsamer, hat Kompatibilitätsprobleme und ist teurer als die (laut PCGH) "Schrott RX6400". Und sie muss nicht durch den PCGH GPU 4 Auflösungs Index, hammer was hatten die da noch argumentiert, um die RX6400 da durchzuprügeln - unfassbar diese Kehrtwende. :ugly:

Wer hat die Schlümpfe blau angemalt?
 
Die RX 6400 wurde nie durch den regulären Leistungsindex gescheucht, da die wesentlich stärkere RX 6500 XT schon kolossal versagt. Ich versuche seit ein paar Wochen, eine 8-GiByte-Variante zu organisieren, die vermutlich eine ordentliche Grafikkarte ist, aber bisher ohne Erfolg. Wirklich schade, denn das wäre zur Rehabilitation von Navi 24 optimal.

MfG
Raff
 
Hab schon immer was von Pat Gelsinger gehalten und der gute Raja schuldet uns allen noch was richtig Gutes, bin mal gespannt was draus wird.
 
Hat mehr Leistungsaufnahme, ist langsamer, hat Kompatibilitätsprobleme und ist teurer als die (laut PCGH) "Schrott RX6400". Und sie muss nicht durch den PCGH GPU 4 Auflösungs Index, hammer was hatten die da noch argumentiert, um die RX6400 da durchzuprügeln - unfassbar diese Kehrtwende. :ugly:

Wer hat die Schlümpfe blau angemalt?
Ja das dachte ich mir auch...
Die 6400 haben sie durch den normalen Benchmrk geschickt, getitelt letzter Schrott..
Sie ist unbeliebt behauptet... woher Sie das auch immer wissen....
Und bei den blauen die langsamer teurer ist und mehr Strom braucht extra Benchmark angepasst...
Komisch
 
Dass ihr die RX 6400 für die eigentlich von uns getestete RX 6500 XT haltet, sagt schon alles. :-) Wir haben die 6500 XT tatsächlich wie eine vollwertige, zum Start immerhin über 200 Euro teure Grafikkarte behandelt und neben über fünf Jahre alte Vergleichskarten gestellt. Die schlechte Leistung kommt ausschließlich durch die brutale Doppel-Beschneidung: Wenig Speicher und wenige Lanes zum Host-System töten die Performance. Mit Ansage. Die Lanes wären nicht so wild mit 8 GiByte (anders herum wäre sie immer noch langsam).

Dass immer noch wir die Kritik erhalten, obwohl AMD die fragwürdige Karte längst gegen ein der Preisklasse würdiges 8-GiByte-Modell hätte ersetzen können, ergibt keinen Sinn. Das Produkt ist einfach nicht gut. In Gestalt der RX 6400, die wenigstens schön sparsam und kompakt ist, kann man noch halbwegs einen Sinn erkennen, wenngleich der Preis immer noch nicht zum Paket passt. Bei Intel sind die Probleme völlig anderer Natur. Da macht die Hardware einen ausgewogenen Eindruck (für das Segment), aber die Software braucht Feinschliff. Ratet mal, was sich leichter zusammenprogrammieren lässt. ;)

MfG
Raff
 
aber die Software braucht Feinschliff. Ratet mal, was sich leichter zusammenprogrammieren lässt.
Dann frage ich mich warum Intel das Release so oft verschoben hat. Die Hardware war ja fertig nur gab es immer wieder Probleme mit den Treibern . Warum man sich dazu entschieden hat DX9 über DX12 zu "emulieren". Wenn das mit der Software bzw. Treibern sich leichter "zusammenprogrammieren" lässt. ;) Intel hat eine Menge an Know How dafür eingekauft. Genutzt hat es bisher nur wenig.

Was nützt es dem Konsumenten/Käufer wenn die Treiber vll. in 6, 9 oder 12 Monaten einen akzeptablen Stand erreicht haben. Bis dahin sitzt er auf einer recht mäßigen Investition und würde für ~100€ mehr eine Karte mit funktionierenden Treibern und deutlich besserer Performance in Form einer RX6600 bekommen.
 
Willkommen im Jahr 2022 wo jede neue Karte schlechter ist als die vorherige. Von 6500XT zu 6400 zu A380. Die Nvidia GT 1010 auch nicht vergessen.
 
Dann frage ich mich warum Intel das Release so oft verschoben hat. Die Hardware war ja fertig nur gab es immer wieder Probleme mit den Treibern . Warum man sich dazu entschieden hat DX9 über DX12 zu "emulieren". Wenn das mit der Software bzw. Treibern sich leichter "zusammenprogrammieren" lässt. ;) Intel hat eine Menge an Know How dafür eingekauft. Genutzt hat es bisher nur wenig.

Was nützt es dem Konsumenten/Käufer wenn die Treiber vll. in 6, 9 oder 12 Monaten einen akzeptablen Stand erreicht haben. Bis dahin sitzt er auf einer recht mäßigen Investition und würde für ~100€ mehr eine Karte mit funktionierenden Treibern und deutlich besserer Performance in Form einer RX6600 bekommen.
Den Preis müssen wir hier aus zwei Gründen ausklammern. Erstens wissen nicht sicher, was die größeren, wirklich Gaming-tauglichen Arc-Karten zum Release kosten werden, und die A380 ist immer noch nicht in Deutschland zu haben. Zweitens bemisst jeder den "Betatester-Faktor" anders. Ich wäre beispielsweise bereit, eine Arc A770 für 300 Euro zu kaufen, auch wenn, sagen wir mal, jede zehnte Applikation Probleme macht. Dafür habe ich aber ein neues Spielzeug, das viel spannender ist als eine weitere AMD- oder Nvidia-Karte, wo man im Grunde weiß, was man kriegt - Stärken und Schwächen. Für viele Leute wäre es hingegen indiskutabel, mehrere Hundert Euro für eine unreife Banane auszugeben, und das dürften die meisten sein.

Das von dir angesprochene Know-how hat natürlich schon gewirkt, ansonsten wäre es noch viel schlimmer bzw. würde noch länger dauern. ;)

MfG
Raff
 
Weil es zum Thema passt, hier Superposition Benchmark Ergebnisse mit der Arc A380::

:: DirectX 11 ::
1080P High DX11 -> 5242
a380-superp_1080p-high_win11-dx.jpg
1080P Extreme DX11 -> 2581
a380-superp_1080p-extr_win11-dx.jpg

:: DXVK ::
1080P High DXVK -> 4800
a380-superp_1080p-high_win11-dxvk.jpg
1080P Extreme DXVK -> 2376
a380-superp_1080p-extr_win11-dxvk.jpg

:: OpenGL ::
1080P High OGL -> 5374
a380-superp-1080p-high_win-ogl.jpg
1080P Extreme OGL -> 2572
a380-superp-1080p-extr_win-ogl.jpg



:: OpenSUSE Tumbleweed mit Kernel 6.0 RC2 und Mesa 22.3.0-devel ::

1080P Extreme OGL -> 2125
Bildschirmfoto_2022-08-24_17-43-13.png
1080P High OGL -> 4292
Bildschirmfoto_2022-08-24_17-47-50.png
 
Da macht die Hardware einen ausgewogenen Eindruck (für das Segment), aber die Software braucht Feinschliff. Ratet mal, was sich leichter zusammenprogrammieren lässt.
In dem Sinne mal ein Frage:
Hat die A380 die 92W tatsächlich für die 2450MHz gebraucht oder wars im Durchschnitt deutlich weniger, ... 80W?
weil
Davon auszugehen, das ARC als Hardware schon "soweit" ist, wird man u.U. erst bei den Highend-Modellen sehen, ... ob Diese ins Powerlimit laufen oder problemlos performante Takte erreichen.
Bei der kleinen A380 wattmäßig in die Vollen zu gehen ist ja recht unproblematisch, aber ...
bei 2x Lü. bis zu 285W, lt. Überschrift, ist schon ganz schön grenzwertig, auch wenn der Intelkühler sehr gut sein sollte,
... das sind schon Bereiche von der 3070Ti !!!
(man sieht leider net in dem Video, wie und ob tatsächlich 285W beim OCen genommen wurde und wie sich eigentlich Intel Watt
zum tatsächlichen Stromverbrauch der gesamten Graka verhält, in den Specs ist immer nur von 225W die Rede)
theoretisch
würde der Maximalausbau A780 dann schon 300W brauchen!?
(und entfällt daher, ... wird wohl net mit dem 2 Lü.-Design erträglich sein)
 
Zuletzt bearbeitet:
[...] zum tatsächlichen Stromverbrauch der gesamten Graka verhält, in den Specs ist immer nur von 225W die Rede)
theoretisch
würde der Maximalausbau A780 dann schon 300W brauchen!?
(und entfällt daher, ... wird wohl net mit dem 2 Lü.-Design erträglich sein)
A770 ist der Maximalausbau des ACM-G10, offenbar nahe des Sweet Spots. Intel hat uns die 225 Watt Boardpower gestern live bestätigt und gibt außerdem an, dass die Karte "typischerweise" darunter liegt. Weitere Infos gibt's ASAP, wir sichten, schneiden und schreiben gerade alles zusammen. :-)

Möglicherweise hatte Intel tatsächlich eine A780 - also eine "Ultra" - im Sinn und hat dann bemerkt, dass die Kurve einfach keinen Sinn ergibt. 300 Watt für, sagen wir mal, +200 MHz und somit weniger als +10 Prozent gegenüber der A770 (alles fiktive Zahlen) wäre nicht vernünftig und die RX 6700 XT und RTX 3060 Ti wären wohl immer noch schneller.

MfG
Raff
 
Gut Ding braucht Weile;-) Danke für den Test, Raff. Ich bin der Meinung, Hauptsache ein weiterer Player im dGPU-Markt.

Gut für uns, die Konsumenten...

Gruß
 
Zurück