Arc A380: Intels Einstiegsgrafikkarte kann im Test bei Golem nicht überzeugen

@ Rollora

Auch wenn ich privat ausschließlich in meinem Leben nur AMD verwendet habe, war es in meiner beruflichen Laufbahn genau umgekehrt und hier kann ich deine Beobachtungen nur bestätigen, eigentlich waren Intel Treiber egal ob Chipsatz etc. etc. oder früher Netzwerkkarten vorbildlich auch die dazugehörige Software.
ja, so geht es mir auch.
Das ist zwar Anwenderabhängig, aber im allgemeinen Office-Bereich sehen wir, dass Intel klar vorne ist. Da ist auch Nvidia noch weit entfernt.
BIS zu dem Punkt, wo man irgendwas mit 3D machen soll/möchte ;)
Aber mit Videospielen und Grafikkarten stehen sie auf Kriegsfuss, es ist ja nicht der erste Versuch, sondern jetzt der dritte Anlauf und AMD musste mit der Ati Übernahme auch erst lernen, aber der Vorsprung ist gewaltig.
Ja, der Vorsprung ist gewaltig und ich glaube nur so "aufzuholen" indem man die alten APIs Stiefmütterlich behandelt und sich voll auf die neuen stürzt. Was für mich persönlich Intel zwar zu einem No-Go machen würde (ich spiele gerne Oldies und Klassiker und hätte dann kaum Vertrauen, dass diese gut mit Intel funktionieren, das ist - auch bei ausreichend Rechenleistung - auch bei den aktuellen iGPUs nicht der Fall. Hab das mal probiert auf dem PC meiner Eltern, das kann man bei vielen Spielen einfach vergessen. Hier ist etwa Nvidia ganz vorne dabei), aber nur so kann man diesen Vorsprung verkürzen.
Wie diverse Benchmarks zeigen ist man in Vulkan und DX12 eh näher dran.
Intel hätte sich wohl auch leichter getan einen bestehenden Player zu übernehmen. Nur, den gibts wohl nicht "günstig" derzeit, wenn überhaupt kartellrechtlich: AMD kann man nicht gänzlich übernehmen (weil man dann ein x86 Monopol hätte) und Nvidia ist wohl zu teuer und mit knappen 80% Marktanteil auch wieder eine Sache fürs Kartellrecht, schätze ich mal.
Jetzt müssen sie halt von Grund auf alles selbst aufbauen.
Wobei mich irrsinnig stört, dass man damit jetzt erst beginnt: die iGPUs von Intel, die reine Hardware betrachtet, war nie schlecht. Die HD3000er in Sandy Bridge war eigentlich recht performant. Allein es scheiterte - wie oben schon festgestellt - an den Treibern für die Spiele.
Hätte man also 2012 schon etwas mehr Leute eingestellt, das zu optimieren und mehr mit Entwicklern zusammenzuarbeiten, würde man heute wohl rundum gelungene Treiber sehen.
Aber wie du richtig erwähnst, auch bei ATI/AMD hat es ja einiges an Jahren gedauert. Das wird bei Intel nun auch der Fall sein müssen.
Für mich war immer schon der Gradmesser die IGPUs in den CPUs und deren Treiber und selbst seit der Ankündigung von Intel den dritten Anlauf zu nehmen, hat sich dort bei den Treibern in Bezug auf Spiele nicht wirklich etwas verbessert, insoweit war ich von Anfang an skeptisch, was sich jetzt einigermaßen bestätigt.
Es ist insofern schade, weil der Markt einen 3. Player brauchen könnte und Intel mit früherer Vorarbeit dies durchaus hätte bewerkstelligen können. Rein von der Hardware her ist man nicht weit weg, das zeigen die Ergebnisse die unter optimalen Bedingungen aufgestellt werden.
Auch die Features sind modern mit Raytracing und XeSS.

Man kann nur hoffen, dass man sich in den nächsten Jahren fängt. Dabei ist mir gar nicht wichtig, dass man Nvidia oder AMD schlägt, sondern, dass man im Einstiegssegment bis hinauf zu 300€ ordentliche Produkte hinkriegt die AMD und Nvidia wieder etwas unter Preisdruck bringen. Oder vielleicht mit dem eigenen Prozess dann auch die Verbräuche runter kriegt.
 
Hört sich ja so an als ob man von irgendeiner einer kleinen/mittleren Firma um die Ecke spricht, wir Reden hier aber von Intel. Ein Weltkonzern mit unglaublich vielen Mitarbeitern und noch mehr Geld. Übrigens ist das auch nicht die erste Grafikkarte von Intel, auch wenn es schon ewig her ist.
Ein Weltkonzern kann auch nichts aus dem Boden stampfen. Sehe ich leider selbst jeden Tag aufs neue. Du hast alleine durch HW und SW so viele Konfigurationen das kann eigentlich nur schief gehen.
Es hilft auch nicht das man Mal vor Jahrzehnten ne dGPU entwickelt hatte. Man benötigt schlicht Erfahrungen und man wird erstmal Lehrgeld zahlen. AMD und Nvidia machen das seit Jahrzehnten durchgehend und können sowohl auf vorhandene SW als auch auf Erfahrungen, Dokumentationen und Prozesse zurückgreifen die dabei helfen.
Mmm, Ähm;


Also beim derzeitigen EURO zu Dollar Kurs und dass das vor Steuern sein soll, sind wir bei mind. 150€ eher drüber.
Und eine 6400 beginnt bei 159$ vor Steuern. Und preislich liegt man in Euro auch in dem Bereich.
Wird bei Intel also kaum anders aussehen.
 
Man hat eine Architektur die sich offensichtlich an der der bis jetzt produzierten IGPs orientiert und trotzdem keine Vorbereitung auf Software-Seite hinbekommen. Das darf man dann ruhig peinlich nennen.
 
Hört sich ja so an als ob man von irgendeiner einer kleinen/mittleren Firma um die Ecke spricht, wir Reden hier aber von Intel. Ein Weltkonzern mit unglaublich vielen Mitarbeitern und noch mehr Geld. Übrigens ist das auch nicht die erste Grafikkarte von Intel, auch wenn es schon ewig her ist.
Wobei die 740 nichts mit aktuellen GPUs zu tun hat, das war ja quasi noch 3D Beschleuniger erster Generation (ohne Shader und Co) mit einem kleinen Flaschenhals ;)
Larrabee hat es nie über den Prototypenstatus hinaus gebracht, und das wär auch schwierig geworden: die Leistung hätte enorm werden müssen, um das Konzept umzusetzen.
Dann gab es ja den angeblichen Machtkampf zwischen Gelsinger (Larrabee) und den iGPU Entwicklern.
Letztlich hatte die iGPU bessere finanzielle Aussichten und das war das vorläufige Ende der Geschichte um die GPU mit den generellen x86 Kernen
Die haben aber auch nicht so auf die K4cke gehauen...

Damit "wirbt" Intel zBsp. bei ARC:
Dann hast du wohl die alten Werbungen von den damaligen 3D Bewerbern Nvidia, ATI, Matrox, Rendition, 3DLabs, Bitboys, SGI, S3,Cirrus Logic,Trident,SiS, Number Nine, Cirrus Logic, Macronix, Alliance Semiconductor, Dynamic Pictures, Tseng Labs, Chromatic Research, AccelGraphics,VideoLogic, XGI...
Gefühlt kam damals jeden Monat eine neue GPU/Architektur und Hersteller :D
Einige sind auch später in den 2000ern kurz mal aufgeschlagen und wieder verschwunden (XGI Volari Karten), viele sind damals leider in der Versenkung verschwunden.
Zu glauben, man könne mal eben - egal welche größe- diese Firmen, die sich damals aus dem Haifischbecken rausgezogen haben (bzw. die anderen gefressen haben) durchsetzen ist nunmal etwas zu leichtsinnig, fast naiv. Die sind ja nicht seit dem Jahr 2000 (ende 3dfx) auf dem Hintern gesessen sondern haben sich die gesamten Einnahmen nur noch durch 2, statt 5 geteilt, haben in jeder Disziplin versucht einen Vorteil zu erhaschen.
Interessant ist auch hier die frühe Geschichte der 3D Karten:

Damals konnte man sich einen von 10 verschiedenen Herstellern aussuchen, aber der einzige bei dem fast alles lief war 3dfx
Billigchipsets gabs auch https://read.cash/@Geri/low-end-3d-cards-from-the-90s-c60f86b3
 
Zuletzt bearbeitet:
Man kann nur hoffen, dass man sich in den nächsten Jahren fängt. Dabei ist mir gar nicht wichtig, dass man Nvidia oder AMD schlägt, sondern, dass man im Einstiegssegment bis hinauf zu 300€ ordentliche Produkte hinkriegt die AMD und Nvidia wieder etwas unter Preisdruck bringen. Oder vielleicht mit dem eigenen Prozess dann auch die Verbräuche runter kriegt.
Ja das sehe ich genauso, was in der Kategorie 150-300€ abgeht, ist seit der RX 570/580 (die letzte brauchbare Generation in diesem Preissegment) eine einzige Katastrophe, die Leute bekommen nur Abfall, für eigentlich einen ganzen Haufen Geld.
Beim Verbrauch muss ich jetzt allerdings mal eine Lanze für AMD brechen, seit RDNA 1 aber insbesondere RDNA 2 sind sie eigentlich vorbildlich, alle größeren AMD Karten, lassen sich wunderbar mit Tuning auf einem hervorragenden Sweetspot betreiben. Hier sieht man die Auswirkungen von TSMC deutlich und Intel als auch Nvidia haben da CPU und GPU Seitig so ihre Probleme mit AMD, und suchen ihr Heil in der Flucht durch hohe TDP und Verbrauch mit der Brechstange.
Also AMD hat schon dazu gelernt und profitiert natürlich mit dem Wechsel zu TSMC, aber hat anscheinend seine Chips auch gut designed.
 
Ja das sehe ich genauso, was in der Kategorie 150-300€ abgeht, ist seit der RX 570/580 (die letzte brauchbare Generation in diesem Preissegment) eine einzige Katastrophe, die Leute bekommen nur Abfall, für eigentlich einen ganzen Haufen Geld.
Beim Verbrauch muss ich jetzt allerdings mal eine LAnze für AMD brechen, seit RDNA 1 aber insbesondere RDNA 2 sind sie eigentlich vorbildlich, alle größeren AMD KArten, lassen sich wunderbar mit Tuning auf einem hervorragenden Sweetspot betreiben. Hier sieht man die Auswirkungen von TSMC deutlich und Intel als auch Nvidia haben da CPU und GPU Seitig so ihre Probleme mit AMD, und suchen ihr Heil in der Flucht durch hohe TDP und VErbrauch mit der Brechstange.
Also AMD hat schon dazu gelernt und profitiert natürlich mit dem Wechsel zu TSMC, aber hat anscheinend seine Chips auch gut designed.
Wenn man bedenkt eine 480 kam 2016 im Bereich unter 300€ raus und hatte schon 8GB RAM und ordentlich Leistung, das war eine gutklassige Performance-GPU. Auch die 1060 war super (deren Verbrauch/Effizienz vor allem).
Die GPUs haben sich nicht so "beschnitten" angefühlt beim Speicherinterface usw.
Was hat man die letzten 2 Jahre um 300€ bekommen? Schande, was aus dem GPU Markt geworden ist.
 
Was hat man die letzten 2 Jahre um 300€ bekommen? Schande, was aus dem GPU Markt geworden ist.
Ich habe das bei AMD auch nie verstanden, warum sie mit RDNA 1 mit diesen Krücken Designs in dieser Preisklasse angefangen haben, die 5600X war schon eine mittlere Katastrophe, von jetzt wollen wir gar nicht reden, unter der 6600 oder mit Abstrichen RTX 3050 braucht man gar nicht anfangen, wenn man einen gescheiten Pixelbeschleuniger haben will, dafür werden aber 300€ plus aufgerufen, aber eigentlich sind beide Aspiranten auch eher Abfall.
Warum man diesen durchaus großen vorhandenen Markt nicht haben will, den man wie du richtig herausgearbeitet hast, mit der RX 480 und folgenden mit dominiert hat und Nvidia mit der 1060 gekontert hat, begreife ich nicht.
Es wird immer eine Menge Leute geben, die nicht bereit sind über 200 oder gar 300€ für eine Grafikkarte auszugeben.
Der Mining Boom spielte aber auch beiden Herstellern für so ein Geschäftsgebaren in die Hände.
 
Dann hast du wohl die alten Werbungen von den damaligen 3D Bewerbern Nvidia, ATI, Matrox, 3DLabs, Bitboys, SGI, S3, XGI...
Ich kenne den ganzen alten Klimbim. :D Mein erster "Rechner" war damals als kleines Kind ein SpectrumZX1. ATARI 600XL, VC20 und C64, Amiga500, ATARI 512ST. Und dann in die x86 Ära mit 486dx über die ersten Pentium bis zur heutigen Generation.

Ich habe auch die Voodoo1 und 2 über ne Matorx "durchgeschliffen" für die Bildausgabe. Ja ich bin mir bewusst, dass NV und AMD nicht "unbefleckt" sind was Werbeaussage angeht. Intel hat schon bei der iRIS Xe - was ja auch eine dGPU ist - mit Day0 Driver Updates geworben. Der Herr Petersen tingelt gerade durch die Outlets(Gamers Nexus und nun LTT) mit seiner ARC 770 im Gepäck und zeigt wie toll die Karte doch bei ausgesuchten Titeln mit einem 12900k in DX12 performt. Gut FPS soll man eigentlich nicht zeigen. Wenn sie dann aber Richtung 200 gehen müssen sie scheinbar nicht raus editiert werden. :D

Die ARC380 braucht rBAR, weil die Performance sonst komplett tankt. Was für ein Wunder das man SAM und somit AMD nicht supportet. Die Gunnir soll eine UVP von 129$ haben. Für die 770 peilt man wohl knapp unter 400$ an. Der Preis soll auf dem untersten der 3 "Performance Rankings" basieren. Sprich dem wo die GPU dann am schlechtesten performt. Was vornehmlich viele der älteren Titel sind die noch auf DX9, 10 oder 11 laufen.

Das Problem für Intel ist dabei recht einfach und doch komplex:

Die Karten können scheinbar, wenn Game Developer bereit sind, mit angepasstem "Code recht gut" performen. Allerdings wird kein Studio das machen wenn die Basis der installierten Karten gering ist. Die Performance in alten Titeln, die aber nach wie vor sehr beliebt sind, ist aber so schlecht das zumindest die A380 jetzt "zerrissen" wird. Sprich im DIY Markt ist die Beliebtheit wohl nicht so hoch. Man muss es also irgendwie schaffen die Karten an den Mann zu bringen. Ob das dann mit einem Preis der wohl in der Region einer 3060Ti im Abverkauf liegt gelingt ist IMO sehr fraglich. Da muss der Herr Peterseen noch sehr viele Termine auf seiner Werbetour wahrnehmen. :D
 
Die Karten können scheinbar, wenn Game Developer bereit sind, mit angepasstem "Code recht gut" performen. Allerdings wird kein Studio das machen wenn die Basis der installierten Karten gering ist. Die Performance in alten Titeln, die aber nach wie vor sehr beliebt sind, ist aber so schlecht das zumindest die A380 jetzt "zerrissen" wird. Sprich im DIY Markt ist die Beliebtheit wohl nicht so hoch. Man muss es also irgendwie schaffen die Karten an den Mann zu bringen. Ob das dann mit einem Preis der wohl in der Region einer 3060Ti im Abverkauf liegt gelingt ist IMO sehr fraglich. Da muss der Herr Peterseen noch sehr viele Termine auf seiner Werbetour wahrnehmen. :D
Ja, es ist ein Henne-Ei-Problem.
Drum meinte ich ja weiter oben: wir können nur hoffen, dass Intel dran bleibt. Dann kann das in 5 Jahren was werden im oberen Performancesegment. Wenn man aber wieder schnell aus dem Markt austritt, wars das und die Karten werden zur Rarität :D
 
Na dann,
die achso dollen Dt. können selber gar nix mehr, außer ein bunte Sticker und Preisschild auf Asienhardware draufkleben.
Es wird vielleicht dort produziert, die Technik dahinter stammt aber ganz bestimmt nicht von dort. Die bauen den Kram nur zusammen, quasi wie Lego, Anleitung und bauen für einen Hungerlohn weil die Hersteller zu geizig sind.
 
Spannend könnte auch Mal ein Linux Test der Karte sein. Der Open Source Treiber hat sich eigentlich selten was zu Schulden kommen lassen und es wäre auch nicht das erst Mal dass DXVK bessere CPU-Werte erreicht als DX9-11 nativ. Auch DXVK direkt auf Windows betreiben wäre einen Versuch wert.
 
Die haben aber auch nicht so auf die K4cke gehauen...

Damit "wirbt" Intel zBsp. bei ARC:

Auch witzig


Quelle: https://www.intel.com/content/www/us/en/products/docs/arc-discrete-graphics/3.html
Ja ok. Den Mund nehmen sie ganz schön voll. :ugly:

Was viele aber gerne vergessen ist das Intel nicht erst seid gestern GPUs herstellt, dies machen sie schon sehr viele Jahre.
Aber das sind doch andere GPUs. Kann man die überhaupt vergleichen?
Dazu noch diese Treiber Probleme, sowas darf man eigentlich nicht veröffentlichen. Hier wird meiner Meinung nach Intel sogar noch geschont wenn man nur bedenkt wieviel Manpower und Money hinter dem ganzen steht.. Da darf sowas nicht passieren.
Ja viel Manpower und Geld haben sie. Das stimmt.


Hier übrigens noch ein Test von CB: Intel Arc A380 im Test: Eine Woche zwischen Lachen und Weinen
 
Ich hab mir von Intel mit ihrem erneuten Anlauf wenig versprochen zum Start. Dass sie nur im Einsteigersegment landen, war mir klar. Nur, dass ausgerechnet alte spiele mit DX9,10, und 11 dann solche Leistungsabfälle verzeichnen, das habe ich mir nicht träumen lassen. Genau andersrum hätte ich es für sinnvoll erachtet. Unterm Strich bin ich also tatsächlich enttäuscht. Ich kann's halt überhaupt nicht nachvollziehen. Intel hat ihre iGPUs seit Sandybridge doch die ganze Zeit betreut. Wie kann es also sein, dass ihre neuen GPUs mit Spielen aus diesen Jahren nicht richtig wollen? Ja, eine deutlich größere und komplexere dGPU ist was anderes, ganz klar. Nur das Spiele gar abstürzen... das sollte so nicht sein. Diese Grafikkarte ist doch für Spieler gemacht. Da kann man sich nicht hinstellen und sagen dass man ja in diesem Bereich keine Erfahrung hat und die Treiber nicht mit alten Spielen arbeiten wollen. Dann hätte man sie schlicht noch nicht bringen sollen.
 
Zurück