Special Intel Arc A580 im Test: Überraschend heller Stern am Preis-Leistungs-Himmel

Ich glaube nicht das Intel mit dieser Karte auch nur 1 einzigen $ verdient.
Sie dürfte in etwa doppelt so teuer in der Herstellung wie die RX6600 bzw. RX6600XT und RX6650XT sein.
verbraucht in etwa das Doppelte (egal ob es sich dabei um idle, youtube oder gaming handelt)
406mm2 in 6nm Gott bewahre in 7nm würde man wohl an den 500mm2 kratzen.

Mit 500mm2 erreicht AMD in etwa die doppelte Performance.
Diese Karte ist ein Beleg dafür das Intel vollumfänglich mit seinen Arc Karten gescheitert ist.

1696968210382.png
 
Sooo schlimm kanns net gewesen sein, sonst hätte man net zum Schluss die RX56 für 225€ verkaufen können.
Das ist gegenüber Launch UVP 405€ schon ne riesige Spanne/Marge gewesen.

Die "größere" RX64 = eigentlich baugleich. dürfte von Anfang schon mehr Marge generiert haben.

In dem Sinne können vllt. auch die heutigen Modelle aller Hersteller ohne Weiteres schnell mal 20-30% im Preis
runter, falls der Markt(Käufer) das so will.
Das muss nicht gleich beim Launch passieren, ... ein bisschen Gewinn brauchts ja auch, damit R+D für die nächste
Gen drin ist.
 
Zuletzt bearbeitet:
Ist doch ne okaye 1080p Karte. Irgendwelche technischen Milchmädchenrechnungen und ob Intel was und wieviel dran verdient ist rein spekulativ und interessiert ....naja...jedenfalls potenzielle Kunden in DIESEM Preissegment wohl kaum. Wenn also im CB oder sonstiger Kaufberatung künftig die Frage kommt : "Ich suche eine Grafikkarte für Cyberpunk 2077 in 1080p für 200€" kann eine Antwort mit Sicherheit "Arc580" sein.


Während sich die Hardware nicht weiterentwickelt hat, geht Intels Treiber-Team nicht vom Gaspedal
AMD machts halt genau andersrum. Im Ergebnis machts keinen Unterschied :P
 
Zuletzt bearbeitet:
AMD machts halt genau andersrum.
Häh?

Also gerade Letztens in ACM war doch der gameready Treiber sinnvoll:
1697010256308.png

ob nun AMD sooo schnell wie NV oder Intel seine jeweiligen Treiber fertig stellen kann/will ist ne ganz andere Frage,
vermutlich teilen sich die Kapazitäten halt zw. CPU+GPU-Team auf, und die anderen beiden
Firmen sind halt bigger

Da könnte man genauso fragen, warum brauchte Intel für SF-gameready solange
oder
war es sinnvoll das NV viiiiel zu zeitig seinen gameready hatte.(ohne rBar-Flag)
 
Zuletzt bearbeitet:
Lieber noch etwas drauflegen und zur A750 greifen: https://geizhals.de/?cat=gra16_512&xf=10825_12+-+Arc~132_8192

bei 150€ könnte man vielleicht überlegen, aber bei der Treiberwundertüte würde ich dann doch zur RX7600 oder zur 4060 greifen und eher nur just4fun mir die erste Intel GPU Generation holen, hoffe das sie mit Battlemage bzw. spätestens mit Celestial dann die Treiber soweit im Griff haben und wir eine dritte vernünftige Herstelleralternative haben
 
Heiliges Kanonenrohr, ein extrem Umfangreicher Test, da steckt sehr viel Arbeit drinnen, danke dafür ... :pcghrockt:

Rein von der Optik, die Sparkle gefällt mir eindeutig besser, ich mag das blaue PCB sehr =)
Insgeheim hatte ich offen gesagt gehofft, dass Intel sich endlich was einfallen lassen würde beim Leerlauf Stromverbrauch Problem.
Insgesamt eher ein verzichtbares Produkt.

Nachtrag:
Bezüglich Verbrauch, hier sollte man der Vollständigkeit halber erwähnen, dass man den Verbrauch im Leerlauf durchaus deutlich senken kann. Wenn man manuell eingreift, wo Intel eine Anleitung bereitstellt, da kann man den Verbrauch auf ~9Watt senken. Ein Bild von unserem Familien PC mit AM4 System, 4k@60Hz...
Anhang anzeigen 1440008
Übrigens, ich habe sogar auch schon mal 4Watt gesehen.
Ich will mit dem ganzen nur eines sagen, es geht auch deutlich niedriger, wenn man sich einmalig ein paar Minuten Zeit nimmt zwei drei Einstellungen zu tätigen.
Die 9 Watt sind aber nur was die GPU verbraucht, was saugt die ganze Karte?
Edit: Der Speicher läuft mit voller Taktfrequenz.... Ich schätz un die 20 Watt.. Gut geht anders
 
Eigentlich ein interessantes Produkt.
Der Neupreis Bereich um 200€ ist dermaßen traurig und angestaubt, dass es gut ist, wenn hier zumindest Intel etwas bringt.
Raytracing ist in diesem Preisbereich allerdings weiterhin nur eine Spielerei, noch mehr als bei teureren Karten. Die wenigen FPS, selbst in 1080p, tut sich kein normaler Mensch länger als ein paar Minuten an. Nichtsdestotrotz ist es natürlich gut, dass ihr sie dafür auch testet, allein schon für den schlussendlichen Leistungsindex.
Der Stromverbrauch ist bei so einer kleinen Karte alles andere als gut.

Falls Sie sich bis eben gefragt haben, warum die Balken der teilnehmenden Grafikkarten so kurz sind: Ursächlich ist, dass die Geforce RTX 4090 in allen Tests enthalten, aber ausgeblendet ist.

Das fällt leider immer wieder auf.
Es wär eigentlich schon gut, wenn sich die Balken dynamisch einfach am längsten, der aktuell eingeblendet wird, anpassen. Mit Javascript und CSS ließe sich das machen.
 
Zuletzt bearbeitet:
in 1080p teils um die 40 FPS rum.......so richtig spielbar finde ich das nicht wirklich. Aber für 200 Euro muss man wohl Abstriche machen, leider wohl auch wenn die Karte gerade erst gekauft wurde.
Ist halt nix für AAA Titel, die heut Zutage ja eh wenig optimiert in den Handel kommen.
Vil. hilft ja dann warten, bis der Treiber für das jeweilige neue Game optimiert wurde. Ich wünsche es allen Nutzern. Wer wenig Geld hat, soll auch was davon haben, nicht nur die Entusiasten.

Und ja, wies ein anderer geschrieben hat, wer etwas mehr Gald hat, sollte sich vil. eine andere Karte kaufen.
 
...selektive Wahrheit. Kann ich ... :ugly:

Screenshot 2023-10-11 110533.jpg


Leider hinken die Adrenalin Treiber auch nach Jahren noch weit hinter AMDs Fähigkeiten GPUs zu bauen.

Tatsächlich würde ich mir weder eine RX6600 noch eine A580 zum zocken kaufen. Vermutlich wirds ne kleine ARC für meinen Encoding-PC aber 30-40FPS find ich auch nicht "dolle". Wobei ich halt auch erst am Wochenende gelernt habe, dass (global gesehen) auch noch sehr viele Leute mit ner 4 GB Grafikkarte zocken. Man ist da immer irgendwie in seiner "Blase" drin und geneigt den Stimmen zu glauben, die behaupten man könne nicht mehr mit 8GB VRAM leben.
"Früher" konnten wir auch mit 15, 24, 30 FPS "flüssig" spielen und das menschliche Auge ist in den letzten 30 Jahren mit Sicherheit keiner Evolution unterlegen ;)
 
Zuletzt bearbeitet:
...selektive Wahrheit. Kann ich ...
Leider hinken die Adrenalin Treiber auch nach Jahren noch weit hinter ...
Ob man sich als GPU-Käufer die Hardware nach seinen Games aussuchen sollte, may be.
Für heavy RT würde ich sicherlich Grün bevorzugen, ...Intel evtl. nächstes Jahr, mal schauen.
(falls man wirklich nen signifikanten Teil der Zeit mit RT spielt)

Aber für den Großteil der RasterGames habe ich mit AMD-Treibern gute Erfahrungen.
(ob mal ein B-Game net extra nen gameready Treiber bekommt, ... muss/kann man mit leben)
 
Ob man sich als GPU-Käufer die Hardware nach seinen Games aussuchen sollte, may be.
Die Realität im unteren Preissegment sieht nunmal so aus. Viele Spieler fragen in der Kaufberatung ja explizit nach einer GPU für ihr Spiel/ ihre Spiele. Und gerade wenn das Budget sehr knapp ist, muss man in der Beratung auch darauf eingehen. Was nutzt dem Spieler Raytracing oder AV1 Encoding, wenn sein Game mit 25 FPS läuft obwohl er für das gleiche Geld eine GPU hätte haben können, die es mit knapp 50 FPS darstellt und der PC ausschließlich für dieses Game genutzt wird? Kenne genug Leute die ausschließlich WoW oder CSGO oder LOL spielen und sonst nix und das über Jahre....

Ich brauch den Adrenalin zum Glück nur noch auf meinem Encoding PC. Vielleicht ist der Treiber etwas besser geworden, aber dennoch gibt es ja (inzwischen weniger) regelmäßige Hiobsbotschaften rund um Adrenalin. Eigentlich will man von einem Treiber GAR NIX hören...oder halt gute Nachrichten, wie zuletzt gehäuft vom INTEL Treiber.
 
???
AV1 soll doch inzwischen gut funzen!?

Natürlich erst ab der 6700.

btw.
Ich verstehe, das der out of the box Player sich kaum um die Treiber kümmert, sprich nur die automatischen Updates erhält.
(sollte zumindestens aktiviert sein für die WHQL)
Das man jetzt Berichte hätte das en masse mit AMD-Treibern Game XYZ abstürzt gibts kaum.
sprich
In dem Fall sind no News = good News.

Das man jetzt bei Intel auch mal große Erfolge hat und vermeldet sind eher aufs erstmalig "hingekriegt"
zurückzuführen.(wobei das Abkupfern bei DXVK für die älteren DX-Games ne gute Idee ist)
Vorher wars halt im Zustand "nicht hingekriegt" kaum zu gebrauchen.
 
Zuletzt bearbeitet:
Was ich mich bei jedem Alchemist-Thema frage: Was ist aus Alchemist+ geworden? Die Gerüchteküche schweigt --- dabei wäre es doch mal langsam dafür Zeit, dass Alchemist+ auch ankommt.
 
Zurück