Intel Arc A770 16GB und Arc A750 8GB im Test: Überzeugen Intels Gaming-Debütanten?

Tatsächlich bin ich etwas von den Ergebnissen überrascht, ich habe mit einer deutlich größere Katastrophe gerechnet.
Insgesamt stimmt die (durchschnittliche) Leistung der Karte. Würde es nur Nvidia auf dem Markt geben wäre Arc vielleicht sogar konkurrenzfähig, aber gegen AMD sehe ich überhaupt keinen Stich für Arc. Die deutliche Schwächen in 1080p verhageln den besten Markt für die A750, hier ist die 6600 quasi gleich gut, aber deutlich günstiger. Der A770 fehlt mMn der Bumms für eine zukunftssichere 1440p-Karte, hier ist die 6700XT mit ihren +25% Performance (in 1440p) bei nur ~13% Preisaufschlag die bessere Wahl (davon ausgehend, dass die A770 16Gb genau ihre UVP kostet, also 350$+19%Mwst = 416€, günstigste 6700XT 469€).
Rein auf technischer Ebene haut mich Arc auch bei weitem nicht um, die Effizienz ist ziemlich mies und auch die Chipgröße und Transistorenzahl spricht im Bezug zur Performance nicht gerade für Intel. Einzig RT ist überraschend nutzbar.

Abschließend gibt es natürlich die erwarteten Kinderkrankheiten (Idleverbauch ist inakzeptabel hoch) plus Treiberprobleme und da wird auch noch einige Zeit nicht alles rundlaufen. Gerade ältere Titel laufen wirklich sehr bescheiden, CS:GO ist beispielsweise noch ein einziges Trauerspiel mit Arc. Daher wäre ich mir nicht mal sicher ob mir der Preisnachlass zur 3060 reichen würde, wahrscheinlich aber nicht und das obwohl die 3060 so ziemlich die mieseste P/L-Karte überhaupt in dem Preisbereich um Arc ist.
Für so einen Betatest müsste mich Intel aktiv bezahlen und das Produkt aber mal fühlbar günstiger machen als die Konkurrenz (und ja, AMD verkauft GPU's, auch wenn Intels Marketing das mit aller macht verschweigen will). Ich weiß nicht ob Intel das nicht will oder nicht kann, günstig in der Herstellung ist Arc jedenfalls nicht.
Wie Arc gegen RDNA3 und RTX4000 nächstes Jahr abschneidet ist auch wieder ne ganz andere Frage.
 
PS: bei HwLuxx schreiben Sie, dass der Stromverbrauch mit knapp 200W im Bereich einer 3060 mit 190W liegt. Kann das sein? Wieso gibts hier Diskrepanzen? Die Werte bei CB ähneln denen von hier...
RTX 3060 mit 190 Watt kann nur ein Custom-Design sein, Rafference ;) sind 170 Watt. Wie von uns getestet.
Arc mit weniger als 225 Watt bedeutet, dass Tests und Settings genommen wurden, die die Karte nicht auslasten.

Siehe unsere Abhandlung zu Leistungsaufnahme & Co. :-)

MfG
Raff
 
@PCGH_Raff Saubere Arbeit. Danke dafür. :top:

Bis auf eine Sache bin ich ehrlich gesagt sogar eher positiv überrascht. Und auch wenn man dabei nicht auf irgendwelche absoluten Werte spekulieren sollte, so ist das Potential doch zumindest theoretisch überdurchschnittlich, dass die Performance mit kommenden Treiber-Updates noch mal nen passablem Schub bekommen könnte - die Karten sich im aktuellen Index also in Zukunft noch Plätze nach vorne arbeiten können. Am meisten vermutlich die Modelle mit 16GB. (aktuell ja nur A770)

Ich wäre sogar einem Kauf zugeneigt gewesen. Gerade wegen lediglich ~25€ Aufpreis für 16GB GRAM. Aber der leider viel zu hohe Stromverbrauch beim Päuschen machen erstickt das Kaufinteresse direkt wieder. Beim Rumlungern so nen Hunger zu haben geht einfach gar nicht.

Daher werde ich mindestens so lange warten, bis Intel das Problem in den Griff bekommen hat.

Aber davon ab finde ich ist es ein durchaus solider Start. Jetzt muß Intel aber auch zwingend am Ball bleiben. Nicht nur bzgl. Next-Gen, sondern auch beim Treiber. Wenn Intel jetzt noch auf die Idee kommt das Thema "Grafikkarte" in naher Zukunft doch wieder einzustampfen, dann wäre das schon extrem unfair allen Käufern gegenüber.
 
Ist eine sehr spezielle Frage: Muss man mit einer SGX fähigen Intel CPU und einer Arc Karte immer noch auf die Igpu umstecken für 4k Blu Ray oder kann man jetzt die Diskrete GPU eingesteckt lassen? Ich vermute mal nein...
 
Das einzige was mich tatsächlich enttäuscht ist der Stromverbrauch. Die Performance ist für den ersten Wurf ziemlich gut. Wer etwas besseres erwartet hatte, der sollte vielleicht den Vergleich mit dem chinesische Hersteller ziehen, der dieses Jahre eine eigens entwickelte GPU vorstellte. Wir reden hier von hoch komplexen Hightech.

Mein Wunsch ist, dass Intel dran bleibt. Das dauert wahrscheinlich noch eine Gen bis sie an der nächsten Mittelklasse dran sind und dann nochmal zwei weitere bis sie im oberen Segment mithalten können.
 
Danke @PCGH_Raff klasse wie die 770 in Cp2077 sich schlägt. Interessieren würde mich allerdings wie sie sich in
den AllTimeFav Games wie Counter Strike, Lol und Co schlägt.
Ich wusste die Karten haben Potenzial. Aber rundum bin ich doch mit meiner 3060 zufrieden.
 
Verdammt... irgendwie hätte ich Lust das ding in ne Budget kiste zu bauen nur um zu tüfteln und zuzuschauen wie sie durch Treiber immer besser wird....?

Oder ich stell nem Bekannten ne Budget Kiste zusammen und schraub die Karte da rein.......muss ja kein guter Bekannter sein ??
 
Den größten Pluspunkt muss man Intel wirklich für das realistische Marketing der letzten Monate geben. Statt negativen Überraschungen gibt es die positive im Raytracing.
An Verbrauch, Format und Nummer sieht man aber auch noch gut wo die A770 offensichtlich hin sollte: In den Bereich von 3070(TI) und 6800 Vanilla. Mal sehen wie nah sie denen in den nächsten 12 Monaten noch kommen kann.
 
@PCGH_Raff : nochmal danke für den Test. Endlich sind sie da! Frage: ihr kommt beim Fazit auf 3060 Leistung bzw. Zwishcen 3060 und Ti. Aber die CB sagt, die ARCs liegen deutlich darunter. Woher kommt der große Messunterschied, liegts am Parcour oder hab ich mich verlesen?
Es gibt nur eine Sache, die ich an den Karten richtig schlimm finde und das ist der Verbrauch. Beim Verbrauch einer 3070 die Leistung einer 3060 finde ich mehr als fragwürdig. Das ist die größte Baustelle an der Intel arbeiten muss. Das ist mein Wunsch für Battlemage.
Battlemage wird im Spitzenverbrauch sicher besser (5nm Prozess), ich hoffe auch auf besseren Idle-Verbrauch (unter 10W bei Nvidia, über 40 bei Intel... beim NICHTStun wohlgemerkt, nichtmal niedriglast.)
Dass man zum Einstieg nicht in der 3080/3090-Klasse anfängt, logisch. Den Leerlauf werden sie auch noch in den Griff bekommen.
In zukünftigen Gens bestimmt
PS: bei HwLuxx schreiben Sie, dass der Stromverbrauch mit knapp 200W im Bereich einer 3060 mit 190W liegt. Kann das sein? Wieso gibts hier Diskrepanzen? Die Werte bei CB ähneln denen von hier...
Dafür hat die CB andere Leistungswerte bekommen, sofern ich das richtig sehe.
 
@PCGH_Raff : nochmal danke für den Test. Endlich sind sie da! Frage: ihr kommt beim Fazit auf 3060 Leistung bzw. Zwishcen 3060 und Ti. Aber die CB sagt, die ARCs liegen deutlich darunter. Woher kommt der große Messunterschied, liegts am Parcour oder hab ich mich verlesen? [...] Dafür hat die CB andere Leistungswerte bekommen, sofern ich das richtig sehe.
CB nutzt zum Teil andere Settings. Beispielsweise kommt bei Cyberpunk bei CB FSR Leistung zum Einsatz, während PCGH FSR Ultra Quality nutzt.
Auch unterscheiden sich die Testsysteme: CB mit einem 7700X und 32GB DDR5-5200CL32 RAM. PCGH mit einem i9-12900K DDR5-6400 RAM.
Ich habe mir die Werte bei CB nicht im Detail angsehen, aber dies dürfte die Unterschiede erklären.
 
Aktuell wohl eher nur was für OEMs und Leute die sie einfach mal ausprobieren wollen.
Da wartet man eher auf die nächste Generation, die könnte dann interessant werden wenn Intel richtig dran bleibt.
Gerade OEM ist aber das völlig falsche Zielgebiet.
Leute, die keine Ahnung haben und einfach nur spielen wollen: NICHT kaufen. Siehe Fazit.
Das betrifft also insbesondere und vor allem Komplett-PC-Käufer.
Solche Leute haben - wie man immer wieder liest - sogar Probleme mit den PC Games Heft-Spielekeys.
Denn hätten diese Leute auch nur annähernd Ahnung von Computern, würden diese selber Einzelteile kaufen und basteln.
Klar gibt es Ausnahmen, die bestätigen aber die Regel.
Nerds, Sammler, Tüftler, also Leute, die bewusst auch Linux zum Spielen einsetzen würden, ja für die ist das sicher was, die wird es auch nicht jucken, wenn paar Spiele nicht so dolle oder (anfangs) gar mit Fehlern laufen, oder der Treiberoverhead zu starkem Ruckeln führt (siehe Igors Testreihe).
Intel ARC ist quasi was für Extremsportler, die kein Risiko scheuen und den Kick brauchen, nicht für Warmduscher.
Ich warte jedenfalls auf ein sehr ausführliches Testvideo von Igor, weil er sicherlich die ganzten Probleme der ARC380 mit den neuen Karten und aktuelleren Treibern und auch der Controlsoftware noch einmal komplett durchackern wird.
Daher sind mir die Benchmarkbalken bei PCGH also sowas von schnurzpiepegal, da die wenig Aussagekraft besitzen und wenig Rückschlüsse auf den selbst angesprochenen Treiberoverhead etc. zulassen, der zumindest der ARC380 so ernst zugesetzt hat, dass die ein Totalausfall ist.
Erst wenn Igor seinen Hut zieht und sagt, dass Intel die letzten 4 Monate wirklich hart gearbeitet hat, kann man das Ding durchwinken.
Wobei das dann imerm noch keine Entschuldigung für Intel ist, warum man die Sachen seit Juni kaufen kann, wenn es erst halb fertig ist.
Das nennt man Kundenverarsche.
 
(...) aber insgesamt sehe ich Intels Grafikkarten als grundsolide an.

Eigentlich das absolute Gegenteil. Die GeForcekarten sind von Grund auf solide. Ein rundes Paket, in dem alles stimmt. Bei den AMD Karten gibt es noch kleine Macken, etwa die Raytracingleistung, die hoffentlich mit RDNA3 stark verbessert wird. Außerdem bietet AMD seine Treiber nicht so lange an.

Aber Intel ?!?

Da kauft man sich eine einzige Baustelle. Es ist so, als ob man in einen Rohbau einzieht. man hofft, dass es besser wird und ja, es kommt vieles hinzu, aber ob es wirklich mal fertig wird? Viele Spiele laufen nicht, damit sollte man sich erstmal abfinden. Die DX 11 Leistung ist mangelhaft, die DX 9 Leistung ist absolut unterirdisch. Wir reden davon, dass man sich über die Leistung von Spielen Sorgen machen muß, die vor weit über 10 Jahren erschienen sind.

Wenn man sich einen neuen PC zusammenstellt und es nur auf die DX 12 Leistung abgesehen hat, dann sind die Dinger durchaus empfehlenswert. Man sollte sich jedoch vollkommen bewußt sein, auf was man sich da einläßt.

Manche Sachen kann man sich schönreden, andere sind noch äußerst fragwürdig.
Dass Intel nicht sofort technisch gleichziehen kann ist klar, teilweise erstaunt halt dann aber, wie eklatant der Unterschied ist. So braucht man fast doppelt so viele transistoren in einem besseren Prozess um auf ähnliche Leistung wie die 3060 zu kommen

Intel wird mit der Zeit wohl von Herstellern besser unterstützt und mehr und mehr werden wohl auf neuere APIs setzen.
Die Zeit könnte also für Intel arbeiten. Jetzt sollen sie halt bloß nicht locker lassen. Next stop: Battlemage mit überarbeiteter Architektur, ausgereifterem Treiber, 5nm um neben einer Geforce 4070 4080 12GB zu landen wäre gut.

Da hat jemand Linus kopiert, sogar inklusive des Gags.
 
@PCGH_Raff : nochmal danke für den Test. Endlich sind sie da! Frage: ihr kommt beim Fazit auf 3060 Leistung bzw. Zwishcen 3060 und Ti. Aber die CB sagt, die ARCs liegen deutlich darunter. Woher kommt der große Messunterschied, liegts am Parcour oder hab ich mich verlesen?
Parcour ( nur vier der selben Spiele wurden gestestet ), Anzahl der Spiele ( 20 PCGH vs 10 CB )-> Samplesize, Settings, Benchsystem, usw...
Da die ARC Performance ja wirklich vom Spiel/der Engine abhängt, kann es "krasse" Unterschiede in den Tests geben. So zumindest was ich über mehrere Tests für mich als Fazit gezogen habe.
 
Ich finde das ist ein respektabler Einstieg von Intel. Niemand hat erwartet, das sie mit AMD oder Nvidia Schlitten fahren. Zudem lassen sich viele Dinge wie die Effizenz im Leerlauf noch durch zukünftige Treiber verbessern.
Das ganze sollte man sich in ein paar Moanten, wenn die Treiber gereift sind nochmal anschauen.

Edit: Der CB Bench ist wirklich sehr merkwürdig und zeichnet ein komplett anderes Bild der Karten.
 
ich kenne keinen Linus, aber der Gag ist aufgelegt, quasi Uralt

Ich rede von dem Video:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Entweder ist das ein großer Zufall und du hast wirklich alles zufällig das erwähnt, was er gesagt hat oder du hast es kopiert.
 
Tatsächlich bin ich etwas von den Ergebnissen überrascht, ich habe mit einer deutlich größere Katastrophe gerechnet.
Dann schaut man sich den Test von Gamersnexus und muss feststellen, dass die Karten einer Katastrophe sehr nah sind. Grafikfehler, Bluescreens, nicht erkannte Monitore und Treibermenüs, die ohne Grund den ganzen Desktop bedecken, sind aus meiner Sicht kein würdiges Vollpreisprodukt, sondern eher Early Access (ohne Vergünstigungen).

Ich kann die Ausrede, Intel sei neu am Grakamarkt, auch nur z.T. nachvollziehen, schließlich liefern schon seit Jahren IGPs mit (auch bereits nicht so tollen) Treibern aus.
Ohne Frage, Potenzial blitzt durch, allerdings kann man die Karten guten Gewissens keinem Empfehlen, der nicht Bock auf eine Bastelbude hat.

@Raff: Danke für den Test.
 
Entweder ist das ein großer Zufall und du hast wirklich alles zufällig das erwähnt, was er gesagt hat oder du hast es kopiert.
Kenne das Video nicht, schaue keine YT Tests/Influenza etc. Speziell LTT nervt mich mit seiner Theatralik
Aber der Witz ist alt, das war schon ein Witz mit Bart als alle über die 970 mit 4 ehhh 3,5Gb gelacht haben
 
Zuletzt bearbeitet:
Zurück