News Intel Arc Balanced Builds: Komplett-PCs und Bundles mit Arc und Core zum Vorteilspreis für Spieler

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc Balanced Builds: Komplett-PCs und Bundles mit Arc und Core zum Vorteilspreis für Spieler

Intel hat es sich auf die Fahne geschrieben, ausbalancierte Gaming-PCs und Bundles aus CPUs und GPUs für Spieler zusammen zu stellen sowie zu einem Vorteilspreis als "Balanced Builds" anzubieten. Ein Bundle aus einem Core i5 und Arc A7 kostet ab 423 US-Dollar, während Komplett-PCs mit dieser Kombination ab 899 US-Dollar starten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc Balanced Builds: Komplett-PCs und Bundles mit Arc und Core zum Vorteilspreis für Spieler
 
Ich dachte zuerst, da hier die "Spieler" betont werden, es würde sich um ein Gaming - Bundle handeln.
Aber dem ist ja nicht so und wie schon mein Vorposter geschrieben hat: wohl preislich nichts besonderes.
 
Hm, schauen wir doch mal beim Preisvergleich nach. Die "ab" Konfig ist ja offensichtlich 12400F und A750. 160€+260€=420€. Das Sonderangebot ist also schlicht Marktpreis.
Vor Allem 260€ für die A750 ist eigentlich zu teuer, wenn ne 6650 derzeit 279€ bei DAMN kostet.(incl. TLoU)
(die 3060-8GB wird aber von Beiden bezgl. P/L geschlagen)

Da würde ich eher für FHD ne A770-8GB@279€ bei MF in Betracht ziehen, falls die eigenen Games+Treiber passen.

6650@279€.jpg
 
Ich hab das Video auch gesehen, es gab keinen AMD Prozessor der zu den ARC passt, sie haben von AMD Prozessoren abgeraten und das Beispiel dazu war das der 7800X3D einfach viel zu gut ist um die Grafikkarte richtig auszulasten.


Beste Kombination für die kleine ARC ist ein I3-I5 und beste Kombination mit der größeren ist ein I5 - I7.
Generation wurde nicht erwähnt...
Zum Thema das es auch richtig gute Karten gibt, hier wurde Nvidia erwähnt und da rät man dann am besten zu einem I9.

Ich finde es ja gut das Hersteller genau so ein Video machen aber bitte... hier ging es um Grafikkarten. Das man die Konkurrenz wenig erwähnt sehe ich auch ein, aber eine realistische Kombination als Beispiel (von der Konkurrenz) wäre schon ein Meilenweiter Fortschritt hier!
 
Damit man weiß, welche CPU am besten zu welcher GPU passt, bräuchte man gute Daten. Als Beispiel, wenn eine GPU ein Spiel in 60fps rendern kann, dann braucht man eine CPU die das Spiel auch immer in 60fps rendern kann. 30fps wären zu wenig, 120fps sicherlich zu viel was CPU Leistung angeht in diesem Beispiel.

Idealerweise suchen wir also GPU Benchmarks und CPU Benchmarks, die auf das gleiche Spiel losgelassen werden. Kürzlich hat die PCGH die 4070 getestet und den i3-13100F, da sind jeweils andere GPUs und CPUs mit gelistet (von Intel) und man muss halt sehen, welche Spiele sich da überschneiden.

PCGH Benchmarks überschneiden sich aktuell nur bei folgenden Spielen
Doom Eternal
Dying Light 2
F1 22 (RTX)
TW: Warhammer 3
Plague Tale
Cyberpunk


Aber werden wir doch konkret. Wir wollen die Spiele so spielen wie sie die PCGH bencht (keine nakten Polygone für 3000fps CS:Go Weltmeister) und wir spielen auf 1440p, dem 4k des Konsolenbesitzers.

Kaufen wir also eine A770, dann sagt die PCGH:
Doom = 118/144
Dying Light 2 = 52/55
F1 22 (RTX) = 50/59
TW: Warhammer 3 31/33
Plague Tale 35/32
Cyberpunk 29/32


Der niedrige Wert sind die Low-fps, die muss die CPU immer können, idealerweise kann die gesuchte CPU in allen 6 Spielen den fps Max der GPU mit den eigenen Low 1% fps übertreffen. Man hat ja Ansprüche beim "matching".

i3:13100F
Doom Eternal 176/264
Dying Light 2 43/64
F1 22 (RTX) 65/97
TW: Warhammer 3 41/65
Plague Tale 59/82
Cyberpunk 36/55

Dying Light 2 ist das einzige Spiel bei dem die fps von der CPU vielleicht (!) manchmal die GPU limitieren. Jetzt könnte man sagen, dann probieren wir doch den i5.


i5:13400F
Doom Eternal 222/336
Dying Light 2 41/86
F1 22 (RTX) 77/111
TW: Warhammer 3 54/79
Plague Tale 67/87
Cyberpunk 59/83


gleiches Spiel, der i5 behebt unser Dying Light 2 Problem nicht, man ist geneigt zu sagen, das ist halt ein DL2 Problem. Bei allen anderen Spielen kann man sagen, der i3 reicht locker um die A770 anzutreiben. Alles andere ist nur Intel Marketing, um den Leuten eine CPU zu verkaufen, die für die A770 GPU überzüchtet ist. Ich kann verstehen, wenn der ein oder andere sagt, dass er trotzdem lieber einen i5 zu seiner A770 hätte und nicht einen i3, aber bei i7 wie im Marketingmaterial von Intel muss ich nur laut lachen.

Es wäre prima, wenn sich mehr Toptitel überschneiden bei solchen Benchmarks und man muss immer ehrlich sein, was man mit dem Vergleich erreichen will und was man spielt. Valorant in 12.000 fps, klar, 4090 mit i9, besser noch i11 (<-Ironie). Cyberpunk 4k native only mit RTX? Technisch gesehen würde da ein 13400F reichen. Solche Beispiele hat man halt, wenn man solches matching auf ein Spiel bei einer Auflösung herunterbricht. Nimmt man mehr Daten hinzu wird es vernünftiger, die 4090 in unserem Beispiel würde mehr als einen i5 bekommen, aber liebe Freunde bei Intel, einem i7 würde ich trotzdem keine A770 zumuten.

p.s: kleines Detail, das mir aufgefallen ist. Die PCGH benchmarkt auch Valheim. Sehr empfehlenswertes Spiel, aber mit über 1000h Spielstunden kann ich sagen, dass der Titel super-hardcore mega CPU limitiert ist. Schon 2-3 Spieler im Team stellen einen Basis hin, bei der ein 5800X3D bei 20fps um Gnade winselt während sich die GPU langweilt. Das Spiel skaliert am besten nach Cache Größen, nichtmal Takt oder Kernen.
 
Die Idee einer auf P/L ausgelegten Serie finde ich,
nach der letzten Mondpreisphase, generell ja schon mal nicht schlecht.

Als Big Player dann auch "Standards" damit zu setzen kann für User
nur gut sein...

Mit der Menge sinkt der Preis...
Spiele-Inkompatibilitäten werden reduziert...
mit ordentlicher Verbreitung werden auch Devs zusehen sich daran zu orientieren...

Also nochmal, die Idee? gar nicht mal so verkehrt...

Hätte AMD mal drauf kommen müssen...
 
Zuletzt bearbeitet:
Zurück