Special Intel holt auf: Arc A770 schlägt RTX 4060 und RX 7600 - Nachtest und Ausblick auf Battlemage

einige Kommentare kann ich leider nicht verstehen. die Intel Karten werden belächelt weil die nicht so schnell sind wie 4090. na und??? dafür kosten die karten 4x weniger und bringen mehr Leistung als der Konkurenz. wer weiss wie es in den nächsten 10-15 Jahren aussieht
 
Meister du tust mir echt leid, das dein 1700 CPU seitig unter dem Niveau meines 4600G ist und das deine 6600 bei Raytracing unter einer Arc 380 ist. :ugly:

Ist eben blöd gelaufen da mit deinem Flame :lol:
Raytracing was ist das? Meine 6600 ist eine hoch effiziente Puristen Karte für Kenner, den billigen Fusel
aus der Tüte überlasse ich anderen.
Die 6600 ist ein fantastischer Jahrgang und reift wie man es von AMD gewohnt ist mit der Zeit fantastisch.
Wer wie gesagt auf leicht säuerlich schmeckenden, mit Zucker gestreckten, Fusel steht. Ist mit der doch Arc bescheidenen blauen, nicht wirklich eine Alternative bietenden, Kuriosität an der richtigen Adresse.
 
Nicht in 1000 Jahren, selbst wenn Intel für Battlemage 800mm2 an Silizium Fläche und 500W zur Verfügung hätte und
Nvidia und AMD zugleich auf 200mm2 limitiert wären, würde Intel wohl wie es in ihrere DNA liegt den kürzeren ziehen.

Dann würde auch jeder wieder behaupten, wie toll diese GPU doch wäre und dies doch nicht schlecht wäre wenn man bedenkt, dass es sich erst um den zweiten ernsthaften Versuch (integrierte GPU der 200 Versuch?) handeln würde, im diskreten Grafikkarten Geschäft einzusteigen.



Das weißt du jetzt woher ?! :schief:

Kann wohl " einer " 1000 Jahre in die Zukunft sehen .:rolleyes:

Beim Raytracing kackt die Amd Karte jetzt schon stark gegen Intel,s Grafikarten Erstwerk ab !:devil:

Schlechter wird Intel es mit der nächsten Gen sicher nicht machen .

Und was die Treiberarbeit angeht kann man es ja wohl nicht mehr mieser machen als Amd :

Nur zwei von vielen Beispielen .

Zu hoher Stromverbrauch:

Oder gar einen Spielebann :
:daumen2::daumen2:
 
Ich finde die Karte nach wie vor nicht besonders.
In einigen Titeln schafft sie 60 FPS.
In einigen (Cyberpunk, Forspoken) nicht einmal 40 FPS.
Wohlgemerkt in FullHD.

Ich meine wer 2023 noch in FullHD spielt, der macht das wahrscheinlich weil er viele FPS möchte.
Das wären dann aber mindestens 120...

Ich finde es ehrlich gesagt erschreckend, wie viel Leistung sogenannte moderne Spiele verlangen.

Am Ende bieten die ja auch nicht mehr Spielspaß als ältere.

Was bleibt ist eine Karte für FullHD 60 FPS.
Das mag für Casual Spieler interessant sein, für unsere Community ist das eher nichts.

Aber wenn man bedenkt, dass die Karte 300€ kostet... Da ist der PC noch lange nicht fertig.
 
Was bleibt ist eine Karte für FullHD 60 FPS.

Deine Annahme ist ganz ganz falsch, es gibt User die können Grafikregler im Spiel bedienen.
Kannst auch mal schauen vielleicht gibts dazu auf Youtube ein How To. :klatsch:
Das mag für Casual Spieler interessant sein,

Was ist ein Casual Spieler?, jeamdn der Cyberpunk 2077 spielt oder jemand der CS in einer Liga spielt?

für unsere Community ist das eher nichts.

Welche Community was bildest du dir eigentlich ein hier für alle zu sprechen?,
das ist doch nur dein Wunschdenken und mehr nicht.


B2T:
Irgendwas scheint Intel richtig zu machen das sie mit der ersten dedizierten GPU Serie bis Ende 2023, 4% vom Markt abholen konnten.

Zum Thema Grafik-Treiber,
eigentlich war es geplant das der 4600G den 10600K als Heimserver ersetzen sollte.
Aber da die Grafik-Treiber von AMD trotz WHQL so hochwertig sind das diese immer wieder Bluescreens produzieren muss der 4600G als Unterbau zur Arc 750 herhalten.:lol:
 
Die Hardware war von Anfang an überlegen nur die Software war das Problem. Super wenn Intel das jetzt im Griff hat, dann ist die Karte bei P/L deutlich attraktiver als Nvidia oder AMD.

Passender Deal dazu:
 
Voll gut und genau wie gedacht. Exakt deshalb (und weil ich einfach ein neugieriger Typ bin) hab ich meinen Mädels allen Arc GPUs verpasst. Ich freue mich über die Entwicklung und bin gespannt wie AMD bei RDNA4 reagiert. Den MCM Ansatz verstehe ich als Möglichkeit für genau sowas. Erweiterbar in unterschiedlichen Richtungen.

Wenn Battlemage dann wirklich so gut skaliert wie auch hier im Artikel angenommen, wird das von mir direkt belohnt und die drei Alchemisten hier gegen drei Kampfmagier ausgetauscht.
 
Ich finde die Karte nach wie vor nicht besonders.
In einigen Titeln schafft sie 60 FPS.
In einigen (Cyberpunk, Forspoken) nicht einmal 40 FPS.
Wohlgemerkt in FullHD.

Ich meine wer 2023 noch in FullHD spielt, der macht das wahrscheinlich weil er viele FPS möchte.
Das wären dann aber mindestens 120...

Ich finde es ehrlich gesagt erschreckend, wie viel Leistung sogenannte moderne Spiele verlangen.

Am Ende bieten die ja auch nicht mehr Spielspaß als ältere.

Was bleibt ist eine Karte für FullHD 60 FPS.
Das mag für Casual Spieler interessant sein, für unsere Community ist das eher nichts.

Aber wenn man bedenkt, dass die Karte 300€ kostet... Da ist der PC noch lange nicht fertig.
Ich glaube hier liegst du Falsch!
Nur weil es hier einige extreme gibt ist das nicht überall der Fall, mein Sohn spielt auch noch im Jahr 2023 in FullHD und das nicht wegen der FPS. Einfach weil es ihn nicht stört warum auch ?

Dennoch die 60fps in FullHD wären echt nett, aber ich habe gerade keine Ahnung mit welcher Karte ich sie vergleichen kann da ich mich mit dem Thema zu wenig beschäftige.
Aber das Argument mit dem FullHD in 2023 ist m.M falsch es spielen immer noch genug in dieser Auflösung... denke auch nicht das es immer an den FPS liegt denn auch ein guter FullHD Monitor liefert bei Spielen ein schönes Bild.
 
  • Like
Reaktionen: t42
Was ein Grafiktreiber alles bewirken kann. Aber für mich wäre die Arc nach wie vor keine Alternative. 16GB sind ja gut und schön, bringt mir dann halt auch nichts, wenn genau auf der Karte Spiel XYZ richtig schlecht läuft und bei AMD und Nvidia gut mit nur 8GB Vram.
Bin daher viel mehr auf die nächste Generation von Intel Grakas gespannt. Mit Arc steht das Fundament.
 
Ich glaube hier liegst du Falsch!
Nur weil es hier einige extreme gibt ist das nicht überall der Fall, mein Sohn spielt auch noch im Jahr 2023 in FullHD und das nicht wegen der FPS. Einfach weil es ihn nicht stört warum auch ?

Dennoch die 60fps in FullHD wären echt nett, aber ich habe gerade keine Ahnung mit welcher Karte ich sie vergleichen kann da ich mich mit dem Thema zu wenig beschäftige.
Aber das Argument mit dem FullHD in 2023 ist m.M falsch es spielen immer noch genug in dieser Auflösung... denke auch nicht das es immer an den FPS liegt denn auch ein guter FullHD Monitor liefert bei Spielen ein schönes Bild.
csgo/cs2 hab ich in 1024xirgendwas gezockt, shooter halt. :ugly:
 
Wenn der Nachfolger genauso lange benötigt, bis die Treiber die eigentliche Leistung freischalten, dann ist es meiner Ansicht nach kein guter Kauf, selbst, wenn der Preis stimmt.
Man kann wohl davon ausgehen, dass die meisten Optimierungen auch für zukünftige Karten greifen. Intel baut ja mit Battlemage auch keine ganz neue Architektur. ARC ist wohl einfach eine Hardware-Beta gewesen.

Ich freu mich tierisch auf Battlemage. Hoffentlich wird der Markt endlich mal durchgeschüttelt.
 
Schön das die Treiber nun etwas besser sind. Aber immernoch zuweit von der Konkurenz weg finde ich. Man darf halt auch nicht vergessen das diese Karten locker 1 Jahr zuspät kamen.

Das Thema Leistungsaufnahme / Performance muß unbedingt gelöst werden. Noch Konkuriert Intel ja nur mit den Einsteiger Karten, was schon richtig schwach ist. Es kann nur besser werden. Ich denke mit der nächsten Gen geht es weiter vorwärst.
 
Die Karten reifen wie guter Wein. Das Warten auf bessere Treiber zieht sich aber immer noch hin.
Meine ARC A770 schlägt teilweise aber auch eine 7800XT um 10 bis 15%, einfach ein geiles Ding, wenn es mal von der Leine gelassen wird.
 
Zuletzt bearbeitet:
Wie alle hier tun als hätte Intel 2022 die erste GPU auf den Markt geworfen... Sorry aber im Bereich CPU Grafik wursten die schon mehr als 10 Jahre mit, Treiber Fehler sollte man da schon deutlich besser im Griff haben... Und nein der Vergleich hinkt nicht, es war Intel nur einfach vor ihrer arc einfach Scheiss egal ... Dann noch Modelle bringen mit nur PCIe 8 x also ne ...
Ja und nein.
Intel hatte vor 10 Jahren sogar schon sehr gute iGPUs. Die HD 2000 und 3000 Serie war echt nicht schlecht. Schnell, effizient - aber am Treibersupport mangelte es und auch an der Weiterentwicklung. Hätte man DAMALS begonnen die Chips in China auch als Desktopgrafikkarten anzubieten und von dortweg Marktanteile zu holen, wär das ganze heute ausgereift. Hat man aber nicht.
Die Treiberabteilung für Spiele war chronisch unterbesetzt (Carmack hat mal Beschrieben, dass dort 2 Leute die (OpenGL) Spieleoptimierung machen, das ist mit AMDs und Nvidias Hundertschaften nicht vergleichbar).
Die Weiterentwicklung der GPUs wurde außerdem dann stark zurückgefahren, denn für Intel war das offensichtlich mehr ein Beiwerk: dadurch wurden alle CPUs von ihnen zu APUs und das ist was die Büropcs wohl brauchten.

Arc ist dann doch wieder ganz was anderes und im Prinzip ein Neustart.
 
Zurück