Special Intel holt auf: Arc A770 schlägt RTX 4060 und RX 7600 - Nachtest und Ausblick auf Battlemage

Wie sieht es aktuell mit den Leistungseinbußen bei Arc ohne aktives reBAR aus?

Auf älteren Rechner mit Ryzen 1 oder Intel bis zur 7. Generation gingen da doch 30% flöten? Ist das immer noch so?
 
Danke für den tollen Artikel, ich freue mich immer wieder wenn ich etwas über Intel Arc lesen kann... ach ja, unsere Arc A750 im Familien PC freut sich auch :daumen:

Intel muss man bei den Grafikkarte wirklich loben, was sie für Fortschritte gemacht haben, vor allem in dieser relativ kurzen Zeit, ist phänomenal, sie knien sich da scheinbar wirklich hinein, lobenswert.
Ein ganz anderes Gesicht im Vergleich zu ihren CPUs, denen ich nicht Grundlos eher skeptisch gegenüberstehe.
Wenn der Nachfolger zusätzlich noch an dem Leistungsaufnahmeproblem dreht, könnte sie eine großartige Generation werden.
Der Artikel beziehungsweise dessen Link wird sofort gespeichert, brauche ich sicher hin und wieder für die ungläubigen Arc-Stänkerer, die nur den ersten Test kennen (wollen) und Arc abgeschrieben haben.
Wie sieht es aktuell mit den Leistungseinbußen bei Arc ohne aktives reBAR aus?
Da hat sich nichts geändert.
Wird aber bei der Installation des Treibers erwähnt, empfohlen es zu aktivieren.
Die Funktion haben aber heutzutage eh die meisten Boards, wer ein RAM-Profil im BIOS aktivieren kann, wird diese Funktion auch aktivieren können - falls sie sowieso nicht schon aktiviert ist.
Übrigens, wir hatten die Arc A750 vorher auf einem Intel System mit 8700K gehabt, sie hatte die Funktion auch schon.
 
Zuletzt bearbeitet:
Danke, dass ihr bei diesem Thema so dran bleibt.
Kleiner Fehler in der Tabelle: bei intels 770 16GB, steht bei Speicherkapazität 8GB
 
Zuletzt bearbeitet:
Handelt es sich bei den A580 / A750 / A770 um die schlechtesten Grafikkarten aller Zeiten?
Die Frage dürfte schwierig zu beantworten sein, denn es gab schon so einige Kandidaten die für diesen Titel in Frage kommen könnten.
Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Die Karten sind nicht nur aufgeblasen bis zum geht nicht mehr, 21.7 Milliarden Transistoren bei einer Fläche von gigantischen 406mm2! Trotz dieses extremen Aufwand schaut am Ende 0 wirklich 0,0 dabei raus.
Wirklich unglaublich wenn ich es nicht selber gesehen hätte, würde ich es nicht glauben und eher denken es will mich hier jemand 1. April mäßig verarschen.
AMD könnte wohl mit einem ca. 140mm2 Einsteiger-Chip eine ähnliche Performance wie der A580 liefern bei halben Verbrauch. Dies sollte man sich mal auf der Zunge zergehen lassen.

Pro 300mm Wafer dürfte daher Navi 33 im selben TSMC 6nm Prozess gut und gerne in etwa die 2.5 Fache Ausbeute liefern!
Entsprechend wird Intel aus Verzweiflung die Karten wohl zum Selbstkostenpreis oder gar mit Verlust verkaufen müssen.
Von der Effizienz bzw. Verbrauch der Karte wollen wir besser erst gar nicht anfangen, denn sonst wird es brutal und wenn dies alles nicht schon genug wäre, ist die RX7600 (Raster 1080p) dabei auch noch 30% schneller als die A580 und 7% schneller als die A770 die A750 dürfte sich irgendwo dazwischen platzieren.
Eigentlich unglaublich wenn man bedenkt das RDNA3 nicht der große Wurf war. Falls AMD bei der next. Gen. mit RDNA4 wieder zur alten, gewohnten Stärke zurückfindet reden wir bereits von 3-4 fachen Flächeneffizienz bei gleicher Leistung.
Vom Verbrauch bei Idle, Youtube Gaming wollen wir lieber erst gar nicht anfangen. Intel wo soll das nur alles hinführen das grenzt schon fast an suizidaler Selbstzerstörung.
1703541567086.png

Da kommen mir schon fast die Tränen wenn ich an all die schönen Silizium Wafer denke die mit Verlust verkauft werden müssen. Einfach nur traurig Nvidia und AMD hätten so viel mehr aus diesen begrenzten Ressourcen heraus holen können.
1703541629572.png
1703541662330.png

1703541695011.png

1703541712875.png
 
Handelt es sich bei den A580 / A750 / A770 um die schlechtesten Grafikkarten aller Zeiten?
Die Frage dürfte schwierig zu beantworten sein
nein absolut nicht. Sie sind WEIT weg von den schlechtesten Grafikkarten, sie sind sogar weit weg von den bekannteren schlechten Grafikkarten
Savage mit dem Hardware TnL Bug? Volari (Duo?), NV1 ohne echte Funktion weil ohne Support?
HALLELUJA gab es schon mal schlechte 3D Karten, von manchen 2D Grafikkarten ganz zu schweigen. Oder den aktuellen Versuchen aus China, auf denen 5 Spiele laufen, für alles andere gibts keinen Treiber.
Also: Intels erstversuch ist inneffektiv (braucht viel Chipfläche) und ineffizient (braucht viel Strom für die Leistung), im Vergleich mit der Vorgängergeneration (mit Vergleichbarem Verfahren) wärs gar nicht SO übel, aber wichtiger ist: nach und nach läuft alles darauf. Da gabs VIEL schlimmeres.
Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Die Karten sind nicht nur aufgeblasen bis zum geht nicht mehr, 21.7 Milliarden Transistoren bei einer Fläche von gigantischen 406mm2! Trotz dieses extremen Aufwand schaut am Ende 0 wirklich 0,0 dabei raus.
ja, der allererste Chip von Intel ist alles andere als effektiv oder effizient. Aber - wie bitte, es schaut 0.0 raus?
Die beiden anderen GPU Hersteller machen seit 30 Jahren quasi nichts anderes und da ist ein deutlicher Vorsprung erwartbar.
Schlimmer noch, trotz dieser Erfahrung haben sich beide sehr ähnliche Fehltritte erlaubt. Und das nicht beim ersten Gehversuch, sondern bei einem Nachfolgeprodukt. Etwa Vega 64. Riesiger Chip (knapp 500mm² 12,5 Mrd Transistoren, spezial-RAM der noch dazu Strom spart, TDP 300 bzw 345 (Liquid), Erschienen 2017. Geplant als Gegner der 1080 Ti und Titan, reichte es gerade mal für die
Geforce 1080 - 180W, ~300mm Chipfläche...
Ach ja und bei Vega wurden angekündigte Features letzten Endes nie im Treiber realisiert - war wohl verbuggt
Das nur mal aus der jüngeren Vergangenheit. Von den PArhelias, Volaris usw will ich gar nicht reden
Wirklich unglaublich wenn ich es nicht selber gesehen hätte, würde ich es nicht glauben und eher denken es will mich hier jemand 1. April mäßig verarschen.
AMD könnte wohl mit einem ca. 140mm2 Einsteiger-Chip eine ähnliche Performance wie der A580 liefern bei halben Verbrauch. Dies sollte man sich mal auf der Zunge zergehen lassen.
Ja, und umgekehrt ist es schon vorgekommen, dass Nvidia mit knapp der Hälfte des Verbrauches von AMD da gestanden ist bei ähnlicher Performance. Der Unterschied. AMD/ATI macht das seit Jahrzehnten, Nvidia auch.
Ich weiß nicht woher dein Hass kommt, du blendest hier aber ganz schön was aus.
Pro 300mm Wafer dürfte daher Navi 33 im selben TSMC 6nm Prozess gut und gerne in etwa die 2.5 Fache Ausbeute liefern!
Dann sollte AMD schleunigst mit dem PReis runter, dann kriegen sie auch wieder Marktanteile
Entsprechend wird Intel aus Verzweiflung die Karten wohl zum Selbstkostenpreis oder gar mit Verlust verkaufen müssen.
Es war sicher nie geplant in der ersten Generation hohe Gewinne zu erzielen. Aber auch bei 300 Dollar verdient man noch genug.
Vom Verbrauch bei Idle, Youtube Gaming wollen wir lieber erst gar nicht anfangen. Intel wo soll das nur alles hinführen das grenzt schon fast an suizidaler Selbstzerstörung.
Ironischerweise geht aber bei AMD in letzter Zeit hier auch nicht alles Glatt und bei denen ist es - erneut - nicht der erste Versuch.
Gerade als die 7xxx Gen kam, war der Idleverbrauch etwa mit mehreren Monitoren eigentlich auch katastrophal.
Da kommen mir schon fast die Tränen wenn ich an all die schönen Silizium Wafer denke die mit Verlust verkauft werden müssen. Einfach nur traurig Nvidia und AMD hätten so viel mehr aus diesen begrenzten Ressourcen heraus holen können.
Wenn man die vielen Milliarden die AMD und Nvidia in den letzten 30 Jahren rein in die GPU Entwicklung investiert hat, kommen mir da eher die Tränen wie eine andere Firma da so flott in Schlagdistanz kommen kann.

Vor allem wenn man sich die Effizienz unter Raytracing ansieht ist Intel ja sogar schon vor AMD.
1703544412435.png



Demnach kann man genauso gut fragen: was treibt eigentlich AMD? Wieso wird man schon vom allerersten Konkurrenzchip in der Zukunftsrelevanten Raytracing-Technologie überholt?

Deiner Rechnung nach die sich zwar völlig zu Recht (also: es ist eine mögliche Betrachtungsweise, aber nicht die alleinige Weisheit) auf die rein technische Umsetzung bezieht dürfte man im Moment eigentlich eh nur NV kaufen, sie sind die effektivsten pro mm² Wafer und die effizientesten
Nur betreibt niemand der sich einen 13900k/14900k leistet, diese CPU mit 45 oder 65 Watt. Also nein, sie stehen überhaupt nicht gut da.
Rein im Desktop jetzt: im Highend steht man was Effizienz betrachtet katastrophal da. Die unteren Märkte/Chips sind aber großteils sehr konkurrenzfähig, effizient und auch teils günstiger als die Konkurrenz.
 
Zuletzt bearbeitet:
Die hat doppelt so viele Transistoren und fast den doppelten Verbrauch gegen die beiden anderen.

Auf dem Papier hatte die immer Power, soliden BUS 256bit und 16GB VRAM, schmeckt.

Wie Dave aber schon sagt, was nützt es dann wenn es ein Jahr dauert. Der Fehler von Intel war nicht in das GPU Geschäft einzusteigen, man hätte nur die Treiberarbeiten zu erst Abschließen müssen.
Das Hänne-Ei prinzip umgedreht Funktioniert nicht.

Trotzdem wäre es schön wenn Intel weiter macht, bringen sie für Endkunden eine HBMv3 Karte zum guten Kurs wäre ich sofort dabei. GDDR ist doch Langweilig, habe ich Bock drauf.
 
Wie Dave aber schon sagt, was nützt es dann wenn es ein Jahr dauert.
dann braucht man eine Fanbase, die nennt das dann "fine wine". ;)
Nein im Ernst: es ist das Erstlingswerk, warum würde man davon ausgehen, dass auch die nächsten Treiber 1 Jahr brauchen?
Allein schon, die vielen Kompatibilitäten sind in der 2. Gen dann sicher nicht mehr oder kaum mehr so vorhanden.
Der Fehler von Intel war nicht in das GPU Geschäft einzusteigen, man hätte nur die Treiberarbeiten zu erst Abschließen müssen.
Das Hänne-Ei prinzip umgedreht Funktioniert nicht.
Falsch. Denn man kann die Treiberprobleme nicht beheben, ohne ein PRodukt am Markt zu haben. Was im Labor funktioniert, funktioniert in der Realität oft nicht. Die einzige Chance von Intel genug Erfahrung zu sammeln ist eben tatsächlich Erfahrung zu sammeln - also ein Produkt zu releasen.
Was man hätte tun können ist schon viel früher in den Markt einzusteigen, aber vielleicht 1 Jahr lang nur in China
 
Rollora nicht ganz, den DX9 lief z.B. am Anfang gar nicht, das wird auch im Labor nicht Funktioniert haben ;)

Ansonsten sehe ich das wie Du und wie gesagt bringen die eine Fette 32GB HBM Consumer Karte, take my money.
 
Rollora nicht ganz, den DX9 lief z.B. am Anfang gar nicht, das wird auch im Labor nicht Funktioniert haben ;)

Ansonsten sehe ich das wie Du und wie gesagt bringen die eine Fette 32GB HBM Consumer Karte, take my money.
DX9 lief unbefriedigend, aber nicht gar nicht AFAIR, aber es gibt auch heute Karten von AMD die kommen mit alten DX Titeln nicht zurecht.
Ich habe bei Intel immer gesagt, man sieht frühestens in 5 Jahren, ob sie sich bewähren.
Ich bin überrascht, dass man nach 14 Monaten schon so einen Status hat. Ich hätte ohnedies erwartet sie setzen ausschließlich auf die neuen, low-level APIs und emulieren/wrappen den Rest: AMD und Nvidia haben zu viel Vorsprung und es ist schwierig das aufzuholen. Außerdem gibts seit knapp 10 Jahren DX12 und Vulkan, ich wäre davon ausgegangen, dass alle modernen Spiele darauf setzen (tun sie leider immer noch nicht).
 
Wie alle hier tun als hätte Intel 2022 die erste GPU auf den Markt geworfen... Sorry aber im Bereich CPU Grafik wursten die schon mehr als 10 Jahre mit, Treiber Fehler sollte man da schon deutlich besser im Griff haben... Und nein der Vergleich hinkt nicht, es war Intel nur einfach vor ihrer arc einfach Scheiss egal ... Dann noch Modelle bringen mit nur PCIe 8 x also ne ...
 
Wenn der Nachfolger genauso lange benötigt, bis die Treiber die eigentliche Leistung freischalten, dann ist es meiner Ansicht nach kein guter Kauf, selbst, wenn der Preis stimmt.
Ich denke und erwarte, es wird soviel Know How gesammelt, dass es beim nächsten mal schneller geht. Ich finde es jedenfalls seht schön, dass Intel mitmischt. Und wenn man jetzt noch die Dominanz von Cuda durchbricht, wird alles besser, weil der Wettbewerb offener ist.
 
Das sieht schon wirklich nicht schlecht aus. Wenn sie die Leistungsaufnahme noch besser in den Griff bekommen, bin ich bei Battlemage guter Dinge.
 
Nicht in 1000 Jahren, selbst wenn Intel für Battlemage 800mm2 an Silizium Fläche und 500W zur Verfügung hätte und
Nvidia und AMD zugleich auf 200mm2 limitiert wären, würde Intel wohl wie es in ihrere DNA liegt den kürzeren ziehen.

Dann würde auch jeder wieder behaupten, wie toll diese GPU doch wäre und dies doch nicht schlecht wäre wenn man bedenkt, dass es sich erst um den zweiten ernsthaften Versuch (integrierte GPU der 200 Versuch?) handeln würde, im diskreten Grafikkarten Geschäft einzusteigen.
 
Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Als Intel Gegner wäre eine differenzierte Betrachtung auch schwer für dich zu verdauen gewesen.
Die Karten sind nicht nur aufgeblasen bis zum geht nicht mehr, 21.7 Milliarden Transistoren bei einer Fläche von gigantischen 406mm2! Trotz dieses extremen Aufwand schaut am Ende 0 wirklich 0,0 dabei raus.
Die sind auch schon etwas älter und kommen dennoch in RT an die AMD Effizienz heran. Das muss erst einmal schaffen. Nvidia und AMD haben jede Menge Know How. Vorsprung.
Wirklich unglaublich wenn ich es nicht selber gesehen hätte, würde ich es nicht glauben und eher denken es will mich hier jemand 1. April mäßig verarschen.
Denke ich bei deinem Beitrag auch. Wer kann den schon ernst nehmen.
und wenn dies alles nicht schon genug wäre, ist die RX7600 (Raster 1080p) dabei auch noch 30% schneller als die A580 und
PCGh misst 27%, insgesamt 19% und bei RT ist die AMD hinten.
Ergibt schon ein etwas anderes Bild als dein Cherrypicking.

. Intel wo soll das nur alles hinführen das grenzt schon fast an suizidaler Selbstzerstörung.
Da hat einer wohl Angst, dass Intel AMD bei GPUs in so mancher Metrik schlagen könnte.
Da kommen mir schon fast die Tränen wenn ich an all die schönen Silizium Wafer denke die mit Verlust verkauft werden müssen.
Verlust kann ich mir nicht vorstellen, aber Gewinne werden sie nicht machen.
Schaut man auf RT ist die Flächeneffizienz aber gar nicht so schlecht im Vergleich zu AMD - für ein "Erstlingswerk". Aber keine Sorge, Intel kommt schon, siehe Effizient der aktuellsten IGPU
 
Wie sieht es aktuell mit den Leistungseinbußen bei Arc ohne aktives reBAR aus?

Auf älteren Rechner mit Ryzen 1 oder Intel bis zur 7. Generation gingen da doch 30% flöten? Ist das immer noch so?
Das hat architektonische Hintergründe (Konfiguration des Speichercontrollers) und wird voraussichtlich auch bei den nachfolgenden Generationen so sein.

Wie hoch der Performanceverlust dann ist wird sich zeigen. Aber in Zukunft werden non-rBAR Systeme immer mehr verschwinden.

Übrigens lässt sich rBAR per Mod auf vielen älteren Boards einrichten.
 
Wenn der Nachfolger genauso lange benötigt, bis die Treiber die eigentliche Leistung freischalten, dann ist es meiner Ansicht nach kein guter Kauf, selbst, wenn der Preis stimmt.

Meinem Bekanntenkreis kann ich diese Grafikkarten jedenfalls nur empfehlen, wenn ab Tag 1 der Installation alles reibungslos läuft. Ein stabiler Treiber ist dafür Pflicht, denn diese updaten User nicht, die nicht mal wissen, was das ist.
Ja also hat bei dir im Bekanntenkreis auch niemand eine von AMD nehme ich an. :haha:
Handelt es sich bei den A580 / A750 / A770 um die schlechtesten Grafikkarten aller Zeiten?
Die Frage dürfte schwierig zu beantworten sein, denn es gab schon so einige Kandidaten die für diesen Titel in Frage kommen könnten.
Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Spricht der mit einer 6600 die in Raytracing auf dem Niveau einer Arc 380 ist :haha:
 
Zurück