News Auf der Arc A770: KI-Bildgenerator dank Microsoft fast dreimal schneller

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Auf der Arc A770: KI-Bildgenerator dank Microsoft fast dreimal schneller

Intel hat mit Microsoft zusammengearbeitet, um mit seinen neuen diskreten Arc-GPUs die Leistung generativer KIs zu beschleunigen. Dies sei mit Treiberverbesserungen und dem Open-Source-Modelloptimierungs-Tool Olive von Microsoft gelungen. In diesem Zusammenhang soll die Performance von Stable Diffusion 1.5 um das 2,7-fache verbessert worden sein.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Auf der Arc A770: KI-Bildgenerator dank Microsoft fast dreimal schneller
 
Vergleich zu einer Karte von Nvidia oder AMD, ggf. in ähnlicher Preiskategorie?
Es kennt natürlich hier keiner die genauen Settings von MS oder Intel. Aber im Quervergleich mit den SD 1.5 Werten von A1111 unter:
müsste die A770 damit auf folgende Vergleiche kommen:

512x512: A770 16 GB = 15,44 * 2,7 = 41,7 = RTX 4070 Ti
768x768: A770 16 GB = 4,7 * 2,7 = 12,69 = RTX 4070

Nehme ich nicht die Intel Arc A770 Limited Edition sondern eine andere A770 Karte zum Preisvergleich, dann kostet eine A770 16 GB-Karte aktuell ca. 300-350€, also etwa halb soviel wie eine RTX 4070 mit nur 12 GB. 768x768 ist für mich eher der relevante Vergleich, aber schon das ist individuell verschieden.

Den Vergleich zu AMD darf sich ein AMDler selber ausrechen und z.B. die SHARK Werte von Puget Systems irgendwie damit verrechnen.

Obige NVidia-Werte stammen von A1111, was MS/Intel genutzt haben und ob die (vermutlich) 3 Implementierungen bei identischen Ausgangsparametern auch 100% identische Ergebnisse liefern, weiss ich nicht.

Da es aber nicht nur um die Leistung ansicht ging, sonder auch um den Preis, würde ich aber auch der Stromverbrauch der Karten nicht vernachlässigen. Intel dürfte hiernach zumindest über der RTX 4070 liegen:

Mir geht es dabei nicht nur um Volllast, sondern auch um so Werte wie bei YT oder den Idle-Desktop. Damit fällt die A770 Karte für mich schonmal flach, da ich den PC nicht nur für SD nutze, sondern z.B. auch als TV.

Dazu kommt, wenn man sich nicht gerade einen neuen PC zusammen stellt, auch noch die Frage, ob man beim Aufrüsten der alten Grafikkarte das vorhandene Netzteil weiter nutzen kann oder nicht.

Das mag sich alles als Milchmädchenrechnung anhören, das ist aber genau das, worum es mir aktuell geht:

Vorhanden ist ein i9-9900K mit GTX 1060 und einem 450W Netzteil. Bleibt der i9 bei meinen "standardmäßigen" 150W max., dann reicht mein 450W NT ziemlich sicher für eine RTX 4070 mit 200W (mit SD und der 1060 zieht der i9 keine 50W). Eine (vermutlich bei SD 1.5 mit der 4070 vergleichbare) RT 7800 XT benötigt dagegen bis zu 260W, da ist also bei gleicher Leistung (aber mehr VRam) ein neues NT fällig, wenn ich den PC nicht in Ruhe lasse während SD arbeitet. Damit ist Kostenersparnis der Intel oder AMD Karte nach ein paar Jahren egalisiert und es bleibt eine Spekulation darauf, wie gut die Community neue SD Versionen auf NVidia, AMD und/oder Intel GPUs anpassen wird und/oder ab wann ich dort unbedingt 16 GB VRam möchte.
 
Zurück