News Stable Diffusion: AMD macht Radeon-Grafikkarten bis zu zehnmal so schnell - unter Windows

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Stable Diffusion: AMD macht Radeon-Grafikkarten bis zu zehnmal so schnell - unter Windows

AMD hat eine Anleitung veröffentlicht, mit der Stable Diffusion unter Windows bis zu zehnmal so schnell laufen soll wie bisher. Die Bestrebungen, Deep-Learning-Anwendungen unter Windows zu beschleunigen, und damit Nvidia Konkurrenz zu machen, tragen damit erste Früchte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Stable Diffusion: AMD macht Radeon-Grafikkarten bis zu zehnmal so schnell - unter Windows
 
Die KI-Technik in Grafikkarten wird ausschließlich für Techniken wie DLSS benötigt.
Als Nebenprodukt können sie Privatanwender für andere KI-Anwendungen mitnutzen.
Wenn zugunsten von Tensoreinheiten zu viele Unified Shader weichen müssen, ist das Ergebnis keine Grafikkarte mehr, sondern eventuell ein AI-Beschleuniger, so wie der H100, der mit 3 POPS KI-Modelle massiv beschleunigen kann, aber mit nur 51 TFLOPS FP32 weder an die RTX 4090, noch an dieRX 7900 XTX grafisch heranreichen kann.

Die Tensor Cores in der GPU für Privatpersonen waren das Sprungbrett zu den professionellen AI-Chips und gleichzeitig hat man die Technik dadurch verbreitet und somit den Bedarf in Privathaushalten entzündet. Zudem hat man mit DLSS etc. auch grafisch einen Nutzen aus den AI-Beschleunigern gezogen, die ja sonst nur einfach mit auf der Karte gewesen wären, ohne dass sie mit der Grafik etwas zu tun gehabt hätten.
Aber langfristig trennen sich die AI-Beschleuniger und GPUs, weil es für die Masse an Tensor Cores, die man für AI langfristig braucht, auf einer Privat-GPU keinen Nutzen gibt.

Natürlich kann jeder auch in das KI-Chip-Geschäft miteinsteigen. Aber keine Sorge - über das aktuelle Maß hinaus wird sicher niemand die Grafikkarten auf KI trimmen. Das wird eher in den CPUs landen (aber auch nur für den Hausgebrauch), oder als KI-Karte (für den professionellen Bereich) dazukommen.
 
Um Missverständnisse auszuräumen: Aktuell läuft Stable Diffussion - mangels gutem Support - bei Windows-AMD-Nutzern meist auf der CPU. "GPU-Support" heißt dabei nicht zwangsläufig, dass irgendwelche AI-Einheiten zum Laufen gebracht werden. Der Performance-Boost hier könnte auch einfach dadurch kommen, dass man die normalen Shader richtig auslasten kann.

Extra Beschleunigungseinheiten sind natürlich besser. Die Matrixberechnungen für Deep Learning laufen aber auch auf den Shadern - und zwar deutlich besser als auf der CPU ;)

Neben vielen Shadern ist zudem auch ein großer VRAM nützlich. Für AMD könnte es deshalb umso wichtiger sein, hier den Support auszubauen. Denn damit hätte man dann, zumindest für manche Deep-Learning-Anwendungen, ein echtes Kaufargument ;)
 
Das ist korrekt. Aktuelle AMD-GPUs haben keine Tensoreinheiten. Eine RX 7900 XTX kann mit ca. 130 TFLOPS FP16 natürlich trotzdem KI-Anwendungen massiv beschleunigen, kommt aber z.B. an eine RTX 4080, die 780 TOPS INT8 liefern kann, vermutlich in einigen KI-Anwendungen nicht heran.

Allerdings kann man nicht behaupten, dass KI-Anwendungen dadurch auf der RTX 4080 fünfmal schneller liefen. Tatsächlich können KI-Anwendungen durch Matrixmultiplikationen mit gemischter Genauigkeit optimiert beschleunigt werden - dies hängt aber vom Anwendungsfall ab. Man kann somit sagen, dass die Nvidia-Karte dem Anschein nach einen Vorteil hat; wie hoch der ist, müsste man aber je nach Workload vergleichen.

Sehr wichtig für AMD ist es, weiter an dem Support von OpenCL/CUDA für ihre Hardware zu schrauben, aber sie sind auf einem hervorragenden Weg.
 
Sehr gut von AMD. Die sollen weiter Gas geben und CUDA zu Fall bringen. Deratige Berechnungen und Nutzung in Software soll imho alles unter einer Open Source Bibliothek umgesetzt werden.

Und dann sehen wir wer künftig generationsweise die beste Hardware baut.

Nvidia hätte dieses Jahr eigentlich von mir Geld für eine 4070/4070 Ti gesehen aber dank dem durchwegs miserablem Speicherangebot, im 4070 Falle nur 12 GB, sehe ich keinen Grund grün aufzurüsten. Von AMD kommt nur die 7900 XTX in Frage, die ist mir aber eigentlich zu teuer. Da würde ich fast soweit gehen und nochmal ein paar hundert Euro drauflegen um mir dann die 4090 zu holen.

Moment, wenn ich das tue geht nVidias Kalkül auch noch auf :-D
 
Das ist korrekt. Aktuelle AMD-GPUs haben keine Tensoreinheiten.
Das dachte ich auch, da man kaum etwas davon hört (und Nvidia den Markt komplett dominiert), aber seit RDNA 3 hat AMD ein Pendant (auf RDNA 3 noch nicht wirklich) zu Nvidias Tensor Cores, nur heißen diese "AI Cores".

Insgesamt ist diese News gut für AMD, aber verdammt schlecht für Gamer, denn so hat z.B. George "geohot" Hotz kürzlich auf Twitter gepostet, tausende und abertausende AMD-GPUs kaufen zu wollen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da kann man nur hoffen, dass dieses Beispiel nicht Schule macht.
 
Zuletzt bearbeitet:
Die ROCMm API erscheint ja lt. letzten offiziellen Aussagen noch im Herbst für Windows. Zudem dem hat man mit dem HIP SDK, API, Runtime für Windows bereits den ersten Schritt gemacht und einen ersten Part der ROCm APi veröffentlicht. Zudem hat man das HIPIFY TOOL für Windows veröffentlicht und in die AMD Software Pro Edition integriert. (wer das Tool nicht kennt, hiermit lässt sich CUDA Programmcode automatisiert auf HIP oder später dann die ROCm APi konvertieren und somit Cuda Anwendungen direkt auf AMD GPUs beschleunigen.
Auch wurde ROCm bereits für RDNA3, 2 Consumer GPUs und Radeon Pro freigegeben.
 
ja was machen wir wenn doch,weil angefangen hat es ja schon.Dann macht es auch sinn ,wenn die Highend GPUS zum wohle der Professionellen und sogar wegen der KI aufgegeben wird.Dies hat ja bisher AMD noch nicht drauf reagiert bei solcher Aussage.Und ob das AMD jemals machen wird ist ja auch nicht sicher.
 
Das dachte ich auch, da man kaum etwas davon hört (und Nvidia den Markt komplett dominiert), aber seit RDNA 3 hat AMD ein Pendant (auf RDNA 3 noch nicht wirklich) zu Nvidias Tensor Cores, nur heißen diese "AI Cores".

Insgesamt ist diese News gut für AMD, aber verdammt schlecht für Gamer, denn so hat z.B. George "geohot" Hotz kürzlich auf Twitter gepostet, tausende und abertausende AMD-GPUs kaufen zu wollen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da kann man nur hoffen, dass dieses Beispiel nicht Schule macht.
Glaube jetzt nicht dran.

Aber auch wenn, AMD sollte etwas mehr verkaufen, haben schliesslich rückwerts gemacht.

Ausserdem habe ich schon meine. ?
 
"Ob dieser Leistungssprung auch abseits von Herstellerbenchmarks anzutreffen ist, müssen unabhängige Tests dabei noch bestätigen."

Ja, meiner einer BITTET höflichst darum !!
Wenn zugunsten von Tensoreinheiten zu viele Unified Shader weichen müssen, ist das Ergebnis keine Grafikkarte mehr, sondern eventuell ein AI-Beschleuniger,
Mein Reden seit Jahren !
Einfach eine Zusatzkarte mit "Spezial/Super/Ultra" Cores drauf entwickeln/raus bringen (ähnlich wie die PPU von Ageia).
Von mir aus in 3 Varianten (Einsteiger/Midrange/High End inkl. DDR6/DDR7/HBM3E).

 

Anhänge

  • physx_asus.jpg
    physx_asus.jpg
    995,4 KB · Aufrufe: 9
Zuletzt bearbeitet von einem Moderator:
Sehr gut! :daumen:

ich nutze auch Automatic1111 mit Stable Diffusion XL 1.0, das Webinterface gefällt und es gibt tolle Resultate - aber die Performance auf der RX6800 war bisher unterirdisch, selbst eine alte GTX1080 ist wesentlich schneller :ugly:

War schon kurz davor es mit Linux/ROCm zu probieren...
 
Ich hoffe, dass Nvidias KI-Dominanz nur zeitlich begrenzt ein Monopol innehat. Momentan wird eine Marketing-Sau nach der anderen durch's Dorf getrieben und zeitgleich die Preise um 20 % (oder so) pro Generation inflatiert. Mit dem Flirt der speziellen KI-Karte wird nun das Luxusargument kreiert, man sei ja die absolute Super Car Klasse und würde dementsprechend auch Geld verlangen, denn eigentlich ist man ja zu Höherem bestimmt, als dreckige Gamer mit mageren 1500 € Karten zu bedienen.

Ja und dann merkt man, dass andere auch KI-Karten können und hoffentlich fällt man dann auf die Nase und erinnert sich, dass man bereits einen treuen Kundenstamm hatte und vielleicht sollte man den nicht mehr vergraulen. Momentan steht Nvidia aber auf einem selbstgebauten Podest, um sich selbst eine Urkunde geben zu können, das natürlich im Elfenbeinturm. AMD tut nichts weiteres, als sich das aus Plastik nachzubauen.

AMD hat für mich sowieso verloren. Nur, weil sie 50 € flach von Nvidias Preis abziehen, ist das einfach kein Verkaufsargument. Zur Not werde ich mir selber meine 3070 noch in zehn Jahren per Lötkolben reparieren, aber so wirklich Enthusiasmus kommt einfach nicht mehr auf. Ich bin vollkommen für KI, aber ich lasse mich auch nicht an der Nase herumführen. AMD löst ein noch mulmigeres Gefühl aus, als es Nvidia tut, da der Preis die Leistung noch weniger rechtfertigt.

Die Preispolitik macht Streamingangebote wie Gamepass attraktiv. Für Spiele, die meiner Meinung nach um ein Vielfaches besser waren, reicht auch alte Hardware. Da können AMD und Nvidia ihren Wucher stecken lassen. Für alles Neue gibt es Gamepass. So gut fand ich schon Doom Eternal nicht, als dass ich das nicht auch streamen könnte.

Da das Plus an Rechenleistung mehr und mehr stagniert und KI irgendwann auch nicht mehr so viel abverlangen wird, wird die Konkurrenz schnell genug aufschließen. Vielleicht schafft es Intel ja dann in 10 Jahren. Wenn nicht, dann gibt es Konsolen. Aber bald treten die Grafikkarten mit Kleinwagen in Konkurrenz ums Budget. Na ja, mal sehen.
 
Naja abwarten. Nvidia verdient ja um ein vielfaches besser als AMD. Von Lederjacke einpacken ist ja keine Rede. Wenn dann werden noch mehr Lederjacken drauf gepackt als weg gepackt.
Erst mal muss AMD zeigen wie gut die technik wirklich ist weil manche Spiele laufen wirklich bei AMD unterirdisch im Vergleich bei nvidia.
Und dann auch noch der höhere Stromverbauch bei den AMD gpu.
Solange dies AMD nicht in den Griff bekommen hat sehe ich AMD nicht bei den gpus auf Augenhöhe.
Also es gibt auf AMD Seite noch viel zu tuen. Aber besser schon mal angefangen zu haben Verbesserungen zu starten um auch wirklich die ganze rohleistung auf die Straße zu bekommen als garnix gemacht zu haben.
 
Vielleicht kann mir jemand helfen, da ich keine Erfahrung mit Anaconda habe. Habe gestern alle Punkte durchgemacht, bin dann aber bei Punkt 5 hängen geblieben, weil mir das Prombt von Anaconda keine bat Dateien ausführt. Anscheinend kann man das irgendwie forcieren, aber darauf geht die Anleitung von AMD eben nicht ein.

Mit meiner jetztigen Lösung (DirectML und einer zusätzlichen Prombt, denn ich nicht auswendig weiss) habe ich aber jetzt schon 4 bis 6 Iterationen pro Sekunde mit meiner 7900XTX.
 
Aber gut...eine Meinung muss ja objektiv keine Fakten enthalten :)
Das stimmt. :D

Ich werfe hier mehrere Meldungen durcheinander und gehe pauschal davon aus, man könne mir folgen. Das war ein wenig naiv.

Nvidia meldete letztens Verkaufserfolge mit Gewinnmargen um die 1000 %, wenn ich mich nicht irre. Dazu empfinde (ja) ich die jetzige Preisgestaltung schon für abgehoben. Warum so viel Aufpreis pro Generation, wenn von der traditionellen Leistung (eben alles außer DLSS und RT) nicht ein mal im Ansatz solch ein Leistungssprung pro Generation geschieht? Womit wird der Aufpreis von Generation zu Generation gerechtfertigt?

Vordergründig natürlich wegen den "KI-Cores". Die ermöglichen DLSS und RT. Mit viel Zugeständnissen könnte man noch den guten RAM hinzuzählen, aber dann muss man schon beide Augen zudrücken und beide Augen je nach Modell aufreißen.

Hintergründig liegt das daran, weil es gekauft wird. "Selber schuld". Stimmt ja auch, ich kaufe es ja nicht mehr. Da ist die Meldung, dass man nun KI-Powerhouses mit maximaler Gewinnmarge raushaut und eigentlich man ja auf Gaming Karten verzichten könnte, Gift für jeglichen guten Willen als Enthusiast gegenüber Nvidia. Das Muster des wuchernden Preisrhythmus ist ja schon lange erkennbar und nicht von der Hand zu weisen.

Jetzt diese Meldung, dass AMD ja mal aufschließt. Bei sowas muss ich aufpassen, beim Lesen nichts zu trinken, sonst wird es eine ekelhafte Nasendusche. AMD tut nichts, aber auch rein gar nichts anderes, als im Brackwasser von Nvidia mitzufahren. Eine Alternative ist AMD nicht. Die sind viel schlechter in dem, was Nvidia schon als Rechtfertigung ranschleift: Die "KI-Kerne" sind durchgehend mindestens eine Generation hinter Nvidia. AMDs Preispolitik ist aber mit Nvidia bei den aktuellen Generationen, wenn es nach AMD ginge, auf Augenhöhe. Wieso? Siehe Nvidias Begründungen.

Das bedeutet, dass die Meldungen praktisch nutzlos sind, was Hoffnung auf eine Entspannung des Marktes darstellt. AMD wird dann 10 % günstiger als Nvidia sein, die aber schon auf dem Preisniveau von gebrauchten Kleinwagen wüten. Dann wird es vielleicht bei Unternehmenskunden ein wenig günstiger; bei "Enthusiasten" mit schmaleren Geldbeutel, wie das Hobby noch vor ein paar Jahren aushielt, wird sich 0,0 ändern. Allerhöchstens Konsoleros könnten eventuell bei der nächsten Generation auf erschwinglicheren Fortschritt mitfeiern.

Bezüglich Gamepass: Vom Kontext aus ist es Hose wie Jacke, was ich von Microsofts Service bezeichne. Versuche doch ein mal, die XCloud auf dem PC ohne Gamepass zu benutzen. Spezifischer kannst du das gerne ausdrücken, aber dann kann ich dich überflüssigerweise genau so fragen, von was für einem Service du redest und wo ich XCloud ohne Gamepass beziehen könnte. Du wusstest ja auf Anhieb, was ich meine und das ist das Ziel von Kommunikation.
 
Ich hoffe, dass Nvidias KI-Dominanz nur zeitlich begrenzt ein Monopol innehat. Momentan wird eine Marketing-Sau nach der anderen durch's Dorf getrieben und zeitgleich die Preise um 20 % (oder so) pro Generation inflatiert. Mit dem Flirt der speziellen KI-Karte wird nun das Luxusargument kreiert, man sei ja die absolute Super Car Klasse und würde dementsprechend auch Geld verlangen, denn eigentlich ist man ja zu Höherem bestimmt, als dreckige Gamer mit mageren 1500 € Karten zu bedienen.

Ja und dann merkt man, dass andere auch KI-Karten können und hoffentlich fällt man dann auf die Nase und erinnert sich, dass man bereits einen treuen Kundenstamm hatte und vielleicht sollte man den nicht mehr vergraulen. Momentan steht Nvidia aber auf einem selbstgebauten Podest, um sich selbst eine Urkunde geben zu können, das natürlich im Elfenbeinturm. AMD tut nichts weiteres, als sich das aus Plastik nachzubauen.

AMD hat für mich sowieso verloren. Nur, weil sie 50 € flach von Nvidias Preis abziehen, ist das einfach kein Verkaufsargument. Zur Not werde ich mir selber meine 3070 noch in zehn Jahren per Lötkolben reparieren, aber so wirklich Enthusiasmus kommt einfach nicht mehr auf. Ich bin vollkommen für KI, aber ich lasse mich auch nicht an der Nase herumführen. AMD löst ein noch mulmigeres Gefühl aus, als es Nvidia tut, da der Preis die Leistung noch weniger rechtfertigt.

Die Preispolitik macht Streamingangebote wie Gamepass attraktiv. Für Spiele, die meiner Meinung nach um ein Vielfaches besser waren, reicht auch alte Hardware. Da können AMD und Nvidia ihren Wucher stecken lassen. Für alles Neue gibt es Gamepass. So gut fand ich schon Doom Eternal nicht, als dass ich das nicht auch streamen könnte.

Da das Plus an Rechenleistung mehr und mehr stagniert und KI irgendwann auch nicht mehr so viel abverlangen wird, wird die Konkurrenz schnell genug aufschließen. Vielleicht schafft es Intel ja dann in 10 Jahren. Wenn nicht, dann gibt es Konsolen. Aber bald treten die Grafikkarten mit Kleinwagen in Konkurrenz ums Budget. Na ja, mal sehen.
Mein Beileid.

Lass deine 8GB Karte ruig noch eine Weile stecken.

Vielleicht überzeugt die kommende AMD Generation.
Die 7000er waren Chiplet-Prototypen und haben auch mich nicht so überzeugt. Darum habe ich nur 16GB.

Aber alles noch kein Grund zur Konsole über zu gehen. Wäre schon sehr drastisch, die Masnahme.
 
Zurück