News Radeon-Grafikkarten sollen dank KI deutlich effizienter werden

PCGH_Sven

PCGH-Autor
PowerColor möchte die Leistungsaufnahme kommender Radeon-Grafikkarten mit einem neuartigen Neuralprozessor, einer sogenannten NPU ("Neural Processing Unit"), reduzieren und so den Grafikprozessor deutlich effizienter arbeiten lassen.

Was sagt die PCGH-X-Community zu Radeon-Grafikkarten sollen dank KI deutlich effizienter werden

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
107fps vs 118fps !?
10% mehr Fps gibts ja auch nicht umsonst, ... und olles DX11 vllt. noch mit DrawCall-Limit?

Wennschon, dann bitte einfach mal 100fps als Limit einstellen.
und
Dann könnte man natürlich schauen wieviel weniger Takt reicht + wieviel UVen geht.
bei RDNA3 wird über Takt und UVen geregelt
 
Habs auch schon auf Videocardz gescchrieben.

Man hat 10% mehr FPS OHNE NPU, aber dafür höheren Verbrauch und mehr Takt.
Mit NPU hat man 10% weniger FPS und dafür 20% weniger Strom und geringeren Takt.
Das hört sich sehr stark nach einer veränderten Boostkurve an.

Sowas mache ich auch mit meiner 4090 mit Undervolting und angepasster Boostkurve.
Von 450W auf <300W mit nur 7-10% Verlusten in den FPS. Das ist GENAU dasselbe, nur brauche ich keine NPU dafür.

Das als KI zu vermarkten ist für mich schon fast Betrug.
 
117 Fps @ 338 Watt ohne NPU
107 Fps @ 261 Watt mit NPU

Wow. Powercolor hat das Undervolting entdeckt. Applaus. Kriege das seit einem Jahrzehnt hin, ganz ohne KI. Aber mit KI ist halt einfach alles besser. :schief:

Und die NPU selbst verbraucht natürlich auch Strom. Selten sowas dämliches gesehen.
 
Im ECO-Modus können die Grafikkarten auf intelligente Weise Temperaturänderungen der GPU erkennen und die Lüftergeschwindigkeit dynamisch steuern, wodurch der Stromverbrauch um bis zu 20 Prozent gesenkt werden kann

Sorry pcgh der Satz ergibt keinen Sinn...
So wie er hier steht bedeutet es, nur weil sich Lüfter langsamer drehen braucht man 20% weniger Strom..

Also würde es im Umkerschluss heißen, daß die Lüfter bei einer 200 Watt Karte mindestens 40 Watt ziehen... eher viel mehr... damit man ja 40 Watt einspart weil sie sich langsamer drehen
 
Und die NPU selbst verbraucht natürlich auch Strom.
sollen nur 2W sein, ... angeblich nur zur Regelung der Spawas eingesetzt

Man würde normalerweise kein Zerofan nutzen und eher ne leicht stärkere Lüfterkurve setzen, um die Spawas im günstigen Temp.bereich laufen zu lassen.(spart vllt. 2-3% ggü. default Kurve)

btw.
XTX-UVen im TS gemessen von BigYundol@Pulse: 30k-Score ggü. default 29k bei ner Ref.
man beachte, wie schnell der Verbrauch hoch geht, wenn man mehr Points avisiert!
 

Anhänge

  • 7900xtx BigYundol UVen.jpg
    7900xtx BigYundol UVen.jpg
    50,2 KB · Aufrufe: 35
Zuletzt bearbeitet:
Wenn KI bei gleichen Percentilen und Varianzen den Stromverbrauch senken kann, gerne her damit, ansonsten ist es völlig überflüssig.
 
Ich verstehe nicht, warum hier gegen die Technik gewettert wird? Bloß, weil ihr auch selbst tagelang eine effizientere Kurve erstellen könnt, macht das die KI gestützte Lösung doch nicht redundant. Eigentlich müsste der Kunde doch Hardware begrüßen, die direkt optimal funktioniert.

Ich finde es eine coole Sache, sofern das ganze zuverlässig und stabil funktioniert.
 
Zuletzt bearbeitet:
Ist halt marketing...so läuft das, geschirrspülmittel werden seit 40 Jahren auch immer besser wobei immer noch das geiche drin ist ...hier wird halt mit Irgendwelchen bezeichnungen versucht ein "kult" aufzubauen... wo quasi schlagwörter generiert werden welche polarisieren ....und im idealfall kaufanreize generiert....und dass muss dann auch zünden weil sonst muss ms weitere hardware aus ihren ökosystem ausschliessen ...... 🤣
 
Hauptsache, das Dingens kann nen Stabilitätstest ersetzen, quasi Auto-UV für Dummies!?
Garantiert nicht. Irgendein Spiel läuft immer instabil und stürzt ab.
Ich habe eine ganzen Zeit lang mit einer 3080 und UV gezockt, aber NUR in CP2077 crashte die dann.
Da es mein erstes UV war, hat es gedauert bis ich den Zusammenhang mit der GPU erkannt habe.

Auch bei meienr 4090 musste ich hin und wieder nachregeln.
Aktuell habe ich in 3 Spielen selten mal Out of Video Memory Errors, das liegt bestimmt an meinem UV bzw OC vom VRAM.
 
Na dann wirds natürlich crazy, wenn NPU-Optimierung instabil sein sollte!

btw.
Ist eigentlich trotzdem ne interessante Idee!
auf die Spawas evtl. nen dynamischen Volt-Offset per NPU legen(x)
(bei Polaris konnte man per externem Tool auch noch nen festen Offset direkt für die Spawas vorgeben)

(x) nach irgendwelchen Parametern wie Temperatur und VRM-Auslastung geht da vllt. dynamisch Was, ...
für nen festen Offset bräuchte man ja keine NPU
 
Zuletzt bearbeitet:
Garantiert nicht. Irgendein Spiel läuft immer instabil und stürzt ab.
Ich habe eine ganzen Zeit lang mit einer 3080 und UV gezockt, aber NUR in CP2077 crashte die dann.
Da es mein erstes UV war, hat es gedauert bis ich den Zusammenhang mit der GPU erkannt habe.

Auch bei meienr 4090 musste ich hin und wieder nachregeln.
Aktuell habe ich in 3 Spielen selten mal Out of Video Memory Errors, das liegt bestimmt an meinem UV bzw OC vom VRAM.
Ja, weil deine Tests nicht ausreichend waren. Ab Werk sind Karten doch aber in aller Regel stabil. Wenn die Hersteller nun einen besseren Weg gefunden haben, das Sicherheitspolster zu verkleinern, kann das sehr wohl stabil sein.
 
Zurück