AMD Radeon RDNA3 & MCM Laberthread

Naja, früher hat das MPT gereicht, um die Karten effizient zu bekommen. Heute wo das geblockt wird, kommt man mit ner Pseudo-AI um irgedwas in der Werbetrommel zu rühren. Also ich halts für ziemliches Schlangenöl.
Ne vernünftige AI sollte so nen Zugriff wie das MPT haben und von mir aus im geschlossenen System ohne möglichem Nutereingriff dasselbe tun. Das würd was bringen.
 
Es ist schon absolut irre, dass man für mickrige 3000 Punkte teilweise 150W mehr durch den Chip pumpt.

Ich hoffe inständig, dass diese AI NPU Lösung von Powercolor wirklich nicht nur Schlangenöl ist, sondern die Karte einfach Out of the box erstmal so effizient wie möglich läuft in Zukunft.

Das schont den Geldbeutel, Ohren und die Umwelt.

Naja, früher hat das MPT gereicht, um die Karten effizient zu bekommen. Heute wo das geblockt wird, kommt man mit ner Pseudo-AI um irgedwas in der Werbetrommel zu rühren. Also ich halts für ziemliches Schlangenöl.
Ne vernünftige AI sollte so nen Zugriff wie das MPT haben und von mir aus im geschlossenen System ohne möglichem Nutereingriff dasselbe tun. Das würd was bringen.

Dass das MPT & Co. nicht mehr geht ist blöd und hatte mich am Anfang auch furchtbar aufgeregt, wie man in diesem Thread nachlesen kann. Aber ich kriege die 7900XTX auch so ziemlich effizient hin.
Bei der 5700XT nutzte ich diese Tools aber eigentlich nur, um den PT-Range zu erhöhen. Viel mehr liess sich da auch nicht sinnvoll rausholen dann. Dass bei der 7900XTX das PT nun halt nur von -10 bis +25% verschoben werden kann, ist unschön, aber letztlich auch nicht so dramatisch, wenn man die maximale Ghz-Zahl beschränkt.
Ich, der früher alles ans maximal alltagsstabil Mögliche übertaktete, finde OC heutzutage sehr überflüssig, in dem Sinne ist mir das obere PT-Limit mittlerweile herzlich egal. Aber das liegt halt daran, dass heute der 5800X3D seine maximale Performance mit UV erreicht und dadurch noch sparsamer wird. Dieser Lernprozess fing aber auch schon bei der 5700XT an, denn schon da fand ich es irgendwann bireweich 50W mehr zu verballern für 2-4% mehr Performance. Bei der 7900XTX sind es nun noch krassere sinnfreie ~150W. Früher bei meinem Phenom II X4 965 BE zusammen mit meiner HD5850 kostete OC in Relation halt auch nicht dermassen viel Strom (Wobei der Phenom II mit seinen 125W TDP aus heutiger Zen3-Sicht @Stock nicht gerade wenig soff).

Ich mache mir keine grosse Hoffnungen bei einer externen AI durch einen Boardpartner. Möglicherweise lässt sich damit das Lastmanagement vielleicht noch verbessern, aber m.E. dürfte es eher interessant sein, wenn die KI auf der GPU selbst gewisse Steuerfunktionen verbessert und die internen Microeinstellungen individuell an die Qualität und damit den Möglichkeiten des Chips anpassen kann. Also dass künftig AMD nicht mehr teils riesige Reserven einplanen muss, um auch möglichst alle funktionsfähige Chips garantiert stabil in die jeweiligen Leistungsziele hinein zu bringen. Aber da müsste AMD selbst ran. Eine solche KI könnte theoretisch künftig selbst UV obsolet machen.
 
Ich hab, wenn ich an Effizienz der Grafikkarten denke, immer den Effizienz-Wettbewerb von ShirKhan im Kopf, wo die besten Ergebnisse eben dann erzeilt werden, wenn du per MPT (Fast) Vollzugriff auf die RDNA2 Karten hast.
Das ist einerseits beeindruckend, was sich erreichen lässt und andererseits Schade, dass es bei RDNA3 nicht geht - die könnten sicher auch noch deutlich effizienter laufen. Sollte jetzt ne AI (vermutlich falscher Begriff hier) anstatt der User per MPT auf diese Settings zugreifen können und dabei auch irgendwo basierend auf individueller Chipgüte lernen, was mit dieser Karte möglich ist (ggf. ähnlich wie CTR/Hydra), dann wäre zumindest der Versuch mal interessant.

Ich geb dir voll recht, dass ich das auch nicht beim Boardpartner sehe.
 
Ich finde es zwar durchaus beachtlich was z. B. @BigYundol da aus der Karte rausholt.
Aber 3DMark ist auch ne relativ lineare Last...
In Games wie z. B. Warzone oder Cyberpunk braucht man oftmals etwas mehr Spannung da einem sonst irgendwann der Treiber in Szene XY dann doch um die Ohren fliegt.

Wie viele hier haben, hatten eigentlich Treiber Timeouts.
Ist das eher ein negativer Mythos, oder ist da was dran?
Kommt ganz drauf an, die XTX hatte zu Launch fast 3 Monate dauerhaft in Warzone Treiber Timeouts.
Ich hab alte, neue - eigentlich alle Treiber getestet, das war ein Warzone Problem. Fakt ist aber, die Nvidia Jungs konnten zocken und wir nicht.
Auch wenn es ein Warzone-Problem war (es passierte nach einem Warzone Update und vorher lief alles auf der XTX einwandfrei), in den Foren wirds dann gerne mal schnell auf AMD geschoben.
Man muss aber auch dazu sagen, dass meine 3090 Kollegen vorher im Multiplayer monatelang Crashes hatten, da heißt es dann aber es ist ein COD Problem und natürlich kein Nvidia Problem... :ugly:

Auch macht ne XTX/XT öfter Mal in WoW mit etlichen Addons nen Timeout, dazu gibts auch nen ewig langen Thread im Blizzard Forum, auch hier - es ist wahrscheinlich ein WoW Problem, ändert aber nichts daran, dass die NV Jungs das Problem nicht haben.

Wenn die Karte aber dauerhaft in etlichen Games Timouts schmeißt, dann ist die Karte einfach defekt. Einschicken, 3 Tage, neue Karte, Problem weg - ist mir auch schon passiert bei Rechnern die ich für Kollegen gebaut habe. Kann vorkommen.

Aber wenn man in der Lage ist seine Chipsatztreiber, Grafiktreiber, Windows usw. aktuell zu halten und bei Fehlern ggf. auch mal nen älteren Treiber installiert sind die Timeouts eher Sonderfälle und ich hab bei mir im Discord 6 Jungs mit GRE/XT/XTX.

Und bzgl. MPT, ist natürlich Mist das es nicht mehr geht, machen wir uns nichts vor.
Aber über Taktreduzierung geht doch einiges bei der XTX, viele fassen nur Powerlimit und Spannung an, spielt mal mit dem Takt rum, die Karte boostet trotzdem und braucht deutlich weniger Saft.
Idle ist immer noch kritisch mit vielen Monitoren und hoher Refresh Rate (da taktet der VRAM nicht runter), das ist bei mir nach wie vor ein Problem.
 
Ich finde es zwar durchaus beachtlich was z. B. @BigYundol da aus der Karte rausholt.
Aber 3DMark ist auch ne relativ lineare Last...
In Games wie z. B. Warzone oder Cyberpunk braucht man oftmals etwas mehr Spannung da einem sonst irgendwann der Treiber in Szene XY dann doch um die Ohren fliegt.


Kommt ganz drauf an, die XTX hatte zu Launch fast 3 Monate dauerhaft in Warzone Treiber Timeouts.
Ich hab alte, neue - eigentlich alle Treiber getestet, das war ein Warzone Problem. Fakt ist aber, die Nvidia Jungs konnten zocken und wir nicht.
Auch wenn es ein Warzone-Problem war (es passierte nach einem Warzone Update und vorher lief alles auf der XTX einwandfrei), in den Foren wirds dann gerne mal schnell auf AMD geschoben.
Man muss aber auch dazu sagen, dass meine 3090 Kollegen vorher im Multiplayer monatelang Crashes hatten, da heißt es dann aber es ist ein COD Problem und natürlich kein Nvidia Problem... :ugly:

Auch macht ne XTX/XT öfter Mal in WoW mit etlichen Addons nen Timeout, dazu gibts auch nen ewig langen Thread im Blizzard Forum, auch hier - es ist wahrscheinlich ein WoW Problem, ändert aber nichts daran, dass die NV Jungs das Problem nicht haben.

Wenn die Karte aber dauerhaft in etlichen Games Timouts schmeißt, dann ist die Karte einfach defekt. Einschicken, 3 Tage, neue Karte, Problem weg - ist mir auch schon passiert bei Rechnern die ich für Kollegen gebaut habe. Kann vorkommen.

Aber wenn man in der Lage ist seine Chipsatztreiber, Grafiktreiber, Windows usw. aktuell zu halten und bei Fehlern ggf. auch mal nen älteren Treiber installiert sind die Timeouts eher Sonderfälle und ich hab bei mir im Discord 6 Jungs mit GRE/XT/XTX.

Und bzgl. MPT, ist natürlich Mist das es nicht mehr geht, machen wir uns nichts vor.
Aber über Taktreduzierung geht doch einiges bei der XTX, viele fassen nur Powerlimit und Spannung an, spielt mal mit dem Takt rum, die Karte boostet trotzdem und braucht deutlich weniger Saft.
Idle ist immer noch kritisch mit vielen Monitoren und hoher Refresh Rate (da taktet der VRAM nicht runter), das ist bei mir nach wie vor ein Problem.
Danke sehr ausführlich und informativ.
 
@derneuemann
Und noch ein paar Infos dazu:
Ich will nicht wissen, wie viele "defekte" XTX/XT u. a. mit dem "Ref-Kühler-Problem" im Umlauf sind und die Leute das einfach auf den AMD Treiber schieben.
Und das ist auch wieder son Ding, wenn ich hier lese/sehe wie viele Grafikkarten mit schlechter WLP - auch bei Nvidia - im Moment in den Umlauf gehen, wir werden solche Probleme in Zukunft noch öfter sehen - egal ob auf der roten oder der grünen Seite. Eigentlich ist sowas ganz einfach an der Hotspot Temp zu erkennen, aber das ist vielen schon zu kompliziert.

Oftmals hilft auch - gerade in WoW oder TESO - bei solchen Sachen ein sfc /scannow oder ein dism /online /cleanup-image /restorehealth in der CMD.
Auch kann man den Shadercache im Windows zurücksetzen, einfach in der Datenträgerbereinigung alles "nicht anhaken" außer DX Shadercache.
Gerade nach nem Absturz ist da manchmal was defektes hinterelegt, danach die Shader neu kompilieren und der Bums rennt wie ne 1.

Aber nein, die Leute starten das Spiel (welches 10x gecrasht ist) einfach wieder und wundern sich, warum sie immer noch Abstürze haben... Als würde sich sowas in Rauch auflösen.

Auch habe ich z. B. die Erfahrung gemacht, dass AMD Karten in Systemen für Audioproduktion deutlich besser laufen als die NVs, da sich der NV Treiber gerne mal "vor" die Audio-Asio Treiber "mogelt" und dann bei geringer Latenz für Aussetzer sorgt. Da hält sich der AMD Treiber mehr "zurück".

Und auch gibt es Probleme die beide Seiten betreffen, z. B. Stichwort MPO (Multi-Plane Overlay), so funktioniert z. B. der Nvidia MPO Fix auch auf AMD Karten einwandfrei. :ugly:
 
Zuletzt bearbeitet:
Ich finde es zwar durchaus beachtlich was z. B. @BigYundol da aus der Karte rausholt.
Aber 3DMark ist auch ne relativ lineare Last...
In Games wie z. B. Warzone oder Cyberpunk braucht man oftmals etwas mehr Spannung da einem sonst irgendwann der Treiber in Szene XY dann doch um die Ohren fliegt.

Ausser in Avatar, derzeit hab ich es dort auf 1.132V eingestellt, reicht mir normalerweise 1.12V.
Aber bei RDNA3 ist die Spannung grundsätzlich nicht so relevant wie noch bei RDNA1 + 2 was den Verbrauch angeht. Da ist es viel wirkungsvoller, die Karte halt mit 100Mhz weniger laufen zu lassen.
 
btw.
Wem das Gamebundle nicht passte, der kann jetzt vllt. bei der Gigabyte-Cashback-Aktion zuschlagen:
(bei der 7800xt gibts z.Bsp. 40€ Cashback, wäre dann effektiv 479-40=439€)
 

Anhänge

  • 7800xt@479€abzgl.Cashback.JPG
    7800xt@479€abzgl.Cashback.JPG
    32,4 KB · Aufrufe: 8
(bei der 7800xt gibts z.Bsp. 40€ Cashback, wäre dann effektiv 479-40=439€)

Das nenne ich mal einen Schnapper. Ich habe ja unter anderem auch eine 7800XT am laufen und bin sehr zufrieden. Für 4k nicht unbedingt anzuraten, aber bei mir sind es 3440x1440 und das rennt mal einwandfrei.:)
 

Igor findet das Honeywell-Pad supi.
Sowas sollte nach m.E. für alle hot GPU´s>250W der Standard werden!

btw.
Reineweg zum Takt hochjubeln ist vllt. die 7700xt@399€ gar net soo verkehrt für Dich.
(und incl. Gamebundle)
 

Anhänge

  • 7700xt@399€.JPG
    7700xt@399€.JPG
    13,4 KB · Aufrufe: 6
Zuletzt bearbeitet:
Reineweg zum Takt hochjubeln ist vllt. die 7700xt@399€ gar net soo verkehrt für Dich.
(und incl. Gamebundle)
Die Pulse is aber die Einzige mit dem niedrigen Powerlimit ^^

Naja ... ich wart jetzt erstmal auf die Gamescom. (Im Sommer zock ich eh nicht viel bis garnicht)

Wenn da immernoch nix von Navi48 zu hören ist seh ich weiter :D




Igor findet das Honeywell-Pad supi.
Sowas sollte nach m.E. für alle hot GPU´s>250W der Standard werden!
Aber das Delta zwischen Edge und Hotspot is schon relativ hoch oder?
 
ein weiteres UE5-game, ist vermutlich nur mit Upsampler sinnvoll "maxed" spielbar
(man könnte höchstens mal versuchen, ob Shadows ein Stufe runter schon in 4k hilft)

In 4k mit Upsampler sollte es ungefähr wie in 1440p laufen:
Still Wakes the Deep@1440p.JPG




btw.
die 7600xt <300€ im Angebot
 

Anhänge

  • 7600xt@299€.JPG
    7600xt@299€.JPG
    19,6 KB · Aufrufe: 6
Zuletzt bearbeitet:
Was meinst Du mit Reichweite?

Für mich macht es nur Sinn einen Benchmark/Resi zu zeigen, wo man mit den großen Grakas >60fps ist.
4k nativ ist mit der UE5 kaum nutzbar, würde nur Bottlenecks der Engine zeigen

Das ich außerdem mal kurz schaue, ob die CPU limitiert ist vllt. für manche User/Aufrüster interessant.
(ob Das nun nur interpolierte CPU-werte sind ist egal, zeigt aber die Richtung, in dem Fall kein CPU-Limit)
 
Zuletzt bearbeitet:
Was meinst Du mit Reichweite?

Für mich macht es nur Sinn einen Benchmark/Resi zu zeigen, wo man mit den großen Grakas >60fps ist.
4k nativ ist mit der UE5 kaum nutzbar, würde nur Bottlenecks der Engine zeigen

Das ich außerdem mal kurz schaue, ob die CPU limitiert ist vllt. für manche User/Aufrüster interessant.
(ob Das nun nur interpolierte CPU-werte sind ist egal, zeigt aber die Richtung, in dem Fall kein CPU-Limit)
Sehe ich anders. ICH halte das für sinloss. Einfach CPU test machen in dennen nur die CPU limitiert und GPU test machen in denn die GPU limitiert fertig.
Anschließend kann der User anschauen wie viel FPS sein CPU bringt und wieviel die geplante oder Aktuelle GPU bringt.
Und schon hat er seine werte bzw. weiß er was Limitiert.
Da muss man dann auch Garnicht komisch schätzen. (Ausnahme die vorhanden Hardware wurde nicht gestetet )
Dann kann man aber nach vergleichbarer Hardware schauen.
z.b 12600k gleich 13600 (meine ich)
 
Zurück