News AMDGPU: Radeon-Grafiktreiber erzwingt Powerlimits aus vBIOS

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMDGPU: Radeon-Grafiktreiber erzwingt Powerlimits aus vBIOS

Der neueste Radeon-Grafiktreiber für Linux, welcher unter der Bezeichnung AMDGPU geführt wird, erzwingt unter Linux 6.7 die im vBIOS der Grafikkarte hinterlegten Powerlimits. Diese lassen sich jetzt auch nicht mehr unterschreiten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMDGPU: Radeon-Grafiktreiber erzwingt Powerlimits aus vBIOS
 
Ach, dieser Unfug, wegen dem ich noch auf 6.1 hänge, ist gewollt? Anstatt so einen Blödsinn zu verzapfen könnten die mal beikommen und endlich die Lüfterkurven bei RNDA3-Karten konfigurierbar machen, dann könnte man es auch einrichten, dass einem auch mit einem hohen Powerlimit nicht die Ohren abfallen.
 
Ich verstehe, wenn man das Powerlimit des Grafikkarten-Bios nicht standardmäßig überschreiben will. Schließlich ist der Kernel nicht nur auf Benutzer abgestimmt, die genau wissen, was sie da tun.

Man sollte allerdings erwähnen, dass es vermutlich möglich sein wird, einen mit eigenen Code-Anpassungen kompilierten Kernel zu verwenden, der diese Limits herausgepatcht hat.
Diese Standardeinstellung verhindert also nicht, dass es so etwas wie Betriebssysteme für Übertakter/Undervolting/Underpowering gibt, bzw. Kernel für Overclocking.

Damit steht man auf dem Papier eigentlich weiterhin besser da als Windowsnutzer.
 
dann könnte man es auch einrichten, dass einem auch mit einem hohen Powerlimit nicht die Ohren abfallen.
die lüfterkurven sind doch so eingestellt, dass die komponenten auf der karte nicht kaputt werden.
das hat doch nichts mit der leistungsaufnahme zu tun. die richten sich nach temperature, egal ob da jetzt 10watt oder 500watt verbraucht werden
das problem ist dann eher bei deinem kühler zu suchen
Man sollte allerdings erwähnen, dass es vermutlich möglich sein wird, einen mit eigenen Code-Anpassungen kompilierten Kernel zu verwenden, der diese Limits herausgepatcht hat.

steht doch im artikel. sollte aber selbsterklärend sein, dass bei open source software irgendwelche sperren eigentlich nutzlos sind, aber vielleicht doch eine hürde für unerfahrene nutzer
 
Ich verstehe, wenn man das Powerlimit des Grafikkarten-Bios nicht standardmäßig überschreiben will. Schließlich ist der Kernel nicht nur auf Benutzer abgestimmt, die genau wissen, was sie da tun.
Naja, erstens halte ich die Gefahr für Schäden bei einem niedrigeren Powerlimit für kaum gegeben und zweitens ist es ja auch nicht so, als wenn es irgendwo einen großen, roten Knopf gäbe, den man ausversehen drücken kann.
die lüfterkurven sind doch so eingestellt, dass die komponenten auf der karte nicht kaputt werden.
Dafür gibt es Temperaturlimits. Das ist das erste mal seit 2010 oder so, dass ich eine Karte über einen nennenswerten Zeitraum mit ihrer Standardlüfterkurve nutze. Die meisten sind viel zu aggressiv eingestellt.
das hat doch nichts mit der leistungsaufnahme zu tun. die richten sich nach temperature, egal ob da jetzt 10watt oder 500watt verbraucht werden
Je mehr Leistungsaufnahme, desto mehr Temperatur, desto mehr Drehzahl, desto lauter. Natürlich grätschen einem bei einer Steuerung über die Leistungsaufnahme noch andere Faktoren mit rein, wie z.B. die Abwärme der CPU, weswegen das nicht optimal ist. Aber besser als gar keine Steuerung.
das problem ist dann eher bei deinem kühler zu suchen
Nein, das Problem ist hier beim Hersteller zu suchen, der das Bereitstellen von Einstellungsmöglichkeiten verschleppt, die seit Ewigkeiten Standard sind.
 
Naja, erstens halte ich die Gefahr für Schäden bei einem niedrigeren Powerlimit für kaum gegeben und zweitens ist es ja auch nicht so, als wenn es irgendwo einen großen, roten Knopf gäbe, den man ausversehen drücken kann.
Wenn man zu weit runter geht, kann man auch die Karte, wie beim Übertakten, schrotten.
 
Wenn man zu weit runter geht, kann man auch die Karte, wie beim Übertakten, schrotten.


Zeig mir ein Beispiel bitte. Eines reicht mir aus.

Habe etwas Erfahrung mit dem Unterstromen von Grafikkarten. Viel Erfahrung, darf ich mal sagen. Wenn ich meine Kollegen frage, ob sie jemals ne Graka oder auch nur irgend einen Chip kaputt bemacht haben, weil sie zu wenig Strom raufgebracht haben, mache ich mich Lächerlich...
 
Wie soll man denn bitte beim senken (nicht etwa erhöhen, nein senken!) des Powerlimits die Hardware schädigen? Das halte ich doch für ziemlich weit hergeholt, zumal AMD üblicherweise ja sowieso nur -10% erlaubt.
 
Wie soll man denn bitte beim senken (nicht etwa erhöhen, nein senken!) des Powerlimits die Hardware schädigen? Das halte ich doch für ziemlich weit hergeholt, zumal AMD üblicherweise ja sowieso nur -10% erlaubt.
Naja, darum, dass hier mehr möglich ist, als üblich, geht es ja. Ich habe meine 7900XTX auf 200W gedrosselt. Ich könnte mir vorstellen, dass es möglich ist, das die Karte abschmiert, wenn man das Limit zu drastisch reduziert, wobei ich eher davon ausgehen würde, dass es eine Untergrenze für GPU- und VRAM-Takt gibt. Die meisten Tools bieten auch die Möglichkeit, Änderungen erst mal nur zu übernehmen und nicht zu speichern, so dass im Falle, dass die Karte dann doch den Dienst verweigert ein Neustart ausreicht. Im aller-, aller-, allerschlimmsten Fall zerschießt man sich seine Installation und muss dann die Konfiguration von einem Live-System aus wieder zurücksetzen oder das System neu aufsetzen. Dass die Karte selbst dadurch einen bleibenden Schaden nimmt, würde ich auch eher ausschließen.
 
Ja ich benutze AMD Grafikkarte sowieso immer auf dem maximum deshalb ist es mir jedes Minimum egal und amd läuft ja sowieso normal weiter weil ich auf meinem HP kein amd sondern das HP Support bois kann ich ohne hin gar nicht so auf AMD bois weil AMD 5000 Serie läuft so gut Performance ist immer wieder super schön 4k fühlt sich an wie 6k also mehr als besser geht ja nicht mehr wirklich.
 
Wie soll man denn bitte beim senken (nicht etwa erhöhen, nein senken!) des Powerlimits die Hardware schädigen? Das halte ich doch für ziemlich weit hergeholt, zumal AMD üblicherweise ja sowieso nur -10% erlaubt.
Ich rechne damit das die Schaltregler bzw die fets das nicht lange mitmachen. Ggf gibts in manchen ICs die den Regler steuern hebbare Lücken in den Regelkurven.
 
Ich rechne damit das die Schaltregler bzw die fets das nicht lange mitmachen. Ggf gibts in manchen ICs die den Regler steuern hebbare Lücken in den Regelkurven.
Die senken doch einfach nur die Spannung, ganz egal, wie viel Strom da jetzt durchfließt und das einzige, was man an denen Steuern muss, ist das Spannungsverhältnis. Teillast und Leerlauf sind doch auch kein Problem.
 
Dafür gibt es Temperaturlimits. Das ist das erste mal seit 2010 oder so, dass ich eine Karte über einen nennenswerten Zeitraum mit ihrer Standardlüfterkurve nutze. Die meisten sind viel zu aggressiv eingestellt.
LIMIT und die will der hersteller vermeiden, weil darunter die lebensdauer leidet!
Je mehr Leistungsaufnahme, desto mehr Temperatur, desto mehr Drehzahl, desto lauter. Natürlich grätschen einem bei einer Steuerung über die Leistungsaufnahme noch andere Faktoren mit rein, wie z.B. die Abwärme der CPU, weswegen das nicht optimal ist. Aber besser als gar keine Steuerung.
den größten faktor lässt du einfach unter den tisch fallen. KÜHLERGRÖßE
ohne kühler können auch 10watt abbrennen. mit kühler kann man auch mal 100watt passiv kühlen
also du siehst: watt sagt nicht so viel über drehzahl aus. eigentlich gar nichts.

Nein, das Problem ist hier beim Hersteller zu suchen, der das Bereitstellen von Einstellungsmöglichkeiten verschleppt, die seit Ewigkeiten Standard sind.
auch hier noch mal. der hersteller will, dass ein zeug möglichst lange lebt und konfiguriert es danach!
ja, er könnte dir die möglichtkeit geben die lüfterkurve zu ändern und dein produkt an der TEMP grenze zu betreiben, oder du könntest dir auch einfach gleich eine größere grafikkarte kaufen
eine 4090 mit 450watt läuft flüsterleise. auch meine 250watt karte ist kaum hörbar unter volllast
davor hatte ich eine 180watt karte und die war unerträglich laut unter volllast. daraus lernt man dann und gibt ein paar € mehr aus für einen karte mit dickem kühler
 
LIMIT und die will der hersteller vermeiden, weil darunter die lebensdauer leidet!
Das ist doch Schnee von gestern, inzwischen ist doch eigentlich alles darauf ausgelegt, im Temperaturlimit zu laufen. Wenn das schädlich wäre, könnte der Hersteller das Limit ja auch einfach senken. Ansonsten war es auch üblich, dass der Nutzer das Limit selbstständig senken konnte.
den größten faktor lässt du einfach unter den tisch fallen. KÜHLERGRÖßE
Die lässt sich halt schlecht einstellen.
auch hier noch mal. der hersteller will, dass ein zeug möglichst lange lebt und konfiguriert es danach!
Ich habe das Gefühl die würfeln das aus oder im besten Fall erhoffen sie sich durch unnötig hohe Drehzahlen bessere Benchmarkergebnisse, weil die Karten höher Boosten können. Ist aber halt nicht spürbar, ganz im Gegensatz zur resultierenden Lautstärke.
ja, er könnte dir die möglichtkeit geben die lüfterkurve zu ändern und dein produkt an der TEMP grenze zu betreiben, oder du könntest dir auch einfach gleich eine größere grafikkarte kaufen
Die gleiche Karte noch mal mit größerem Kühler kaufen müssen, weil der Hersteller etwas nicht liefern will, das seit 15 Jahren Standard ist? Lass mich kurz überlegen, wie ich das finde...
eine 4090 mit 450watt läuft flüsterleise. auch meine 250watt karte ist kaum hörbar unter volllast
davor hatte ich eine 180watt karte und die war unerträglich laut unter volllast. daraus lernt man dann und gibt ein paar € mehr aus für einen karte mit dickem kühler
Ja, oder man stellt die Karte einfach ein und nimmt eben in Kauf, dass sie minimal langsamer ist. Zumal ein großer Kühler noch lange kein Garant für eine passende Lüfterkurve ist.
 
Zurück