7800 XT - PCIe Bandbreite dauerhaft @4.0x16

AMG38

Freizeitschrauber(in)
Moin,

bin jetzt endlich meine alte GTX 1060 losgeworden und Besitzer einer 7800 XT. Läuft bisher einwandfrei, allerdings ist mir aufgefallen, dass das PCIe Interface die Bandbreite nicht mehr runterfährt und dauerhaft bei 4.0 x16 bleibt. Ein Switch zwischen den Energiesparplänen (Balanced, High Performance etc.) brachte keine Änderung.

1703088470595.png


Ich kenne es eigentlich so, dass im idle oder bei Niedriglast runter bis auf 1.1 geschaltet wird. War bei der 1060 nicht anders, geändert habe ich nichts, abgesehen von DDU vor dem Tauschen der GPU sowie Einschalten von ReBAR im Uefi (above 4G Decode usw.).

Da das meine erste PCIe 4.0 GPU ist; Ist das verharren bei 4.0x16 auch bei euch der Fall?

3700X @ X570 MEG UNIFY
32GiB RAM
Win10 Pro
Ryzen Balanced Power Profile
 
Okay, schonmal ein Hinweis.
Keine Ahnung ob das AMD typisch ist, habe eine 6700XT.
Ne, hab hier noch alte GCN Karten von AMD und auch bei diesen funktionierte das immer.
Das ist im Prinzip eine Stromsparfunktion bzw. Ressourcenmanagement, weil nicht durchgehend die volle Bandbreite benötigt wird.
 
Moin,

bin jetzt endlich meine alte GTX 1060 losgeworden und Besitzer einer 7800 XT. Läuft bisher einwandfrei, allerdings ist mir aufgefallen, dass das PCIe Interface die Bandbreite nicht mehr runterfährt und dauerhaft bei 4.0 x16 bleibt. Ein Switch zwischen den Energiesparplänen (Balanced, High Performance etc.) brachte keine Änderung.

Anhang anzeigen 1446903

Ich kenne es eigentlich so, dass im idle oder bei Niedriglast runter bis auf 1.1 geschaltet wird. War bei der 1060 nicht anders, geändert habe ich nichts, abgesehen von DDU vor dem Tauschen der GPU sowie Einschalten von ReBAR im Uefi (above 4G Decode usw.).

Da das meine erste PCIe 4.0 GPU ist; Ist das verharren bei 4.0x16 auch bei euch der Fall?

3700X @ X570 MEG UNIFY
32GiB RAM
Win10 Pro
Ryzen Balanced Power Profile
Fall du nen 144Hz (oder mehr) Moni hast, setz den mal auf 60Hz und kuck ob sich was ändert.
 
Fall du nen 144Hz (oder mehr) Moni hast, setz den mal auf 60Hz und kuck ob sich was ändert.
Ja, hab ich (single Monitor Setup). Das hatte ich vorher auch probiert und brachte keine Änderung. 60Hz, runter auf 6-Bit und auch runter von 1440p, er bleibt bei 4.0 x16.

Aber immerhin bleibt auch der Verbrauch ungefähr gleich, wenn es auf 144 Hz, 10-Bit und UWQHD eingestellt ist (~15W im idle).

Bei dir wird aber runtergeschaltet?
 
Ja, hab ich (single Monitor Setup). Das hatte ich vorher auch probiert und brachte keine Änderung. 60Hz, runter auf 6-Bit und auch runter von 1440p, er bleibt bei 4.0 x16.

Aber immerhin bleibt auch der Verbrauch ungefähr gleich, wenn es auf 144 Hz, 10-Bit und UWQHD eingestellt ist (~15W im idle).

Bei dir wird aber runtergeschaltet?
Habs gerade mal mit der 6650XT getestet und da bleibt es auch bei x8 4.0
 
Habe ich noch nie drauf geachtet aber ja, ist bei mir auch so.
Keine Ahnung ob das AMD typisch ist, habe eine 6700XT.

Also bei meiner RTX 4070 schaltet er runter auf PCIE 1x16 und geht hoch auf 4x16 unter Last. Kann gut sein, dess AMD Karten das nicht machen, haben ja eh den Ruf weg im Idle zu viel zu verbrauchen.
 
Ist bei meiner 6900XT auch so.

Wobei die Frage bleibt, ob es richtig ausgelesen wird. Bei der Radeon VII zeigten GPU-Z und HWinfo auch lange kein runtertakten an, bis es sich bei HWinfo nach einem Update geändert hatte, während es bei GPU-Z immer gleich blieb.
 
Den Modus des PCIe Busses umzuschalten ist normales Verhalten unter allen modernen Betriebssystemen.

Hintergrund ist, dass sich PCIe Geräte auch mal einen PCIe Bus teilen können, bzw. müssen. Das spielt eine Rolle, wenn mehrere SATA, USB, Sound, Netzwerkgeräte an ein und dem selben PCIe Bus hängen wie das bei Mainboards in der Regel der Fall ist (Southbridge Konzept). Das spielt auch eine Rolle damit Geräte wie Dockingstationen richtig funktionieren. Eine NVME könnte zum Beispiel im PCIe 3.0 x4 Modus laufen, bis das System merkt, dass die Daten über das Netzwerk sollen und die NVME sich einen PCIe 3.0 x4 Bus mit der Netzwerkkarte teilt. In dem Fall muss die NVME dann etwas nachgeben, damit die Daten über die Netzwerkkarte kommen. Gleichzeitig sind alle Geräte so konfiguriert, dass sie Ressourcen die sie nicht aktiv brauchen wieder freigeben. Sonst würde in dem Beispiel das Einstecken der SSD alle anderen Geräte am gleichen Bus total abschalten.

Die GPU steckt jedoch in den meisten (nicht allen) Systemen in ihrem ganz eigenen PCIe 16x Bereich, den sie mit nix teilen muss. Die Angewohnheit bei Ausbleiben von Last wieder Ressourcen freizugeben bleibt jedoch erhalten. Ich würde mir mehr Sorgen um die GPU machen, wenn sie aufhört umzuschalten, denn dann kann sie ihren Powerstate nicht mehr richtig regeln und dann sind die Bluescreens meistens nicht weit.
 
Das herunterfahren der Bus-anbindung hat einzig Energiegründe und nix mit Lane-Ressourcen zu tun. Entweder sind genug vorhanden oder nicht (im letzten Fall läuft die Komponente gar nicht).

Also eine Komponente verändert nicht ihre Busanbindung weil sie warten muss, so funktioniert das nicht. Es wird seriell abgearbeitet und dann jeweils mit maximaler zur Verfügung stehender Anbindung bzw. je nach P-State.
 
Würd mich mal interessieren wie das den Verbrauch des gesamten Systems im Idle beeinflusst.
Das ist genau die Motivation, weshalb ich den Thread hier gepostet habe. Im "Maus-Idle" Betrieb liegt bei mir der Verbrauch um die ~15W. Bei Videos im Browser pendelt es zwischen 25-40W und es wäre interessant zu wissen, ob das runterschalten der Bandbreite diesen Verbrauch senken kann (vermutlich aber nicht viel).

Bin aber keinen Stück weitergekommen. Entweder liegt es am Treiber oder am GPU Bios, was anderes kann ich mir momentan nicht vorstellen, da mein jetziges System mit haargenau denselben Einstellungen mit älteren nv und amd Karten ordnungsgemäß runterschaltet. Scheinbar gibt es auch Nutzer, bei denen RDNA2/3 ebenfalls runterschaltet, aber eben auch wie hier, wo das nicht der Fall ist.

Experimente, die bisher nichts verändert haben:
  • Refreshrate auf 60 Hz
  • Dito + Auflösung runter bis auf 1080p
  • Dito + Farbtiefe runter auf 6-Bit
  • Diverse Energiesparspläne inkl. PCIe-Energieverwaltung auf max. Einsparung
  • ReBar/Above 4G Decode im bios an/aus
  • Data Link Feature Exchange im bios an/aus
  • Anbindung des Displays nur über HDMI statt DisplayPort
  • FreeSync an/aus
  • VRR in Windows an/aus
  • Beenden mehrerer Hintergrundprozesse
Als Optionen bleibt noch ein bios update des Mainboards, aber das ist es mir für diesen Zweck als Experiment nicht wert, weil mein System sehr stabil läuft.
 
Ist das verharren bei 4.0x16 auch bei euch der Fall?
Nein. Das ist mitunter ein Grund, warum ich privat auf keine AMD-GPU setze. Da gibts öfter mal solche Probleme. Meine letzte Karte hat sich im Idle auch nicht richtig heruntergetaktet, der Speicher lief damals immer bei Maximaltakt.

Eine ganz normale Grafikkarte, dessen Treiber ganz normal funktioniert, macht im Idle das hier:

1703603334752.png
 
Hmm.. Verstehe nicht, warum eine so rudimentäre Sache, die doch früher auch ohne Probleme immer funktionierte jetzt nicht mehr funzt.
Erst gemeinte Frage was ist daran, jetzt so schlimm ?
Klar dürfte sie dadurch einen etwas höheren Idle Strombedarf haben.
Aber da du ja schon sagst das sie so ca 15 Watt im Idle braucht , denke ich nicht das da noch sonderlich viel rauszuholen ist.
ebenfalls ist RDNA 3 nicht gerade dafür bekannt sparsam im idle zu sein.
 
Erst gemeinte Frage was ist daran, jetzt so schlimm ?
Muss eine Sache unbedingt "schlimm" für jemanden sein, damit man dieser nachgeht?
Von daher ist daran zunächst gar nichts schlimm. Die Frage entsteht bei mir primär aus Interesse und sekundär daraus, ob sich der Idle-Verbrauch dadurch nochmal nach unten bewegen könnte. Habe ich jetzt schon mehrfach hier erwähnt, woher die Motivation bzw. das Interesse kommt. Mitglieder von Foren wie diesen jagen teilweise 1-2% Performancesprüngen nach und opfern dafür unzählige Stunden für irgendwelche Kurvenoptimierungen im Bios usw.

Da ist diese Angelegenheit hier, was eine Standard-Funktion ist, schon weitaus relevanter. Schlimm ist es für mich aber wie bereits gesagt nicht.

ebenfalls ist RDNA 3 nicht gerade dafür bekannt sparsam im idle zu sein.
Was mir bzw. für mich bei meinem Setup ein Rätsel ist. Wenn ich die Maus gar nicht bewege und der Desktop nur für sich rumlungert, komme ich sogar auf 11W bei 144Hz - 10Bit. Das einzige Szenario, wo die Karte bzw. der VRAM dauernd auf Hochtouren fährt ist, wenn man FreeSync bzw. VRR deaktiviert, egal ob per Treiber oder per Display. Dann schießt der Verbrauch hoch auf 40-60W beim exakt selben Szenario. Dabei spielt es auch keine Rolle, ob gerade wirklich mit 144Hz refreshed wird. Wahrscheinlich kommen die ganzen negativen Bewertungen dadurch zu Stande (was ja dann irgendwo auch berechtigt ist; nicht jeder hat VRR).

Aber da du ja schon sagst das sie so ca 15 Watt im Idle braucht , denke ich nicht das da noch sonderlich viel rauszuholen ist.
Ohne die Möglichkeit es testen zu können, kannst weder du noch ich konkretes dazu sagen.
Abgesehen davon: Die 15W beziehen sich auf den echten Idle. Und wenn das Runterschalten auf 1.1 in diesem Szenario vielleicht nicht viel bringt, brächte es vielleicht beim Videoschauen etwas.

Und selbst wenn es auch da nichts bringt, wäre es nach wie vor dennoch interessant zu wissen, warum das ASPM hier nicht greift.
 
Zuletzt bearbeitet:
Das mit dem idle Verbrauch wurde ja über die treiber gefixet.


Vllt is das mit dem hohen PCIe Takt auch demnächst behoben.
 
Zurück