News Navi-10-Mittelklasse "entfesselt": 16 GiB, 256 Bit und bis zu 29 Prozent mehr GPU-Leistung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Navi-10-Mittelklasse "entfesselt": 16 GiB, 256 Bit und bis zu 29 Prozent mehr GPU-Leistung

Modder aus Brasilien haben mit einigen Handgriffen eine Radeon RX 5600 XT mit 6 GiB Speicher und 192 Bit Speicheranbindung auf 16 GiB und 256 Bit gebracht. Dabei konnte sich der Performance-Anstieg in Tests sehen lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Navi-10-Mittelklasse "entfesselt": 16 GiB, 256 Bit und bis zu 29 Prozent mehr GPU-Leistung
 
Eins hab ich da jetzt nicht verstanden, kann mir jemand erklären, wie man den Grafikspeicher von 6GB mit Hilfe einer Änderung der Firmware auf 8GB, 12GB oder 16GB hochschraubt?
Wird das dem System nur vorgekaukelt, um die Speicheranbindung zu erhöhen oder was verstehe ich dabei nicht?
 
Bringt eine 4060Ti mit 16 GB auch locker hin, ohne löten.
Du bist sicher, dass du weisst was modden bedeutet, oder wie wichtig es sein kann, etwas hinzubekommen, was nicht vorgesehen war ;-)?

Die weisst wie alt die Karte ist und deine angesprochene 4060ti? Das ist aktuelle Mittelklasse gegen Gens-Back Mittelklasse. Damit machst du das mod durch deinen Vergleich sogar noch erstaunlicher.
 
Eins hab ich da jetzt nicht verstanden, kann mir jemand erklären, wie man den Grafikspeicher von 6GB mit Hilfe einer Änderung der Firmware auf 8GB, 12GB oder 16GB hochschraubt?
Wird das dem System nur vorgekaukelt, um die Speicheranbindung zu erhöhen oder was verstehe ich dabei nicht?
Habe ich mich auch gefragt
Sind da etwa immer 16 GB verbaut oder löten Sie zusätzlichen Speicher drauf?
 
Durchaus interessant, auch, dass AMD diesen Chip so nicht auf den Markt geworfen hat
Eins hab ich da jetzt nicht verstanden, kann mir jemand erklären, wie man den Grafikspeicher von 6GB mit Hilfe einer Änderung der Firmware auf 8GB, 12GB oder 16GB hochschraubt?
Wird das dem System nur vorgekaukelt, um die Speicheranbindung zu erhöhen oder was verstehe ich dabei nicht?
Naja da sind halt diverse Hardwareeinheiten durch Software abgeschaltet, ja.
Und durch die "krummen" 196 bit sinds halt bei "geraden" Speicherbausteinen Bestückungen wie 6 oder 12 GB, wenn es "gerade" 256 bit sind, gehen damit 8 oder 16 mit "geraden" Speicherchips. Die wurden natürlich gekauft und verlötet.
 
Ich bezweifle stark, dass ein ähnlicher Mod bei einer 7700XT stattfinden wird, wie im letzten Absatz angedeutet.

Da das Navi32 Package dieser Karte ein Multi-Chiplet-Design ist, gibt es keine zum Downgrade der GPU absichtlich deaktivierten Speichercontroller, da AMD wohl kaum voll funktionsfähige MCDs auf das Package setzen wird, nur um sie dann zu deaktivieren/nicht anzusprechen. Das wäre unnötig teuer. Dazu kann man für die Modelle mit nicht voll besetztem Speicherbus (7700XT, 7900XT) genausogut gleich defekte MCDs nehmen, da es ohnehin nur um die strukturelle Integrität des Packages geht. Ein zusätzliches intaktes MCD einfach aufzulöten geht auch nicht, weil es sich um ein viel komplexeres Packaging handelt.

Ob es sich darüber hinaus zukünftig lohnt, den Speicher einer 7700XT von 12 auf 16 GB zu erweitern, dafür dann aber auch alle ICs tauschen zu müssen, sei dahingestellt. Dann kann man auch gleich eine 7900GRE nehmen - das ist dann nämlich das 4xMCD=256bit=16GB Package, sogar mit Navi31 GCD.
 
Das kommt durchaus vor, das voll funktionsfähige Chips teilweise deaktiviert werden. Wenn die Nachfrage nach den kleineren Modellen größer ist, als Chips für diese vorhanden sind. Natürlich nur, wenn die Nachfrage der Modelle höherer Marge dennoch bedient werden kann.

Gerade wenn die Ausbeute voll funktionsfähiger Chips steigt, landen vermehrt solche Chips in Modelle mit denen die teildefekten Chips verkauft wurden.

Es wurde doch auch schon herausgefunden, das AMD bei ihren Single CCD-Ryzens zwei funktionsfähige CCDs verbaut, und einen davon deaktiviert - oder nicht anbindet. Weil sie offenbar nicht genug defekte haben. Dummys produzieren zu lassen, ist dann scheinbar auch nicht günstig genug.


Zu AMD Phenom-Zeiten, konnte man mit (viel) Glück sogar per simple BIOS-Einstellung bis zu 2 Kerne und Cache reaktivieren.
Ich hatte einen Athlon II X3, bei dem ich den vierten Kern reaktivieren konnte. Leider nicht den Cache, sonst wäre aus dem Athlon II X3 ein Phenom II X4 geworden. Der einzige Nachteil nach dem Reaktivieren war, das die ausgelesenen Temperaturen nicht mehr ganz stimmten - es wurden deutlich höhere ausgegeben.
 
Es wurde doch auch schon herausgefunden, das AMD bei ihren Single CCD-Ryzens zwei funktionsfähige CCDs verbaut, und einen davon deaktiviert - oder nicht anbindet. Weil sie offenbar nicht genug defekte haben. Dummys produzieren zu lassen, ist dann scheinbar auch nicht günstig genug.
Kann aber auch sein, dass das einfach Dual-CCD-CPUs waren, bei denen ein CCD dann doch nicht den Ansprüchen des größeren Modells entsprochen haben, weil vielleicht was beim Packaging schiefgegangen ist.
Der einzige Nachteil nach dem Reaktivieren war, das die ausgelesenen Temperaturen nicht mehr ganz stimmten - es wurden deutlich höhere ausgegeben.
Sicher, dass das nicht einfach daran lag, dass die Leistungsaufnahme danach rund ein Drittel höher war?
 
Sicher, dass das nicht einfach daran lag, dass die Leistungsaufnahme danach rund ein Drittel höher war?
Nein, das war nicht der Grund.
Der Temperaturanstieg war auch im Idle sogar leicht stärker erhöht, insgesamt jedoch viel zu viel.
Bei Volllast wäre die Temperatur je zusätzlichen Watt Leistungsaufnahme fast 1:1 gestiegen (101,25W @ 36°C -> 135W | 70°C). Im Idle wäre es dann aber völlig absurd gewesen: 33W @ 16°C -> 44W @ 52°C.
Ja, 16°C im Idle wurde von Hardware Monitor damals ausgelesen. Der Sensor des Mainboards lieferte glaubwürdigere Werte (30°C als X3, 31°C als X4).

Ich hatte da einen Scythe Mugen 2 Rev. B drauf, welcher Jahre später einen Core i7-4790K @ 4,4 GHz All-Core ohne direkte aktive Kühlung bei hoher Auslastung - iirc sogar Volllast - auf den 4,4 GHz gehalten - nur die Gehäuselüfter sorgten für Belüftung, identische Belüftung wie beim Athlon II. Das war beim 4790K aber nicht geplant, sondern eben weil die Leistung nicht abfiel war mir einige Zeit nicht aufgefallen das der Lüfter ausgefallen war.

Außerdem war bekannt, das durch reaktivieren von Kern / Cache die Temperatur-Sensoren der CPU dann meist nicht mehr stimmen. Bei manchen gab er dann gar nichts mehr aus, oder sogar Minusgrade. Da hatte ich mit einem lediglich hohen "Offset" noch Glück gehabt.
 
Eins hab ich da jetzt nicht verstanden, kann mir jemand erklären, wie man den Grafikspeicher von 6GB mit Hilfe einer Änderung der Firmware auf 8GB, 12GB oder 16GB hochschraubt?
Wird das dem System nur vorgekaukelt, um die Speicheranbindung zu erhöhen oder was verstehe ich dabei nicht?
Habe ich mich auch gefragt
Sind da etwa immer 16 GB verbaut oder löten Sie zusätzlichen Speicher drauf?
Es ist tatsächlich in der Firmware hinterlegt, also wieviel Speicher und auch die Bandbreite bzw. aktivierten Einheiten. Da die 5600er größtenteils oder allesamt, keine Ahnung mehr, ein gesperrtes BIOS haben, war das wohl kostengünstig und sicher genug für AMD. Da jede Karte auch nur 6GB verbaut hat, im allgemeinen auch kein Problem, auch wenn jemand es schafft die Firmware eines 5700er Modells zu flashen.

Wenn nun das PCB einer 5700(XT) vom Boardpartner verwendet wurde, dann sind auch die Traces noch da, am Lötzinn wird auch nicht gespart worden sein, also sind die höchstwahrscheinlich mit der GPU verbunden. Das macht dann auch die 16GiB möglich.
 
Bei Volllast wäre die Temperatur je zusätzlichen Watt Leistungsaufnahme fast 1:1 gestiegen (101,25W @ 36°C -> 135W | 70°C). Im Idle wäre es dann aber völlig absurd gewesen: 33W @ 16°C -> 44W @ 52°C.
Normalerweise sollte die Temperaturdifferenz mit der Umgebung mit der Leistungsaufnahme linear steigen. Also bei 20°C wäre das von 100W/36°C auf 135W/42°C. Aber ich halte 36°C für extrem niedrig bei 100W, 70°C bei 135W klingen deutlich realistischer.
Ich hatte da einen Scythe Mugen 2 Rev. B drauf
Den hatte ich tatsächlich auch auf meinem Athlon II X4 und ich weiß noch, dass der schon ganz schön zu kämpfen hatte. Aber ich hatte auch übertaktet.
Außerdem war bekannt, das durch reaktivieren von Kern / Cache die Temperatur-Sensoren der CPU dann meist nicht mehr stimmen.
OK, mag sein, ich habe mich damals nicht damit beschäftigt, weil ich einen Vierkerner hatte. Ganz genau waren die Sensoren damals aber sowieso nie, ich kann mich auch an Werte erinnern, die unter der Raumtemperatur lagen. Ich bin nicht mal sicher, ob das heute so viel besser ist.
 
Zurück