Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?

Laut Linux-Treibern führt AMD bei Navi 21 ein Feature namens "Memory Access at Last Level", kurz MALL, ein. Dabei soll es sich um eine neue Energiesparfunktion als Teil des Display-Core-Next-3.0-Feature-Sets handeln. Angeblich verfügen aber nur die "Big Navis" über dieses Feature, nicht die kleineren Modelle.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?
 
@manimani89 PCGH dürfte hierzu vermutlich nix sagen, da ein NDA meistens auch beinhaltet über die Termine stillschweigen zu wahren. Mitte November sollen voraussichtlich die Karten in den Verkauf kommen, kurze Zeit vor Verfügbarkeit ist dann meistens mit Tests zu rechnen.
 
. Die Verfügbarkeit der Radeon RX 6900 XT sei anfangs jedoch begrenzt.

Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.
 
Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

wenn das für die 6800xt so wäre würde ich dir zustimmen, es geht aber um die 6900xt.

Wenn du in der Halbleiterei auf ein Produkt setzt, wo quasi keinerlei Marge für Fehler mehr vorhanden ist, dann wird das ein sehr teurer Spaß.

Der Fokus liegt darum auf der 72CU Variante - die Chance auf eine gute Ausbeute steigt damit enorm. Wenn hier und da nun doch mal paar Exemplare anfallen, wo tatsächlich alle 80CU lauffähig (und taktfähig sind), dann legt man die beiseite und macht daraus noch ein kleines Prestigeprodukt. Es ist nur fair, dass auch so zu kommunizieren - es liegt in der Natur der Sache, dass sowas exklusiv bleibt.
 
Zuletzt bearbeitet:
Wat? Welche Rolle spielt denn der Idle Verbrauch bei der Grafikkarte? Sind die nicht eh schon immer sehr niedrig?

Da der PC bei mir sehr lange an ist, an Woche3nenden durchaus mal 12h am Stück, macht das extrem viel aus. Wer seinen PC 24/7 durchlaufen läßt, der kommt bei 18W Unterschied (das Ampere zu Turing Beispiel) auf zusätzliche Kosten von ca 45€ und einem zusätzlichen Verbrauch von 157 kWh im Jahr. Da ist einiges, auch wenn die meisten nur einen Teil davon haben werden.

Ach ja: nebenbei entscheidet das maßgeblich, ob der Lüfter laufen muß oder nicht.

Mag ja sein aber ich kann mir nicht vorstellen, dass es da so große Unterschiede geben wird.

Die Unterschiede sind gigantisch, im Verhältnis sogar noch erheblich größer, als beim Verbrauch unter 3D Last.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Ursache ist recht einfach: eine begrenzte Fertigungskapazität trifft auf eine angestaute Nachfrage. Dass die Amperekarten kommen war schon vor einem Jahr mehr oder weniger klar und auch dass AMD Big Navi rausbringen wird. Also haben viele Konsumenten ihren Kauf aufgeschoben und umgekehrt, da die neuen Karten attraktiver sind, viele auch vorgezogen.

Das kann nicht gutgehen und das wird es auch nicht, die Kapazitäten sind einfach viel zu klein. Kapazitäten zu schaffen ist auch keine Lösung, da die dann 20 Monate, im 2 Jahreszyklus, nutzlos brachliegen und bezahlt werden müssen. Den Aufschlag will und kann keiner bezahlen (da ist es Sinnvoller sich seine Karten bei eBay zu holen.

Wir werden damit leben müssen, dass man auf gefragte Produkte, ob CPUs oder Grakas, 3 Monate warten muß.
 
nebenbei entscheidet das maßgeblich, ob der Lüfter laufen muß oder nicht.

Die Unterschiede sind gigantisch, im Verhältnis sogar noch erheblich größer, als beim Verbrauch unter 3D Last.

Häää... bei ner gescheiten GPU sind die Lüfter doch im Idel eh immer aus! Da entscheiden die paar Idle Watt ganz sicher nicht über Lüfter an oder aus...

Gigantisch? Ob nun 5 oder 10 Watt mehr im Idle, und um den ging es hier ja, sind in meinen Augen nicht gigantisch. Und wie sage ich immer > Wer das Eine will, muss das Andere mögen. Wenn man ne Karte will die beim Gaming fette FPS auf den Screen zaubert, muss man eben 5 oder 10 Watt im Idle ggf. hinnehmen.

Nur meine Meinung, kannst gerne eine andere haben. :schief:
 
Häää... bei ner gescheiten GPU sind die Lüfter doch im Idel eh immer aus! Da entscheiden die paar Idle Watt ganz sicher nicht über Lüfter an oder aus...

30W sind einiges und irgendwann springen die Lüfter eben an. Bei 12W wird das erheblich später der Fall sein, als bei 30W, das ist eben ein Fakt.

Gigantisch? Ob nun 5 oder 10 Watt mehr im Idle, und um den ging es hier ja, sind in meinen Augen nicht gigantisch.

Wenn du das Geld gerne zum Fenster rausheizt, bitte, ich nicht, wenn es nichts bringt. Damit wären wir auch schon bei einem weiterem Punkt: mehr Stromverbrauch führt zu mehr Wärme

Wenn man ne Karte will die beim Gaming fette FPS auf den Screen zaubert, muss man eben 5 oder 10 Watt im Idle ggf. hinnehmen.

Nein, muß man eben nicht. Der Verbrauch unter Last ist eben etwas anderes, als der Verbrauch im Leerlauf. Da alle das selbe darstellen (in meinem Fall 4K60) gibt es auch keinen Zusatznutzen, der einen höheren Verbrauch rechtfertigen würde.
 
Zurück