• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?

Laut Linux-Treibern führt AMD bei Navi 21 ein Feature namens "Memory Access at Last Level", kurz MALL, ein. Dabei soll es sich um eine neue Energiesparfunktion als Teil des Display-Core-Next-3.0-Feature-Sets handeln. Angeblich verfügen aber nur die "Big Navis" über dieses Feature, nicht die kleineren Modelle.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?
 

Eragoss

Freizeitschrauber(in)
@manimani89 PCGH dürfte hierzu vermutlich nix sagen, da ein NDA meistens auch beinhaltet über die Termine stillschweigen zu wahren. Mitte November sollen voraussichtlich die Karten in den Verkauf kommen, kurze Zeit vor Verfügbarkeit ist dann meistens mit Tests zu rechnen.
 

sinchilla

BIOS-Overclocker(in)
. Die Verfügbarkeit der Radeon RX 6900 XT sei anfangs jedoch begrenzt.

Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.
 

Wurstpaket

PC-Selbstbauer(in)
Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

wenn das für die 6800xt so wäre würde ich dir zustimmen, es geht aber um die 6900xt.

Wenn du in der Halbleiterei auf ein Produkt setzt, wo quasi keinerlei Marge für Fehler mehr vorhanden ist, dann wird das ein sehr teurer Spaß.

Der Fokus liegt darum auf der 72CU Variante - die Chance auf eine gute Ausbeute steigt damit enorm. Wenn hier und da nun doch mal paar Exemplare anfallen, wo tatsächlich alle 80CU lauffähig (und taktfähig sind), dann legt man die beiseite und macht daraus noch ein kleines Prestigeprodukt. Es ist nur fair, dass auch so zu kommunizieren - es liegt in der Natur der Sache, dass sowas exklusiv bleibt.
 
Zuletzt bearbeitet:

GC-FILTER

PC-Selbstbauer(in)

Pu244

Lötkolbengott/-göttin
Wat? Welche Rolle spielt denn der Idle Verbrauch bei der Grafikkarte? Sind die nicht eh schon immer sehr niedrig?

Da der PC bei mir sehr lange an ist, an Woche3nenden durchaus mal 12h am Stück, macht das extrem viel aus. Wer seinen PC 24/7 durchlaufen läßt, der kommt bei 18W Unterschied (das Ampere zu Turing Beispiel) auf zusätzliche Kosten von ca 45€ und einem zusätzlichen Verbrauch von 157 kWh im Jahr. Da ist einiges, auch wenn die meisten nur einen Teil davon haben werden.

Ach ja: nebenbei entscheidet das maßgeblich, ob der Lüfter laufen muß oder nicht.

Mag ja sein aber ich kann mir nicht vorstellen, dass es da so große Unterschiede geben wird.

Die Unterschiede sind gigantisch, im Verhältnis sogar noch erheblich größer, als beim Verbrauch unter 3D Last.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Ursache ist recht einfach: eine begrenzte Fertigungskapazität trifft auf eine angestaute Nachfrage. Dass die Amperekarten kommen war schon vor einem Jahr mehr oder weniger klar und auch dass AMD Big Navi rausbringen wird. Also haben viele Konsumenten ihren Kauf aufgeschoben und umgekehrt, da die neuen Karten attraktiver sind, viele auch vorgezogen.

Das kann nicht gutgehen und das wird es auch nicht, die Kapazitäten sind einfach viel zu klein. Kapazitäten zu schaffen ist auch keine Lösung, da die dann 20 Monate, im 2 Jahreszyklus, nutzlos brachliegen und bezahlt werden müssen. Den Aufschlag will und kann keiner bezahlen (da ist es Sinnvoller sich seine Karten bei eBay zu holen.

Wir werden damit leben müssen, dass man auf gefragte Produkte, ob CPUs oder Grakas, 3 Monate warten muß.
 

GC-FILTER

PC-Selbstbauer(in)
nebenbei entscheidet das maßgeblich, ob der Lüfter laufen muß oder nicht.

Die Unterschiede sind gigantisch, im Verhältnis sogar noch erheblich größer, als beim Verbrauch unter 3D Last.

Häää... bei ner gescheiten GPU sind die Lüfter doch im Idel eh immer aus! Da entscheiden die paar Idle Watt ganz sicher nicht über Lüfter an oder aus...

Gigantisch? Ob nun 5 oder 10 Watt mehr im Idle, und um den ging es hier ja, sind in meinen Augen nicht gigantisch. Und wie sage ich immer > Wer das Eine will, muss das Andere mögen. Wenn man ne Karte will die beim Gaming fette FPS auf den Screen zaubert, muss man eben 5 oder 10 Watt im Idle ggf. hinnehmen.

Nur meine Meinung, kannst gerne eine andere haben. :schief:
 

Pu244

Lötkolbengott/-göttin
Häää... bei ner gescheiten GPU sind die Lüfter doch im Idel eh immer aus! Da entscheiden die paar Idle Watt ganz sicher nicht über Lüfter an oder aus...

30W sind einiges und irgendwann springen die Lüfter eben an. Bei 12W wird das erheblich später der Fall sein, als bei 30W, das ist eben ein Fakt.

Gigantisch? Ob nun 5 oder 10 Watt mehr im Idle, und um den ging es hier ja, sind in meinen Augen nicht gigantisch.

Wenn du das Geld gerne zum Fenster rausheizt, bitte, ich nicht, wenn es nichts bringt. Damit wären wir auch schon bei einem weiterem Punkt: mehr Stromverbrauch führt zu mehr Wärme

Wenn man ne Karte will die beim Gaming fette FPS auf den Screen zaubert, muss man eben 5 oder 10 Watt im Idle ggf. hinnehmen.

Nein, muß man eben nicht. Der Verbrauch unter Last ist eben etwas anderes, als der Verbrauch im Leerlauf. Da alle das selbe darstellen (in meinem Fall 4K60) gibt es auch keinen Zusatznutzen, der einen höheren Verbrauch rechtfertigen würde.
 

IngenieursLP

PC-Selbstbauer(in)
Wenn du das Geld gerne zum Fenster rausheizt, bitte, ich nicht, wenn es nichts bringt. Damit wären wir auch schon bei einem weiterem Punkt: mehr Stromverbrauch führt zu mehr Wärme
Der Gedanke macht natürlich nur Sinn wenn man dafür nicht extra eine Grafikkarte neu kauft.
Denn alleine der Anschaffungspreis relativiert niemals die Mehrkosten vom Stromverbrauch im Idle.
Und wenn das Argument ist:" Ja dafür schone ich die Umwelt weil die Karte ja weniger Strom zieht" dann ist man eh verloren
Die Energiemenge die benötigt wird um so eine Grafikkarte bei solchen RAM über Grafikchip über Spannungsversorgung u.s.w. herzustellen, gehen soweit das du lieber eine GTX 480 im Idle gefühlt 30 Jahre betreiben kannst und das rechnet sich nach dem Argument nicht!
 
Zuletzt bearbeitet:

GC-FILTER

PC-Selbstbauer(in)
30W sind einiges und irgendwann springen die Lüfter eben an. Bei 12W wird das erheblich später der Fall sein, als bei 30W, das ist eben ein Fakt.

Meine Güte... Keine gescheite GPU startet wegen 10Watt mehr im Idle seine Lüfter.

Was manche Menschen sich wegen 5-10 Watt mehr in die Hose machen. Und Geld zum Fenster raus? Ich hab ein sehr gut isoliertes Haus (Erdwärme / Lüftungsanlage). Da speist sich die "unglaublich Abwärme" von 5 - 10 Watt mehr ganz gut und sinnvoll in den Kreislauf ein.

Ginge es hier um 100Watt OK aber 5-10Watt... Da lohnt sich dein Rumrudern nicht. Zumindest nicht bei mir. Kannst ja gerne eine andere Meinung haben. Ich persönlich empfinde es aber als Blödsinn was du da redest. "Sorry". :schief:
 

Eragoss

Freizeitschrauber(in)
Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

Bei der RX 6900 XT gehe ich eher davon aus, das es mit der Chipausbeute zu tun hat. Es ist für 7nm ein ziemlich großer Chip und mit der RX 6800 XT sowie der RX 6800 kann der größte Teil der Chips verwendet werden. Die wenigen perfekten Chips landen dann in der RX 6900 XT. In der Summe muss AMD zusehen das möglichst viele Chips verwertet werden können. Wesentlich mehr Chips produzieren wie mit der RX 6800 / 6800 XT abgesetzt werden können - nur um genug 6900 XT Chips zu erhalten, dürfte sich für AMD nicht lohnen.

Wenn AMD clever ist, wird die 6900 XT ähnlich teuer vermarktet wie bei Nvidia die RTX 3090 - + 10-15% mehr Leistung für den doppelten Preis :ugly:
 

Mitchpuken

Software-Overclocker(in)
Zum Thema Verbrauch idle und mehrere Bildschirme: das spielt sehr wohl für manche eine weit wichtigere Rolle als 320W oder 350W maximaler Verbrauch.


https://www.pcgameshardware.de/Gefo...Tests/Test-Review-Founders-Edition-1357408/5/




Soweit ich weiß zieht AMD bei 3 Bildschirmen nochmals mehr als bei 2. Habe dazu auf die schnelle nichts gefunden und ist daher bei alter und neuer Navi reine Spekulation. Was ich aber sagen kann ist, dass meine 1080ti mit 3x UHD gerade mit 139/101mhz taktet und laut gpuz der "Board Power Dran" zwischen 30-31 Watt zieht.
 

Zappaesk

Volt-Modder(in)
Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Glaubst du ernsthaft, dass die Firmen die Karten künstlich verknappen um das Interesse zu steigern? Das ist doch Quatsch.

Nvidia würden lieber 100.000 Karten (Zahl fiktiv) verkaufen anstatt einen Shitstorm auf sich zu ziehen bzw. die Kunden an die eventuell besser liefernde Konkurrenz zu verlieren! So werden halt bloß 1000 Karten (Zahl wieder fiktiv) verkauft, nur 1% des möglichen Umsatzes (basierend auf den fiktiven Zahlen) gemacht und wenns doof läuft Kunden an AMD verloren.

Wo ist denn da der Vorteil für Nvidia?

Ich denke nicht, dass hier die Marketingabteilung einen besonders perfiden Plan zum Abzocken der Kundschaft gesponnen hat. Die wollten halt auf Teufel komm raus noch vor AMD launchen. Der Schuss ist nach hinten losgegangen. Ob das jetzt daran liegt, weil es mehr Schwierigkeiten mit Samsung gab/gibt als ursprünglich gedacht oder an etwas anderem, das wird man wohl nie herausfinden...

Bei AMD muss man jetzt eben abwarten ob und wie schlimm und lang die Lieferengpässe sind. Kann schon sein, dass es schlimmer als gedacht wird, weil ein bissle unvorhersehbar Nvidias Ampere Desaster zu vermehrt "Überläufern" führt, die das Ganze verschärfen.

Ein wenig Lieferengpässe beim Launch gab es eigentlich in den letzten Jahren bei praktisch jedem Launch, ob von AMD, Intel oder Nvidia. Da muss man sich nicht jedes Mal drüber echauffieren, selbst wenn es jetzt bei Ampere etwas krasser ist.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Naja, wer eine Firma die nicht liefern kann hasst, der muss vielleicht erst noch erwachsen werden...

Es geht hier nur im Grafikkarten, nicht um Leben oder Tod!

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

Na im Prinzip passiert doch genau das. Aufgrund der mangelnden Verfügbarkeit ist es quasi ein um ein paar Monate verschobener Release - also genau was du eigentlich willst. Wieso also die Aufregung?
 

r3dshiftx2

PC-Selbstbauer(in)
Glaubst du ernsthaft, dass die Firmen die Karten künstlich verknappen um das Interesse zu steigern? Das ist doch Quatsch.

Nvidia würden lieber 100.000 Karten (Zahl fiktiv) verkaufen anstatt einen Shitstorm auf sich zu ziehen bzw. die Kunden an die eventuell besser liefernde Konkurrenz zu verlieren! So werden halt bloß 1000 Karten (Zahl wieder fiktiv) verkauft, nur 1% des möglichen Umsatzes (basierend auf den fiktiven Zahlen) gemacht und wenns doof läuft Kunden an AMD verloren.

Wo ist denn da der Vorteil für Nvidia?
vielleicht möchte nv gar keine 100000 enttäuschter kunden sondern lieber nur 1000^^
 
Oben Unten