Radeon RX 6000: Neues Energiespar-Feature "MALL" für Navi 21?

17 Watt bei mir Custom Karte. Falschinformation streuen wahrscheinlich bewusst.

selber moni, selbes setup
30W, nicht 17W
30.png

30a.png

falls du dich auf das ergebnis von hardwareluxx (17W) beziehst, so kann bis heute niemand diesen wert nachvollziehen oder nachstellen
 
Wenn du das Geld gerne zum Fenster rausheizt, bitte, ich nicht, wenn es nichts bringt. Damit wären wir auch schon bei einem weiterem Punkt: mehr Stromverbrauch führt zu mehr Wärme
Der Gedanke macht natürlich nur Sinn wenn man dafür nicht extra eine Grafikkarte neu kauft.
Denn alleine der Anschaffungspreis relativiert niemals die Mehrkosten vom Stromverbrauch im Idle.
Und wenn das Argument ist:" Ja dafür schone ich die Umwelt weil die Karte ja weniger Strom zieht" dann ist man eh verloren
Die Energiemenge die benötigt wird um so eine Grafikkarte bei solchen RAM über Grafikchip über Spannungsversorgung u.s.w. herzustellen, gehen soweit das du lieber eine GTX 480 im Idle gefühlt 30 Jahre betreiben kannst und das rechnet sich nach dem Argument nicht!
 
Zuletzt bearbeitet:
30W sind einiges und irgendwann springen die Lüfter eben an. Bei 12W wird das erheblich später der Fall sein, als bei 30W, das ist eben ein Fakt.

Meine Güte... Keine gescheite GPU startet wegen 10Watt mehr im Idle seine Lüfter.

Was manche Menschen sich wegen 5-10 Watt mehr in die Hose machen. Und Geld zum Fenster raus? Ich hab ein sehr gut isoliertes Haus (Erdwärme / Lüftungsanlage). Da speist sich die "unglaublich Abwärme" von 5 - 10 Watt mehr ganz gut und sinnvoll in den Kreislauf ein.

Ginge es hier um 100Watt OK aber 5-10Watt... Da lohnt sich dein Rumrudern nicht. Zumindest nicht bei mir. Kannst ja gerne eine andere Meinung haben. Ich persönlich empfinde es aber als Blödsinn was du da redest. "Sorry". :schief:
 
Wenn ich sowas schon lese, bekomme ich mittelschweren Brechreiz, wenn ich es nicht besser wüsste, würde ich denken diese Zeilen entstammen dem Auftragsbuch der Planwirtschaft der neuen Bundesländer vor einigen Jahren.

Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

Bei der RX 6900 XT gehe ich eher davon aus, das es mit der Chipausbeute zu tun hat. Es ist für 7nm ein ziemlich großer Chip und mit der RX 6800 XT sowie der RX 6800 kann der größte Teil der Chips verwendet werden. Die wenigen perfekten Chips landen dann in der RX 6900 XT. In der Summe muss AMD zusehen das möglichst viele Chips verwertet werden können. Wesentlich mehr Chips produzieren wie mit der RX 6800 / 6800 XT abgesetzt werden können - nur um genug 6900 XT Chips zu erhalten, dürfte sich für AMD nicht lohnen.

Wenn AMD clever ist, wird die 6900 XT ähnlich teuer vermarktet wie bei Nvidia die RTX 3090 - + 10-15% mehr Leistung für den doppelten Preis :ugly:
 
Zum Thema Verbrauch idle und mehrere Bildschirme: das spielt sehr wohl für manche eine weit wichtigere Rolle als 320W oder 350W maximaler Verbrauch.


https://www.pcgameshardware.de/Gefo...Tests/Test-Review-Founders-Edition-1357408/5/




Soweit ich weiß zieht AMD bei 3 Bildschirmen nochmals mehr als bei 2. Habe dazu auf die schnelle nichts gefunden und ist daher bei alter und neuer Navi reine Spekulation. Was ich aber sagen kann ist, dass meine 1080ti mit 3x UHD gerade mit 139/101mhz taktet und laut gpuz der "Board Power Dran" zwischen 30-31 Watt zieht.
 
Stattdessen liegt die Ursache in grundsätzlich falschen Marketingentscheidungen, der Glauben durch die begrenzte Verfügbarkeit ein gesteigertes Interesse zu wecken, geht komplett nach hinten los, siehe Phantom ähh Ampere.

Glaubst du ernsthaft, dass die Firmen die Karten künstlich verknappen um das Interesse zu steigern? Das ist doch Quatsch.

Nvidia würden lieber 100.000 Karten (Zahl fiktiv) verkaufen anstatt einen Shitstorm auf sich zu ziehen bzw. die Kunden an die eventuell besser liefernde Konkurrenz zu verlieren! So werden halt bloß 1000 Karten (Zahl wieder fiktiv) verkauft, nur 1% des möglichen Umsatzes (basierend auf den fiktiven Zahlen) gemacht und wenns doof läuft Kunden an AMD verloren.

Wo ist denn da der Vorteil für Nvidia?

Ich denke nicht, dass hier die Marketingabteilung einen besonders perfiden Plan zum Abzocken der Kundschaft gesponnen hat. Die wollten halt auf Teufel komm raus noch vor AMD launchen. Der Schuss ist nach hinten losgegangen. Ob das jetzt daran liegt, weil es mehr Schwierigkeiten mit Samsung gab/gibt als ursprünglich gedacht oder an etwas anderem, das wird man wohl nie herausfinden...

Bei AMD muss man jetzt eben abwarten ob und wie schlimm und lang die Lieferengpässe sind. Kann schon sein, dass es schlimmer als gedacht wird, weil ein bissle unvorhersehbar Nvidias Ampere Desaster zu vermehrt "Überläufern" führt, die das Ganze verschärfen.

Ein wenig Lieferengpässe beim Launch gab es eigentlich in den letzten Jahren bei praktisch jedem Launch, ob von AMD, Intel oder Nvidia. Da muss man sich nicht jedes Mal drüber echauffieren, selbst wenn es jetzt bei Ampere etwas krasser ist.

Die Firmen ziehen damit nachweislich Hass auf sich und nicht wenige werden zur Konkurrenz ausweichen, wenn diese liefern kann.

Naja, wer eine Firma die nicht liefern kann hasst, der muss vielleicht erst noch erwachsen werden...

Es geht hier nur im Grafikkarten, nicht um Leben oder Tod!

Lieber ein paar Monate später releasen damit das Angebot ohne Mondpreise die Nachfrage bedienen kann.

Na im Prinzip passiert doch genau das. Aufgrund der mangelnden Verfügbarkeit ist es quasi ein um ein paar Monate verschobener Release - also genau was du eigentlich willst. Wieso also die Aufregung?
 
Glaubst du ernsthaft, dass die Firmen die Karten künstlich verknappen um das Interesse zu steigern? Das ist doch Quatsch.

Nvidia würden lieber 100.000 Karten (Zahl fiktiv) verkaufen anstatt einen Shitstorm auf sich zu ziehen bzw. die Kunden an die eventuell besser liefernde Konkurrenz zu verlieren! So werden halt bloß 1000 Karten (Zahl wieder fiktiv) verkauft, nur 1% des möglichen Umsatzes (basierend auf den fiktiven Zahlen) gemacht und wenns doof läuft Kunden an AMD verloren.

Wo ist denn da der Vorteil für Nvidia?
vielleicht möchte nv gar keine 100000 enttäuschter kunden sondern lieber nur 1000^^
 
Zurück