cuthbert
Software-Overclocker(in)
Das die Netzteile immer stärker werden liegt aber nicht unbedingt an die Grafikkarten. Oft genug werden auch hier im Forum viel zu grosse Netzteile empfohlen obwohl sie gar nicht nötig wären. Bei den Grafikkartenkühlern gebe ich dir teilweise recht, wobei die in den letzten Jahren auch nicht mehr so enorm gewachsen sind.
Ich hab von der Entwicklung Top-Modell zu Top-Modell gesprochen also von den "echten" Nachfolgern nicht den leistungstechnisch ebenbürtigen Pendants der Nachfolge-Generation. Es wäre ja schlimm wenn man mit neuer Architektur und Fertigung mehr verbrauchen würde bei gleicher Grafik-Leistung.Wieso:
7870/GTX 660 haben die Performance der High-End-Karten der Vorängergeneration (GTX 570& HD 6970) mit deutlich gesunkener Leistungsaufnahme wieder angeboten!
Und die Topmodelle pendeln sich doch in letzter Zeit immer um die 250 Watt ein...
Wenn man sich mal die letzten 10 Jahre Hardware Entwicklung anschaut, geht es da schon recht deutlich nach oben, was den Verbrauch der Oberklasse Karten angeht. Sicher seit der GTX 480 oder der HD 4890 nicht mehr ganz so schlimm, teilweise gings auch kurz mal bergab (z.B. von HD 4890 -> HD 5870 oder GTX 580 -> GTX 680). Aber gerade in der letzten Generation ist der Verbrauch wieder um eine ganze Stufe gestiegen, die es in vorherigen Generationen nicht gab. Die R9 290X (BF2: 269W) verbraucht noch mal gute 20W mehr als eine 7970 GHz (BF2: 247W), wobei letztere schon deutlich mehr verbraucht hat als eine Non-GHz Edition, welche nochmal 60W weniger benötigte (185W). Also innerhalb einer Generation kann man quasi von einem Anstieg um die 80W bei AMD angeben. Überspringt man eine Generation und nimmt die HD 5870, kommt man auf nochmal 50W weniger Verbrauch.
Bei Nvidia sieht es nicht viel anders aus. Auch hier ist die Leistungsaufnahme von der vorherigen Generation GTX 680 (BF2: 174W) deutlich angestiegen (BF2: 222W, GTX 780) und dann beim Update nochmal (BF2: 248W, GTX 780 Ti). So kommt man auch bei Nvidia auf 70W innerhalb einer (bzw. eineinhalb) Generation.
Sicher die gestiegene Leistungsaufnahme spiegelt sich in der Grafikleistung mehr als wieder. Dennoch stimmt es nicht, dass die Karten die letzten Jahre über immer schon so viel verbraucht haben wie heute. Mittlerweile haben wir selbst Thermi schon weit hinter uns gelassen. Und jedes Watt mehr bedeutet auch mehr Kühlaufwand.
Aus dem Artikel geht für mich aber nicht hervor, dass die höhere Effizienz vor allem aus der neuen Architektur und nicht aus der Fertigung resultieren soll. Hier steht ja auch, dass mit man mit den besonders sparsamen Chips sogar noch bis nächstes Jahr warten muss. Was wohl durchaus auch an einer neuen Fertigung liegen dürfte. Ein großer Effizienz-Sprung allein durch die Architektur wäre natürlich dennoch super und wünschenswert.Effizienzanstiege resultieren fast ausschließlich aus feinerer Fertigung, bei den Architekturen hat sich da afaik selten bis nie etwas getan. Von daher wäre es durchaus eine Meldung wert, wenn eine neue Architektur fertigungsbereinigt einen deutlichen Effizienzsprung bringt.
Das stimmt. Aber es ging um die Behauptung, dass Mantle auch aus alten Grafikkarten noch etwas rausholen kann. Damit sind aber höchstens noch die HD7k Karten gemeint. Die aktuelle Generation besteht aber zum großen Teil aus umgelabelten Vorgängern. Und laut Tests kann von diesen "älteren" Karten nur die R9 280X aka HD 7970 noch etwas von Mantle profitieren. Der Rest der "älteren" bzw. langsameren Karten dürfte von Mantle bei Full HD so gut wie nix spüren (Es sei denn man ist meinem Core 2 Duo oder Ahtlon X2 unterwegs^^).GCN ist mittlerweile 2 Jahre auf dem Markt und es bringt auch im GPU-Limit ein Bisschen was. Aber dazu gibts derzeit wohl genug Threads.