Maxwell: Nvidias neue GPU-Architektur angeblich sehr energieeffizient

Das die Netzteile immer stärker werden liegt aber nicht unbedingt an die Grafikkarten. Oft genug werden auch hier im Forum viel zu grosse Netzteile empfohlen obwohl sie gar nicht nötig wären. Bei den Grafikkartenkühlern gebe ich dir teilweise recht, wobei die in den letzten Jahren auch nicht mehr so enorm gewachsen sind.

Wieso:
7870/GTX 660 haben die Performance der High-End-Karten der Vorängergeneration (GTX 570& HD 6970) mit deutlich gesunkener Leistungsaufnahme wieder angeboten!
Und die Topmodelle pendeln sich doch in letzter Zeit immer um die 250 Watt ein...
Ich hab von der Entwicklung Top-Modell zu Top-Modell gesprochen also von den "echten" Nachfolgern nicht den leistungstechnisch ebenbürtigen Pendants der Nachfolge-Generation. Es wäre ja schlimm wenn man mit neuer Architektur und Fertigung mehr verbrauchen würde bei gleicher Grafik-Leistung.

Wenn man sich mal die letzten 10 Jahre Hardware Entwicklung anschaut, geht es da schon recht deutlich nach oben, was den Verbrauch der Oberklasse Karten angeht. Sicher seit der GTX 480 oder der HD 4890 nicht mehr ganz so schlimm, teilweise gings auch kurz mal bergab (z.B. von HD 4890 -> HD 5870 oder GTX 580 -> GTX 680). Aber gerade in der letzten Generation ist der Verbrauch wieder um eine ganze Stufe gestiegen, die es in vorherigen Generationen nicht gab. Die R9 290X (BF2: 269W) verbraucht noch mal gute 20W mehr als eine 7970 GHz (BF2: 247W), wobei letztere schon deutlich mehr verbraucht hat als eine Non-GHz Edition, welche nochmal 60W weniger benötigte (185W). Also innerhalb einer Generation kann man quasi von einem Anstieg um die 80W bei AMD angeben. Überspringt man eine Generation und nimmt die HD 5870, kommt man auf nochmal 50W weniger Verbrauch.

Bei Nvidia sieht es nicht viel anders aus. Auch hier ist die Leistungsaufnahme von der vorherigen Generation GTX 680 (BF2: 174W) deutlich angestiegen (BF2: 222W, GTX 780) und dann beim Update nochmal (BF2: 248W, GTX 780 Ti). So kommt man auch bei Nvidia auf 70W innerhalb einer (bzw. eineinhalb) Generation.

Sicher die gestiegene Leistungsaufnahme spiegelt sich in der Grafikleistung mehr als wieder. Dennoch stimmt es nicht, dass die Karten die letzten Jahre über immer schon so viel verbraucht haben wie heute. Mittlerweile haben wir selbst Thermi schon weit hinter uns gelassen. Und jedes Watt mehr bedeutet auch mehr Kühlaufwand.

Effizienzanstiege resultieren fast ausschließlich aus feinerer Fertigung, bei den Architekturen hat sich da afaik selten bis nie etwas getan. Von daher wäre es durchaus eine Meldung wert, wenn eine neue Architektur fertigungsbereinigt einen deutlichen Effizienzsprung bringt.
Aus dem Artikel geht für mich aber nicht hervor, dass die höhere Effizienz vor allem aus der neuen Architektur und nicht aus der Fertigung resultieren soll. Hier steht ja auch, dass mit man mit den besonders sparsamen Chips sogar noch bis nächstes Jahr warten muss. Was wohl durchaus auch an einer neuen Fertigung liegen dürfte. Ein großer Effizienz-Sprung allein durch die Architektur wäre natürlich dennoch super und wünschenswert.

GCN ist mittlerweile 2 Jahre auf dem Markt und es bringt auch im GPU-Limit ein Bisschen was. Aber dazu gibts derzeit wohl genug Threads.
Das stimmt. Aber es ging um die Behauptung, dass Mantle auch aus alten Grafikkarten noch etwas rausholen kann. Damit sind aber höchstens noch die HD7k Karten gemeint. Die aktuelle Generation besteht aber zum großen Teil aus umgelabelten Vorgängern. Und laut Tests kann von diesen "älteren" Karten nur die R9 280X aka HD 7970 noch etwas von Mantle profitieren. Der Rest der "älteren" bzw. langsameren Karten dürfte von Mantle bei Full HD so gut wie nix spüren (Es sei denn man ist meinem Core 2 Duo oder Ahtlon X2 unterwegs^^).
 
Ich glaube das ist gar nicht so das Problem, aber die Chips wären rießig und damit unbezahlbar.
Also ich hätte kein Problem (naja, bis auf den Preis, der mir bei einer normalen Titan schon wahnsinnig unverschämt hoch erscheint) mit einer doppelten Titan. 400W sind noch in den Griff zu bekommen, aber wer soll einen 1000mm² Die bezahlen und fertigen?

Och wenn man es übertreibt, dann bitte gleich richtig.
Der größte derzeitige Wafer in Planung hat einen Durchmesser von 45cm. So Pi mal daumen passt da ein Quadrat mit 30cm Kantenlänge rein, also 900cm² (90 000 mm²). Daraus machen wir ein einzigen Chip, und hauen das auf ein Grafikarte-PCB.
Glaube ein Wafer kostet so 3k€, aber da man ein Wafer mit rein funktionierender Chipfläche braucht, kann man erst einmal ein bissel Selektieren. Dann auf den 900cm² Chip ein Wasserkühler drauf, der sicherlich auch so mindestens 8kg schwer sein wird (900 cm³ Kupfer mal 9g/cm³)

Hey das klingt lustig, los Nvidia oder AMD eine Machbarkeitsstudie wäre doch mal wieder fein ^^

Am Ende noch was zum Artikel:
Wie schon einige meinten, ist die Prognose sehr schwammig und daher nicht besonders wertvoll. Die alte Folie sagt ja auch nicht besonders viel aus, da es die beschnittenen DP sind, die sich verbessern sollen, die uns Spieler eh eher peripher interessiert. Einfach mal abwarten auf die GTX 750 (Ti), auch wenn es nur Midrange Karte ist, wäre es jedenfalls ein GM Chip.
 
Ich kann mich den vorhergehenden Einschätzungen nur anschließen. Energieffizienz im Low- bis Mid-Range PC-Bereich ist doch eher ein klares Verlierer-Thema. Etwas für das Sommer-Loch und wenn es schlicht keine berichtenswerten Innovationen gibt. NVidia scheint ja im Moment wirklich nicht in der besten Verfassung zu sein.
 
Wem interessiert schon Effizenz? Was mich interessiert Nvidia ist Leistung. Gebt mir mehr Leistung pro Euro als AMD und bessere Übertaktbarkeit und ich bin voll dabei. Von mir aus baut gleich keinen Kühler drauf sollte doch Kosten auch senken, Referenzkühler interessieren eh doch keinen. Und Energieeffizenz auch nicht ich hab sowieso vor richtig zu übertakten, unter Wasser kommt da richtig was zusammen, da ist der Verbrauch ja sowieso so hoch das eh niemand mehr drauf schaut. Ich will reine Power, Schnickschnack wie leise, kühl und energieeffizient interessieren mich nicht, darum kümmere ich mich (zumindest leise und kühl).

Effizienz = Leistung, falls du es nicht bemerkt haben solltest. Denn GPUs sind TDP-limitiert (jedenfalls in der Form, in der sie auf den Markt kommen, OC mal ausgenommen), sofern man bei einer konstanten Grenze (aktuell 250-300W) bleiben will. Sprich, je effizienter eine GPU ist, desto mehr Leistung kann sie bei dem vorgegebenen TDP-Budget auch haben.
 
Effizienz = Leistung, falls du es nicht bemerkt haben solltest. Denn GPUs sind TDP-limitiert (jedenfalls in der Form, in der sie auf den Markt kommen, OC mal ausgenommen), sofern man bei einer konstanten Grenze (aktuell 250-300W) bleiben will. Sprich, je effizienter eine GPU ist, desto mehr Leistung kann sie bei dem vorgegebenen TDP-Budget auch haben.

Nicht ganz. Eine 780ti wäre mit 700mhz Chiptakt auch unglaublich effizient. Aber hätte wesentlich weniger Leistung.
 
Nicht ganz. Eine 780ti wäre mit 700mhz Chiptakt auch unglaublich effizient. Aber hätte wesentlich weniger Leistung.

Doch, in dem Kontext der News stimmt es. Es geht hier ja nicht um Effizienz durch weniger Takt und dementsprechend undervolting, sondern um eine Effizienzbetrachtung bei gleicher TDP - schließlich erwähnt der Artikel explizit 200+ W GPUs - also dasselbe Niveau wie heute. Abgesehen davon nimm mal eine unmodifizierte Karte, die gleichviel wie die 780 Ti@700 verbraucht und schau, wer schneller ist...eben die 780 Ti, und daher kommt die Mehrperformance. Für sinnvolle Vergleiche muss die TDP konstant bleiben.
 
Leistung ist http://upload.wikimedia.org/math/d/4/f/d4f565f42a35f8b6798c0121d9ea2caa.png
Sinnvoll wäre von Effizienz/Leistung zu reden. Und jeh höher das resultierende Ergebnis, desto besser die Grafikkarte.

Und wieso wäre das sinnvoll?
Effizienz/Leistung wäre Performance/Leistung/Leistung, alias Performance/Leistung²!
Nach dieser Formel wäre also plötzlich eine GTX 660m (~45Watt) weniger effizient gut bewertet als eine 680m (~90 Watt), obwohl die 680m deutlich mehr als nur das Doppelte der 660m an Performance raushaut! (Meine Güte, wieso hab ich mir damals überhaupt ne 660m geholt... :huh:)
 
Zuletzt bearbeitet:
Scheiss was auf Maxwell.
Für Nvidia wäre es besser auf den Mantlezug aufzuspringen.
Nvidia will immer mehr Profit machen. An AMD Karten sieht man, daß mit der neuen Schnittstelle noch ältere Karten voll ausgenutzt werden.
Hab auch keine Lust mehr, wegen bissel mehr Speed, jedes Jahr ne neue Karte zu kaufen.
Nvidia verschenkt durch das veraltete DX an Leistung. Was mit AMD Karten geht, sollte auch mit Nvidia Karten gehen.

Planetside 2 läuft seit dem Performance-Patch besser als Battlefield 4 genauso wie auch Battlefield 3 besser läuft als Battlefield 4.
An Mantle liegt das nicht. Battlefield 4 ist halt ein AMD subventioniertes Spiel in dem man absichtlich auf eine D3D Optimierung verzichtet hat um Mantle zu pushen; anders kann ich mir diese unterirdische Performance im Vergleich zu anderen Titeln nicht erklären.

Nvidia verschenkt durch das veraltete DX an Leistung.

Du machst dich ja gerade total peinlich.
Es gibt zig Spiele die hervorragend mit der D3D API laufen und dabei sehr gut aussehen.
Auch Multiplayer Spiele die im CPU Limit laufen.
Selbst Tera Online mit der alten Unreal Engine läuft besser als Bugfield 4.

NVidia scheint ja im Moment wirklich nicht in der besten Verfassung zu sein.

Und Bugfield 4 mit Mantle (BETA) das noch dazu zwingend Windows 8.1 benötigt lobst du?
Wann kommt denn da mal eine ernstzunehmende ausgereifte Fassung?
2016 .. oder doch schon 2015?

Glaubst du ich kauf mir jetzt wegen Bugfield 4 eine AMD GPU und installiere mir Windows 8.1?
Interessiert mich nicht die Bohne. Noch dazu hat Mantle im Moment eine niedrigere Renderqualität als D3D 11. Wie lange wird denn das wieder dauern bis AMD (wenn überhaupt) dieses Problem beseitigt?
 
Zuletzt bearbeitet:
Planetside 2 läuft seit dem Performance-Patch besser als Battlefield 4 genauso wie auch Battlefield 3 besser läuft als Battlefield 4.
An Mantle liegt das nicht. Battlefield 4 ist halt ein AMD subventioniertes Spiel in dem man absichtlich auf eine D3D Optimierung verzichtet hat um Mantle zu pushen; anders kann ich mir diese unterirdische Performance im Vergleich zu anderen Titeln nicht erklären.



Du machst dich ja gerade total peinlich.
Es gibt zig Spiele die hervorragend mit der D3D API laufen und dabei sehr gut aussehen.
Auch Multiplayer Spiele.
Lass ihn doch in Ruhe trollen!
Freuen wir uns doch einfach mal, dass anscheinend bei einem User endlich auch mal AMD-Marketing gefruchtet hat :daumen:
Das wir das nochmal erleben dürfen... :devil:
 
Epic Fail. Du hast noch nicht mitgekriegt, dass Mantle KEIN W8 benötigt? Wieder mal jemand mit wenig Kenntnissen aber einer großen ....... Langsam reicht es.
Des weiteren: Das hier ist ein MAXWELL Thread.

Edit: der Netcide von PS2 kommt immer noch direkt aus der Hölle.
 
Epic Fail. Du hast noch nicht mitgekriegt, dass Mantle KEIN W8 benötigt? Wieder mal jemand mit wenig Kenntnissen aber einer großen ....... Langsam reicht es.

Edit: der Netcide von PS2 kommt immer noch direkt aus der Hölle.

Aber Bugfield 4 profitiert von Win8 obwohl es selbst unter Win8 mies läuft im Gegensatz zu anderen Titeln.
Und Planetside 2 läuft sogar unter D3D9 und 32 Bit und WindowsXP besser als Bugfield4 seit dem letzten Performance Patch.

Bugfield4 ist eine einzige Lachnummer².
Die Kollisionsabfrage von Bugfield4 kommt ja nicht mal an die Pre-Alpha-Closed-Alpha von Planetside2 ran.

Planetside 2 ist mittlerweile einer der technisch besten Multiplayer Shooter und setzt bezogen auf die Spieleranzahl und Mapgröße sowie PC Optimierung neue Maßstäbe wovon ein "Bugfield4" selbst mit Mantle nur träumen kann.

Ich komme in Planetside2 mit 200 Leuten am Schirm und ZIG Geschossen auf 45 FPS. In Bugfield4 würdest du da selbst mit Mantle nicht mal auf 10 FPS kommen so schlecht ist das Spiel programmiert. Schon die Beta von Bugfield4 war extrem mies. Man erinnere sich mal an die "tolle" Win7 Anpassung.

Bugfield4 ignoriert Win7 und D3D - Mich wundert es das sich das Spiel überhaupt jemand gekauft hat. Rennen alle hinterher wie Lemminge.

Leute das ist hier keine Mantle/BF4 Thread!

YES SIR YES :D
Maxwell wird vermutlich meine nächste GPU sofern mindestens die Leistung einer 780 erreicht wird bei deutlich reduzierten Stromverbrauch für weniger als 300€!
Außerdem munkelt man von einem HDMI Eingang bei Maxwell den ich gut gebrauchen könnte.
Dank Shadowplay kann man sich eine teure Capture Karte in sämtlichen D3D Titeln sparen und ich verwende Shadowplay schon seit der Beta für Youtube und vermutlich auch bald Twitch.
Alternativen ala DXTORY, Fraps etc. waren ja nie wirklich berauschend und ich hoffe Shadowplay wird zukünftig noch weiter ausgebaut. In Kombination eines HDMI Eingangs könnte man sich so tatsächlich eine Capture Karte sparen. Eventuell gibt es dann auch schon eine bessere Qualität. Mal abwarten. Ich finde diese "Multimedia" Unterstützung recht gut; wird insbesondere auch bei der SteamBox früher oder später zum Einsatz kommen.
Man könnte dadurch auch im Wohnzimmer auf einen Receiver verzichten - Sofern man nur ein Gerät anhängen möchte!
 
Zuletzt bearbeitet:
Mehr Verbrauch = mehr Abwärme. Zudem ist nVidia bei Verbrauch im Multimonitorbetrieb weit vor AMD. Aber das schweigt man hier ja immer tot.
Und? Was hat das damit zutun, das man den Unterschied beim Verbrauch zwischen einer R9 280X/GTX770, R9 290/GTX780 oder R9 290X/GTX780Ti bei der Jahresendabrechnung nicht wirklich bemerkt. Und nur darum ging es mir hier! Aber richtig, wenn einem in dieser Beziehung die Argumente ausgehen, werden Fakten ignoriert und eben die Punkte herausgepickt, in denen das eigene Produkt besser ausschaut:schief:

Schwächen gibts auf beiden Seiten, schau mal mehr über deinen Tellerrand hinaus...

Gruß
 
der maximale verbrauch spielt für den endkunden eine deutlich weniger wichtige rolle als für profis die die karten dann teilweise 24/7 mit der leistungsaufnahme laufen lassen. das maxwell besser wir als kepler, mmh ok es gibt den bulli, aber sonst hat kaum einer das gegenteil geschafft. warten wir ab wie teuer die neuen chips werden.
 
der maximale verbrauch spielt für den endkunden eine deutlich weniger wichtige rolle als für profis die die karten dann teilweise 24/7 mit der leistungsaufnahme laufen lassen. das maxwell besser wir als kepler, mmh ok es gibt den bulli, aber sonst hat kaum einer das gegenteil geschafft. warten wir ab wie teuer die neuen chips werden.

Wenn GM107(Performace) mehr Strom brauchen würde als GK110 brauchen würde, wär es ja auch irgendwie traurig. Denn das Fertigungsverfahren schrumpft ja wieder mal.
 
Ich finde den Fokus auf Energieeffizienz sehr gut. Nicht nur das mehr Effizienz auch mehr Leistung bei gleicher Leistungsaufnahme zum Vorgänger bedeutet, sondern im mobilen Bereich, der mir mittlerweile wichtig geworden ist, wird sich das positiv bemerkbar machen.

Naja Kepler ist da ja bis auf den GK110 sehr schwacht und DP FLOPS beschneidet Nvidia ja schon ewig

Auch wenn AMD meist höhere theoretische Rechenleistung bietet, sind die 3+ TFLOPS der GK104 Kepler Karten sicher nicht "sehr schwach".

Sicher das benötigt nicht jeder Endanwender, aber auf Cuda / PhysX hat es auch Auswirkungen

Es geht um DP, oder? Kannst du mir erklären, welche Auswirkungen das auf PhysX hat?

bye
Spinal
 
Ich finde den Fokus auf Energieeffizienz sehr gut. Nicht nur das mehr Effizienz auch mehr Leistung bei gleicher Leistungsaufnahme zum Vorgänger bedeutet, sondern im mobilen Bereich, der mir mittlerweile wichtig geworden ist, wird sich das positiv bemerkbar machen.

Auch wenn AMD meist höhere theoretische Rechenleistung bietet, sind die 3+ TFLOPS der GK104 Kepler Karten sicher nicht "sehr schwach".

Es geht um DP, oder? Kannst du mir erklären, welche Auswirkungen das auf PhysX hat?

bye
Spinal

Schau doch mal, wie viel schneller AMD Karten bei Computeberechnungen sind. Bestcase vs bestcase. OpenCl gegen Cuda. NV erreicht da nur knapp 1/3. Und genau aus solchen Berechnungen besteht PhysX nun mal.

Edit: den Post oben drüber ignorieren.
 
Aus dem Artikel geht für mich aber nicht hervor, dass die höhere Effizienz vor allem aus der neuen Architektur und nicht aus der Fertigung resultieren soll.

Deswegen schrieb ich "wäre" statt "ist" ;)


Och wenn man es übertreibt, dann bitte gleich richtig.
Der größte derzeitige Wafer in Planung hat einen Durchmesser von 45cm. So Pi mal daumen passt da ein Quadrat mit 30cm Kantenlänge rein, also 900cm² (90 000 mm²). Daraus machen wir ein einzigen Chip, und hauen das auf ein Grafikarte-PCB.

Die Größe der Chips wird, lange vor dem Wafer, durch die Belichtungstechnik begrenzt. Einige Leute behaupten, dass über dem GK110 da nicht mehr viel Luft ist.


der maximale verbrauch spielt für den endkunden eine deutlich weniger wichtige rolle als für profis die die karten dann teilweise 24/7 mit der leistungsaufnahme laufen lassen.

Im High-End-Bereich ist der Stromverbrauch mittlerweile für alle wichtig, da die Leistung umgekehrt durch die abführbare Wärme limitiert wird.

Schau doch mal, wie viel schneller AMD Karten bei Computeberechnungen sind. Bestcase vs bestcase. OpenCl gegen Cuda. NV erreicht da nur knapp 1/3. Und genau aus solchen Berechnungen besteht PhysX nun mal.

Typisches OpenCL und das gesamte PhysX haben aber nichts mit DP zu tun.
 
Und genau aus solchen Berechnungen besteht PhysX nun mal.

Nein, denn schon bei der in DP starken GTX 580 gab es nur minimal mehr FPS, ggü. einer in DP beschnittenen GTX 560Ti / 550Ti.

Quelle: - Dedicated PhysX Card Experiment - How Powerful Does it Have to Be? Linus Tech Tips - YouTube

physx-jpg.715283
 

Anhänge

  • physx.jpg
    physx.jpg
    60,1 KB · Aufrufe: 67
Zurück