Maxwell: Nvidias neue GPU-Architektur angeblich sehr energieeffizient

Moderativer Hinweis:
Offtopic-Spam mit allgemeinen, weitreichende AMD-Nvidia-Vergleichen bitte einstellen.


Die Computeleistung nicht zu beschneiden hat sich aktuell als richtige Strategie für AMD herausgestellt.
Fürs Mining sind die AMD Karten ideal. Nvidia ist da im direkten Vergleich weit abgeschlagen.

Das hat wenig mit beschneiden zu tun, afaik arbeitet der Litecoins-Client eh nicht mit DP. Aber diese Art von Berechnungen war schon immer eine Stärke der einfachen, aber in großer Zahl verbaubaren AMD-Recheneinheiten.


Gibt es dafür denn mittlerweile mal endlich einen Beweis, dass das wirklich die Miner sind?

Beweisen kann man das nicht, aber es gibt unzählige Berichte über neu aufgebaute Mining-Systeme und die Gesamtleistung des Litecoin-Netzwerkes hat sich afaik vervielfacht.


Diese Prognose ist so allgemein, die hätte man beim Leak des Codenamen nennen können.;)

/sign.
Zumal er noch nicht einmal auf die Fertigung oder die Konkurrenz eingeht.

Der einzige Informationsgehalt ist, dass Nvidia einen mobile-Fokus gesetzt hat. Was gut zu einem Start in der unteren Desktop-Mittelklasse passt, denn die davon abgeleiteten GPUs dürften im (von unten durch APUs attackierten) mobile-Markt die gewinnträchtigsten sein.


@facehugger

was würden wir nur ohne Alkis blogs machen die sparen immer wieder eine menge zeit.

Also in dem Fall spart er die meiste Zeit, wenn man ihn nicht ganz ließt :ugly:
 
Zuletzt bearbeitet:
Ähm...nein? Ich nutze z.B. Cuda zur Videobearbeitung und Optimus ist auf dem Notebook auch ne geniale Erfindung.
Verdammt, wo ist denn da in meinem Post das "für Spieler" abhanden gekommen? ;)
Was Optimus angeht: Mittlerweile soll AMD es ja angeblich geschafft haben mit Enduro nachzuziehen...

OT


Moderativer Hinweis:
Offtopic-Spam mit allgemeinen, weitreichende AMD-Nvidia-Vergleichen bitte einstellen.
Meinst du damit etwa mich? Dann hör ich gerne auf...
 
Zuletzt bearbeitet von einem Moderator:
Irgendwie lustig, dass Leute eine bessere Effizienz nur mit Sparsamkeit bei gleicher Leistung gleichsetzen. Bisher gab es soweit ich weiß bei jeder Grafik-Generation auch einen Anstieg der Effizienz (Leistung/Watt). Allerdings nicht genug, um da bei gleichbleibendem Stromverbrauch auch deutlich mehr Leistung raus zu holen. Deshalb wurde eben bei den meisten Topmodellen, dann auch noch an der maximalen Leistungaufnahme gedreht um ein beeindruckenderes Ergebnis zu bekommen.

Angesichts immer stärker werdender Netzteile und immer aufwändigeren Graka-Kühlern wäre eine geringere Leistungsaufnahme in der Tat so langsam mal angebracht. Ob Maxwell das schafft, glaube ich ehrlich gesagt nicht. Ähnliche Meldungen gab es doch schon immer von den Herstellern. Am Ende war das Ergebnis dann doch nicht so revolutionär wie angepriesen.

Scheiss was auf Maxwell.
Für Nvidia wäre es besser auf den Mantlezug aufzuspringen.
Nvidia will immer mehr Profit machen. An AMD Karten sieht man, daß mit der neuen Schnittstelle noch ältere Karten voll ausgenutzt werden.
Bei Mantle werden laut Tests eben gerade nicht die langsameren Karten profitieren! Ältere sowie so nicht, da Mantle auch bei AMD erst von Karten mit GCN unterstützt wird.

Es profitieren vor allem Systeme mit verhältnismäßig langsamer CPU im Vergleich zur Graka. Dies liegt daran, dass Mantle den CPU-Overhead drastisch verringert. An der reinen Grafikleistung ändert sich aber so gut wie nix, wenn man sich auch bei DirectX schon am Grafik- und nicht am CPU-Limit befindet.

Bspw. wirst du mit einer R9 270 schon bei Full HD und AA keinen großen Unterschied messen können zwischen DX und Mantle, wenn du einen aktuelleren i5 oder gar i7 besitzt.


Naja und das Nvidia nicht bei einer Technik von AMD mitmacht, so lange es nicht unbedingt sein muss, ergibt sich ja von selbst. Am besten wäre eine unabhängige neue Schnittstelle, die auch die Mantle Ansätze integriert. Sprich DX 12 muss her bzw. ein entsprechendes OpenGL^^
 
Verdammt, wo ist denn da in meinem Post das "für Spieler" abhanden gekommen? ;)
Was Optimus angeht: Mittlerweile soll AMD es ja angeblich geschafft haben mit Enduro nachzuziehen...
Ok, dann habe ich noch einen aus dem mobilen Bereich: Für einen halbwegs aktuellen Treiber für die 5650m in meinem alten Notebook habe ich immer ewig gesucht. Auf der offiziellen Seite bin ich nie fündig geworden, ich musste immer durch Zufall einen modifierten im Netz finden. Beim aktuellen Notebook war es einfach. Erst die Intel-Treiber, dann die nVidia-Mobile-Treiber von der Webseite laden.

Angesichts immer stärker werdender Netzteile und immer aufwändigeren Graka-Kühlern wäre eine geringere Leistungsaufnahme in der Tat so langsam mal angebracht.
Das die Netzteile immer stärker werden liegt aber nicht unbedingt an die Grafikkarten. Oft genug werden auch hier im Forum viel zu grosse Netzteile empfohlen obwohl sie gar nicht nötig wären. Bei den Grafikkartenkühlern gebe ich dir teilweise recht, wobei die in den letzten Jahren auch nicht mehr so enorm gewachsen sind.
 
Spam wurde ausgeblendet


Verdammt, wo ist denn da in meinem Post das "für Spieler" abhanden gekommen? ;)
Was Optimus angeht: Mittlerweile soll AMD es ja angeblich geschafft haben mit Enduro nachzuziehen...

OT

Meinst du damit etwa mich? Dann hör ich gerne auf...

Zu einer Diskussion gehören mehrere, aber den Inhalt deiner Posts schätzt du richtig ein.


Irgendwie lustig, dass Leute eine bessere Effizienz nur mit Sparsamkeit bei gleicher Leistung gleichsetzen. Bisher gab es soweit ich weiß bei jeder Grafik-Generation auch einen Anstieg der Effizienz (Leistung/Watt). Allerdings nicht genug, um da bei gleichbleibendem Stromverbrauch auch deutlich mehr Leistung raus zu holen.

Effizienzanstiege resultieren fast ausschließlich aus feinerer Fertigung, bei den Architekturen hat sich da afaik selten bis nie etwas getan. Von daher wäre es durchaus eine Meldung wert, wenn eine neue Architektur fertigungsbereinigt einen deutlichen Effizienzsprung bringt.

Bei Mantle werden laut Tests eben gerade nicht die langsameren Karten profitieren! Ältere sowie so nicht, da Mantle auch bei AMD erst von Karten mit GCN unterstützt wird.

GCN ist mittlerweile 2 Jahre auf dem Markt und es bringt auch im GPU-Limit ein Bisschen was. Aber dazu gibts derzeit wohl genug Threads.
 
Irgendwie lustig, dass Leute eine bessere Effizienz nur mit Sparsamkeit bei gleicher Leistung gleichsetzen. Bisher gab es soweit ich weiß bei jeder Grafik-Generation auch einen Anstieg der Effizienz (Leistung/Watt). Allerdings nicht genug, um da bei gleichbleibendem Stromverbrauch auch deutlich mehr Leistung raus zu holen. Deshalb wurde eben bei den meisten Topmodellen, dann auch noch an der maximalen Leistungaufnahme gedreht um ein beeindruckenderes Ergebnis zu bekommen.

Wieso:
7870/GTX 660 haben die Performance der High-End-Karten der Vorängergeneration (GTX 570& HD 6970) mit deutlich gesunkener Leistungsaufnahme wieder angeboten!
Und die Topmodelle pendeln sich doch in letzter Zeit immer um die 250 Watt ein...
 
@CD LABS Radon Project
Da aber auch die Anforderungen steigen sollte man sie eher die Vorgänger Modelle vergleichen, die GTX 560 gegen die GTX 660, die HD 6870 gegen die HD 7870.
Zwar ist TDP nicht gleich Verbrauch aber man muss sagen das die TDP von der HD 6870 (151W) auf die HD 7870 (175W) um 24W gestiegen ist, von der GTX 560 (150W) auf die GTX 660 (140W) um 10W gesunken.
Ich hoffe das AMD es auch mal einsieht wie Nvidia und da mal auf sparsamere Karten setzt.
 
@CD LABS Radon Project
Da aber auch die Anforderungen steigen sollte man sie eher die Vorgänger Modelle vergleichen, die GTX 560 gegen die GTX 660, die HD 6870 gegen die HD 7870.
Zwar ist TDP nicht gleich Verbrauch aber man muss sagen das die TDP von der HD 6870 (151W) auf die HD 7870 (175W) um 24W gestiegen ist, von der GTX 560 (150W) auf die GTX 660 (140W) um 10W gesunken.
Ich hoffe das AMD es auch mal einsieht wie Nvidia und da mal auf sparsamere Karten setzt.

Ist ja auch klar wenn man die GPGPU Leistung drastisch beschneidet beim Kepler
 
@CD LABS Radon Project
Da aber auch die Anforderungen steigen sollte man sie eher die Vorgänger Modelle vergleichen, die GTX 560 gegen die GTX 660, die HD 6870 gegen die HD 7870.
Zwar ist TDP nicht gleich Verbrauch aber man muss sagen das die TDP von der HD 6870 (151W) auf die HD 7870 (175W) um 24W gestiegen ist, von der GTX 560 (150W) auf die GTX 660 (140W) um 10W gesunken.
Ich hoffe das AMD es auch mal einsieht wie Nvidia und da mal auf sparsamere Karten setzt.

Hast prinzipiell recht,dass ich natürlich den Vergleich bei den direkten Vorgängern ansätzen sollte; aber woher hast du denn bitte diese Verbrauchswerte? :what:
Wenn man 3DCenter vertraut (wovon man wohl ausgehen kann), dann stimmt davon ja kein einziger!
Launch-Analyse: AMD Radeon HD 7850 & 7870 | 3DCenter.org
Launch-Analyse: nVidia GeForce GTX 660 | 3DCenter.org
 
Wahrscheinlich haben die noch mehr Computing über Bord geworfen:ugly:
Dachte ich zuerst auch.

Allerdings ist in der Grafik im Artikel von DP FLOPS die Rede.
Also schneiden sie diese Gen einfach nicht ganz so extrem viel Computing weg und schon ver x-Facht sich die DP Leistung im Vergleich zur TDP.
 
Dachte ich zuerst auch.

Allerdings ist in der Grafik im Artikel von DP FLOPS die Rede.
Also schneiden sie diese Gen einfach nicht ganz so extrem viel Computing weg und schon ver x-Facht sich die DP Leistung im Vergleich zur TDP.

Wenn nVidia wieder die gleiche Strategie fährt wie bei Kepler, dann kommt das vielleicht schon hin. Der GM104 kommt als Mittelklasse-Chip, in der DP-Leistung beschnitten, fürs Gaming und GM110 kommt dann später ohne DP-Kastration.
 
Naja Kepler ist da ja bis auf den GK110 sehr schwacht und DP FLOPS beschneidet Nvidia ja schon ewig

Naja ewig würde ich jetzt nicht sagen, siehe GTX 400er Reihe, deswegen war der UrFermi so katastrophal.

Sicher das benötigt nicht jeder Endanwender, aber auf Cuda / PhysX hat es auch Auswirkungen
 
Doch DP Flows werden immer per Graka Bios oder sonst wie beschnitten, sonst wäre die genau so hoch wie bei den Quadro Karten
 
Hast prinzipiell recht,dass ich natürlich den Vergleich bei den direkten Vorgängern ansätzen sollte; aber woher hast du denn bitte diese Verbrauchswerte? :what:
Wenn man 3DCenter vertraut (wovon man wohl ausgehen kann), dann stimmt davon ja kein einziger!
Launch-Analyse: AMD Radeon HD 7850 & 7870 | 3DCenter.org
Launch-Analyse: nVidia GeForce GTX 660 | 3DCenter.org

Ich habe die TDP genommen, aber extra auch noch erwähnt das ja TDP nicht gleich Verbrauch sind, die TDP der HD 7870 habe ich von Computerbase als auch von diversen Produktangaben der HD 7870 auf Geizhals
Test: AMD Radeon HD 7870 und HD 7850 - ComputerBase und als Beispiel ASUS HD7870-DC2-2GD5-V2 DirectCU II, Radeon HD 7870 GHz Edition, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (90-C1CS50-L0UAY0BZ) Preisvergleich | Geizhals Deutschland
 
Wem interessiert schon Effizenz? Was mich interessiert Nvidia ist Leistung. Gebt mir mehr Leistung pro Euro als AMD und bessere Übertaktbarkeit und ich bin voll dabei. Von mir aus baut gleich keinen Kühler drauf sollte doch Kosten auch senken, Referenzkühler interessieren eh doch keinen. Und Energieeffizenz auch nicht ich hab sowieso vor richtig zu übertakten, unter Wasser kommt da richtig was zusammen, da ist der Verbrauch ja sowieso so hoch das eh niemand mehr drauf schaut. Ich will reine Power, Schnickschnack wie leise, kühl und energieeffizient interessieren mich nicht, darum kümmere ich mich (zumindest leise und kühl).

ROFL :ugly::D:lol:
Viel Spass beim kühlen einer 50KW GPU. Eher mehr, wenn wir noch bei einer ~350nm Strukturbreite rumgurken würden. Die Wakü mit X-treme LKW Wasserkühlern will ich dann auch sehen:lol:
Dafür muss man ATI und nvidia doch eher loben, daß die sich Mühe geben uns möglichst keine Thermi Hitzköpfe mehr aufs Tablett zu pflastern.
 
ROFL :ugly::D:lol:
Viel Spass beim kühlen einer 50KW GPU. Eher mehr, wenn wir noch bei einer ~350nm Strukturbreite rumgurken würden. Die Wakü mit X-treme LKW Wasserkühlern will ich dann auch sehen:lol:
Dafür muss man ATI und nvidia doch eher loben, daß die sich Mühe geben uns möglichst keine Thermi Hitzköpfe mehr aufs Tablett zu pflastern.
Ich glaube das ist gar nicht so das Problem, aber die Chips wären rießig und damit unbezahlbar.
Also ich hätte kein Problem (naja, bis auf den Preis, der mir bei einer normalen Titan schon wahnsinnig unverschämt hoch erscheint) mit einer doppelten Titan. 400W sind noch in den Griff zu bekommen, aber wer soll einen 1000mm² Die bezahlen und fertigen?
 
Ich habe die TDP genommen, aber extra auch noch erwähnt das ja TDP nicht gleich Verbrauch sind, die TDP der HD 7870 habe ich von Computerbase als auch von diversen Produktangaben der HD 7870 auf Geizhals
Test: AMD Radeon HD 7870 und HD 7850 - ComputerBase und als Beispiel ASUS HD7870-DC2-2GD5-V2 DirectCU II, Radeon HD 7870 GHz Edition, 2GB GDDR5, 2x DVI, HDMI, DisplayPort (90-C1CS50-L0UAY0BZ) Preisvergleich | Geizhals Deutschland

Die letzte Nacht hat mir anscheinend doch schwer zugesetzt... ;)
Wobei ich aber trotzdem TDP-Vergleiche bei Grakas absolut nutzlos halte, AMD und Nvidia zeigen hier ja beide, wie wertvoll die TDP doch ist---nämlich gar nicht, schließlich sind beide Karten in der Praxis um einiges Energieeffizienter.
Daher kann ich dein Fazit auch nicht ganz verstehen, von der realen Effizienz her sind die Karten ja schließlich auf dem gleichen Level.
Da hättest du lieber die 770 und die 7970 GHZ gegenüber stellen sollen... ;)
 
Zurück