Maxwell: Nvidias neue GPU-Architektur angeblich sehr energieeffizient

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Maxwell: Nvidias neue GPU-Architektur angeblich sehr energieeffizient

Einem aktuellen Bericht zufolge soll Nvidias kommende Maxwell-Architektur vor allem auch mit dem Hintergedanken zum Einsatz in Mobilgeräten entworfen worden sein, weshalb sich die Chips durch niedrige beziehungsweise gut skalierende Werte bei der Leistungsaufnahme auszeichnen sollen.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Maxwell: Nvidias neue GPU-Architektur angeblich sehr energieeffizient
 
Obwohl ich von Nvidia Karten sehr angetan bin, sollte Nvidia auch eher mal schauen aktuelle Hardware besser aus zu nutzen, denn die Kepler (vorallem ab GK110) ist wirklich noch flott genug!
 
Scheiss was auf Maxwell.
Für Nvidia wäre es besser auf den Mantlezug aufzuspringen.
Nvidia will immer mehr Profit machen. An AMD Karten sieht man, daß mit der neuen Schnittstelle noch ältere Karten voll ausgenutzt werden.
Hab auch keine Lust mehr, wegen bissel mehr Speed, jedes Jahr ne neue Karte zu kaufen.
Nvidia verschenkt durch das veraltete DX an Leistung. Was mit AMD Karten geht, sollte auch mit Nvidia Karten gehen.
 
Für NV wäre es besser so weiterzumachen wie sie es aktuell machen ... Statt nach G-Sync Release direkt Freesync anzukündigen um mitzuhalten. Ausserdem scheint Mantle momentan noch nicht den gewünschten Erfolg zu bringen, kann man aber auch überall lesen.
 
Bisher hat man von Maxwell noch zu wenig gesehen. Das was zu sehen war, fand ich persönlich gut, merkliche Mehrleistung zum direkten namentlichen Vorgänger, bei deutlich geringerer Leistungsaufnahme (wenn man allerdings auch zugestehen muss, dass die in dem unteren Segment sowieso schon sehr niedrig ist...).
Was die stärkeren Karten dann ausmachen werden, wird man sehen, sobald sie da sind aber es wird sicher nicht schlecht. Nur eben keine riesigen Leistungssprünge geben, die Zeiten sind vorbei... aber das trifft mittlerweile auf den gesamten Hardwaremarkt zu, nicht nur auf nVidia.

Und was Mantle betrifft, der gewünschte Erfolg ist sehr wohl da, die GCN 1.1-Karten, die vollständig unterstützt werden haben merkliche Mehrleistung, schwächere CPUs werden extrem entlastet. Dass GCN 1.0 und CF noch nicht perfekt laufen, ist verständlich und wird in den Patchnotes auch so verkündet. Daher brauchen die relativ wenigen, die dort Probleme haben, sich nicht zu wundern. Und wieder im Offtopic gelandet -.-
 
Wem interessiert schon Effizenz? Was mich interessiert Nvidia ist Leistung. Gebt mir mehr Leistung pro Euro als AMD und bessere Übertaktbarkeit und ich bin voll dabei. Von mir aus baut gleich keinen Kühler drauf sollte doch Kosten auch senken, Referenzkühler interessieren eh doch keinen. Und Energieeffizenz auch nicht ich hab sowieso vor richtig zu übertakten, unter Wasser kommt da richtig was zusammen, da ist der Verbrauch ja sowieso so hoch das eh niemand mehr drauf schaut. Ich will reine Power, Schnickschnack wie leise, kühl und energieeffizient interessieren mich nicht, darum kümmere ich mich (zumindest leise und kühl).
 
Die obige Grafik ist doch schon seit mindestens 1,5 Jahren überall wo zu sehen, das es jetzt nachher wirklich so sein wird klingt doch ziemlich gut, AMD sollte da sich auch mal ein Beispiel dran nehmen, bei kleinen Karten sind sie zurzeit schon ziemlich gut dabei aber wenn ich die Karten ab der R9 280X anschaue dann können sie in Sachen Stromverbrauch nicht mit den Konkurrenzkarten von Nvidia mithalten.

Gerade bei der GTX 770 ist das der Fall wieso ich zurzeit die GTX 770 empfehle statt der R9 280X da sie eben kaum teurer ist als die R9 280X aber 50W sparsamer.
 
Gerade bei der GTX 770 ist das der Fall wieso ich zurzeit die GTX 770 empfehle statt der R9 280X da sie eben kaum teurer ist als die R9 280X aber 50W sparsamer.

Ich empfehle die 770, weil es die einzige nVidia-Karte mit gutem P/L-Verhältnis ist und im Gegensatz zur R9 280X sogar erhältlich ^^
Aber auch das ist wieder Off-Topic... irgendwann lerne ich es bestimmt -.-
 
AMD dGPUs werden von den Minern wie verrückt gekauft.
Das hat teilweise irrationale Ausmaße angenommen.
Selbst gebraucht gehen die bei Ebay weg wie warme Semmeln.

Die Computeleistung nicht zu beschneiden hat sich aktuell als richtige Strategie für AMD herausgestellt.
Fürs Mining sind die AMD Karten ideal. Nvidia ist da im direkten Vergleich weit abgeschlagen.
Ich glaube aber nicht das AMD das geplant hat. Sie haben hier einfach Glück gehabt.
 
AMD dGPUs werden von den Minern wie verrückt gekauft.
Das hat teilweise irrationale Ausmaße angenommen.
Selbst gebraucht gehen die bei Ebay weg wie warme Semmeln.

Die Computeleistung nicht zu beschneiden hat sich aktuell als richtige Strategie für AMD herausgestellt.
Fürs Mining sind die AMD Karten ideal. Nvidia ist da im direkten Vergleich weit abgeschlagen.
Ich glaube aber nicht das AMD das geplant hat. Sie haben hier einfach Glück gehabt.
Gibt es dafür denn mittlerweile mal endlich einen Beweis, dass das wirklich die Miner sind?
Bisher hätten das ja auch einfach nur AMD-geile Spieler sein können, die die letzten paar Jahre auf dem Mond verbracht haben und deshalb noch niemals eine 7970 GHZ gesehen haben ;)
 
Mehr Verbrauch = mehr Abwärme. Zudem ist nVidia bei Verbrauch im Multimonitorbetrieb weit vor AMD. Aber das schweigt man hier ja immer tot.
Ich bleibe nach wie vor dabei:
Der einzige Grund sich momentan eine Geforce zu holen sind die AA-Tuning-Optionen!
Ohne den Nvidia Inspector und Downsampling Hack (kann ich dank Optimus nicht nutzen :motz:) wäre es vollkommen irrational sich so ein Ding zu holen! :ugly:
 
Mehr Verbrauch = mehr Abwärme. Zudem ist nVidia bei Verbrauch im Multimonitorbetrieb weit vor AMD. Aber das schweigt man hier ja immer tot.

Das mit dem Multimonitorbetrieb gilt aber auch nur bei zwei Monitoren, bei 3 sind sie wieder gleichauf soweit ich weiß ist das aber zumindest bei der R9 290 und der R9 290X nicht mehr der Fall.


Das Werks OC Karten mehr verbrauchen sollte eigentlich bekannt sein da die Spannung oft viel zu hoch dort eingestellt ist.
Mir selber geht es hier nicht unbedingt um die Stromerspanis in Euro sondern auch wegen der geringeren Abwärme.
 
Gibt es dafür denn mittlerweile mal endlich einen Beweis, dass das wirklich die Miner sind?
Beweisen kann ich da nichts selbst, aber ich kann dazu eine kurze Anekdote schreiben.

Ein Bekannter von mir hat sich letzten Monat selbst ein Miningsystem zusammengebaut.
Für eine 290-er ist er bis an die holländische Grenze gefahren, weil kein Händler (auch nicht im Netz) eine Karte liefern konnte.
Er hat keine Kosten gescheut für das System, und relativ teure Komponenten gekauft.
Auf dem Rückweg vom Händler nach Hause ging dann auch noch sein Auto kaputt.
Er trampte dann mit der 290-er zurück nach Hause. ^^

Und bei CB haben viele User geschrieben, dass sie für ihre gebrauchten 7970/7950 mehr Geld bekommen haben, als die Karten neu gekostet hatten.
Und das ohne Garantie, denn die war schon längst abgelaufen.
 
tja ja find ich an und für sich ganz gut, solange die leistung trotzdem ansteigt ist es nicht zu verachten.
aber wenn die karten nicht großartig schneller oder noch defizite bekommen nehme ich lieber 50W mehr verbrauch hin.

@facehugger

was würden wir nur ohne Alkis blogs machen die sparen immer wieder eine menge zeit.
 
Obwohl ich von Nvidia Karten sehr angetan bin, sollte Nvidia auch eher mal schauen aktuelle Hardware besser aus zu nutzen, denn die Kepler (vorallem ab GK110) ist wirklich noch flott genug!

Es liegt doch an den Programmierern und Entwicklern, die ganze Leistung der Karte abzurufen. nVidia muss nur immer wieder die Treiber optimieren, was sie ja auch tun.

Scheiss was auf Maxwell.
Für Nvidia wäre es besser auf den Mantlezug aufzuspringen.
Nvidia will immer mehr Profit machen. An AMD Karten sieht man, daß mit der neuen Schnittstelle noch ältere Karten voll ausgenutzt werden.
Hab auch keine Lust mehr, wegen bissel mehr Speed, jedes Jahr ne neue Karte zu kaufen.
Nvidia verschenkt durch das veraltete DX an Leistung. Was mit AMD Karten geht, sollte auch mit Nvidia Karten gehen.

Erst mal muss sich Mantle weiter durchsetzen. Was wir bisher gesehen haben, ist nichts weiter als ein "Laborversuch". Erst wenn eine breite Zahl von Spielen Mantle unterstützt, wird es sich für nVidia lohnen, auf den Zug aufzuspringen. Falls sie dazu überhaupt bereit sind.

Selbstverständlich will nVidia Profit machen. Würdest du ein Unternehmen leiten, wäre das auch mit dein oberstes Ziel. Denkst du nVidia ist ein Wohlfahrtsverein?

DX ist nicht veraltet und man verschenkt damit auch keine Leistung. Sei froh, dass es DX gibt. Oder wäre es dir lieber, wenn jeder Hersteller seine eigene API verwendet? Erinnere dich nur mal an Glide. DX11.2 nutzt die Hardware ja auch gut aus, wenn auch nicht so sehr wie Mantle.

Wem interessiert schon Effizenz? Was mich interessiert Nvidia ist Leistung. Gebt mir mehr Leistung pro Euro als AMD und bessere Übertaktbarkeit und ich bin voll dabei. Von mir aus baut gleich keinen Kühler drauf sollte doch Kosten auch senken, Referenzkühler interessieren eh doch keinen. Und Energieeffizenz auch nicht ich hab sowieso vor richtig zu übertakten, unter Wasser kommt da richtig was zusammen, da ist der Verbrauch ja sowieso so hoch das eh niemand mehr drauf schaut. Ich will reine Power, Schnickschnack wie leise, kühl und energieeffizient interessieren mich nicht, darum kümmere ich mich (zumindest leise und kühl).

Effizienz interessiert eigentlich jeden, zumindest sollte es das. Wenn es die Möglichkeit gibt, möglichst viel Leistung mit möglichst wenig Energie bereit zu stellen, dann soll diese Möglichkeit auch genutzt werden. Und ein sparsamer Chip strahlt auch weniger Wärme ab, was die Kühlung erleichtert. Es geht ja nicht nur um die paar Cent an Stromkosten, die man da im Monat spart.
Wenn du so ein Übertakter bist, dem es rein auf die Leistung ankommt, bist du sowieso in der Minderheit. Aber bislang wurden die Gelüste der OCer ja immer befriedigt. Von daher brauchst du dir deshalb nicht gleich den Frack vollmachen.

Ohne den Nvidia Inspector und Downsampling Hack (kann ich dank Optimus nicht nutzen :motz:) wäre es vollkommen irrational sich so ein Ding zu holen! :ugly:

Naja, würde Ich so nicht sagen. Es gibt einige Gründe die für nVidia sprechen, aber auch einige, die dagegen sprechen, etwa der Preis. Wenn man auf PhysX, 3dVision, usw. keinen Wert legt, dann bekommt man für weniger Geld bei AMD genau das was man braucht. Von daher ist mir deine Aussage ein wenig zu undifferenziert ;)
 
Zuletzt bearbeitet:
Ich bleibe nach wie vor dabei:
Der einzige Grund sich momentan eine Geforce zu holen sind die AA-Tuning-Optionen!
Ohne den Nvidia Inspector und Downsampling Hack (kann ich dank Optimus nicht nutzen :motz:) wäre es vollkommen irrational sich so ein Ding zu holen! :ugly:
Ähm...nein? Ich nutze z.B. Cuda zur Videobearbeitung und Optimus ist auf dem Notebook auch ne geniale Erfindung.

Das mit dem Multimonitorbetrieb gilt aber auch nur bei zwei Monitoren, bei 3 sind sie wieder gleichauf soweit ich weiß ist das aber zumindest bei der R9 290 und der R9 290X nicht mehr der Fall.
Bei 2 Monitoren mit gleicher Auflösung hat AMD es endlich mal geschafft das sie auf den kleinsten Sparmodus schalten. Da ist nVidia schon wieder weiter und es können mittlerweile 2 Monitore mit unterschiedlicher Auflösung angeschlossen werden.
 
Zurück