Nvidia: Kepler-GK104 mit einem 6- und einem 8-Pin-Stecker?

ja toll lass etwas watt weniger sein als reserve.. wozu sollten dann + 75 watt als reserve sein?

Um eben eine gewisse Reserve fürs übertakten zu bieten --> siehe, zum x ten mal, HD7970.

Hieß der Thread zu Anfang nicht anders?

Ja, meine auch das da was mit 300 Watt stand - aber aufgrund dessen was hier daraufhin reininterpretiert wurde ist die änderung gut.

mfg
 
Das eine GTX 580 auch keine 300 Watt frisst und auch nicht der Hitze und Verbrauchskiller ist, so wie er so meist verifiziert wird. Dazu habe ich auch noch ALLGEMEINE Spezis genannt und nicht nur der MEINEN. ;)

Beim nächsten Mal den threat besser mitverfolgen. :schief:
Ich habe deine Beiträge auch davor gelesen, empfinde sie aber dennoch nicht als schlüssig. Die Menschen, die die Sparsamkeit von einem GK104 anzweifeln gehen auch nicht alle davon aus, dass diese Karte auch tatsächlich 300 Watt sich gönnt, aber vermutlich viel verbrauchen wird.
Mir wird eben auch nicht klar, wieso du deine GTX 580 als Beispiel nennst.
 
Ich habe deine Beiträge auch davor gelesen, empfinde sie aber dennoch nicht als schlüssig. Die Menschen, die die Sparsamkeit von einem GK104 anzweifeln gehen auch nicht alle davon aus, dass diese Karte auch tatsächlich 300 Watt sich gönnt, aber vermutlich viel verbrauchen wird.
Mir wird eben nicht klar, wieso du deine GTX 580 als Beispiel nennst. Wenn du diesen Thread besser mitverfolgt hättest, wäre dir auch klar gewesen, dass ich die Verbrauchswerte von einer 580 GTX und einer 7970 genannt habe und die 7970 gerade mal 20-30 Watt weniger verbraucht.

Und ich habe darauf dessen mit der GTX 580 hierzu angeknüpft, da ja doch scheinbar sehr viele das mit den 300 Watt Verbrauch missverstanden haben. ;)

So dürfte nun auch das geklärt sein. :D
 
Man sollte den "Verbrauch" vielleicht auch nicht ganz so überbewerten.
Wenn man pro Tag durchschnittlich ne Stunde spielt und damit vom Gesamtsystem her ca. 350W an Verlusten verursacht, so belaufen sich die jährlichen Kosten bei 0,25€/kWh auf etwas über 31€. Verbräte die GPU jetzt 50Wh(was schon viel ist) weniger so kommt man auf nicht mal 5€ Ersparnis im Jahr. Das ist für nen Hobby jetzt nicht unbedingt viel^^
 
@majinvegeta20

Ich werde das einfach nie verstehen können.
Dieses Beispiel trifft man leider sehr oft. Jemand schreibt eine halbe Seite wieso XY nicht sein kann und dann kommt jemand 40 Minuten später mit einem Satz, "OMG wie erbärmlich, die spinnen doch" etc.

Die gut informierte Gerüchteküche prognostiziert 140-160 Watt Stromverbrauch. Jetzt wird die Standardkonfiguration vielleicht mit 2x 6 Pin versorgt und bei OC-Versionen gegebenenfalls ein 8 Pin-Stecker verlötet.
 
Wenn ich mir den Verbrauch anschaue denke ich im gleichen Zuge mit an die Abwärme. Eine geringe Leistungsaufnahme ist an sich schon schick aber man muss auch bedenken das man das ganze dann leichter bzw leiser kühlen kann was grade im Falle von Grakas interessant ist. Diese sind ja aktuell eher die Krachmacher in rechnern.
 
@majinvegeta20

Ich werde das einfach nie verstehen können.
Dieses Beispiel trifft man leider sehr oft. Jemand schreibt eine halbe Seite wieso XY nicht sein kann und dann kommt jemand 40 Minuten später mit einem Satz, "OMG wie erbärmlich, die spinnen doch" etc.

Die gut informierte Gerüchteküche prognostiziert 140-160 Watt Stromverbrauch. Jetzt wird die Standardkonfiguration vielleicht mit 2x 6 Pin versorgt und bei OC-Versionen gegebenenfalls ein 8 Pin-Stecker verlötet.

Hab schon mehr als einmal in anderen Threat meinen Senf dazu gegeben.
Kann leider nicht immer zur Rechten Zeit, am rechten Ort sein.
Real Life und so. Weiste. :ugly:
 
Wenn ich mir den Verbrauch anschaue denke ich im gleichen Zuge mit an die Abwärme. Eine geringe Leistungsaufnahme ist an sich schon schick aber man muss auch bedenken das man das ganze dann leichter bzw leiser kühlen kann was grade im Falle von Grakas interessant ist. Diese sind ja aktuell eher die Krachmacher in rechnern.

Das hängt aber wiederum eher vom Kühler ab, wenn ich mich jetzt recht entsinne sind die Referenzbrüller der aktuellen HD 7970 deutlich "lauter" als die Referenzzirper der GTX580 und das obwohl erstere weniger Verluste verursacht. Ich glaube auch kaum das es da nun auf 10-30Watt ankommt, dann wird die Karte bei gleicher Lautstärke halt ein paar Grad wärmer, was wiederum nicht weiter stören sollte. GPUs in der Leitungsklasse sind aber ohnehin nichts für Silentfreaks, schon gar nicht Luftgekühlt.
 
Klar hängt das sehr vom Kühler ab. Wenn ich aber Modelle mit ner geringeren Abwärme hab kann man auch andere Kühler verbauen und muss nicht unbedingt ne Tripple Slot Kühlung wie die Asus DCII nehmen nur damits leise ist.
 
Aber igendwie schon lustig bei amd. die grafikkarten bekommen sie super hin, was den stromverbauch angeht, und die bullis fressen strom ohne ende. (auf watt/leistung bezogen):schief: die sollten mal ihre ingis untereinader austauschen, das am cpu markt wieder was vorangeht bei amd.
 
Eine HD7950 kann theoretisch bis zu 225W (2x 6-Pin) verbrauchen und der GK104 bis zu 300W (1x 8-Pin + 1x 6-Pin, wie bei der HD7970). Jedenfalls wäre ein GK104 mit der Leistung einer HD7950 und der Leistungsaufnahme einer HD7970 ein Fail für Nvidia.

Man sollte den "Verbrauch" vielleicht auch nicht ganz so überbewerten.
Wenn man pro Tag durchschnittlich ne Stunde spielt und damit vom Gesamtsystem her ca. 350W an Verlusten verursacht, so belaufen sich die jährlichen Kosten bei 0,25€/kWh auf etwas über 31€. Verbräte die GPU jetzt 50Wh(was schon viel ist) weniger so kommt man auf nicht mal 5€ Ersparnis im Jahr. Das ist für nen Hobby jetzt nicht unbedingt viel^^
Ich vollziehe nach...:
350W * 1h * 365d = 127,75 kWh
0,25€/kWh * 127,75 kWh =~ 31,94€
Wenn man nur 1h täglich zockt, dann stimmt das. Es gibt aber auch Leute, die weitaus mehr als eine Stunde pro Tag spielen.

Aber der Stromverbrauch ist ganz und gar nicht egal. Wenn eine Million Zocker in Deutschland täglich eine Stunde zocken und die Grafikkarte verbrauchte lediglich 5W (!) weniger, dann:
5W * (1.000.000 menschen * 1h/menschen) * 365d = 1825MW
Also da müsste ein Kohlekraftwerk fast 2 Stunden lang CO2 in die Luft pusten um diese Leistung zu erbringen...
 
...Aber der Stromverbrauch ist ganz und gar nicht egal. Wenn eine Million Zocker in Deutschland täglich eine Stunde zocken und die Grafikkarte verbrauchte lediglich 5W (!) weniger, dann:
5W * (1.000.000 menschen * 1h/menschen) * 365d = 1825MW
Also da müsste ein Kohlekraftwerk fast 2 Stunden lang CO2 in die Luft pusten um diese Leistung zu erbringen...

Na diese Milchmädchenrechnung kannst du praktisch überall anwenden und damit so gut wie alles verurteilen, was mehr Strom frisst. :ugly:
 
Oha eine waschechte Energiedebatte:ugly:

Natürlich kann man das so kritisch betrachten wie du, aber 5wh stellt eine lächerlich geringe Leistung dar. Anstatt sich in dem Rahmen darüber Gedanken zu machen, solltest du dir lieber über die anderen paar 100 Energieverschwender in Haushalten da draußen den Kopf zerbrechen.

Ansonsten gilt jedenfalls, kaufe KEINE neu Grafikkarte. Den eines ist sicher, die paar Watt Ersparnis gleichen nie im Leben die Umweltbelastung wieder aus, welche bei Entsorgung und Herstellung entsteht.
 
Na diese Milchmädchenrechnung kannst du praktisch überall anwenden und damit so gut wie alles verurteilen, was mehr Strom frisst. :ugly:
Ja eben. Und das hier sind gerade mal 5W, also da kommt ne Menge zusammen. Denk doch mal nach Junge.:lol:

Oha eine waschechte Energiedebatte:ugly:

Natürlich kann man das so kritisch betrachten wie du, aber 5wh stellt eine lächerlich geringe Leistung dar. Anstatt sich in dem Rahmen darüber Gedanken zu machen, solltest du dir lieber über die anderen paar 100 Energieverschwender in Haushalten da draußen den Kopf zerbrechen.

Ansonsten gilt jedenfalls, kaufe KEINE neu Grafikkarte. Den eines ist sicher, die paar Watt Ersparnis gleichen nie im Leben die Umweltbelastung wieder aus, welche bei Entsorgung und Herstellung entsteht.
Das sollte euch nur klar machen, wieviel lediglich eine kleinigkeit von 5W ausmacht. Ihr müsst WEITERDENKEN. :ugly:
 
Oder z.B. bei Kraftfahrzeugen, wo vor der Leistungsangabe noch ein "k" für 1000 steht.

Benutzt einfach mal den CO2-Rechner von unserem Umweltministerium. Da merkt ihr, wie wenig CO2 der Stromverbrauch erzeugt.
 
Wenn die Karte mehr brauch als die HD7k ist die einfach ein Fail. Da gibt es nichts dran zu rütteln. Wenn, dann will man doch eine bessere Karte haben, die schneller und Sparsamer ist als der Vorgänger. Aber NV erkauft sich die Leistung leider durch zu hohe Abwärme und verbrauch. Eine 7950 braucht weniger als eine 5870 und ist schneller als eine GTX580. Das ist ein Ordentlicher wert, der in die richtige Richtung geht.
 
Also ist die Karte ein Fail wenn sie 20% mehr verbruachen WÜRDE als eine 7970, dafür aber auch z.B. 15% mehr leistet(+ andere Features)?
 
Ja eben. Und das hier sind gerade mal 5W, also da kommt ne Menge zusammen. Denk doch mal nach Junge.:lol:


Das sollte euch nur klar machen, wieviel lediglich eine kleinigkeit von 5W ausmacht. Ihr müsst WEITERDENKEN. :ugly:

OK. Ihr habt´s gehört. Also bitte alle im Sommer keine Ventilatoren laufen lassen und niemals mehr als 2 Lüfter in den Rechner einbauen.:schief:
 
Eben, ihr kennt doch die Leistung gar nicht von der Karte.

Wenn Karte mehr leistet und dafür mehr Strom frisst ist das doch okay. Ist doch Highend-Bereich und vor allem sind die Leistungsunterschiede hier in der Größe einer Halogenlampe, von daher eine lächerliche Diskussion. Macht halt einfach das Licht beim zocken aus und schon habt ihr das dreimal wieder eingespart :D
 
OK. Ihr habt´s gehört. Also bitte alle im Sommer keine Ventilatoren laufen lassen und niemals mehr als 2 Lüfter in den Rechner einbauen.:schief:
Man kann von dir wohl nicht erwarten, dass du das verstehst... :schief:

Es geht darum möglichst viel Energie zu sparen (wenn möglich) und nicht darum auf Irgendwas zu verzichten. :lol:

Also ist die Karte ein Fail wenn sie 20% mehr verbruachen WÜRDE als eine 7970, dafür aber auch z.B. 15% mehr leistet(+ andere Features)?
Wenns so kommt, dann wäre die Karte natürlich kein Fail.
 
Zurück