Nvidia: Kepler-GK104 mit einem 6- und einem 8-Pin-Stecker?

Hast in etwa das alles aufgezählt wofür ich auch stehe.
Nur sich wegen 5 watt aufzuregen und das mal 1 Million zu nehmen ist nicht grad mein Fall. :ugly:

So nun gut, ist jetzt echt zu offtopic. ;)
 
Ich sehe das ganze eigentlich total entspannt, wenn nvidia nichts gescheites gebacken bekommt dann kaufe ich eben eine 7950. Trotzdem würde ich mich so langsam mal über ein paar offizielle Infos freuen. Die ganzen Spekulationen nerven langsam ;)
 
Nur Autos sollen weniger verbrauchen oder worauf willst du denn hinaus?:lol: Und die Hardwarehersteller sind deiner Meinung nach wohl auch total bescheuert, weil sie Geld für Forschung ausgeben um Stromspar-Features in ihre Chips einzubauen. Weggeschmissenes Geld halt. :schief:

Jedenfalls schreibe ich es dir zum 3. Mal, und ich hoffe es bleibt jetzt bei dir hängen: Der Stromverbrauch ist eben NICHT EGAL, da kommt schon eine Menge zusammen. Das heißt aber nicht, dass man z.B. keine GTX580 o.ä. in sein System einbauen soll oder kann. Ich verzichte auch nicht auf Licht, Fernseher, warmes Wasser und den Zocker-PC - und da kommt auch eine Menge zusammen.

Autos werden sparender, Computer-Chips werden (zumindest Größtenteils) stromsparender, standby wird stromsparender, und und und - und das auch nicht grundlos (auch wenn du offenbar anderer Meinung bist). Wenn du das nicht verstehen willst/kannst, dann kann ich dir auch nicht weiterhelfen. Nachdenken musst du selber können.

Ähm, wo du gerade Autos erwähnst.
Du kannst doch auch keine 5 Jahre alten Motoren mit Top aktuellen Triebwerken vergleichen. Genauso kann man im grunde auch die ältere GTX580 schlecht mit der moderneren HD7 vergleichen, weil es schlicht unterschiedlich Chip-Generationen sind. Es heißt also auf den GK104 warten und dann richten. Im Moment ist die HD7 in der Tat der effizientere Chip, keine Frage, jedoch fällt das auch bei mir wenig ins Gewicht, da es sich um ein Hobby handelt.
Ich verstehe aber auch nicht so recht wo jetzt dein Problem ist?
 
Unter aktuellen Aspekten kann man das klar sagen. Betrachtet man aber die Situation von vor gut 1,5Jahren, so kann das was ein Chip an FPS/Watt geliefert hat wesentlich besser gewertet worden sein.
Es geht ja jetzt eigentlich nur darum zu sagen, das Nvidia keine Energieverschwender auf den Markt geworfen hat, das dies nach einiger Zeit anders bewertet wird, steht denke ich auser Frage. Im gleichen Zug sollte man denke ich vermeiden, Kepler bereits jetzt, ohne irgendwelche Test als Verschwender abzustempeln.
 
AW: Nvidia: Kepler-GK104 mit maximaler Leistungsaufnahme von 300 Watt

300Watt ...wieviele Glühbirnen bräuchte ich dafür ?

Offensichtlich die Summe der Angaben auf mehreren Glühbirnen, oder eine 300Watt Glühbirne!? :ugly:

Als ob der GK104 300W ziehen würde - is klar. Was soll denn dann der GK110 verbraten?:schief:

Mehr!? :D

300Watt für die Performance Klasse? Ich mein, ich würd NV nicht kaufen, aber selbst das traue ich denen nicht zu!

Vielleicht hat die GK104 auch nur diese Anschlüsse, weil sie genau so Potential zur Übertaktung wie AMD Pendaten hat und Luft nach oben braucht?

Bei meinem Hobby in Form meines Gaming PCs ist mir der Stromverbrauch so was von egal....

Das sieht bei mir so aus:

1. LEISTUNG
2. LEISTUNG
3. LEISTUNG
4. Gebotene Features
5. Kühlung
.
.
.
.
99. Stromverbrauch

Gaming ist nicht zwingend das Hobby für mich, aber meine Rangliste sieht ähnlich aus, ich hatte immerhin 2x 2900 im Crossfire früher ;-) Da soll mal einer was sagen. Ps: ein 500 Watt Netzteil hatte sogar gereicht für den gesamten Rechner! :-O
 
Zuletzt bearbeitet:
Wieso sollte so etwas klar sein? Weil es passend zum Fermi wäre?
[Ironie]Weil es vor Fermi ebenso nie eine Nvidia Grafikkarten mit einem ähnlichen Verbrauch wie die AMD-Karten gab? [/Ironie]
Das Beispiel mit einer 5750 ist auch schlecht gewählt gewesen ;)
So nah am Limit und mit etwas höheren Peak-Werten muss unbedingt ein zusätzlicher Stecker rein.


Was soll das Beispiel mit deiner 580 GTX eig. verdeutlichen?


Es ist doch nicht einmal ein fertiges Design. Tahiti hatte zu Beginn 2x8 Pin. Verbraucht die Karte jetzt 375 Watt?
Ich tippe auf 2x6Pin.

Nein, weil NV nie, niemals auch nur ansatzweise die Andeutung gemacht hat, dass die nun auf der Ökowelle reiten wollen und plötzlich nur noch stromsparende Modelle bringen. Viele scheinen zu vergessen: wir in Europa mit unserem teuren Strom machen gerade mal ein Bruchteil(!) von NVs Absatzmarkt aus, mehr wird in den USA (Atomkraft-hoch-3 und sehr billiger Strom) und nochmals mehr in Asien abgesetzt und just in diesen Ländern herrscht bisher(!) noch kein solcher Sparzwang wie hier bzw. hat es sich dort nicht so durchgesetzt.
Wer es mal verstehen will, der sollte sich nur mal die Rigs in z.B. NV Forum oder Evga Forum anschauen, was da als normales Sys angeschaut wird (und was für unsereiner schon eher absolute Verschwendung sen könnte). Man kann es auch so sagen: würden alle(!) oder wenigstens der allergrösste Teil(!) von NV Kunden plötzlich nach sehr sparsamen Karten rufen, dann würde sich sicher auch NV sehr viel mehr Gedanken darüber machen, aber ansonsten heisst es wohl: wir wollen das Maximum an Leistung und wenn dies nur durch noch mehr Saft erreicht werden kann, tja dann muss halt mehr Saft her :-)
Darfst mich nicht falsch verstehen, ist nicht meine Überzeugung, aber solange sich nicht die Denkweise aller Leute ändert, warum in Gottes Namen sollte NV da dann Änderungen machen? Guck nur mal ins NV Forum, da würden selbst dann Leute ne NV Karte kaufen, wenn die 500W saugen würde und somit jenseits von Gut und Böse wär. Gut, muss zugeben, dass auch mir der Verbrauch im Grunde so was von egal ist (oder besser: den geringen Verbrauch der Radeon seh ich(!) keinesfalls als Kaufgrund), aber ab nem gewissen Masse seh auch ich es als nicht ganz sauber an. Wobei eben, sollte ne GK104 bis 250W ziehen bei der Leistung einer 580, so ist dies für mich(!) noch mehr als ok.
 
Hmmm lass mich überlegen, das würde in diesen speziellen Fall bedeuten NV hat mehr Entwicklungszeitzeit zu Verfügung bekommen

Wer sagt das?


die mehr FPS über den Verbrauch rein holen. JAP IST NEN FAIL!

Ist dir diese Aussage ein paar Posts vor deinem überhaupt aufgefallen:
Deiner intention nach wäre auch die 7970 ein Fail weil sie die etwa 25% mehr Verbrauch zu HD7950 nur in etwa 16% mehr Leistung umsetzt.

mfg
oder hast du die ganz zufällig übersehen?

Demnach hätte AMD also auch versagt (nichts anderes bedeutet nämlich "to fail", was offenbar vielen Leuten nicht so klar ist, die damit in jedem dritten ihrer Posts durch die Gegend schmeißen), oder wie muß ich das verstehen?
 
Zuletzt bearbeitet:
Auch in Deutschland sind die Strompreise weiterhin so niedrig, dass Leute, die 700-800 € für Grafikkarten ausgeben, kein Problem damit haben, wenn ihr Freizeitvergnügen 600 W frisst. (um genau zu sein: Energie ist bei uns so billig, dass sich diverse Leute 200+ kW Hobbys leisten) Hauptargument für weniger Verbrauch ist die einfachere (wahlweise leisere oder billigere oder kompaktere) Kühlung - und die Bedingungen für AMD und Nvidia sind sowie die gleichen.
Davon abgesehen hat bislang nie ein Hersteller angekündigt, besonders sparsame oder besonders hungrige Karten zu bringen, die Leistungsklassen fluktuieren einfach leicht - wobei insbesondere eine drastische Verkleinerung des Fertigungsprozesses eine Absenkung begünstigt.
 
Eigentlich kanns mir ja egal sein. In spätestens 50 Jahren leg ich eh den Löffel weg - aber die Holländer und ein paar andere Menschen, die ob der Klimaerwärmung langsam absaufen werden - könnten das anders sehen.
 
Ich bitte darum, Posts, die nichts neues oder zumindest überhaupt irgendwas zum Thema "GK104 Stromverbrauch" beitragen, so langsam aber sicher einzustellen. Schlimm genug, dass 90% der Leute unfähig sind, einen Thread zu lesen....
Und was noch schlimmer ist, sind die Leute die nicht fähig sind eine News komplett zu lesen. Dann würden sich solche Kommentare wie "uiii 300Watt, Fail nVidia" usw auch erledigen.
Das Problem ist aber auch die Überschrift; ich nenn es mal "unglücklich formuliert" um nicht "Absicht um Klicks zu generieren" zu unterstellen.:P
Die Redakteure sollten aber gelegentlich auch die einleitenden Texte/Überschriften besser wählen. Wurde dann bei dem Artikel ja auch geändert. Sie wissen ja sicher auch wie viele, ich sag mal "mit weniger Fachwissen ausgestattete", Forenmitglieder hier rumlaufen die nach den ersten 3 Zeilen schon den Mauszeiger auf "Artikel jetzt kommentieren" haben.

Damits nicht ganz OffTopic wird:

Uiii ja, mein 650er Antec-NT zieht ja auch dauerhaft die Nennleistung aus dem Netz, egal ob nur für ~450W Verbraucher dranhängen...:ugly: 300Watt , bähh nVidia!
Aber ernsthaft: ich denke mal der Verbrauch wird so knapp an den 200W kratzen.
Somit erklärt sich das mit 8+6Pin von selber.
Mit 2*6 bzw. 1*8 wäre man bei 225W max Versorgung, was bei übertakteten Karten dann schon mal eng werden kann..
Wenn schon unser Freund Charlie schreibt das die Effizienz recht gut ist gehe ich mal nicht von einem Thermi V2 aus.
Aber mein endgültiges Urteil gebe ich dann mal ab wenn es unabhängige Tests vom Vollausbau(!) gibt.
Bis dahin also abwarten und :kaffee: trinken (wir brauchen ein "Tee"-Emoticon !!)
 
Zuletzt bearbeitet:
Zurück