F
Fuzi0n
Guest
Ähm, was? lol Hast du das überhaupt gelesen?Endlich hast du es auch mal verstanden.
Ähm, was? lol Hast du das überhaupt gelesen?Endlich hast du es auch mal verstanden.
Nur Autos sollen weniger verbrauchen oder worauf willst du denn hinaus? Und die Hardwarehersteller sind deiner Meinung nach wohl auch total bescheuert, weil sie Geld für Forschung ausgeben um Stromspar-Features in ihre Chips einzubauen. Weggeschmissenes Geld halt.
Jedenfalls schreibe ich es dir zum 3. Mal, und ich hoffe es bleibt jetzt bei dir hängen: Der Stromverbrauch ist eben NICHT EGAL, da kommt schon eine Menge zusammen. Das heißt aber nicht, dass man z.B. keine GTX580 o.ä. in sein System einbauen soll oder kann. Ich verzichte auch nicht auf Licht, Fernseher, warmes Wasser und den Zocker-PC - und da kommt auch eine Menge zusammen.
Autos werden sparender, Computer-Chips werden (zumindest Größtenteils) stromsparender, standby wird stromsparender, und und und - und das auch nicht grundlos (auch wenn du offenbar anderer Meinung bist). Wenn du das nicht verstehen willst/kannst, dann kann ich dir auch nicht weiterhelfen. Nachdenken musst du selber können.
300Watt ...wieviele Glühbirnen bräuchte ich dafür ?
Als ob der GK104 300W ziehen würde - is klar. Was soll denn dann der GK110 verbraten?
Bei meinem Hobby in Form meines Gaming PCs ist mir der Stromverbrauch so was von egal....
Das sieht bei mir so aus:
1. LEISTUNG
2. LEISTUNG
3. LEISTUNG
4. Gebotene Features
5. Kühlung
.
.
.
.
99. Stromverbrauch
Wieso sollte so etwas klar sein? Weil es passend zum Fermi wäre?
[Ironie]Weil es vor Fermi ebenso nie eine Nvidia Grafikkarten mit einem ähnlichen Verbrauch wie die AMD-Karten gab? [/Ironie]
Das Beispiel mit einer 5750 ist auch schlecht gewählt gewesen
So nah am Limit und mit etwas höheren Peak-Werten muss unbedingt ein zusätzlicher Stecker rein.
Was soll das Beispiel mit deiner 580 GTX eig. verdeutlichen?
Es ist doch nicht einmal ein fertiges Design. Tahiti hatte zu Beginn 2x8 Pin. Verbraucht die Karte jetzt 375 Watt?
Ich tippe auf 2x6Pin.
Hmmm lass mich überlegen, das würde in diesen speziellen Fall bedeuten NV hat mehr Entwicklungszeitzeit zu Verfügung bekommen
die mehr FPS über den Verbrauch rein holen. JAP IST NEN FAIL!
oder hast du die ganz zufällig übersehen?Deiner intention nach wäre auch die 7970 ein Fail weil sie die etwa 25% mehr Verbrauch zu HD7950 nur in etwa 16% mehr Leistung umsetzt.
mfg
Und was noch schlimmer ist, sind die Leute die nicht fähig sind eine News komplett zu lesen. Dann würden sich solche Kommentare wie "uiii 300Watt, Fail nVidia" usw auch erledigen.Ich bitte darum, Posts, die nichts neues oder zumindest überhaupt irgendwas zum Thema "GK104 Stromverbrauch" beitragen, so langsam aber sicher einzustellen. Schlimm genug, dass 90% der Leute unfähig sind, einen Thread zu lesen....