Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz

Durch den PCIe stecker 75watt ... 8pin stecker 150 watt und 6 pin stecker 75watt
Also die R9290x kann maximal 300 Watt saugen ;)

Die Evga kingpin gtx 780ti hat noch einen 8 pin stecker mehr also theoretisch 450 Watt

mfg Markus
 
wahrscheinlich review gelesen, wo gesamtsystemverbrauch drinstand,
seinen ansatz, nen sparrechner für internt und schach haben zu wollen, find ich allerdings gut
 
Warscheinlich war es ein Erstbericht den gelesen ich gelesen hab,das stand auf jedenfall darin Benschmark 400 Watt r9 290x usw das hab ich mir hab nicht einfallen lassen und war keine schätzung von mir auch stand was in den ersten berichten von der 750 ti was von 60 Watt und jetzt sind es schon 75 Watt was die Gtx 750 ti angeht.
Warum sollt ich wenn ich mal 24 std vorm Rechner bin und HoI 3 spiele eine oder gar zwei r9 290 x laufen lassen wenns auf HD 4000 integrieter grafik auch geht ich bin im moment auf HD 4000 und habe Metro 2033 ausprobiert des Bild selber ist nicht mal so schlecht auf Derekt X9 laufts flüssig übern Gamer Pc spiels ich lieber weil ich HD3D mag .Ich bastel gerne und mache auch gern Benchmaks also verwende ich auch HD 4000 weil es einen sinn hat und es ist leiser und billiger ist und überigens bin ich Vegan und spare auf ein neues Motorrad und schau auch deshalb auf die stromrechnung und werde vieleicht auch Linux installieren wenn ich es brauche und nicht damit ich es auch habe.Vieleicht geht Borgerland 2 fliesend und ruckelfrei ober auch das würd ich lieber HD3D spielen.
 
Zuletzt bearbeitet:
wahrscheinlich review gelesen, wo gesamtsystemverbrauch drinstand,
seinen ansatz, nen sparrechner für internt und schach haben zu wollen, find ich allerdings gut

Ist aber fragwürdig, da sowohl Anschaffungskosten als auch der Energieaufwand bei der Herstellung weitaus größer sind, als alles, was man einsparen könnte. Moderne GPUs und CPUs verbrauchen ziemlich sehr wenig, wenn sie nicht/nur gering belastet werden. Statt einem Gaming-Rechner@idle etwas anderes zum surfen zu nutzen, lohnt sich nur, wenn man das andere System ohnehin schon hat (z.B. ein Arbeits-Notebook).
 
Also ich fasse mal zusammen: Fast alle mögen Effizienz, aber fast keiner will Geld dafür ausgeben. Eine gute Einstellung. Diese Welt hat ne glänzende Zukunft vor sich. :)

Für die meisten ist Effizienz nicht so relevant, weil der PC die meiste Zeit nur idle/office benutzt wird. Da kommt es auf 10W mehrverbrauch nicht an. Interessant ist es eigentlich nur für Cruncher die Boinc und Folding@Home betreiben. Ich würde eine GTX 750ti vorziehen und den mehrpreis bezahlen von ca 20-30€ aus folgenden Gründe: Kundenloyalität-20€ hin oder her. 2 Bier weniger das nächste mal und ich hab die 20€ wieder drin :D und die GTX 750ti braucht keine extra Stromversorgung. Maxwell wird sicherlich für Bit- und Litecoinminer sehr interessant noch aufgrund der hohen Energieeffizienz.
 
Ist aber fragwürdig, da sowohl Anschaffungskosten als auch der Energieaufwand bei der Herstellung weitaus größer sind, als alles, was man einsparen könnte. Moderne GPUs und CPUs verbrauchen ziemlich sehr wenig, wenn sie nicht/nur gering belastet werden. Statt einem Gaming-Rechner@idle etwas anderes zum surfen zu nutzen, lohnt sich nur, wenn man das andere System ohnehin schon hat (z.B. ein Arbeits-Notebook).

Ich hofe das ich mich nicht zu sehr vom thema entferne.Dann werde ich halt mein 7 Jahre altes HP G5000 Notebook an den selben Monitor anstecken mit Tastertur wo mein Gamer Pc angesteckt ist.Da am Adapter 65 W-18,5 V denk ich mir das das Notebook nicht mehr braucht das ist weniger als die gtx 750 ti verbraucht. Das macht im Jahr ca 20 Euro.
 
Zuletzt bearbeitet:
Für die meisten ist Effizienz nicht so relevant, weil der PC die meiste Zeit nur idle/office benutzt wird. Da kommt es auf 10W mehrverbrauch nicht an. Interessant ist es eigentlich nur für Cruncher die Boinc und Folding@Home betreiben. Ich würde eine GTX 750ti vorziehen und den mehrpreis bezahlen von ca 20-30€ aus folgenden Gründe: Kundenloyalität-20€ hin oder her. 2 Bier weniger das nächste mal und ich hab die 20€ wieder drin :D und die GTX 750ti braucht keine extra Stromversorgung. Maxwell wird sicherlich für Bit- und Litecoinminer sehr interessant noch aufgrund der hohen Energieeffizienz.
Was kaufst du für Bier?
Normale Menschen kaufen für 20-30 Euro locker 2 Kästen...
 
Ich hofe das ich mich nicht zu sehr vom thema entferne.

Nach 6 Tagen und 200 Posts sollte das in einem "News"-Thread ohne laufende Diskussion tollerabel sein ;)

Dann werde ich halt mein 7 Jahre altes HP G5000 Notebook an den selben Monitor anstecken mit Tastertur wo mein Gamer Pc angesteckt ist.Da am Adapter 65 W-18,5 V denk ich mir das das Notebook nicht mehr braucht das ist weniger als die gtx 750 ti verbraucht. Das macht im Jahr ca 20 Euro.

Das Notebook wird sicherlich in vielen Szenarien weniger verbrauchen - ein System mit 750ti beim surfen aber auch. Aber selbst wenn es für 15-20 € zusätzlich Strom im Jahr verbauchen sollte, dauert es dann eben >ein Jahrzehnt, ehe sich neue Hardware rechnen würde.
 
also das mit 400W ist Schwachsinn.

Kein Schwachsinn ich hab da nochmal nachgestöbert da ich selbst eine r9 290 x habe gefällts mir auch nicht das die bis zu 400 Watt verbrauchen ist aber so.Kannst du nachlesen bei Gamestar im Fazit der R9 290x Tri-x und ich habs schon mal vorher noch woanders gelesen .

Die R9 290 ist ansonsten eine sehr gute Preiswerte Grfk. mit sehr guten preisleistungsverhälnis .
 
Zuletzt bearbeitet:
Kein Schwachsinn ich hab da nochmal nachgestöbert da ich selbst eine r9 290 x habe gefällts mir auch nicht das die bis zu 400 Watt verbrauchen ist aber so.Kannst du nachlesen bei Gamestar im Fazit der R9 290x Tri-x und ich habs schon mal vorher noch woanders gelesen .

Auch wenn du den Blödsinn in jeden Thread postest.
Es sind keine 400 Watt.

http://extreme.pcgameshardware.de/n...o-marke-im-preisvergleich-10.html#post6203521

Auch die Gamestar meint das gesamte Testsystem.
Da steht...

"Stromverbrauch gemessen in Battlefield 4 für komplettes Testsystem"
 
Zuletzt bearbeitet:
400W ist bestimmt gesamtsystem (außer vielleicht mit massig oc mit spannungserhöhung),
ist fast immer so in reviews, weil die karte allein nicht ohne weiteres messbar ist
 
Zuletzt bearbeitet:
Kein Schwachsinn ich hab da nochmal nachgestöbert da ich selbst eine r9 290 x habe gefällts mir auch nicht das die bis zu 400 Watt verbrauchen ist aber so.Kannst du nachlesen bei Gamestar im Fazit der R9 290x Tri-x und ich habs schon mal vorher noch woanders gelesen .

Die R9 290 ist ansonsten eine sehr gute Preiswerte Grfk. mit sehr guten preisleistungsverhälnis .
Lern bitte den Unterschied zwischen Gesamtsystem und nur Karte....
 
Ich wurde da auch noch Grammatik und Zeichensetzung hinzufügen.
Würde ich auch sagen. Das sich überhaupt jemand die Mühe macht, sich durch diese Textblöcke ohne Punkt und Komma zu ackern, ist schon bemerkenswert.
Aber irgendwie muß man ja Falschaussagen wie 400W bekämpfen, sonst setzt sich das noch durch, das dem alle Glauben schenken...
 
Wenn AMD nicht mitzieht siehts alt für die aus. ich glaube kaum dass die Next Gen. karten, auch mit verbesserter architektur auf die gleiche effiziens kommen werden.
 
Hm..

Ich schwanke jetzt zwischen dieser Grafikkarte für mein Low Profile System und einer XFX R7 250 2 GB DDR3 mit AMD A8-6500 2 GB DDR3 Dual Graphics (Overclocked). Die R7 250 ist zwar langsamer, bekommt durch die Dual Graphics aber einen Schub um 20-30%.
Hat jemand einen Vorschlag?
 
Wenn AMD nicht mitzieht siehts alt für die aus. ich glaube kaum dass die Next Gen. karten, auch mit verbesserter architektur auf die gleiche effiziens kommen werden.
Ich hab da was nettes für dich: Klick.

AMD hat nicht nur die stärkste DP Performance, nein, AMD ist bei der DP Performance auch noch effizienter pro Watt und effizienter pro Chipfläche als ein GK110. AMD bringt mit einem einzelnen Hawaii-Chip die gleiche DP-Leistung wie Nvidias Titan Z. (mit zwei vollwertigen GK110)

Ich glaub also nicht, dass AMD da irgendwo mitziehen muss. Eher andersrum.
Tellerrand und so. Aber hauptsache mein Computing-Vollkrüppel quetscht ein paar mehr FPS aus einem Watt als eine günstigere AMD.
 
Zurück