Geforce GTX 280 @ GTX 285: Mehr Leistung, weniger Stromverbrauch

Also mein English ist sicher schon eingerostet aber
... is always good to start with the good news and that is that the new version of NiBiTor is actually ready which is adding support for the 55nm based GT200 cards, such as the GeForce GTX 285 and the GeForce GTX 295...

Ich würde sagen ...doch 285/295 geht....

hmm, dann müsste es ja mit meiner GTX295 funktionieren? Tut es aber nicht!
 
Also wenn du die GTX295 mit 1,06V laufen lassen könntest unter Last, dann müsste die ja um einiges leiser und kühler werden, immerhin sind es zwei Chips die dann weniger Hitze produzieren, ich war selbst total überrascht wie kühl meine GTX280 auf einmal wurde ;)
 
ich würde es ja ausprobieren aber wie gesagt, mit NiBiTor V4.8 kann ich das Bios weder auslesen noch bearbeiten. zu den Temps: Idle je nach Raumtemperatur 45...50Grad und unter Last je nach Spiel 60 bis 80 Grad. Der FurMark heizt beide auch mal auf 85 Grad. Im Gegensatz zur 9800GX2 läuft sie richtig kühl.
 
Zuletzt bearbeitet:
Wenn die GTX295 ähnlich kühl und leise nach dem Undervolten wird wie eine GTX280 dann wäre die GTX295 eine echt gute Karte, wenn dann noch die Mikroruckler nicht wären würde ich sie sofort kaufen ;)

Wie hoch dreht denn der Lüfter im IDLE, Spielen und Furmark?
 
naja, als besonders leise kann ich die Karte nicht bezeichnen. Der Lüfter läuft Standard bei 41% ~2000U/min und unter Last dreht sie auch mal gern ordentlich auf. Aber wenn man den Lüfter manuell auf 25% runter regelt, höre ich sie nicht mehr. So würde ich es auch gern ins Bios übernehmen.

Edit: habe sie jetzt mal 6 Minuten lang mit FurMark belastet mit geänderter .exe so das beide GPU mitlaufen. Der Lüfter ging auf 3250 U/min 72% und 88 Grad - heute ist es sehr warm bei mir. In Spielen erreiche ich aber derartige Temps nicht. Auch dreht der Lüfter dann nicht so hoch. Ab ungefähr 70 Grad fängt der Lüfter an schneller zu drehen alles was drunter ist, bleibt er bei 41%.
 
Zuletzt bearbeitet:
Funzt das Ganze auch mit einer GTX285? Ich meine, sodass sie natürlich schneller wird aber hauptsächlich leiser. z.B. wie eine standard GTX280? Währe gut :)

danke
valeri
 
So musste leider feststellen das der FurMark leider nicht alles Testet.
Habe mir ein Zotac AMP! Bios geladen und modifiziert weil meins nicht so flexibel bei den Spannungen war.
Im FurMark war auch alles OK.
Auch Crysis Warhead lief ohne Probleme.
Aber Left4Dead nicht. Immer nach kurzer Spielzeit Spielabsturz.

Jetzt hab ich mein orginal Bios modifiziert. Nach langem rumgedattelt mit den NiBitor habe ich es auch hinbekommen.

GPU 700 Shader 1400 RAM 1250 bei 1,11 Volt (Orginal 602 1296 1107 @1,18 Volt )

Stabil und L4D lauft auch wieder einwandfrei.

Also sollte man nicht nur mit dem FurMark auf Bildfehlertesten sondern auch ein paar Spiele ausprobiern !
 
Es lässt sich streiten ob Tool wie FurMark , Memtest Prime &CO ihren Sinn haben.
Generell würde ich sagen das die Tool sinnvoll sind zum System Testen und zum suchen von Absturzursachen / Hardware Problemen oder Kühlungsproblemen.

Kein Verständniss hab ich das ATI Grafikkarten ein Temperatur Problem bekommen wenn der FurMark länger läuft. Genauso gilt das für Nvidia die sich über die Stromnormen der PCIe Anschlüsse hinwegsetzten.

Für mich gilt Prime als der CPU Test und FurMark ist eben Prime für die Grafikkarte.
Wenn die beiden Sachen stabil laufen geht es meisten auch mit allem anderen Anwendungen ohne Probleme wenn wir mal von meinen GK Bios Problem absehen.

Es mag sein das der FurMark praxisfremd ist da ein 100% Dauerauslastung der Grafikkarte beim Spielen nicht vorkommen wird, nichtdestotrotz muss eine Grafikkarte es aushalten ohne Schaden zu nehmen oder zu verursachen ! CPUs halten es auch aus ohne Probleme.
 
Das Problem an Furmark ist dass es eher shaderlastig ist und man so eventuelle Instabilitäten/Schwächen bei den TMUs dadurch nicht so schnell erkannt werden. Um die TMUs richtig auszulasten empfehlen sich sehr texturlastige Spiele wie das zwar relativ alte, aber dennoch nach Texturleistung lechzende Gothic 2 welches an einigen Stellen meine GTX280 fast mehr aufheizt als Crysis ;)
 
Furmark ist eh praxisfremd.
Nur weil die Karte zu 100% ackern muss? AMD wie nVidia testen intern sich nicht mit dem 3DMark :fresse: Und eine Komponente, die nach 5min Volllast den Geist aufgibt, ist schlicht minder qualitativ. Was, wenn in diesem Jahr ein Spiel erscheint, dass alle ALUs voll auslastet? Ist das dann auch praxisfremd? Nein.

cYa
 
So effizient werden die Spiele wohl nie produziert werden ;)

Aber wie schon gesagt kann der Furmark keine Schwächen der TMUs aufdecken, nur Schwächen bei den Shadern wenn es jetzt darum geht den maximal stabilen Takt zu ermitteln. Furmark kann ja stabil laufen, aber Spiele die auf sehr gute Texturen wert legen können dann trotzdem abstürzen oder Bildfehler darstellen, wie Berserkervmax leider schon feststellen musste.

Insofern ist Furmark sinnvoll wenn es darum geht um zu schauen ob die Stromversorgung der Karte stabil ist und die Kühlleistung unter extremen Bedingungen ausreicht. Aber um die maximal stabilen Taktraten zu ermitteln taugt Furmark nicht mehr als wie jedes X-beliebige andere Spiel auch. Um die Stabilität von OC zu überprüfen würde ich lieber mit Crysis, Stalker Clear Sky, oder Far Cry 2 testen und dann alles auf max mit den höchsten nur möglichen AA und AF Einstellungen ;)
 
Zurück