nVidia Geforce GTX 6x0/7x0/Titan Overclocking/Undervolting-Thread

Mir stellt sich eh die Frage in wie fern sich die 680 und die 670 von einander unterscheiden (bauartbedingt). Immerhin ist die 670 nen gutes Stück kürzer. Verringerte Shader und mehr MHz können ja nicht das einzige sein.
Was meinst du da jetzt genau?
Wenn hat die 670 nicht nur weniger Shader(1344| GTX680: 1536) und weniger TMUs(112| GTX680: 128), sondern eigtl. auch den geringeren Grund-/Standardtakt(915MHz| GTX680: 1006) von beiden.
Je nach Karte bei den 670er, kommt ja gut und gerne auch das GTX 680er PCB zum Einsatz (wie hier zB. bei der Evga GTX 670 FTW).
 
Zuletzt bearbeitet:
Kommt aufs Bios an. Die meisten gehen bis 1.175V. Danach kommt nur noch der Schritt auf 1.212V. Kann gut sein, dass dein Bios schon bis 1.212V frei ist von Haus aus. Würde mich nicht wundern.
Kann auch sein, dass du dann noch 15MHz oder so dazu bekommst. Das Glück hat allerdings nicht jeder. Bei mir wurde die Karte eher instabiler.

Mir stellt sich eh die Frage in wie fern sich die 680 und die 670 von einander unterscheiden (bauartbedingt). Immerhin ist die 670 nen gutes Stück kürzer. Verringerte Shader und mehr MHz können ja nicht das einzige sein.

Bei allen GTX 770'ern geht die Sappnung bis 1,212 Volt ;)
 
Bei allen GTX 770'ern geht die Sappnung bis 1,212 Volt ;)

Bei mir aus irgendeinem Grund scheinbar nicht O_o Einstellen kann ich sie zwar. Auch im Bios steht max voltage 1,212 v, aber angenommen wird die Einstellung nicht. GPU-Z zeigt weiterhin 1,2000v. Am Treiber kann das nicht liegen oder? Hab noch den 320.18 drauf.
 
Bei mir aus irgendeinem Grund scheinbar nicht O_o Einstellen kann ich sie zwar. Auch im Bios steht max voltage 1,212 v, aber angenommen wird die Einstellung nicht. GPU-Z zeigt weiterhin 1,2000v. Am Treiber kann das nicht liegen oder? Hab noch den 320.18 drauf.

Siehe FAQ erste Seite, Thema "Vdrop".
 
ist dir eigl klar wie wenig 12,5mV sind? das sind schon beträge die in den bereich messgenauigkeit fallen.
außerdem sagte ich auch schon, dass spannungsänderung bei den meisten karten eh nicht bringt/bewirkt.
 
So hier mal meine Ergebnisse.... :daumen:
 

Anhänge

  • Firestrike 1.jpg
    Firestrike 1.jpg
    380,2 KB · Aufrufe: 124
ist dir eigl klar wie wenig 12,5mV sind? das sind schon beträge die in den bereich messgenauigkeit fallen.
außerdem sagte ich auch schon, dass spannungsänderung bei den meisten karten eh nicht bringt/bewirkt.

Ja, mir ist bewusst, wie viel 12,5 mV sind. Ich habe auch in meinem ersten Beitrag bereits geschrieben, dass diese Erhöhung sicherlich keine Wunder bewirken wird, es mich jedoch interessiert, warum es bei anderen Karten funktioniert, bei mir jedoch nicht.

Willst du mir also sagen, dass GPU-Z diese geringe Spannungserhöhung bei mir nur nicht erkennt aufgrund von Messtoleranzen und bei anderen schon? Das klingt für mich eher fraglich.

Beste Grüße
 
^^Und der Speicher bei, bestimmt ~2000MHz?

Dann beträgt der Unterschied zu einer GTX 670 @ 1306/1803MHz, 14-15% im Grafikscore und nur 6-10% im Gesammtergebnis :schief:

GF670_13_FireStrikeExt_3508.jpg GF670_13_FireStrike_7103.jpg
 
Ja genau 14-15. Das Gesamtergebnis kann man in diesem Fall nicht bewerten, da ja nicht der selbe Prozessor vorhanden ist, der wirkt sich wesentlich auf den Physics Score aus :daumen:
Speicher hab ich jetzt nicht drauf geachtet...


PS: Sehe du hast deinen auf 5ghz laufen und ich meinen 3570k auf 4,1 (24/7)
 
Zuletzt bearbeitet:
Hehe, gerade so gemütlich am Battlefield 3 zocken... PrecisionX Onscreen Display an und komischerweise 96°C auffa GPU. Das kam mir dann doch etwas sehr komisch vor. Also Karte raus, Kühler runter, sauber gemacht, neue WLP drauf, Schrauben festgezogen und wieder rein das Ding. und siehe da: 60°C unter Last. Was son Tapetenwechsel alles ausmachen kann :D (wobei ich eher glaube, dass die Schrauben nicht ganz fest waren).
 
Also hab ich das jetzt so richtig verstanden. Ich kann die GPU Clock so weit raufschrauben, bis die Karte ins Power oder Temp Target reinläuft und dann throttlet?

Und wenn das dann passiert, diese Parameter anpassen (Soweit es die Temp bzw die Spannung zulässt).

Testen kann ich ja mit dem GPU Tool auch, oder?
 
Also hab ich das jetzt so richtig verstanden. Ich kann die GPU Clock so weit raufschrauben, bis die Karte ins Power oder Temp Target reinläuft und dann throttlet?

Und wenn das dann passiert, diese Parameter anpassen (Soweit es die Temp bzw die Spannung zulässt).

Testen kann ich ja mit dem GPU Tool auch, oder?

Von welcher Karte sprechen wir hier?
Wenn du direkt volle Kanne aufdrehst wird sie sicher sofort abstürzen.
 
Von einer EVGA GTX 780 SC ACX. Ich taste mich natürlich in 25 - 50 MHz schritten heran. Ich bin im Moment bei +100 MHz GPU Clock.

Mir geht es nur um das Grundverständniss mit dem Boosten der Karte.
 
Was ist daran im ersten Post zu undeutlich?
Bringt ja nicht, wenn ich mir die Mühe mache und was dazu schreibe, es aber den Sinn verfehlt und die Leute es trotzdem nicht verstehen ;)
 
Also hab ich das jetzt so richtig verstanden. Ich kann die GPU Clock so weit raufschrauben, bis die Karte ins Power oder Temp Target reinläuft und dann throttlet?

Und wenn das dann passiert, diese Parameter anpassen (Soweit es die Temp bzw die Spannung zulässt).

Testen kann ich ja mit dem GPU Tool auch, oder?
Deine Karte besitzt eine max. Spannung. Die liegt bei meiner 770 z. B. bei 1.2V
Ich kann den Core Clock jetzt soweit erhöhen, solange die Karte stabil bleibt. Bei meiner sind das 1306MHz, gehe ich höher, reicht die Spannung nicht mehr aus. Du kannst also nicht bis ins unmögliche takten.
Allerdings hat eine höhere Spannung, mehr Takt und die daraus resultierende höhere Abwärme mehr Verbrauch zufolge. Jetzt kommt das Power Target ins Spiel. Verbraucht deine Karte mehr als für sie im Bios vorgesehen, senkt sie automatisch die Spannung und den Takt.
Sagen wir du stellst einen Offset von +120MHz auf die GPU ein, deine Karte taktet dann mit 1306MHz, dann wird dieser Takt gehalten bis du ins PT rennst.
Erhöhst du also das PT, passiert genau das runtertakten nicht mehr.

Den OC-Takt solltest du mit einem Spiel wie Crysis 3 testen, Tools wie FurMark usw. belasten die Karte unnötig extrem hoch.
 
Zurück