Ganz grob gesagt gibts da ne Faustregel für, dass der Stromverbrauch linear mit takt und quadratisch mit Spannung steigt.
Angenommen, deine Karte verbraucht 150W und du übertaktest von 700 auf 800 MHz. Dann kommst du rechnerisch auf
150W * (800/700) = 171 W.
Wenn du dabei noch statt 1,2v dann 1,25v anlegen würdest wärst du bei:
150W * (800/700) * (1,25/1,2)^2 = 185 W.
Das sind wie gesagt keine genauen Werte (in der Realität hängt das auch stark vom Bereich ab ob die GPU schon an der Grenze arbeitet oder noch etwas "Luft" hat) aber zum groben überschlagen passts ganz gut.