Jolly91
BIOS-Overclocker(in)
Wie soll eine Software die richtige TDP erreichnen können?
Hallo,
man sagt zwar ein Programm kann mit Ampere x Volt die Verlustleistung einer CPU, GPU, etc..., in Watt berechnen, doch wie sehr kann man darauf vertrauen, dass das auch stimmt?
Sicherlich, einen kleinen Chip rein impletieren, der den Strom und die Spannung misst, und schon kommt man hin, aber dennoch bin ich dem skeptisch.
Als Beispiel habe ich jetzt einen i7-3820 @ 4,3ghz. Unter 100%iger Last gönnt sich der lt. Tool´s wie AIDA, oder Real Temp gute 130W, doch wie sehr kann man diesem Wert trauen.
Die einzige Möglichkeit das zu messen wäre es selbst zu messen, aber wie will man die Ampere auslesen?
Hallo,
man sagt zwar ein Programm kann mit Ampere x Volt die Verlustleistung einer CPU, GPU, etc..., in Watt berechnen, doch wie sehr kann man darauf vertrauen, dass das auch stimmt?
Sicherlich, einen kleinen Chip rein impletieren, der den Strom und die Spannung misst, und schon kommt man hin, aber dennoch bin ich dem skeptisch.
Als Beispiel habe ich jetzt einen i7-3820 @ 4,3ghz. Unter 100%iger Last gönnt sich der lt. Tool´s wie AIDA, oder Real Temp gute 130W, doch wie sehr kann man diesem Wert trauen.
Die einzige Möglichkeit das zu messen wäre es selbst zu messen, aber wie will man die Ampere auslesen?