Wenn die Benchmarkprogramme identisch sind nicht, soweit ich weiss gibt es bei Benchmarks keine "Messungenauigkeit" wie bei einem analogen Volt/Ampere/Tachometer.
Die Zeitmessung (Taktgeber?) wäre meines Erachtens die wahrscheinlichste Fehlerquelle, aber sonst ist so ziemlich alles auf Board/CPU/GPU/RAM zurückzuführen, und das gilt es ja zu bewerten in einem Benchmark.
Bei Messungenauigkeit/"Chancenungleichheit" könnte man mehrere Messungen vornehmen und den Mittelwert/Median ausrechnen. Bei Speicher- und Massenspeicherbenchmarks wird das oft gemacht.
Theoretisch ja, praktisch ist die Ausführung der Programme aber selbst auf gleicher Hardware selten identisch. Der Grund dafür liegt darin, dass der Benchmark in der Regel nicht direkt auf der Hardware läuft, sondern ein Betriebssystem für die Hardwareansteuerung benutzt.
Und Betriebssysteme sind mittlerweile so komplex, dass es schwierig bis unmöglich ist solche Benchmarks exakt zu reproduzieren. Das gilt natürlich besonders für Windows, aber in geringerem Maße auch für Linux. Auch hier kann der genaue Ausführungsweg eines Hintergrundprozesses z.B. vom BIOS-Datum abhängen, und damit die Performance abseits von Hardwareeinflüssen beinträchtigen.
Das schlimmste ist, dass man den Einfluss praktisch nur empirisch bestimmen kann. Man muss also den gleichen Benchmark hunderte oder tausende Male wiederholen, um ein statistisch aussagekräftiges Ergebnis zu bekommen.
Bei Messungenauigkeiten spricht man von %<1,5%.
Hast du dir die Zahl gerade ausgedacht, oder eine wirkliche Begründung? Von "Messungenauigkeiten" spricht man, wenn die Ergebnisse im Rahmen ihrer Fehlertoleranz identisch sind. Wie groß diese Fehlertoleranz ist, ist allegemein nicht auf eine simple Angabe reduzierbar, sondern hängt vom Messverfahren ab.
Beispiel: Wenn ich statt der Computerinternen Zeitmessung eine Stoppuhr verwenden würde, wäre die Fehlertoleranz der Messwerte deutlich höher, weil zumindest ich nicht auf Millisekunden genau stoppen kann.