Für das AdvancedLogicFrameCapteringTool

Also ALFCAT

Geht nur darum, das man eben die statische Farbtabelle ersetzt durch einen zeitabhängigen Farbwert, bei dem man eben die 24 RGB-Bits ausnutzt und die Werte Farbwerte eben in einem buffer speichert, den man dann am Ende ausliest/speichert.

Damit wäre eben zu sehen, inwieweit es zu eine Abweichung zwischen dem Zeitintervall des DX-Hooks und der Ausgabe kommt.

Also Beispiel:

Eine Frame wird 800 Zeilen angezeigt. -> 1/60/1080*800=12,3ms

Die Farbwerte zwischen den beiden Frames müssen also im Optimalfall 12,3ms entsprechen. Wenn man alle 10µs um 1 quasi hoch zählt, und von 0b0 ausgeht, dann wäre das danach also der Farbwert 0b10011001110 (höherwertige 0 Bits jetzt ausgelassen!).

Wenn man jetzt in erster Näherung davon ausgeht, dass die ingamezeit mit dem call des DX-Hook korreliert, kann man daraus in erster Näherung ableiten, wie die Varianz (und relative Differen) zwischen Displaytime und ingametime ist.

Man könnte, sofern man das weiß, sogar zwischen statischer ingametime und dynamischer Inganetime unterscheiden.

Spinnt man das weiter, wäre es sogar denkbar, das Developer diese Information in geänderter Form für eine Rückkoplung in die Engine nutzen, um eben Ingametime und Displaytime zu syncen unter Berücksichtigung von Framemetering.

Theoretisch sollte sich das sehr einfach implementieren lassen, aber so lange man den SourceCode des Overlays nicht kennt, kann man das nicht sagen.