Auch Du synchronisierst die Graka. Ich synchronisiere den Monitor...
Erst einmal müssen wir uns über den Begriff Eingabelag noch etwas genauer klar werden. Das ist nämlich erst einmal etwas komplizierter, als es viele Leute betrachten.
Am naheliegendsten sind hier natürlich elektronische Messungen mit Photodiode direkt am Monitor, also Timingmessung eines elektronisch etwa am Mausport ausgelösten Lichtpulses, direkt danach kommen die bekannten Kamerasetups, die letztlich ähnlich funktionieren. Hier müssen wir uns aber über eines klar werden:
Es ist hoch relevant, WO auf dem Bildschirm wir messen und wie wir Eingabelag wirklich genauer definieren, so gut sind heutzutage Gsync und FreeSync.
Erst einmal also das Wo, warum wo? Wo ist das wo?
Unten halbrechts, wo sich gerade das Gebüsch im Canyon bewegt hat? Im Zentrum, wo wir gerade auf ein noch knapp außer Reichweite heranpreschendes Fahrzeug anlegen? Oben links hinter der Wolke, wo sich gerade der Freiherr von Richthofen auf uns stürzt?
Wir werden nämlich (unter anderem) je nach Ort der Messung unterschiedliche Vor- und Nachteile der Systeme mit/ ohne Free/GSync sehen, von denen einige in der Tat prinzipbedingt sind und mit Synchronisierung zu tun haben. Ich werde dabei vor allem FreeSync betrachten, weil es im Gegensatz zu Gsync weniger Black-Box-Charakter hat, nicht nur, weil ich es besser aus dem Alltag kenne.
Sagen wir Du renderst gerade mit hypothetisch konstanten 190 FPS auf einen 100Hz-Schirm, einmal mit FreeSync und EnhancedSync und einmal "unsynchronisiert". Warum "unsynchronsiert" in Anführungszeichen? Weil ihr vergesst, daß es sehr wohl eine für das Auge relevante Synchronisierung auch ohne adaptive Sync (also Gsync/FreeSync) gibt, nämlich die mit den 100Hz des Bildschirms selbst. Genau da wird das "wo" relevant.
Wenn hypothetisch alles perfekt funktioniert (insbesondere die Frametime-Prediction von FreeSync ist hier gefragt), wird das prinzipbedingt sich wie folgt unterscheiden:
Während der ersten Millisekunden wird auf beiden Monitoren von oben nach unten das Bild zeilenweise dargestellt. Etwa nach 5ms aber wird das Bild in der unteren Hälfte beim "unsynchronsierten" Monitor nun etwas früher mit der neuen Geometrie dargestellt, das Auge sieht hier früher neue Information, wird in diesem Moment beispielsweise unten gemessen, wird der Lag geringer sein als mit FreeSync. Der Eingabelag in diesem Bildschirmbereich ist fraglos prinzipbedingt bei "unsynchronisierter" Darstellung klar überlegen. DAS gestehe ich jederzeit zu.
Was aber passiert im Idealfall an anderen Stellen zu anderen Zeitpunkten?
Die Framerate-Prediction ist nämlich auch nicht so dumm, sie hat hypothetisch korrekt 190FPS bzw. die entsprechende Framtime vorhergesagt und den Monitor längst angewiesen, auf 95Hz zu syncen (es geht hier erst einmal nur um das Prinzip).
Wie sieht das nun also idealisiert an anderer Stelle zu anderem Zeitpunkt aus? Wie sieht das meinetwegen beim vierten oder sechsten Frame aus? Der ist nach etwas weniger als zwanzig Millisekunden insgesamt fertig, und siehe da, der FreeSyncMonitor will auch gerade anzeigen, denn er hat die halbe Wiederholfrequenz aus den Frametimes vorhergesagt bekommen. Weil ich gemein bin, messe ich nun oben bei Herrn Richthofen hinter der Wolke. Und siehe da, plötzlich hinkt der "unsnchronsierte" Monitor knapp satte zehn Millisekunden hinterher, er war mit seiner Darstellung nämlich oben gerade fertig geworden. Siehe da, wenn alles hypothetisch perfekt funktioniert, kann das Auge nun in den oberen Bereichen tatsächlich mit adaptive Sync FRÜHER etwas wahrnehmen, prinzipbedingt, hypothetisch.
Und weisst Du was? Wie nah AMD da dran ist merkt man dann, wenn die Framerate-Prediction mal etwas versagt und es dadurch doch zu Tearing kommt, trotz FreeSync – es gibt wohl kaum einen besseren Beleg für niedrigen Eingabelag zum Schirm hin (der zum Spiel hin ist durch mehr berechnete als dargestellte Frames ja ohnehin besser) als daß bei Versagen der gerade bearbeitete Teil vom Grafikspeicher dargestellt wird, und genau das ist Tearing.
Ja, in der Realität kosten auch FreeSync und Gsync hier und da auch mal ein, zwei, drei, vier Millisekunden, das ist aber halt (böswillig dargestellt) oft nun wirklich nicht viel im Verhältnis etwa zu zehn Millisekunden im Großteil des unsynchronisiert dargestellten Bildteils oben. Hinzu kommt das smoothere Feeling durch temporale Übereinstimmung zwischen Geometriesetup und von der Engine beabsichtigten Darstellungszeitpunkten in allen Bildbereichen, sofern diese gut programmiert ist (geht etwa nicht mit Framelocks, klar, aber macht auch nicht jede Engine sauber ohne Framelocks). Ich sehe die teilweisen Eingabelag-Problemchen bei adaptiveSync jedenfalls bei BEIDEN Herstellern als mittlerweile Lamentieren auf hohem Niveau an, das ob der fortschreitenden Verbesserung von adaptive Sync meiner Wahrnehmung nach eigentlich Geschichte ist. Auf der anderen Seite sehe ich eine Schönfärberei unsynchronisierter Darstellung, die in Wahrheit halt letztlich eigentlich an anderer Stelle synchronisiert, nämlich mit der Darstellung des Monitors.
Aber ist halt nur meine Wahrnehmung, vielleicht schwimme ich da einfach gegen den Strom.
Und, vielleicht noch als Zusatz: Klar sehe ich, daß die wenigen durch adaptive Sync hinzugefügten Millisekunden im absoluten Profi-Bereich letztlich doch wieder etwas ausmachen, bei Monitoren mit sehr hohen Wiederholraten sind die hinzugefügten Millisekunden dann doch relevant, sicher. Da ist man dann aber auch eher mit 600 FPS bei 240 oder mehr Hz unterwegs.