Wer denkt, dass er kein G-Sync braucht hat es noch nicht live gesehen und erlebt, sondern kennt nur Youtube-Videos. Das ist der größte Schritt im Monitorbereich seit Einführung von Flachbildschirmen - IMO noch deutlich größer als der Schritt auf 120/144Hz.
Dass man in Videos den Effekt nicht wirklich darstellen kann sollte eigentlich klar sein. Das ist als wollte man 3D, VR-Brillen oder die Vorteile eines 120/144Hz Panels auf einem 60Hz Panel und am besten noch in den bei Youtube immer noch verbreiteten 30fps Videos abbilden. Oder wie die Grafikqualitätsvergleiche, bei denen stark komprimierte Videos zum Einsatz kommen und unwissende User dann auf dieser Basis die Qualität von neuen AA-Verfahren beurteilen. Auch PCGH hat sich hier schon manche Peinlichkeit geleistet und vollkommen unbrauchbare Vergleichsvideos bereitgestellt - Hauptsache man bringt nochmal ein paar zusätzliche Views der vorgeschalteten Werbung unter die Leute, auch wenn das schnell erstellte Video keinerlei Nutzen bringt, sondern unerfahrene User eher noch verwirrt.
Dass man sich mit einem G-Sync Monitor an nVidia bindet ist für viele User einfach kein Problem, da dank Treibersupport und weiteren Features ohnehin nur nVidia in Frage kommt. Nicht jeder springt auf den reinen FPS-pro-Euro-Vorteil an, mit dem AMD/ATI seit Jahren Kunden gewinnen muss, da man sonst außer dem ganz brauchbaren Mantle (das hoffentlich mit DX12 überflüssig wird) nichts eigenständiges auf die Reihe gebracht hat, während nVidia ständig neue Innovation am Start hat.
Egal ob DSR, G-Sync, PhysX, CUDA, Shield, ShadowPlay oder TXAA - nVidia macht es vor und AMD/ATI zieht dann evtl. Monate oder Jahre später - und selbst das nicht immer - nach. Bei so viel Entwicklungsvorsprung ist es mir vollkommen egal, ob eine Grafikkarte jetzt 50 Euro mehr oder weniger kostet. nVidia Grafikkarten werden in meinen Rechnern vermutlich noch sehr viel länger den Vorzug erhalten, als ich den Monitor nutzen werde - als Early Adopter nutzt man Hardware in der Regel ohnehin nicht über 5+ Jahre sondern deutlich kürzer. Und auch viele andere User, machen sich was vor, wenn Sie sich Neuanschaffungen mit Nutzungszeiten von über 5 Jahren schön (oder in dem Fall schlecht) reden und dann doch schon nach 2-3 Jahren spitz auf eine neue Technik sind.
Bei einer typischen Grafikkarten-Aufrüstung alle 2-3 Jahre ist das bei den meisten Usern nur ein einziger Grafikkartenwechsel der in die Nutzungszeit des Monitors hineinfallen wird - und wenn es ganz heftig läuft, wird der Monitor halt vor seiner Zeit verkauft. Davon werde ich auch nicht sterben oder verhungern. Dargestellt wird es aber teilweise, als würde man mit seinem Blut einen lebenslangen Vertrag mit dem Teufel unterschreiben.
Und ja - im Gegensatz zu den Motzern aus dem ATI/AMD-Lager weiß ich wovon ich spreche - denn ich habe den ASUS ROG Swift 20cm vor mir stehen und schon dutzende Stunden damit verbracht.