Wer mit 60hz, 90hz, 120hz oder 144hz spielen möchte, sollte auf mindestens genauso viele Bilder pro Sekunde kommen. Sonst erzeugt die Diskrepanz zwischen FPS und Tickrate.
Ich hab mich da schon recht gut informiert
und meide nach Möglichkeit 120 oder 144 HZ Server
Es gibt keine Synchronisierung zwischen der Tickrate und den FPS des PCs und der Hz des Monitors.
Umso höher die FPS des PCs und Hz des Monitors, umso höher ist die Wahrscheinlichkeit, das der Frame, den die Graka ausgibt und der Frame, den der Monitor ausgibt identisch sind.
Deshalb werden ja die Raten mit Gsync und FreeSync ja weniger wichtig, weil das Bild was die Graka ausgibt dem entspricht, was der Bildschirm darstellt, wodurch das Spielgefühl flüssig/er ist.
Die Tickrate trifft nur eine Aussage darüber, wie oft am Server die Daten der Clients verarbeitet werden. Je höher die Hz der Tickrate, desto exakter das Spiel, heißt die Wahrscheinlichkeit, dass der Gegner noch an der Stelle ist, wo du hinschießt (den Gegner siehst) ist größer.
Und solange die Tickrate und die FPS nicht synchronisiert werden (was bei den üblichen Packet-Laufzeiten im Inet kaum sinnvoll möglich ist), ist eine höhere Tickrate immer besser.
______________________________________________________________________
Kleiner Exkurs:
Machen wir es Extrem,
stell dir vor, die Graka macht 2 FPS also alle 0,5 Sekunden ein neues Bild.
Und der Server hat eine Tickrate von 1Hz, also 1 Neuberechnung der Clientdaten pro Sekunde.
Das Ergebnis:
Beim 2ten Bild wird immer noch das selbe Bild dargestellt wie beim ersten.
Jetzt erhöhen wir die Tickrate auf 10 Hz - also 10 Aktualisierungen pro Sekunde.
Das Ergebnis:
Im schlechtesten Fall ( der Ausgegebene Frame und die Tickrate sind besonders asynchron)
sind wir also beim 2ten Frame 5 Aktualisierungen hinten dran.
Denn bei 10 Hz dauert eine Aktualisierung 100ms (1000ms = 1 Sekunde), heißt der Unterschied liegt bei 500ms (0,5 Sekunden)
Jetzt drehen wir die Tickrate auf 100 Hz hoch. und die FPS auf 100 hoch
Das Ergebnis:
Eine Aktualisierung am Server dauert nur noch 10ms, ein neues Bild dauert auch nur noch 10 ms.
Wenn der Bildschirm also so knapp wie Möglich vor dem nächsten Tick des Servers ein Bild ausgibt,
könnten das Bild und der Tick maximal eine Aktualisierung (also 1 Tick und 10 ms) auseinander sein.
Drehen wir jetzt wieder die Tickrate auf 10 Hz runter, kann zwischen Bild und Server biszu 100ms Differenz entstehen.
Dreht man die Tickrate auf 1000Hz hoch, wäre die maximale Diffrenz bei 1ms.
Lange Rede kurzer Sinn, mehr FPS, mehr Hz am Monitor und mehr Tickrate sind immer besser,
weil sie die Wahrscheinlichkeit erhöhen, dass das ausgegebene Bild dem entspricht,
was auf dem Server gerade Stand der Dinge ist.
Deshalb ist es auch quatsch, das der Monitor soviel Hz haben sollte, wie die Graka FPS schafft, das macht nur bei Gsync und FreeSync Sinn.
Ohne Synchronisierung darf der Monitor soviel Hz wie nur möglich haben.
Das ist übrigens auch der Grund, warum Fernseher mit 800Hz und mehr laufen (können), obwohl SD-Material in 50 Hz interlaced (Halbbilder) und HD in 24FPS (im besten Fall) ausgeliefert wird.
Das ist auch nur dafür da, um das Bild zu beruhigen, in dem man die Wahrscheinlichkeit erhöht, den aktuellsten Frame darzustellen (mit den bekannten neben Effekten [Soap Opra Effekt]).