[Erfahrungen] 60hz < 144hz+

B

BloodSteam

Guest
Moin,
seit Ich meinen ersten 120hz Monitor hatte, kamm mit weniger als 120hz nie zurecht.
Mein letzter Monitor war ein BenQ XL2540 mit 240Hz denn Ich später verkauft hab, der war nicht schlecht, alles war super aber halt 1080p.
Nachdem Ich den Monitor verkauft hab, muss Ich auf meinem Asus PB278Q zocken, ist ein 1440p 60hz Monitor.
Bei Spielen wie PoE, D3, Crossout etc ist alles okay,
jedoch sobald Ich ein FPS Spiel zocke wie zb CSGO, BO4 etc hab Ich zwei linke Hände.
Ich fühle mich so langsam, als hätte Ich Schlaftabletten genommen. Alles wirkt so verschwommen wenn man sich im Spiel nach gegner umschaut.

Was für Erfahrung hattet Ihr beim Umstieg von 60hz auf 120hz+ und vice versa?
 
Klingt nach einer ziemlich logischen Schilderungen beim Downgrade von 120 auf 60 Hz. Wenn man sich einmal an die Geschmeidigkeit der 100+ Hz gewöhnt hat, gibt es kein Zurück mehr. Ich will auch nicht mehr mit zweistelliger Frequenz zocken.
 
Hört sich völlig normal an. Ich kann maximal im Office-Bereich noch mit 60 Hertz umgehen (muss ich wegen Arbeit), aber bei Spielen brauche ich eine dreistellige Frequenz. Als Kompromiss vielleicht 1440p + 144 Hertz Monitor. Fehlen dir zwar trotzdem 100 Hertz aber der Unterschied ist weitaus weniger bedeutend als von 60 auf 144 Hertz.
Personen die einmal mit 4k spielen / arbeiten gehen auch nicht mehr zurück auf 1080p. Warum? Weils beschissen aussieht im Vergleich. Entweder du gewöhnst dich wieder um oder du kaufst dir einen Kompromiss! :)
 
Also mit Adaptive Sync sehe ich bei 60FPS irgendwie keinen Unterschied zwischen 60Hz und 144Hz. Woran kann das liegen ? :huh:
 
Sehen tust du den Unterschid nicht...
Aber du spürst ihn...
Achte mal bei Bewegungen mit der Maus... bei 144hz... fühlt sich die Maus absolut direkt an.
Bei 60Hz ist alles so bisschen träger, mehr input lag, bisschen schwammig. Und wen du umsiehst sieht alles bisschen verscheommen aus.
 
Darum geht's ihm nicht.
Er wird dir gleich erklären, dass mit adaptive Sync und 60fps der 144Hz Monitor auch mit 60Hz läuft.
Mit dem Problem, dass das nicht auf alle Monitore zutrifft und der reine Bildaufbau trotzdem nur 6.9ms dauert.
 
Darum geht's ihm nicht.
Er wird dir gleich erklären, dass mit adaptive Sync und 60fps der 144Hz Monitor auch mit 60Hz läuft.
Mit dem Problem, dass das nicht auf alle Monitore zutrifft und der reine Bildaufbau trotzdem nur 6.9ms dauert.

Ja mit g sync adaptive sync bla bla läuft auch ein 240hz monitor nur mot 60hz... wen man nzr 60fps erreicht... das ist klar...
 
Klingt nach einer ziemlich logischen Schilderungen beim Downgrade von 120 auf 60 Hz. Wenn man sich einmal an die Geschmeidigkeit der 100+ Hz gewöhnt hat, gibt es kein Zurück mehr. Ich will auch nicht mehr mit zweistelliger Frequenz zocken.

Eigentlich waren es 240hz. :P

Hört sich völlig normal an. Ich kann maximal im Office-Bereich noch mit 60 Hertz umgehen (muss ich wegen Arbeit), aber bei Spielen brauche ich eine dreistellige Frequenz. Als Kompromiss vielleicht 1440p + 144 Hertz Monitor. Fehlen dir zwar trotzdem 100 Hertz aber der Unterschied ist weitaus weniger bedeutend als von 60 auf 144 Hertz.
Personen die einmal mit 4k spielen / arbeiten gehen auch nicht mehr zurück auf 1080p. Warum? Weils beschissen aussieht im Vergleich. Entweder du gewöhnst dich wieder um oder du kaufst dir einen Kompromiss!
smiley.gif


Genauso wie vom 1440p auf 1080p, es scheint als wären es nur paar Pixel mehr (1440/1080 = 33%). Aber es wirkt wie 1080p(bzw 2560p) vs 720p(bzw 1080P).

1440/1080 = 33% (Ich weiß dass es falsch ist so zu denken, keine Sorge.)
So geht es richtig:
2560 * 1440 = 3686400
1920 * 1080 = 2073600
3686400 / 2073600 = 1.77777777778 also 77% nicht 33% :p
Damit die 33% stimmen müssten es 1920x1440 vs 1920x1080 sein.

Also mit Adaptive Sync sehe ich bei 60FPS irgendwie keinen Unterschied zwischen 60Hz und 144Hz. Woran kann das liegen ?
huh.gif


Wenn Ich mich recht erinnere, kann man im Treiber einstellen wie viele Bilder du im Vsync Modus rendern willst.
Umso mehr, desto besser. Hatte es mal auf 4Bilder eingestellt, hat ordentlich GPU gefressen aber man merkte den Unterschied.
 
Zuletzt bearbeitet:
Klingt nach einer ziemlich logischen Schilderungen beim Downgrade von 120 auf 60 Hz. Wenn man sich einmal an die Geschmeidigkeit der 100+ Hz gewöhnt hat, gibt es kein Zurück mehr. Ich will auch nicht mehr mit zweistelliger Frequenz zocken.


war bei mir genau so bei meinem ersten 120 hz monitor genau so (benq xl2411t glaube ich, bin nicht mehr sicher...). und vor allem: nicht erst bei zocken, sondern direkt bei den ersten bewegungen mit der maus auf dem desktop. ich war so überrascht, dass ich, alleine da sitze, laut sagte: häh? und erst dadurch merkte, wie erstaunt ich war. deswegen ist meine erste erfahrung mit > 60 hz auch kaum zu vergessen ;)

was sich damit sonst noch deutlich änderte: diese elende unschärfe (motion blur) beim zocken. ich war aus diesem grund lange bei meiner 17" röhre geblieben, weil ich die ersten lcds untauglich fand, so sehr schlierten diese (spiele schnelle shooter). was mir buchstäblich kopfschmerzen und übelkeit verursachte. dann kam lightboost auf und die übelkeit war plötzlich weg. g-sync / freesync ("zerreissen" des bildes) merke ich kaum, lags oder unschärfe dagegen sofort.

habe derzeit einen acer xb270hu mit ips 120 hz ulmb. ein 240 hz monitor interessiert mich schon, nur sind da die farben eher tn-typisch, habe noch keinen 240 hz ausprobieren können, um zu sehen, wie groß der unterschied zu 120 hz ist.
 
Ich bin mir nicht sicher aber hier meine Theorie...
Wenn man ein 240Hz F/G-Sync Monitor hat und F/G-Sync auch benutzt, werden aus den 240hz nicht 120hz?

Alles ohne F/G-Sync gemeint =>Hz ist doch der Zyklus mit dem der Monitor die Bilder anzeigt oder? Also wenn man bei vielen Tests schaut, kommt doch dieses Reißen von Frames auch bekannt als Tearing. Tearing entsteht wenn zwei halbe Bilder auf dem Monitor angezeigt werden. Man muss sich auch drehen damit man Tearing sieht. Aber in Tests kann man sehen dass ein Bild nie ganz gezeigt wird. Sobald ein Frame zu 50% angezeigt wird, kommst schon das nächste Bild.

Bei F/G-Sync
, werden immer ganze Bilder angezeigt was das Reißen von Frames verhindert und den Inputlag erhöht.

Worauf will Ich hinaus? 120Hz = 120Fps... oder doch nicht? Die Bilder werden ja nur zu 50% "geladen/gescant" bevor das nächste kommt, also auf der einen Seite... man sieht nie ein ganzes Bild also würde es heißen dass man 0FPS sieht, weil ein Frame ist ein ganzes Frame oder doch 50% vom Bild = Frame? :huh: Auf der anderen Seite, zeigt F/G-Sync immer ein volles Bild an bevor das nächste Bild kommt, also sieht man immer ein 100% fertiges Frame/Bild. Also wenn 120Hz = 120Fps heißt, was aber in wirklichkeit 120x 50% Frames sind, was bedeuten würde dass man in theorie 60Hz (volle Frames, weil es mit einem 50% hohen Balken von oben nach unten scannt) nennen würde. Bei F/G-Sync hat man auch 120Hz.. wird es dann genauso schnell gescannt oder sind es doch 60hz (60 volle Bilder)?

Dass ist was mir seit meheren Monaten im Kopf liegt.
 
Was?:what:

Also zuerst mal, der Bildaufbau bei LCDs läuft zeilenweise von links oben nach rechts unten.
Die Hertz geben an, wie oft pro Sekunde ein neues Bild aufgebaut wird.
Das wären bei 240Hz alle 4,167ms ein neuer Bildaufbau und dieser Bildaufbau braucht auch 4,167ms.
Sollte in dieser Zeit ein neues Bild von der Grafikarte kommen, wird an der Stelle an der sich der Bildaufbau gerade befindet, das neue Bild eingeschoben.
So entsteht tearing.

Bei Free/Gsync mit 240Hz läuft der Bildaufbau auch immer in 4,167ms ab.
Der Unterschied hier ist aber, dass da Bild solange gehalten wird (bei fps unterhalb der maximalen Hertz), bis ein neues Bild von der Grafikkarte kommt.
Sollten die fps höher als die maximalen Hertz sein, schaltet sich Free/Gsync automatisch ab.

Als Beispiel:
Du hast 120fps und 240Hz bei aktivem Free/Gsync.
Bild kommt am Monitor an > Das neue Bild wir in 4,167ms aufgebaut > Der Monitor zeigt das fertige Bild für weitere 4,167ms an.
Du hast 60fps und 240Hz bei aktivem Free/Gsync.
Bild kommt am Monitor an > Das neue Bild wird in 4,167ms aufgebaut > Der Monitor zeigt das fertige Bild für weitere 12,49967ms an.
Das gilt alles nur für die aktive Range des jeweiligen Monitors.
 
Ich hatte 1,5 Jahre einen 1440p/165Hz Monitor (Asus PG279Q - ein sehr gutes Panel erwischt) mit G-Sync und IPS. Für diese Auflösung braucht man bereits eine sehr schnelle (und teure) Hardware. Ich hatte während der gesamten Zeit eine GTX 1070 im Rechner und kam damit eigentlich gut zurecht. In älteren Spielen konnte ich selbst auf High/Ultra gut 100fps und mehr erreichen, aber bei neuen Spielen wie z.B. Assassins Creed Odyssey, Mass Effect Andromeda oder Shadow of Tomb Raider reichte es immer nur für ~60fps. Da mich aber genau diese Spiele interessieren und ich eher im Single Player unterwegs bin stellte ich mir die Frage: Wozu also 144Hz (165 im OC-Modus) wenn ich eh nur die Spiele zocke und mag die mit 60 laufen? Der optische Unterschied 60/144Hz ist zwar da und sichtbar, aber wirklich "bahnbrechend" kam er mir nie vor. Auch habe ich unter anderem CS Go, The Division oder Rainbow Six Siege probiert. In kompetitiven Multiplayer-Shooter sind 100fps ja fast schon ein Muss um da mithalten zu können und die Details werden auch meist auf Low/Medium zurückgeschraubt von den meisten. Natürlich sieht man einen Unterschied, denn bei nativen 144Hz bleibt das Bild wirklich knackscharf selbst wenn man sich wie wild dreht - und es ist natürlich generell flüssiger. WENN ich also am liebsten online Shooter zocken würde dann wäre ein 144Hz Monitor für mich das beste weil man am schnellsten reagieren kann. Für Single Player Spiele die grafisch anspruchsvoll sind und eine gewisse Atmosphäre rüberbringen sollen sind 144Hz aber meiner Meinung nach nicht unbedingt nötig. Hier bevorzuge ich mittlerweile 3840x2160 mit 30-60Hz (oder fps). Da ich auch keine 1300€ ausgeben würde für eine RTX 2080Ti mit einem Feature was nicht mal eine handvoll Spiele unterstützt (und dort nicht mal sonderlich beeindruckend imo) würde ich sowieso nie mehr als 60fps sehen in High/Ultra.

Als persönliches Fazit könnte ich zusammenfassen: Es ist wirklich alles Gewöhnungssache. Ein reicher Mann würde sagen: "in der Stadt in einer Wohnung könnte ich NIE mehr leben. Ich brauche mein Haus am Meer, mit großem Garten, meinen teuren Whiskey, meine Zigarren aus Kolumbien und meinen Kaviar." Aber selbst wenn er das sagt - er könnte es bestimmt wenn er müsste - und viele von uns leben eben genau so wie er "nie könnte" ;-)
 
Da viele Leute einen 1440p 144hz Monitor und einen 4k 60hz TV besitzen erübrigt sich die Diskussion teilweise.

Klar fühlt sich das arbeiten/spielen mit einem 144hz Monitor besser an und es ist vielleicht auch für die Augen besser als 60hz aber für manche Anwendungen wie die Foto/Videobearbeitung/Spieleentwicklung/medizinische Forschungen usw und manche Spiele fehlt einfach die Auflösung und da hat 1440p keine Chance gegen 4k bzw keine Chance gegen die größere Arbeitsfläche. @Fehler
Die Fehlerrate bei 4K 60hz Monitoren/TVs scheint erheblich geringer zu sein als die der 1440p+ 144hz Displays. Vielleicht ist die Technik noch nicht ausgereift.

Also würde ich vorschlagen im Notfall beides zu haben, damit man je nach Situation wechseln kann.
 
Zurück