Lohnen sich 240 Hz? Der Viewsonic XG2530 im Video-Test

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Lohnen sich 240 Hz? Der Viewsonic XG2530 im Video-Test gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Lohnen sich 240 Hz? Der Viewsonic XG2530 im Video-Test
 
HDMI Zwei Komma Null? ;)

Ich denke mein Full HD Monitor mit TN Panel wird mich noch zwei Jahre begleiten für das Gaming. Dann kann man mal über 4k nachdenken.

Persönlich bin ich mit der IPS Technologie noch nicht ganz zufrieden, zumindest was das Gaming angeht. Auf die kräftigen Farben und den Farbraum kann ich bislang noch verzichten.

Hab zusätzlich noch ein VA Panel und ja, das Ding rockt schon wenn man Videos schaut oder arbeitet. Aber das sind auch eine Stärken.
 
Zuletzt bearbeitet:
Glaube ich nicht.
Der Sprung von 30 FPS auf 60 Hz/FPS ist gigantisch und der Sprung von von 60 auf 120 Hz/FPS ist immer noch spürbar doch bei den
meisten (die ich kenne) merken keinen Unterschied ob das nun 75/90/120/144 Hz/FPS.
Es gibt natürlich immer Anwendungen wo das deutlicher auffällt aber 240 Hz halte ich schon für etwas (?) überzogen.
Bin eher für 4K + HDR + 120/144Hz
 
An sich ein gutes, umfangreiches Testvideo, was offenbar mehr an unerfahrene Käufer gerichtet ist. Denn es wird einerseits viel Hintergrundwissen erklärt, andererseits wird auf Kriterien wie Backlight Bleeding oder Helligkeitsverteilung nicht eingegangen. Daher halte ich es für besser die Bereiche Hintergrundwissen und Test voneinander zu trennen.
 
Super Video.
Ich Spiele zurzeit mit einem Full-HD, 24 Zoll, 60Hz, 1ms Reaktionszeit-Monitor. Der reicht bis jetzt vollkommen aus.
Allerdings würde ich mir für das Geld für den Viewsonic einen größeren 1440p Monitor mit 120 Hz kaufen.
Wäre für mich auf jeden Fall am Besten.
 
Auch mit 240Hz + aktiviertem G-Sync (bzw. Freesync) dürfte der Input-Lag zumindest theoretisch (!) minimalst höher sein als mit 240 Hz ohne Gsync, nicht wahr?
 
Also bei meinem Monitor kann ich den 165Hz Modus nur noch minimal vom 144Hz Modus unterscheiden. Jedoch sind das nur 21Hz und kann das nicht mit den 240Hz vergleichen.
 
Auch mit 240Hz + aktiviertem G-Sync (bzw. Freesync) dürfte der Input-Lag zumindest theoretisch (!) minimalst höher sein als mit 240 Hz ohne Gsync, nicht wahr?

Bei Gsync kann das in der Tat im Sonderfall passieren, da ist ein Pufferspeicher im GSync-Modul, der in ungünstigen Fällen minimal Lag hinzufügen kann. Freesync hingegen hat prinzipbedingt maximal den gleichen, oft aber kürzeren Lag als das ungesyncte Signal.
 
Dann erklär mal, warum der Lag bei einer Synchronisierung kürzer sein kann, als ohne Synchronisierung.
Ich rede auch nicht von der Gesamtlatenz, sondern vom reinen Inputlag.
 
Bei Gsync kann das in der Tat im Sonderfall passieren, da ist ein Pufferspeicher im GSync-Modul, der in ungünstigen Fällen minimal Lag hinzufügen kann. Freesync hingegen hat prinzipbedingt maximal den gleichen, oft aber kürzeren Lag als das ungesyncte Signal.

Kann nicht sein, wie mein Vorredner doch schon gesagt hat.
Auch ohne Pufferspeicher kommt doch im Gegenteil noch zusätzlich Lag hinzu (eben so lange, bis das nächste Bild angezeigt werden kann).

Ungesynct dürfte immer den geringsten Input-Lag haben.
 
Dann erklär mal, warum der Lag bei einer Synchronisierung kürzer sein kann, als ohne Synchronisierung.
Ich rede auch nicht von der Gesamtlatenz, sondern vom reinen Inputlag.

Ohne Syncronisierung hast Du beispielsweise die Situation, daß erst ein Viertel des neuen Frames fertig gerendert ist, wenn das Bild auf dem Monitor dargestellt wird.

Da stellst Du Dich jetzt vielleicht hin und sagst, dieses Viertel des Bildes habe ich schon früher gesehen! Damit hast Du zwar Recht, aber es führt nicht weit. Denn die restlichen drei Viertel des Bildes wirst Du später sehen als mit Freesync, und zwar meist deutlich später, nämlich einen kompletten Bildzyklus später, während Freesync das Bild in dem Moment darstellen wird, wo es fertig gerendert ist.

Sicher, manchmal werden auch drei Viertel des Bildschirminhaltes schneller ohne Sync dargestellt. Auf das restliche Viertel hingegen wartest Du wieder einen vollen Bildzyklus.

Für mich zählt da das volle Bild. Und das sehe ich mit FreeSync früher oder gleich spät, auch wenn ohne Sync hier und da vielleicht schon einmal "verfrüht" ein wenig Vorhang gehoben wird. Genauso kommen dann nämlich relevante Teile im Vergleich zu FreeSync verspätet zur Darstellung.

Zum Thema Eingabelag geht mir das für den Moment zu tief, aber können wir später meinetwegen auch noch diskutieren, fehlt mir gerade die Zeit zu. Sieht aber nicht (viel) schlechter aus als oben.
 
Ohne Syncronisierung hast Du beispielsweise die Situation, daß erst ein Viertel des neuen Frames fertig gerendert ist, wenn das Bild auf dem Monitor dargestellt wird.

Da stellst Du Dich jetzt vielleicht hin und sagst, dieses Viertel des Bildes habe ich schon früher gesehen! Damit hast Du zwar Recht, aber es führt nicht weit.

GENAU das ist doch der Vorteil, den ungesynct gegenüber stinknormalem Vsync hat.
Du hast sofort ein Feedback, dass die Bewegung begonnen/gestoppt hat.
Dazu brauchst Du auch kein ganzes Frame, so schnell kannst Du das eh nicht verarbeiten.
 
GENAU das ist doch der Vorteil, den ungesynct gegenüber stinknormalem Vsync hat.
Du hast sofort ein Feedback, dass die Bewegung begonnen/gestoppt hat. [...]

Ja, aber eben nur in dem einen Teil des Bildes. Wenn in den restlichen drei Vierteln des Bildes ein Kollege hinter einer Mauer hervorgeschossen kommt oder seine Waffe im Buschwerk aufblitzt, wirst Du das auf genau diesen drei Vierteln des Bildschirms etwas später sehen als mit FreeSync, weil Du eben wieder warten musst, bis der Monitor an der Stelle ist.

Wobei ich da allerdings von Frameraten im Bereich nahe der Wiederholraten ausgehe, also nicht etwa 40 FPS auf 240Hz.
 
Es geht doch nicht darum den Typen hinter der Mauer zu erkennen, sondern ein visuelles Feedback zu haben, dass die Mausbewegung gestartet ist bzw. gestoppt ist.

Sonst würde ja jeder mit vsync zocken. ;)


Und auf den Monitor warten müßtest Du ja nur mit vsync.
 
Es geht doch nicht darum den Typen hinter der Mauer zu erkennen, sondern ein visuelles Feedback zu haben, dass die Mausbewegung gestartet ist bzw. gestoppt ist.

Sonst würde ja jeder mit vsync zocken. ;)


Und auf den Monitor warten müßtest Du ja nur mit vsync.

Ich rede NICHT von vsync. Denk noch mal nach, wie FreeSync funktioniert, Du hast mich nicht verstanden. Natürlich wartest Du da, bis Dein Monitor wieder einen Bildwechsel weiter ist, bevor Du den Rest siehst. Bei FreeSync setzt der Bildwechsel ein, sobald das komplette Bild fertig gerendert ist, da ist Dein Monitor schon an der zu beschreibenden Stelle vorbei gehuscht, Du wartest bis zum nächsten Bildrefresh.
 
Zuletzt bearbeitet:
Du sagst doch, dass ein teil-fertiges Bild quasi nichts bringt.
Bevor die ganze Gsync/Freesync-Sache aufkam, hätte demnach dann ja jeder Profi-Zocker mit Vsync zocken müssen.
Dem ist aber nicht so, da auch ein Teil-Frame den Input-Lag verringert, da es direkt Feedback bietet.
Oder wieso haben denn so viele Leute sonst Deiner Meinung nach die ganze Zeit vsync deaktiviert gehabt, wenn ein unfertiges Frame "nicht weit führt" ?

Und das ist auch im Vergleich mit Free/Gsync so, da eben nicht erst abgewartet werden muss, sondern was fertig ist direkt angezeigt wird. Schneller geht es nicht. Auch wenn G/Freesync im Vergleich mit Vsync natürlich wesentlich besser abschneidet, das ist eh klar.
Deshalb sage ich auch "theoretisch".
 
Zuletzt bearbeitet:
Auch mit 240Hz + aktiviertem G-Sync (bzw. Freesync) dürfte der Input-Lag zumindest theoretisch (!) minimalst höher sein als mit 240 Hz ohne Gsync, nicht wahr?

hier hat jemand wissenschaftliche (soweit man in dem bereich überhaupt noch von wissenschaft sprechen kann) analysen angestellt und sein gesamter channel dreht sich um lag- und netcode-analysen in games.
er stellt auch vsync, gsync und freesync gegeneinander.
FreeSync vs. G-Sync Delay Analysis - YouTube

hab gehofft der beitrag würde ein wenig mehr in diese richtung gehen :P
 
Zurück