Frage zu G-Sync

Tja ich glaube mal das Jom79 sich einbildet das ohne GSync auf nem 144Hz Monitor bei 53FPS die REAKTIONSZEIT schneller ist und vergisst dabei das es der Engine völlig schnuppe ist wie OFT das gleiche Bild dargestellt wird ... ja das 53FPS Bild wird dann halt eben 2,71x angezeigt bis das neue Bild berechnet ist (Wobei angezeigt FALSCH ist , Aktualisiert trifft es eher , ist ja kein CRT der WIRKLICH neu zeichnet) . Durch den Krummen Teiler kommt es dann durchschnitlich bei jedem dritten Bild zu tearing ...
GSync zeigt hingegen das Bild (Die einzelbilder) einfach 2,71x so lang an und hat NULL probleme mit irgendeinem Teiler , tearing oder so da LANGSAMER gründsätzlich IMMER geht .
Für die Bildanzeige an sich ändert sich NICHTS abgesehen vom fehlenden Tearing da es den anzeigenden zellen völlig egal ist ob sie KEIN Signal kriegen oder "nur" das Signal NICHTS zu tun , wer das nicht versteht (bzw. nicht verstehen will und sich Krankheitssymptome einbildet dabei) sollte meiner Meinung nach dringend Professionele Hilfe suchen .....
Wo hab ich was von Reaktionszeit geschrieben?
Davon ab, ist bei vielen 144Hz Monitoren die Reaktionszeit bei 60Hz ne andere als bei 144Hz und auch der Overdrive verhält sich anders.
Und ich bilde mir nicht ein, dass mir bei niedrigen Hertzzahlen schlecht wird.
Das hat auch nicht mit Gsync zu tun.
Aber ist ja hier mittlerweile normal, was man selber nicht hat, kann der andere auch nicht haben.

Edit: Außerdem hat er mit seinem Nein recht, weil es sind nicht 18,86 sondern 18,87 [/trollklugscheißspam off] :P
Eigentlich sind es 18,86792452830189ms [/megaklugscheisstrolloberspam off}
 
Wo hab ich was von Reaktionszeit geschrieben?
Davon ab, ist bei vielen 144Hz Monitoren die Reaktionszeit bei 60Hz ne andere als bei 144Hz und auch der Overdrive verhält sich anders.
[/megaklugscheisstrolloberspam off}
Aber gerade die Reaktionszeit ändert sich doch bei einem 144Hz AdaptivSyncMonitor nicht gegenüber einem 144Hz "Vsync" Monitor nur weil er 60FPS darstellt.
 
Spätestens jetzt meine ich, er trollt absichtlich gerne. Mag wer noch was zum Thema wissen? Ansonsten lasst uns nicht weiter wegen Begrifflichkeiten oder Missverständnissen streiten. :P

Ja ich!
Hat die Nutzung von LFC einen Nachteil, bzw wäre es nicht vorteilhaft die Frames bis zu einer höheren Range zu vervielfachen.
Ich würde dann nämlich mal versuchen meinen Monitor Sync zu "untertakten", fraglich ist dabei ob ein Panel überhaupt einen LFC außerhalb seiner eigentlichen Range anspricht. Hat das irgendwer mal versucht?
 
Bezüglich VRR und Refresh:
Gerade in einem anderem Forum gelesen

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11737335&postcount=104 schrieb:
Soweit stimmt das ja auch.
Der Refresh findet aber immer mit der maximalen Geschwindigkeit statt, die das Panel (oder auch der Link von GraKa zum Monitor) kann (das ist tatsächlich völlig unabhängig von der Framerate/aktuellen Refreshrate; die Dauer des Refreshes ist immer der Kehrwert der mit VRR maximal unterstützen Refreshrate). Das Bild wird also im Vergleich z.B. zu FastSync nicht unschärfer, man entfernt nur den Judder.

^^
 
Dh AMD lügt.
Was ist die Radeon FreeSync™ Technologie?

Die Radeon FreeSync™ Technologie ist ein AMD Projekt zum Einsatz von AMD Branchenstandards wie DisplayPort Adaptive-Sync, um dynamische Wiederholfrequenzen zu ermöglichen. Dynamische Wiederholfrequenzen synchronisieren die Wiederholfrequenz eines kompatiblen Monitors mit der Einzelbildrate von Radeon™ Grafikkarten eines Benutzers, um die Eingabelatenz so gering wie möglich zu halten und Ruckeleffekte/Judder-Effekte/Tears beim Gaming sowie bei der Videowiedergabe zu verringern oder vollständig zu beseitigen.
FreeSync™ Monitore – Haufig gestellte Fragen | AMD
Und Nvidia genauso
G-SYNC dynamically matches the refresh rate of the display to the frame rate output of the GPU. This eliminates tearing, minimizes stutter, and minimizes input lag. G-SYNC displays don't have a minimum refresh rate limit and variable refresh rate is supported up to the maximum supported by the LCD panel.
NVIDIA G-SYNC™ | Technology | GeForce
 
Das ist ja kein Widerspruch. Ich meine, ihn nun kapiert zu haben, dass der eigentlich Refresh mit maximaler Geschwindigkeit, also 144 Hz, passiert und der neue Refresh erst dann beginnt, wenn das neue Bild fertig ist. Der eigentliche Refresh wird also nicht künstlich in die Länge gezogen, sondern der nächste wartet einfach auf das neue Bild. So oder so wird die Frequenz an die Bildrate ja angepasst.
 
ganz doofe frage wiese sieht dein bild in der mitte heller aus? Die Kamera hat doch einen sehr "kleinen Sichtpunkt/Ausagangspunkt wie ein Auge eben, so das verdunkeln durch Sichtfeldverschiebung nicht zu sehen sein dürfte, oder? Oder ist das einfach nur Zufall wegen des dort gezeigten sichtpunkt?

Nein ist nicht heller in der Mitte. Ist durch die Kamera vom Handy.
Die scheint etwas versüft am Objektiv zu sein.
Monitor Ausleuchtung stimmt optisch soweit ohne helle Flecken.
Aber bei dem Hinweis werd ich gleich mal den Bildschirmen und die Kamera am S7 säubern. Thx :D

Bin mit dem Dell S2716DG zufrieden, evtl kann ihn pcgh Manuel ja mal mit Testen wie er sich gegen neuere schlägt. Mfg

PS: Ist mal wieder eine interessante Diskussion das Thema. Ehrlich :)
 
Zuletzt bearbeitet:
Zurück