LFC funktioniert mit G-Sync auf Freesync-Monitoren ohne LFC

Nur die weit verbreitete Annahme, dass der Monitor seine Wiederholfrequenz "technisch" an die FPS anpasst ist halt total irreführend. Die Elektronik würde doch vermutlich auch durchdrehen, wenn diese laufend geändert würde. Die ggf. beobachtbaren Helligkeitsschwankungen lassen sich ja auch damit erklären, dass ein Bild mal länger und mal kürzer per VBlank gehalten werden muss.
Endlich mal normale Leute. :)
 
openSUSE, was hältst du denn von meiner Erklärung in Post #18? Du scheinst dich ja auch gut auszukennen.
 
Zuletzt bearbeitet:
Zu technischen Details bezüglich Nvidia und ASync darf ich mich meinem _noch_ Arbeitgeber zuliebe nicht äußern. Nein, ich arbeite atm nicht bei AMD oder Nvidia.
Wenn ich Zeit finde patche ich mal freesync im Linuxtreiber in der art wie hier beschrieben. Kann aber noch etwas dauern.

Sorry für meine Rechtschreibung und Grammatik, bin noch deutsch am lernen.
 
Seit ich die aktuelle Print Seite 1 aufgeschlagen habe, hatte ich es erst mal mit der Angst bekommen.^^

Deshalb endlich mal der Test, zumindest mit dem HP Omen 32. Das Bild wirkt in der Pendulum Demo gelegentlich leicht unruhig, aber ich kann tatsächlich kein richtiges Tearing finden. :what:

Edit:
Keine Ahnung was ich davon halten soll. Wenn die Demo lange genug läuft wandelt sich dieses "gelegentlich leicht unruhig" in ein relativ deutliches Stottern. Aber nach wie vor keine Bildrisse.

Edit2:
Also endgültiges Resumee:

HP Omen 32 an GTX1080 innerhalb der Freesyncspanne: Absolut glatte Bildausgabe
HP Omen 32 an GTX1080 unterhalb der Freesyncspanne: Kein Tearing, aber "stotternde" Bildausgabe

Zum Vergleich parallel daneben:
HP Pavilion 32 an RX570 innerhalb der Freesyncspanne: Absolut glatte Bildausgabe
HP Pavilion 32 an RX570 innerhalb der per CRU auf 40Hz abgesenkten Freesyncspanne: Absolut glatte Bildausgabe
HP Pavilion 32 an RX570 unterhalb jeglicher Freesyncspanne: Fürchterliches Tearing
 
Zuletzt bearbeitet:
Danke für die aufschlussreichen Tests! Das deckt sich doch bestens mit meiner obigen Beschreibung.
Der NVidia Treiber scheint auf Teufel komm raus tearing verhindern zu wollen und nimmt dadurch input lag in Kauf, der sich im Stottern manifestiert.
Der AMD Algorithmus im Treiber geht den alternativen Weg und lässt, bevor er ein Bild zu oft wiederholen muss, tearing zu. Hat dafür aber weniger Stottern, da die Bilder aktueller sind.

Wie sieht's denn bei der GTX zwischen 40-48 fps aus, wenn du per CRU auf 40 Hz runter gehst mit der Spanne? Auch absolut glatt?
 
Hätte ich mir denken können das die Frage kommt. :crazy:

Moment, ich muss nur schnell den Monitor wieder wechseln und CRU installieren.



Edit:
Wie sieht's denn bei der GTX zwischen 40-48 fps aus, wenn du per CRU auf 40 Hz runter gehst mit der Spanne? Auch absolut glatt?

Ja, alles glatt.
 
Zuletzt bearbeitet:
Zurück