• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Lenovo Legion Y27gq-25, g-sync, v-sync, komisches verhalten

MorrisDaddel

Schraubenverwechsler(in)
hallo liebe leute! ich bin duch zufall hier reingeschliddert hatte mir den artikel zum input lag durchgelesen schöne sache!
der artikel lässt auf wissen und übersicht schließen und zwar genau das wissen was ich brauche um zu verstehen warum mein bildschirm macht was er macht.

ich poste einfach mal meinen text den ich für das nvidia forum geschrieben hatte hier rein. der ist auf englisch sollte das ein problem sein übesetze ich es gerne. aber ich denke mal die meisten leute die sich auskennen können englisch. antworten dann gerne auf deustch :)

mein post im nvidia forum hat genau 0 resonanz erzeugt deswegen auch mein versuch hier...

Liebe Grüße!

MorrisDaddel


###
240hz, g-sync tearing, v-sync capps on 225fps, need help


i have problems with g-sync in rocket leauge. my setup ist quite unique so i culd not find any solutions. my monitor is (2560*1440p) at 240hz full g-sync supported gpu is more than capable to maintain the high framerates as well as the cpu.

when i turn on g-sync in nvidia controll panel and turn off v-sync in rocket leauge i get the framerate i set. and my monitor has this onscreen fps counter thing so i see a hardware based fps count. i appers that g-syng works becaus the fps fluctuates a bit around the 236 i set. however the tearing is there! i filmed it with high speed cam it has definatly tearing!

to eliminnate the tearing i need to swich v-sync on in rocket leauge. but there are 2 things wrong with that. first it introduces input lagg as far as i know and second my framerate drops to 225 and locks there it looks like my monitor is a 225hz monitor and it capps at max refresh rate but i know that it is a 240hz monitor. so why does v-sync inside rocket leauge think 225hz is max refreshrate and why do i have tearing with g-sync enabled and working?

so if anyone can help me solve this riddle i would name my firsborn after him! this topic really took my last nerv. im getting grey hairs from this...

# monitor model: Lenovo Legion Y27gq-25
Gpu model: Zotac RTX 2080Ti Arctic Storm
Cpu model: I9 9900k
custom loop watercooled no thermal issues whatsoever! #

###
 

blautemple

Lötkolbengott/-göttin
Ganz doofe Frage, muss der Monitor eventuell erst über das OSD übertaktet werden um die vollen 240Hz zu erreichen? Das ist bei vielen Gsync Monitoren gang und gebe.

Zusätzlich noch als Hinweis:
Vsync sollte auch bei Nutzung von Gsync eingeschalten werden. Dazu aber noch ein fps Limit ca 3fps unter der maximalen Bildwiederholrate. In deinem Fall als bei 237fps. So bleibst du immer in der Gsync Range und so lange du in dieser Range bleibst greift auch Vsync nicht und du hast keinen erhöhten Input Lag
 
TE
M

MorrisDaddel

Schraubenverwechsler(in)
also ne overclocking wie bei den asus teilen brauche ich nicht. der läuft nativ mit 240hz und du beschreibst genau was ich auch dachte... g-sync an dann auf 236fps ingame cappen und dann v-sync ingame an. das witzige ist jetzt, dass sobald ich v-sync dazu schalte steht der auf 225fps also aus irgendeinem grund kann ich nicht über 225fps gehen wenn v-sync an ist.
das wär auch völlig logisch wenn das ein 225hz monitor wäre... ist es aber nicht. und wenn ich v-sync aus mache geht er ja wieder bis 240 mit... und auch mit bewegung in den fps also g-sync läuft bis 240hz...


und jetzt nochmal zur theorie... also bisher war ich immer davon ausgegangen, das v-sync sobald aktiviert immer 2 bilder vorhält. (input lagg)

v-sync +g-sync da sollte erst nach der g-sync range mit v-sync angefangen werden also input lagg nur wenn 240 oder sagen wir 236pfs überschritten werden.

ich will auf keinen fall den v-sync input lagg haben also würde ich sagen lieber aus lassen und nur g-sync benutzen. und dann ingame dafür sorgen, dass die 240pfs nicht überschritten werden.

das habe ich bisher auch so gemacht nur leider gibt es dann tearing...
mein anti tearing versucht (v-sync einschalten) brachte dann 225fps cap...

also irgendetwas stimmt da nicht... ggf. hat der hersteller gemogelt bzw. getrickst und der bildschrim schafft nur 225hz wenn mehr als ein standbild übertragen wird. oder irgendein bug im nvidia controll panel... also ich bin zu jedem test bereit! sagt mir nur was ich testen soll ich hab hier ne ganze pc-werkstatt also absolut kein problem mal schnell nen vanilla windows auf ne ssd zu hauen und damit zu testen.
 
Zuletzt bearbeitet:
TE
M

MorrisDaddel

Schraubenverwechsler(in)
Steht denn im Nvidia Treiber bei der Auflösung wirklich 240Hz?
jap :)
Hast du das Update drauf?


ja auf meiner 1080 actic storm... aber die 2080 ti arctic storm wird von dem tool nicht unterstützt! allerdings guter einfall hatte ich auch schon gedacht irgendwas mit dem displayport...

ich glaube die richtung stimmt ich weiss nicht wie die das überhaupt zustande bringen mit den 240hz bei 1440p eigentlich geht das doch garnicht... anscheinend wird das bild irgendwie verpackt und dann wieder endpackt das würde auch die aktive kühlung im bildschirm selbst erklären.... (welche sich echt schlimm anhört btw. bloß nicht diesen bildschirm kaufen!)
und wo wir beim bildschirm und der kühlung sind... der lüfter hat sich ständig angehört wie ein jet beim starten also hab ich ihm etwas mehr luft gemacht... der ist jetzt schön ruhig geworden und wird nicht mehr zu heiss also daran kanns auch nicht mehr liegen....

ich hatte bevor ich ihn selbst demontiert hatte absolut null bilder von der kiste im netz gefunden also packe ich die mal hier rein vielleicht findet die irgendwann jemand hilfreich ;)
das g-sync modul ist im prinzip nen kompletter pc... also nen nuc...
 

Anhänge

  • nvidia panel.JPG
    nvidia panel.JPG
    148,2 KB · Aufrufe: 32
  • IMG_0594.JPG
    IMG_0594.JPG
    2,7 MB · Aufrufe: 18
  • IMG_0595.JPG
    IMG_0595.JPG
    2,8 MB · Aufrufe: 12
  • IMG_0596.JPG
    IMG_0596.JPG
    2,1 MB · Aufrufe: 10
  • IMG_0597.JPG
    IMG_0597.JPG
    3 MB · Aufrufe: 9
  • IMG_0598.JPG
    IMG_0598.JPG
    2,3 MB · Aufrufe: 10
  • IMG_0599.JPG
    IMG_0599.JPG
    2 MB · Aufrufe: 10
  • IMG_0600.JPG
    IMG_0600.JPG
    1,7 MB · Aufrufe: 9
  • IMG_0601.JPG
    IMG_0601.JPG
    1,7 MB · Aufrufe: 9
  • IMG_0602.JPG
    IMG_0602.JPG
    2,6 MB · Aufrufe: 9
  • IMG_0603.JPG
    IMG_0603.JPG
    1,5 MB · Aufrufe: 9
  • IMG_0604.JPG
    IMG_0604.JPG
    1,7 MB · Aufrufe: 9
  • IMG_0605.JPG
    IMG_0605.JPG
    2,4 MB · Aufrufe: 11
  • IMG_0606.JPG
    IMG_0606.JPG
    2,5 MB · Aufrufe: 23
Zuletzt bearbeitet:

PCGH_Manu

Redakteur
Teammitglied
Probiere mal das Vsync im Treiber statt im Spiel. Ansonsten vielleicht mit einem etwas geringerem Frame-Limit noch. Checke das mal in anderen Spielen gegen. Weil wenn es nur in einem auftritt, kann es auch einfach am Spiel/an der Engine liegen.
 
TE
M

MorrisDaddel

Schraubenverwechsler(in)
Probiere mal das Vsync im Treiber statt im Spiel. Ansonsten vielleicht mit einem etwas geringerem Frame-Limit noch. Checke das mal in anderen Spielen gegen. Weil wenn es nur in einem auftritt, kann es auch einfach am Spiel/an der Engine liegen.
also ich habe es jetzt nochmal mit treiberseitiger einstellung versucht das kommt auf das gleiche raus. die engine ist unreal 3 und mir ist da nichts bekannt was soetwas hervorrufen kann. rocket leauge ist jetzt auch nicht gerade ein indie game... andere spiele sind bei mir sehr schweer zu finden hab noch forts drauf das läuft konstannt mit 240hz aber denke das ist nicht das richtige testobjekt... werde bei gelegenheit mal irgendeinen shooter probieren was nehme ich denn da am besten? cs oder cod ist dasvon irgendeins umsonst? bin nicht so der shooter fan... und witcher bekomme ich sicher nicht über die 225fps...

anbei nochmal das ganze also fotolovestory.

andere frage:
kann mir jemand erklären was genau der ultra low latency mode im nvidia treiber macht und wie das genau realisiert wird? den habe ich nämlich immer an und das ist abgesehen von den farben die einzige einstellung die ich vornehme.
 

Anhänge

  • 1.jpg
    1.jpg
    2,3 MB · Aufrufe: 14
  • 2.jpg
    2.jpg
    2,3 MB · Aufrufe: 16
  • 3.jpg
    3.jpg
    2,2 MB · Aufrufe: 16
  • 4.jpg
    4.jpg
    2,2 MB · Aufrufe: 21
Zuletzt bearbeitet:
TE
M

MorrisDaddel

Schraubenverwechsler(in)
Ah übersehen.
Warum stellst du den auf 12bit und begrenzt deinen Farbraum?
weil es ein hdr bildschrim ist und begrenzt weil er bei 12 bit nur begrenzt kann moment ich teste mit rgb und standart aber denke nicht, dass das einen unterschied macht

habs getestet... also auch bei standart farbraum gleiches verhalten....
 

Anhänge

  • nvidia panel rgb.JPG
    nvidia panel rgb.JPG
    136 KB · Aufrufe: 16
TE
M

MorrisDaddel

Schraubenverwechsler(in)
vorsicht... der kann hdr ;) ist ja auch ein echter g-sync monitor und der muss ja gewisse farb und helligkeitswerte erfüllen damit der offitziell nvidia zertifiziert wird.... hat auch 1000€ gekostet....

aber in einem punkt muss ich dir recht geben hdr ist nicht immer hdr... hab als netflixstation nen lg oled65cx9la und der kann auch hdr... und verdammt sieht das gut aus... aber der lenovo legion ist schon welten besser als zb. der asus rog swift PG27V
 
Zuletzt bearbeitet:

PCGH_Manu

Redakteur
Teammitglied
Auf dem einen Screenshot schreibste ja, dass bei 225 Fps kein Tearing ist, also alles in Ordnung? Wenn Vsync an ist und G-Sync gleichzeit auch (siehste am variierenden Hz-Counter), hast du keinen zusätzlichen Lag, also alles in Ordnung...

Zu den anderen Themen:
  • CS:Go wäre kostenlos, damit kannste es testen.
  • Ultra Low Latency Mode reduziert den Lag leicht im GPU-Limit, in dem du wegen Frame Limit ohnehin nicht bist, daher kannste dir das sparen. Es gibt Messungen, die zeigen, dass der Lag ohne GPU-Limit auch höher ist. Daher lieber aus lassen
  • HDR kannste dir auch sparen. Weder hast du Content in 12 Bit, noch kann Displayport die erforderliche Bandbreite bei nativer Auflösung & Frequenz betragen, noch kann das Display überhaupt HDR. Nvidia zertifiziert G-Sync, nicht HDR. Wenn du auf voller Frequenz zockst, lass das lieber auf Standard bzw. 8 Bit und Full RGB.
 
TE
M

MorrisDaddel

Schraubenverwechsler(in)
Auf dem einen Screenshot schreibste ja, dass bei 225 Fps kein Tearing ist, also alles in Ordnung? Wenn Vsync an ist und G-Sync gleichzeit auch (siehste am variierenden Hz-Counter), hast du keinen zusätzlichen Lag, also alles in Ordnung...
das stimmt natürlich wenn ich unter 225fps cappe zb. 222fps und beide syncs an mache dann läuft es ohne tearing und ohne lag. so weit bin ich ja auch schon gekommen. und das wär ja bei einem 225hz display auch das standart verhalten. aber bei einem 240hz display sollte ich über die 225fps gehen können. das ist ja meine eigentliche frage und das ist der teil der keinen sinn ergibt. klar du kannst da jetzt auch nix dran ändern und deine schuld isses schon garnicht. ich werde dann wohl darauf verzichten müssen über 225hz zu gehen und mein display von nun an als ein 225hz display betrachten. die sache ärgert mich halt weil es keinen sinn ergibt...

CS:Go wäre kostenlos, damit kannste es testen.
wird gemacht dann sehen wir weiter

Ultra Low Latency Mode reduziert den Lag leicht im GPU-Limit, in dem du wegen Frame Limit ohnehin nicht bist, daher kannste dir das sparen. Es gibt Messungen, die zeigen, dass der Lag ohne GPU-Limit auch höher ist. Daher lieber aus lassen
vielen dank! sehr gute erklärung!
HDR kannste dir auch sparen. Weder hast du Content in 12 Bit, noch kann Displayport die erforderliche Bandbreite bei nativer Auflösung & Frequenz betragen, noch kann das Display überhaupt HDR. Nvidia zertifiziert G-Sync, nicht HDR. Wenn du auf voller Frequenz zockst, lass das lieber auf Standard bzw. 8 Bit und Full RGB.
ich würde sagen den teil hier harken wir als geschmackssache ab. ich sehe schon einen unterschied speziell bei hdr video content. nvidia selbst sagt das sehr hohe anforderungen erfüllt werden müssen, damit ein bildschirm g-sync zertifiziert wird. da wird immer von den "300+ image quality tests" gesprochen.
aus meiner sicht macht das performance technisch keinen unterschied und meine einstellung sieht für mich besser aus als rgb standart einstellung.

richtiges hdr gibts erst bei g-sync ultimate richtig. aber hdr ist bestandteil der nvidia testverfahren. also ja die testen g-sync nicht hdr aber gibt auch kein g-sync sticker wenn nicht bestimmte farbwerte bzw. farbgetreue und helligkeit erfüllt werden.
 

Anhänge

  • g-sync übersicht.JPG
    g-sync übersicht.JPG
    32,3 KB · Aufrufe: 11
  • g-sync vorteile.JPG
    g-sync vorteile.JPG
    144,9 KB · Aufrufe: 10
Zuletzt bearbeitet:

JoM79

Trockeneisprofi (m/w)
Ausser Gsync Ultimate haben die Tests nichts mit HDR zu tun.
Man schreibt es nur gerne auf die Monitore drauf, weil die Leute es dann noch eher kaufen.
 
TE
M

MorrisDaddel

Schraubenverwechsler(in)
Ausser Gsync Ultimate haben die Tests nichts mit HDR zu tun.
Man schreibt es nur gerne auf die Monitore drauf, weil die Leute es dann noch eher kaufen.
also ich denke da könnten wir noch ne weile hin und her diskutieren aber ich belasse es dabei du/ihr habt recht der kann kein hdr. aber das hat auch generell nichts mit dem eigentlichen problem zu tun. ob ich jetzt das eine oder andere schöner finde ist ja in dem fall völlig unwichtig da für den fall nicht relevant.

interessanter weise scheint das eigentliche problem sich behoben zu haben als ich die ultra low latency mode ausgeschaltet habe. abschließendes ergebniss bleibt noch aus. habs noch nicht getestet und gefilmt um sicherzustellen, dass kein tearing vorhanden ist. aber sieht erstmal gut aus...

ich plane gerade auch meine soundkarte rauszuschmeißen wenigstens testweise dazu hätte ich noch ne frage. also die onboard soundkarte hat nen optischen ausgang verstärker hängt dann am toslink kabel was ich mich frage ist ob ich vielleicht lieber das hdmi kabel nehmen sollte was ja auch zum verstärker geht. so rein von der theorie her würde ich sagen toslink ist absolut verlustfrei aber irgendwas baut da soundlagg rein also vermutlich der wandler im verstärker...
wenn ich ganz normal klinke kopfhörer analog am pc anschließe und gleichzeitig die anlage an hab höre ich das geräusch deutlich früher auf den kopfhörern also ne viertel sekunde mindestens...

also meine eigentliche frage an der stelle ist nach dem signalweg ich suche ja immer nach dem geringsten lagg der möglich ist wenn ich sound über hdmi übertrage muss der ja irgendwo erzeugt werden geht das denn von der soundkarte zur grafikkarte und dann zum verstärker oder fungiert die grafikkarte als soundkarte und ich habe ein gerät weniger im spiel. theoretisch könnte ich die soundkarte dann ja ganz aus lassen und nur hdmi audio nehmen. oder ist das performance technisch wieder falsch gedacht?
 
TE
M

MorrisDaddel

Schraubenverwechsler(in)
also ich denke da könnten wir noch ne weile hin und her diskutieren aber ich belasse es dabei du/ihr habt recht der kann kein hdr. aber das hat auch generell nichts mit dem eigentlichen problem zu tun. ob ich jetzt das eine oder andere schöner finde ist ja in dem fall völlig unwichtig da für den fall nicht relevant.

interessanter weise scheint das eigentliche problem sich behoben zu haben als ich die ultra low latency mode ausgeschaltet habe. abschließendes ergebniss bleibt noch aus. habs noch nicht getestet und gefilmt um sicherzustellen, dass kein tearing vorhanden ist. aber sieht erstmal gut aus...

ich plane gerade auch meine soundkarte rauszuschmeißen wenigstens testweise dazu hätte ich noch ne frage. also die onboard soundkarte hat nen optischen ausgang verstärker hängt dann am toslink kabel was ich mich frage ist ob ich vielleicht lieber das hdmi kabel nehmen sollte was ja auch zum verstärker geht. so rein von der theorie her würde ich sagen toslink ist absolut verlustfrei aber irgendwas baut da soundlagg rein also vermutlich der wandler im verstärker...
wenn ich ganz normal klinke kopfhörer analog am pc anschließe und gleichzeitig die anlage an hab höre ich das geräusch deutlich früher auf den kopfhörern also ne viertel sekunde mindestens...

also meine eigentliche frage an der stelle ist nach dem signalweg ich suche ja immer nach dem geringsten lagg der möglich ist wenn ich sound über hdmi übertrage muss der ja irgendwo erzeugt werden geht das denn von der soundkarte zur grafikkarte und dann zum verstärker oder fungiert die grafikkarte als soundkarte und ich habe ein gerät weniger im spiel. theoretisch könnte ich die soundkarte dann ja ganz aus lassen und nur hdmi audio nehmen. oder ist das performance technisch wieder falsch gedacht?


so abschließend ist zu sagen, dass in der tat der ultra low latency mode das problem triggert ohne geht alles seinen zu erwartenden gang. die technischen hintergründe dafür sind mir immernoch schleierhaft. allerdings ist mir das nicht wichtig.

ich habe mir das mit dem hdr nochmal durchgelesen und finde es immernoch irgendwie frech.... das ist wie in manchen foren wenn ich frage wie ich die lazer led von nem dvd laufwerk wechseln kann aud die antwort ist kauf dir ein neues dvd laufwerk... das war nicht die frage!

also ich möchte meine antwort hiermit revidieren! der monitor kann hdr! wer was anderes behauptet hat keine ahnung. der punkt an dem ich das festmache ist ob ich in windows hdr einschalten kann oder nicht. über die qualität des gebotenen hdr sage ich allerdings nichts! mir ist klar, das da massive unterschiede bestehen.

ich habe jetzt nochmal monitor an monitor getestet mit einem hdr vido auf youtube.
einemal beide monitore ohne hdr
dann der eine mit hdr und einer ohne hdr

ich kann ohne weiteres sofort erkennen, dass der hdr monitor im hdr modus ein deutlich kontrastreicheres bild zeigt alleine das weisse logo im video ist schon doppelt so hell wie vorher.

als kleine anerlogie könnte ich jetzt sagen niemand hier der keinen oled monitor oder tv hat darf jemals wieder von schwarz sprechen oder es benutzen egal welche grafiktreiber probleme die persohn hat solange sie von schwarz spricht was ja maximal grau sein kann ist automatisch alles egal. hauptsache wir sind uns alle einig das die person mist erzählt weil ohne oled kannsie ja garkein schwarz angezeigt bekommen...

also büdde büdde sowas lassen das zeiht die quali vom ganzen forum runter. und mach schlechte laune.

von meiner seite kann der thread hier geschlossen werden.

see ya
 

JoM79

Trockeneisprofi (m/w)
Nichts anderes hab ich gesagt.
Ja man kann HDR aktivieren, aber gut ist es nicht.
Und nur weil ein Bild heller ist, ist es nicht kontrastreicher.
Das ist ja genau das was bei OLED der Vorteil ist.
Selbst wenn du die Helligkeit erhöhst, bleibt der Schwarzwert immer noch der gleiche.
Deswegen wird ja bei LCD Displays mit FALD gearbeitet, um die auf ein ähnliches Kontrastniveau zu hieven.
Die Anzahl der der Dimmingzonen bestimmt dabei maßgeblich die Qualität vieler Szenen.

Zum Beispiel wenn die Sonne durch einen Baum scheint.
Ohne FALD hast du zwar die hohe Helligkeit, aber der Baum ist fast nicht mehr zu erkennen.
Bei OLED und ordentlichem FALD siehst du das Licht durch den Baum scheinen.

Anderes Beispiel wäre ein dunkler Raum auf der einen Seite und ein heller auf der Anderen.
Mit OLED/FALD bleibt der dunkle Raum dunkel, ohne hellt der sich ebenfalls auf.
 
Oben Unten