Ist G-Sync sinnvoll wenn man Frames limitiert?

Schon erstaunlich, was es so für "wissenschaftliche Erkenntnisse" in Sachen Sync gibt. :lol:

Also, G-Sync wirkt erst ab 30 Hz, FreeSync ab 48 Hz. Habe ich ein Game, bei dem die FPS unter 30 (Nvidia), bzw. 48 (AMD) gehen, kann VSync eventuell schon mal Sinn machen. Aber auch nur dann.

G-Sync und FreeSync arbeiten dann bis zur maximalen Wiederholfrequenz des Monitors. Alle Einstellungen, die über der maximalen Wiederholfrequenz des Monitors liegen, sind absolut sinnbefreit.

Daher machen nur G-Sync oder FreeSync mit Framelimit in Höhe der Wiederholfrequenz Sinn (je nach Game auch mal weniger).
VSync für Frames unter 30 bzw. 48 FPS muss jeder für sich entscheiden und auch mit den Latenzen leben.
Hinzu kommt, die Arbeitsweise von VSync. Die Graka wird auf die Hertzzahl des Monitors eingebremst. Schafft die Graka diese aber nicht, setzt der Monitor die FPS mal kurz auf die Hälfte. Mit etwas Pech, läuft das Game dann voll eingebremst.
Beispiel: Monitor kann 144Hz. VSync an. Die Graka wird also bei 144 FPS eingebremst. Schafft die Graka nur noch 140 FPS, fallen bei VSync die FPS auf 72. Bei Framelimit fallen die FPS nur auf 140 FPS.

Ich habe ein Framelimit bei 143 FPS (144 Hz-Monitor, der bis 145 Hz kann) und FreeSync aktiviert. VSync ist deaktiviert. Ich komme allerdings auch in meinen Games nicht unter 48 FPS. Es läuft absolut geschmeidig, null Tearing, kein Ghosting, kaum Latenzen und die Graka schnurrt entspannt vor sich hin.
 
Zuletzt bearbeitet:
Also, G-Sync wirkt erst ab 30 Hz, FreeSync ab 48 Hz. Habe ich ein Game, bei dem die FPS unter 30 (Nvidia), bzw. 48 (AMD) gehen, kann VSync eventuell schon mal Sinn machen. Aber auch nur dann.
Und das ist so nicht komplett richtig.
Sobald die maximale Bildwiederholfrequenz das doppelte von der unteren Grenze beträgt, werden Bilder mehrfach angezeigt.
Ergo 99,9% aller modernen adaptive sync Monitor mit 120Hz+ haben adaptive sync bis 1fps runter.
 
Sobald die maximale Bildwiederholfrequenz das doppelte von der unteren Grenze beträgt, werden Bilder mehrfach angezeigt.
Du meinst jetzt aber nicht FastSync oder Radeon Enhanced Sync? Das sorgt ja nur dafür, dass ein FPS-Einbruch nicht sofort stattfindet (z.B. bei 1%-Lows), Latenzen geringer sind als bei VSync und damit Ruckler reduziert (Latenzen und Ruckler sind aber trotzdem noch da). Und wenn es runter geht, gehts runter. Dazu läuft es framelimitiert, reizt die Graka aber trotzdem aus.

Einzig FreeSync Premium hab ich außer Acht gelassen. Das arbeitet nämlich bis 20 Hz/FPS runter.

Und danach ist eh Daumenkino. Wer braucht also eine Technik, die tearingfrei bei 1 FPS arbeitet. :lol:

Sollte es aber was geben, das ich nicht kenne, lass ich mich gern aufklären.
 
Nein, meine ich nicht.
Freesync Premium geht auch nicht bis 20fps.
Egal welche Technik bei 120Hz+ Monitoren, bei etwa 40-50fps werden die Bilder mehrfach angezeigt.
 
Sobald die maximale Bildwiederholfrequenz das doppelte von der unteren Grenze beträgt, werden Bilder mehrfach angezeigt.
Ergo 99,9% aller modernen adaptive sync Monitor mit 120Hz+ haben adaptive sync bis 1fps runter.
Freesync Premium geht auch nicht bis 20fps.
Egal welche Technik bei 120Hz+ Monitoren, bei etwa 40-50fps werden die Bilder mehrfach angezeigt.
Schade. Dachte immer, wenn hier was behauptet wird, kommt auch ein Nachweis, zumindest ein Verweis, Link oder so.
Ich weiß auch nicht alles und lasse mich gerne belehren. Naja. Suche ich mir die Infos halt selber.

Was du meinst ist "Low Framerate Compensation – LFC" und Bestandteil von "Adaptive-Sync" (also G-Sync und FreeSync). Deswegen arbeiten diese ja auch (wie oben erwähnt) bis 30/48FPS und in FreeSync Premium bis 20 FPS runter, obwohl Monitore mindestens 45 - 55 Hz wiedergeben. Dies wird mit den von dir genannten Doppelbildern aufgefüllt, damit Graka und Monitor weiter synchron laufen.
Gut, diese Arbeitsweise hatte ich nicht auf dem Schirm. Aber deine Angabe von bis zu 1 FPS ist da auch nicht zielführend. Auch dein Beitrag "maximale Bildwiederholfrequenz das doppelte von der unteren Grenze ..." löste bei mir nur einen verwirrten Blick aus. "Wenn die FPS unter 60Hz fallen ..." wäre leichter zu verstehen gewesen. Inwiefern jetzt nicht nur die Mindesthertzzahl, sondern auch die Auflösung eine Rolle spielt, lassen wir mal weg. Führt zu weit.

Auf jeden Fall hat das wenig mit VSync zu tun, bzw. lässt es noch überflüssiger werden.

Und deswegen widerhole ich auch noch einmal, die beste Einstellung ist "Adaptive-Sync" (G-Sync oder FreeSync) mit Framelimit auf maximal die maximale Widerholfrequenz des Monitors.
Und als Antwort für den TE: "Adaptive-Sync" (G-Sync/FreeSync) ist immer sinnvoll. Auch bei limitierten Frames.
 
Zuletzt bearbeitet:
Also, G-Sync wirkt erst ab 30 Hz
Das ist falsch, so sieht das z.B bei mir aus. Was du meinst ist "G-sync compatible"
NVIDIA G-Sync (1-165Hz via DisplayPort)



.... Daher machen nur G-Sync oder FreeSync mit Framelimit in Höhe der Wiederholfrequenz Sinn ...
Auch falsch. Warum z.B. sollte ich, wenn mir in bestimmten Spielen 120FPS völlig ausreichen, nicht zum Stromsparen und entlasten der Grafikkarte den FPS-Begrenzung auf für mich relevanter Werte stellen?
 
Schade. Dachte immer, wenn hier was behauptet wird, kommt auch ein Nachweis, zumindest ein Verweis, Link oder so.
Ich weiß auch nicht alles und lasse mich gerne belehren. Naja. Suche ich mir die Infos halt selber.
Habe ich mittlerweile so oft verlinkt und suche es nicht jedesmal neu raus.
Was du meinst ist "Low Framerate Compensation – LFC" und Bestandteil von "Adaptive-Sync" (also G-Sync und FreeSync). Deswegen arbeiten diese ja auch (wie oben erwähnt) bis 30/48FPS und in FreeSync Premium bis 20 FPS runter,
Dann zeig doch mal wo du die 20fps her hast.
Ich finde die nirgends.
Gut, diese Arbeitsweise hatte ich nicht auf dem Schirm. Aber deine Angabe von bis zu 1 FPS ist da auch nicht zielführend. Auch dein Beitrag "maximale Bildwiederholfrequenz das doppelte von der unteren Grenze ..." löste bei mir nur einen verwirrten Blick aus. "Wenn die FPS unter 60Hz fallen ..." wäre leichter zu verstehen gewesen.
Weil es mit den 60Hz nicht richtig ist.
Es geht um die Gegebenheiten die es für die vervielfachung braucht.
Inwiefern jetzt nicht nur die Mindesthertzzahl, sondern auch die Auflösung eine Rolle spielt, lassen wir mal weg. Führt zu weit.
Auflösung ist egal.

Und deswegen widerhole ich auch noch einmal, die beste Einstellung ist "Adaptive-Sync" (G-Sync oder FreeSync) mit Framelimit auf maximal die maximale Widerholfrequenz des Monitors.
Für dich mag das so stimmen.
Das ist falsch, so sieht das z.B bei mir aus. Was du meinst ist "G-sync compatible"
NVIDIA G-Sync (1-165Hz via DisplayPort)
Nein, er hat recht.
Ich hab es oben beschrieben warum die bis 1fps runter gehen.
 
Auch falsch. Warum z.B. sollte ich, wenn mir in bestimmten Spielen 120FPS völlig ausreichen, nicht zum Stromsparen und entlasten der Grafikkarte den FPS-Begrenzung auf für mich relevanter Werte stellen?
Hatte ich auch noch mal präziser erwähnt.
Daher machen nur G-Sync oder FreeSync mit Framelimit in Höhe der Wiederholfrequenz Sinn (je nach Game auch mal weniger).
mit Framelimit auf maximal die maximale Widerholfrequenz des Monitors.

Das ist falsch, so sieht das z.B bei mir aus. Was du meinst ist "G-sync compatible"
NVIDIA G-Sync (1-165Hz via DisplayPort)
Muss ich gestehen, Ur-G-Sync hatte ich nicht auf dem Schirm, nur G-Sync-Kompatibel. Habe mich aber auch nie wirklich mit beschäftigt, da es auf Grund der Kosten ein totes Pferd ist. G-Sync-Comp. wird allgemein nur noch mit G-Sync bezeichnet. Soweit ich weiß, basiert es auch auf der VESA-Basis und wird auch Displayport-Sync genannt.
Aber so tief steck ich dann nicht drin. Für mich sind die Basisdaten entscheidend.

Dann zeig doch mal wo du die 20fps her hast.
Ich finde die nirgends.
Muss ich raussuchen. Reiche ich auf jeden Fall nach. Können jetzt auch 24 Hz gewesen sein. Jedenfalls noch mal deutlich unterhalb der 48 Hz.

Weil es mit den 60Hz nicht richtig ist.
Es geht um die Gegebenheiten die es für die vervielfachung braucht.
Die 60 Hz stehen für die Mindestwiederholfrequenz von Monitoren. Ja, die liegt je nach Modell bei 45 - 60 Hz.

Auflösung ist egal.
Ist es nicht.
Oft wird sogar nur FHD erwähnt. BenQ sagt z.B.: "Alle Ebenen von FreeSync bieten adaptive Synchronisierung auf Hardwareebene, obwohl die grundlegende FreeSync-Version ursprünglich für 60 Hz ausgelegt war. Mit FreeSync Premium und Premium Pro erhalten höhere Frameraten eine bessere Unterstützung. Tatsächlich haben beide höheren Ebenen ein Minimum von 120 Hz für Full-HD-1080p-Displays. Das heißt, FreeSync Premium / Premium Pro kann nur bei 1080p-Monitoren mit Bildwiederholraten von über 120 Hz eingesetzt werden. Für 4K-Bildschirme gilt dieses Minimum nicht. Dies liegt daran, dass 4k-Monitore derzeit die Auflösung und visuelle Wiedergabetreue über die rohe Framerate priorisieren. Dies wird sich zwangsläufig ändern, wenn Grafikarten leistungsfähiger werden und 8K die dominierende Auflösung wird."

AMD spricht von: kleiner als 3440 Horizontalpixel.

Für dich mag das so stimmen.
Erkläre mir bitte, warum eine Bildwiederholrate, die höher ist als das, was der Monitor kann, Sinn macht?
Letztlich macht ja VSync nichts anderes als die Frames auf max. Hertzzahl zu begrenzen, nur mit Latenzen und starken Drops.

Ich hab es oben beschrieben warum die bis 1fps runter gehen.
Sorry, deine Erklärung leuchtet mir weiterhin nicht ein. Dass das Ur-G-Sync das kann ... keine Ahnung, habe mich mit dieser Technik, wie oben erklärt (Antwort an @Neuer_User ), nicht beschäftigt.
Wie LFC dass bewerkstelligen soll, kapier ich auch nicht, da die geringste Hertzzahl eines Monitors (und sagen wir 45 Hz, was ich jetzt auch nicht 100%ig weiß. kenn ja nicht alle Monitore) mit 2 Bildern gefüttert wird.
 
Hatte ich auch noch mal präziser erwähnt.
Tearing erzeugt bei mir sofort Schwindel und Desorientierung. Gerade bei tiefen FPS, bei hohen aber auch. Ich nutze G-sync eigentlioch nur, um Tearing zu vermeiden.
... Muss ich gestehen, Ur-G-Sync hatte ich nicht auf dem Schirm, nur G-Sync-Kompatibel.
Ich musste es vor ein paar Wochen auch nachlesen. Ich hatte im Hinterkopf, dass es unter 20FPS nicht funktioniet, stimmt aber nicht. Und bei Spielen wie Anno 1800 sacke ich auch mal auf 15FPS ab. Das ist dann zwar nichts schön, aber das Bild ist zumindest nicht zerissen.

Und ja, das "Ur G-sync" nutzen tendentziell wenige.
 
Und das halte ich für sinnfrei.
Das hängt von den Spielen ab. Wenn man kompetativ Shooter spielt, braucht man jedes FPS. Da limitiert man nix und dann sind Freesyny und G-sync dahin. Aber es gibt zig andere Spiele, die kann man zwischen 45-120 FPS wunderbar genießen. Ruhigere Spiele, wie ich sie mag.

Von daher muss man es immer konkret je Spiele und Situation definieren und nicht allgemein. Und ja, ich nutze G-sync und begrenze die maximal FPS. Aber ich spiele auch langsame Spiele. Außerdem hilft es gegen Spulenfiepsen. :) :)
 
Das hängt von den Spielen ab. Wenn man kompetativ Shooter spielt, braucht man jedes FPS.
Wie gesagt. Wo ist der Sinn, auch bei einem Shooter, auf einem 144Hz-Monitor mit 500 FPS zu zocken?
Vor allem, wenn man mit VSync dann auch nur 144 FPS spielt. Zusätzlich mit Latenzen, Drops auf 72 FPS und einer brüllenden Graka.
Hardcore-Shooter haben sicherlich heutzutage Monitore mit 240 Hz und mehr. Das diese ausgereizt werden, kann ich nachvollziehen. Alles darüber nun mal nicht.

Und ich wetter hier ja auch nicht gegen "Adaptive-Sync". Nur gegen VSync, bzw. dass ein Framelimit in allen Fällen die bessere Lösung ist gegenüber VSync.
 
Muss ich raussuchen. Reiche ich auf jeden Fall nach. Können jetzt auch 24 Hz gewesen sein. Jedenfalls noch mal deutlich unterhalb der 48 Hz.
Mach mal bitte.
Die 60 Hz stehen für die Mindestwiederholfrequenz von Monitoren. Ja, die liegt je nach Modell bei 45 - 60 Hz.
Es geht darum, dass die max Hertz mindestens doppelt so hoch die wie untere Grenze der adaptive sync range sein muss.
Nur dann können Bilder mehrfach angezeigt werden.
Ist es nicht.
Oft wird sogar nur FHD erwähnt. BenQ sagt z.B.: "Alle Ebenen von FreeSync bieten adaptive Synchronisierung auf Hardwareebene, obwohl die grundlegende FreeSync-Version ursprünglich für 60 Hz ausgelegt war. Mit FreeSync Premium und Premium Pro erhalten höhere Frameraten eine bessere Unterstützung. Tatsächlich haben beide höheren Ebenen ein Minimum von 120 Hz für Full-HD-1080p-Displays. Das heißt, FreeSync Premium / Premium Pro kann nur bei 1080p-Monitoren mit Bildwiederholraten von über 120 Hz eingesetzt werden. Für 4K-Bildschirme gilt dieses Minimum nicht. Dies liegt daran, dass 4k-Monitore derzeit die Auflösung und visuelle Wiedergabetreue über die rohe Framerate priorisieren. Dies wird sich zwangsläufig ändern, wenn Grafikarten leistungsfähiger werden und 8K die dominierende Auflösung wird."

AMD spricht von: kleiner als 3440 Horizontalpixel.
Adaptive sync können sie alle.
Das Weitere sind nur höhere Anforderungen an andere Standards von Freesync.
Erkläre mir bitte, warum eine Bildwiederholrate, die höher ist als das, was der Monitor kann, Sinn macht?
Darum ging es nicht.
Ich nutze nur Vsync und keinen framelimiter.
Letztlich macht ja VSync nichts anderes als die Frames auf max. Hertzzahl zu begrenzen, nur mit Latenzen und starken Drops.
Welche starken drops?
Sorry, deine Erklärung leuchtet mir weiterhin nicht ein. Dass das Ur-G-Sync das kann ... keine Ahnung, habe mich mit dieser Technik, wie oben erklärt (Antwort an @Neuer_User ), nicht beschäftigt.
Wie LFC dass bewerkstelligen soll, kapier ich auch nicht, da die geringste Hertzzahl eines Monitors (und sagen wir 45 Hz, was ich jetzt auch nicht 100%ig weiß. kenn ja nicht alle Monitore) mit 2 Bildern gefüttert wird.
Gehen wir von max 120Hz und min 30Hz aus.
Erreichst du jetzt 20fps, kann das Bild doppelt, dreifach, vierfach etc angezeigt werden.
Deswegen 1fps als untere Grenze.
Übertrieben gesehen wir bei 120Hz das gleiche Bild 120mal angezeigt.
wenn man mit VSync dann auch nur 144 FPS spielt. Zusätzlich mit Latenzen, Drops auf 72 FPS und einer brüllenden Graka.
144fps auf 144Hz Monitor mit Vsync+adaptive sync hat keine drops auf 72fps.
 
Dann zeig doch mal wo du die 20fps her hast.
Ich finde die nirgends.
Also, ich habe da wohl etwas falsch interpretiert. Meine Info über die 20 Hz stammt aus einem Beitrag, wo erklärt wurde, dass die FPS bei FreeSync bis 40 und bei FS Prem bis 20 FPS runter gehen.
Screenshot (387).png
Das ist fachlich beschrieben so nicht richtig, wie wir ja nun wissen, aber es ist sinngemäß die Richtung. Denn fallen bei FreeSync die FPS unter die Mindestfrequenz, in dem Fall 40, bewirkt LFC innerhalb FS Prem, dass die Mindesthertzzahl durch Doppel-, von mir aus auch Mehrfachbilder erfüllt wird., ohne dass das Bild reißt oder stockt.
Ob du da jetzt weiter inhaltlich rummäkeln willst, soll mir aber egal sein. Ich habs nachgereicht.

Die 60 Hz stehen für die Mindestwiederholfrequenz von Monitoren. Ja, die liegt je nach Modell bei 45 - 60 Hz.
Es geht darum, dass die max Hertz mindestens doppelt so hoch die wie untere Grenze der adaptive sync range sein muss.
Nur dann können Bilder mehrfach angezeigt werden.
Die 60Hz stehen einfach als Beispiel für deine "untere Grenze der adaptive sync range" und nicht als fester Wert. Suchst du das Haar in der Suppe? Lese bitte Texte im Kontext. Das es Monitore ab 120 Hz sein müssen (was aber auch nicht ganz korrekt ist, wie ich jetzt weiß, aber dazu später), damit LFC greift, haben wir schon vor Ewigkeiten geklärt.

Erkläre mir bitte, warum eine Bildwiederholrate, die höher ist als das, was der Monitor kann, Sinn macht?
Letztlich macht ja VSync nichts anderes als die Frames auf max. Hertzzahl zu begrenzen, nur mit Latenzen und starken Drops.
Darum ging es nicht.
Ich nutze nur Vsync und keinen framelimiter.
Welche starken drops?
Wie gesagt. Wo ist der Sinn, auch bei einem Shooter, auf einem 144Hz-Monitor mit 500 FPS zu zocken?
Vor allem, wenn man mit VSync dann auch nur 144 FPS spielt. Zusätzlich mit Latenzen, Drops auf 72 FPS und einer brüllenden Graka.
Hardcore-Shooter haben sicherlich heutzutage Monitore mit 240 Hz und mehr. Das diese ausgereizt werden, kann ich nachvollziehen. Alles darüber nun mal nicht.
144fps auf 144Hz Monitor mit Vsync+adaptive sync hat keine drops auf 72fps.
Genau das Selbe. Einfach was aus dem Kontext gerissen und sinnbefreit hingeworfen.
Es interessiert gerade nicht, was du nutzt, bzw. verkaufst du deine Meinung als die einzig Wahre, kannst aber nicht erklären, warum das so ist. Ich habe nun wiederholt die Vorteile von Framecap erklärt, inkl. der Drops bei VSync.
Ich meine die Drops, wenn die Frames grakaseitig unter 144 FPS gehen. Oder möchtest du mir sagen, das VSync und Adaptive Sync so harmonisch und im Einklang an der oberen Grenze des Monitors zusammenarbeiten?!?
Hier warte ich jetzt jedenfalls auf deine Erklärung.

Gehen wir von max 120Hz und min 30Hz aus.
Erreichst du jetzt 20fps, kann das Bild doppelt, dreifach, vierfach etc angezeigt werden.
Deswegen 1fps als untere Grenze.
Übertrieben gesehen wir bei 120Hz das gleiche Bild 120mal angezeigt.
Da ich mich nun etwas intensiver damit beschäftigt habe, verstehe ich jetzt auch, was du mit 1 FPS meinst. Allerdings hat die Sache einen Fehler, mal davon abgesehen, dass es auch nur Theorie ist. Bei 1FPS verdoppelt es sich auf 2, dann 4, dann 8, 16, und zu guter Letzt auf 32, weil wir nun wieder in der Range deines Beispiels sind. Auch ist die 120 Hz-Grenze ebenfalls nicht faktisch. Es muss nach AMD-Vorgaben mindestens die doppelte, besser die 2,5-fache Zahl der Mindestfrequenz sein. AMD gibt auch den Monitorherstellern keine feste Range vor. Nur das sie innerhalb von 8 - 240 Hz bleiben müssen (Stand 2019, Obergrenze kann eventuell aber auch schon hoch gesetzt sein).
Daher könnte es theoretisch auch sein, dass es einen Monitor gibt, der LFC mit einer Obergrenze von 20Hz beherrscht. Die 120Hz-Grenze ergibt sich nur aus der 45 - 60 Hz-Untergrenze der meisten Monitore.


So. Und nach dem ich bei meinen Recherchen bis in die Nacht auch deine Kommentare anderen Usern gegenüber gelesen habe, z.B. November letzten Jahres zum ähnlichen Thema, erwarte ich tatsächlich von dir ein fachgerechte Erklärung, warum Vsync besser ist als Framecap. Ansonsten muss ich davon ausgehen, dass du nur Verriss ohne Substanz kannst. Denn in meinen Augen hat VSync nur eine einzige Daseinsberechtigung. Monitore ohne eine VRR-Implementierung. Neben Adaptive Sync ist VSync nur ein totes Pferd.
Und das war auch die ganze Zeit nur meine Aussage. Ich kann kaum glauben, wie du es mit deinen queren Aussagen geschafft hast, das ganze in hier in dieses Ausmaß zu bringen.
 
Zuletzt bearbeitet:
Genau das Selbe. Einfach was aus dem Kontext gerissen und sinnbefreit hingeworfen.
Es interessiert gerade nicht, was du nutzt, bzw. verkaufst du deine Meinung als die einzig Wahre, kannst aber nicht erklären, warum das so ist. Ich habe nun wiederholt die Vorteile von Framecap erklärt, inkl. der Drops bei VSync.
Ich meine die Drops, wenn die Frames grakaseitig unter 144 FPS gehen. Oder möchtest du mir sagen, das VSync und Adaptive Sync so harmonisch und im Einklang an der oberen Grenze des Monitors zusammenarbeiten?!?
Hier warte ich jetzt jedenfalls auf deine Erklärung.
Ja tun sie.
Da droppt nichts runter auf 72fps.
Vsync wirkt da als Begrenzer.
Gehen die fps runter, ist adaptive sync wieder im Einsatz.
Deswegen dropt da garnichts um die Hälfte runter wie beim reinen Einsatz von Vsync.
Da ich mich nun etwas intensiver damit beschäftigt habe, verstehe ich jetzt auch, was du mit 1 FPS meinst. Allerdings hat die Sache einen Fehler, mal davon abgesehen, dass es auch nur Theorie ist. Bei 1FPS verdoppelt es sich auf 2, dann 4, dann 8, 16, und zu guter Letzt auf 32, weil wir nun wieder in der Range deines Beispiels sind. Auch ist die 120 Hz-Grenze ebenfalls nicht faktisch. Es muss nach AMD-Vorgaben mindestens die doppelte, besser die 2,5-fache Zahl der Mindestfrequenz sein. AMD gibt auch den Monitorherstellern keine feste Range vor. Nur das sie innerhalb von 8 - 240 Hz bleiben müssen (Stand 2019, Obergrenze kann eventuell aber auch schon hoch gesetzt sein).
Daher könnte es theoretisch auch sein, dass es einen Monitor gibt, der LFC mit einer Obergrenze von 20Hz beherrscht. Die 120Hz-Grenze ergibt sich nur aus der 45 - 60 Hz-Untergrenze der meisten Monitore.
Die 120Hz sind nur die untere Grenze.
Wie du ja selbst herausgefunden hast, sagt AMD es sollten besser 2,5x so viel sein.
Untere Grenze ist meist 48Hz, bist du bei deinen 120Hz.
Bei Nvidia reicht 2x ohne Probleme aus und oft funktionieren adaptive sync Monitore an einer Nvidia Karte sogar besser als an einer AMD Karte.
Hast du noch nie die Hertzzahlen eines Monitors bei verschieden fps angeguckt?
Da wird bei ner Untergrenze von 48Hz oft schon bei 60-55fps die 120Hz angezeigt.
Liegt einfach am Treiber wie er mit dem Monitor umgeht.
So. Und nach dem ich bei meinen Recherchen bis in die Nacht auch deine Kommentare anderen Usern gegenüber gelesen habe, z.B. November letzten Jahres zum ähnlichen Thema, erwarte ich tatsächlich von dir ein fachgerechte Erklärung, warum Vsync besser ist als Framecap. Ansonsten muss ich davon ausgehen, dass du nur Verriss ohne Substanz kannst. Denn in meinen Augen hat VSync nur eine einzige Daseinsberechtigung. Monitore ohne eine VRR-Implementierung. Neben Adaptive Sync ist VSync nur ein totes Pferd.
Und das war auch die ganze Zeit nur meine Aussage. Ich kann kaum glauben, wie du es mit deinen queren Aussagen geschafft hast, das ganze in hier in dieses Ausmaß zu bringen.
Dann nochmal für dich.
Vsync in Verbindung mit adaptive sync.
Niemals vsync alleine.
Vsync fungiert als limiter und den Rest macht adaptive sync.
Das tut es seit der ersten Version von Gsync.
Btw, damals konnte im Treiber nur gsync aktiviert und vsync hat sich automatisch mit aktiviert.
Erst später konnte man das getrennt einstellen.

Aber um mal zu deiner Frage zu kommen.
Ich habe immer gesagt, das die Einstellung adaptive sync+Vsync für mich gilt.
Jemand der immer und jederzeit den niedrigsten Inputlag will, wird das anders nutzen.
Ich spiele nur ein Spiel mit möglichst vielen fps und niedrigem Inputlag, da ist kein sync an und die fps liegen weit über den max Hz des Monitors.
Für alles Andere nutze ich seit Jahren adaptive sync+Vsync, da stören mich die ~15ms mehr Inputlag null.
Oder anders herum, wenn du kompetetiv unterwegs bist, dann nutzt möglichst wenig lag und bleibst meist eh nicht in der range des Monitors.
 
Ich lass das mal so stehen. Hätte jetzt doch nicht erwartet, von dir eine ausführliche und sachliche Erklärung zu bekommen. Da du auch erklärt hast, dass es dein Standpunkt ist, ist das für mich ausreichend.
 
Hello,
danke für euren Input und wie es scheint gibt hier mehrere Lösungen für die optimale aber individuelle Bildwahrnehmung. Eine Frage. Wann macht überhaupt V-Sync Sinn? Doch nur bei Monitoren ohne Freesync/G-Sync, oder? Ich habe jetzt beides getestet… Framelimit auf 142 mit und ohne V-Sync bei Frameraten von 100-130 je nach Game. Ich merke keinen Unterschied. Alles gleich gut… also für mein Empfinden.
Grüsse.
Markus
 
... Eine Frage. Wann macht überhaupt V-Sync Sinn? Doch nur bei Monitoren ohne Freesync/G-Sync, oder? ...
Genau, dafür gab es das. Bei 60Hz Monitoten war es noch fragwürdig, denn sobald man unter 60 FPS kam, wurde es gleich auf 30FPS reduziert. Nicht schön. Aber schon mit 75Hz Monitoren waren als erste Halbierung 37,5 FPS erträglich und ab 120 Hz war es ok, dann gab es 120-60-40-30FPS. Und mit 144Hz Monitoren war es mit 144-72-48-36 ziemlich gut, auch ohne G-sync. Aber gerade im Bereich 48-144 FPS ist G-sync bzw. Freesync natürlich viel besser.
 
Schon erstaunlich, was es so für "wissenschaftliche Erkenntnisse" in Sachen Sync gibt. :lol:

Also, G-Sync wirkt erst ab 30 Hz,

Falsch

FreeSync ab 48 Hz.

Falsch, das ist von Bildschirm zu Bildschirm unterschiedlich


Habe ich ein Game, bei dem die FPS unter 30 (Nvidia)

Warum speziell bei NVidia? Wenn man keinen Monitor mit GSync Modul hat, sondern einen, der GSync compatible ist, ist die Situation die selbe wie mit einer AMD Karte (Freesync).

, bzw. 48 (AMD) gehen, kann VSync eventuell schon mal Sinn machen. Aber auch nur dann.

Falsch. VSync sollte man bei GSync immer aktivieren, das hat nichts damit zu tun wie hoch die FPS sind.

G-Sync und FreeSync arbeiten dann bis zur maximalen Wiederholfrequenz des Monitors.

Falsch. Auch das kann von Monitor zu Monitor unterschiedlich sein. Der unterstützte GSync Bereich von Monitoren ist in einer Tabelle auf der NVidia Seite einsehbar.

Alle Einstellungen, die über der maximalen Wiederholfrequenz des Monitors liegen, sind absolut sinnbefreit.

Falsch. Es macht v.A. in kompetitiven Shootern durchaus Sinn auf GSync zu verzichten und beispielsweise mit 300+ FPS bei einem 165Hz Monitor zu spielen, um den Input Lag so weit nach unten zu drücken wie möglich.

Daher machen nur G-Sync oder FreeSync mit Framelimit in Höhe der Wiederholfrequenz Sinn (je nach Game auch mal weniger).

Falsch. Das Framelimit sollte immer 3 FPS unter dem oberen GSync Bereich des Monitors liegen, da ein Framelimit in den meisten Fällen nicht 100%ig eingehalten werden kann und kurzzeitig leicht überschritten wird.

VSync für Frames unter 30 bzw. 48 FPS muss jeder für sich entscheiden und auch mit den Latenzen leben.

Unter 30 FPS sind so oder so unerträglich.

Hinzu kommt, die Arbeitsweise von VSync. Die Graka wird auf die Hertzzahl des Monitors eingebremst.

Redest Du von VSync ohne GSync? Dann stell mal im Nvidia Treiber die Vertikale Synchronisation auf "schnell" und sieh Dir an was passiert ^^

Schafft die Graka diese aber nicht, setzt der Monitor die FPS mal kurz auf die Hälfte. Mit etwas Pech, läuft das Game dann voll eingebremst.

Auf die Art und Weise hat VSync vor 20 Jahren funktioniert. In modernen Titeln wird einfach 1 Frame widerholt, wenn die GPU die z.B. 60 FPS kurzzeitig nicht halten kann.

Beispiel: Monitor kann 144Hz. VSync an. Die Graka wird also bei 144 FPS eingebremst. Schafft die Graka nur noch 140 FPS, fallen bei VSync die FPS auf 72. Bei Framelimit fallen die FPS nur auf 140 FPS.

Wie gesagt: Falsch.

Ich habe ein Framelimit bei 143 FPS (144 Hz-Monitor, der bis 145 Hz kann) und FreeSync aktiviert. VSync ist deaktiviert. Ich komme allerdings auch in meinen Games nicht unter 48 FPS. Es läuft absolut geschmeidig, null Tearing, kein Ghosting, kaum Latenzen und die Graka schnurrt entspannt vor sich hin.

Mit aktiviertem VSync wäre es nochmal etwas geschmeidiger.
 
Zuletzt bearbeitet:
Zurück