LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Niemand! Du kannst ja einfach genug Knete auf den Tisch legen - dann bekommst Du 3440x1440
Ach dann zeig mal wo man einen 3440x1440 Monitor mit IPS und FreeSync bekommt? :P
34" 2560x1080 Finde ich auch Schwachsinn, würde mir aber auch nie nen 27" mit 1920x1080 holen. Wenn 34" dann schon 3440x1440...
 
Hier mal, so wie ich die Unterschiede verstehe (Achtung, reine Spekulation):

Ich gehe mal davon aus, dass FreeSync dem Monitor anhand der aktuellen FPS mitteilt, mit wie viel Herz er arbeiten soll, während es bei nVidia für mich so aussieht, als könne man direkt jeden Frame 1:1 darstellen, der am Monitor ankommt, ohne dem Monitor eine Bildwiederholfrequenz mitzuteilen oder vorzuschreiben. Die Ausgegebenen FPS mit unterschiedlichen Frametimes sind bei G-Sync die eigentlichen "Herz". Und die sind aufgrund der unterschiedlichen und ständig schwankenden Frametimes eben quasi undefinierbar. Diese Schwankungen kann FreeSync scheinbar nicht auffangen, wenn es dem Monitor eine feste Frequenz vorgibt. Diese Frequenz kann zwar höchstwahrscheinlich relativ schnell nach oben oder nach unten korrigiert werden, aber wahrscheinlich nicht von Frame zu Frame, warum das wahrscheinlich nicht möglich ist, erkläre ich anhand des folgenden Beispiels:


Es liegen 40 FPS an.
FreeSync sagt dem Monitor -> 40 Hz
Alles passt und der Monitor stellt alle 25 ms ein neues Bild dar.
Nun ändert sich aber plötzlich die Bildrate und das nächste Frame kommt schon nach 16,7 ms an, weil plötzlich 60 FPS anliegen.

Genau dann kann dieses Bild nicht angezeigt werden, da Freesync im Treiber ja "gesagt" hat, der Monitor soll das Bild nur alle 25 ms aktualisieren.
Folglich kann der Monitor sich erst auf die 60 FPS bzw. den 16,6 ms Intervall einstellen, wenn es für das darzustellende Frame eigentlich schon zu spät ist, da es schon längst am Monitor angekommen ist, der Monitor aber trotzdem 25 ms lang auf das Bild gewartet hat, das eigentlich schon nach 16,7 ms angekommen ist. da der Intervall eben seine regelmäßigkeit von 25 ms hat. Eine Umstellung auf eine andere Bildqiederholfrequenz kann also bei z.B. 40 Hz @ FreeSync ERST nach 25 ms erfolgen.

Man kann wie es scheint natürlich die Bildwiederholfrequenz beliebig ändern, aber man kann nicht von einem Frame zum anderen plötzlich einen kürzeren Intervall anfordern. Bzw. man kann schon, das wird aber erst im nächsten Frame umgesetzt und nicht in dem Frame, bei dem sich die FPS schlagartig geändert haben.

Bei G-Sync dagegen verstehe ich es so, dass der Treiber nicht die Bildwiederholrate des Monitors regelt, sondern dass jedes ausgegebene Frame einfach 1:1 erfasst und SOFORT dargestellt wird. Die Bildwiederholrate ist damit nicht fest definiert bzw, wird dem monitor sicherlich auch gar nicht in diesem Sinne mitgeteilt, sondern richtet sich 1:1 danach, wie oft und schnell neue Frames ankommen. Die Grenze sind eben meist 8,3 ms (120 Hz).



Sprich, FreeSync erlaubt zwar dem Monitor zu sagen, mit welcher Frequenz er arbeiten soll, diese Frequenzen sind aber "starr" und haben ihren festen intervall und können genau deswegen nur leicht verzögert auf FPS schwankungen reagieren. G-Sync dagegen läuft 100% dynamisch abhängig von den FPS.

Ich hoffe man versteht, was ich meine...

Ist zwar reine Spekulation, aber ich denke, das ist der kleine aber feine Unterschied. es würde vieles Erklären.
 
Hier mal, so wie ich die Unterschiede verstehe (Achtung, reine Spekulation):

Ich gehe mal davon aus, dass FreeSync dem Monitor anhand der aktuellen FPS mitteilt, mit wie viel Herz er arbeiten soll, während es bei nVidia für mich so aussieht, als könne man direkt jeden Frame 1:1 darstellen, der am Monitor ankommt, ohne dem Monitor eine Bildwiederholfrequenz mitzuteilen oder vorzuschreiben. Die Ausgegebenen FPS mit unterschiedlichen Frametimes sind bei G-Sync die eigentlichen "Herz". Und die sind aufgrund der unterschiedlichen und ständig schwankenden Frametimes eben quasi undefinierbar. Diese Schwankungen kann FreeSync scheinbar nicht auffangen, wenn es dem Monitor eine feste Frequenz vorgibt. Diese Frequenz kann zwar höchstwahrscheinlich relativ schnell nach oben oder nach unten korrigiert werden, aber wahrscheinlich nicht von Frame zu Frame, warum das wahrscheinlich nicht möglich ist, erkläre ich anhand des folgenden Beispiels:


Es liegen 40 FPS an.
FreeSync sagt dem Monitor -> 40 Hz
Alles passt und der Monitor stellt alle 25 ms ein neues Bild dar.
Nun ändert sich aber plötzlich die Bildrate und das nächste Frame kommt schon nach 16,7 ms an, weil plötzlich 60 FPS anliegen.

Genau dann kann dieses Bild nicht angezeigt werden, da Freesync im Treiber ja "gesagt" hat, der Monitor soll das Bild nur alle 25 ms aktualisieren.
Folglich kann der Monitor sich erst auf die 60 FPS bzw. den 16,6 ms Intervall einstellen, wenn es für das darzustellende Frame eigentlich schon zu spät ist, da es schon längst am Monitor angekommen ist, der Monitor aber trotzdem 25 ms lang auf das Bild gewartet hat, das eigentlich schon nach 16,7 ms angekommen ist. da der Intervall eben seine regelmäßigkeit von 25 ms hat. Eine Umstellung auf eine andere Bildqiederholfrequenz kann also bei z.B. 40 Hz @ FreeSync ERST nach 25 ms erfolgen.

Man kann wie es scheint natürlich die Bildwiederholfrequenz beliebig ändern, aber man kann nicht von einem Frame zum anderen plötzlich einen kürzeren Intervall anfordern. Bzw. man kann schon, das wird aber erst im nächsten Frame umgesetzt und nicht in dem Frame, bei dem sich die FPS schlagartig geändert haben.

Bei G-Sync dagegen verstehe ich es so, dass der Treiber nicht die Bildwiederholrate des Monitors regelt, sondern dass jedes ausgegebene Frame einfach 1:1 erfasst und SOFORT dargestellt wird. Die Bildwiederholrate ist damit nicht fest definiert bzw, wird dem monitor sicherlich auch gar nicht in diesem Sinne mitgeteilt, sondern richtet sich 1:1 danach, wie oft und schnell neue Frames ankommen. Die Grenze sind eben meist 8,3 ms (120 Hz).



Sprich, FreeSync erlaubt zwar dem Monitor zu sagen, mit welcher Frequenz er arbeiten soll, diese Frequenzen sind aber "starr" und haben ihren festen intervall und können genau deswegen nur leicht verzögert auf FPS schwankungen reagieren. G-Sync dagegen läuft 100% dynamisch abhängig von den FPS.

Ich hoffe man versteht, was ich meine...

Ist zwar reine Spekulation, aber ich denke, das ist der kleine aber feine Unterschied. es würde vieles Erklären.
Dann überlegen wir mal weiter und denken daran das sich die FPS quasi ständig ändern beim Spielen man schaue nur auf irgendein Testvideo von PCGamesHardware wo sie die Framerate auf dem Monitor für das Spiel anzeigen, das würde nach deiner Therorie bedeuten das Freesync quasi nie richtig funktioniert ausser man lockt die Framerate.
 
Warum sonst sollte nVidia eine extra Platine für die Monitore brauchen, wenn es auch einfacher geht.
Damit sie mehr Geld scheffeln eventuell?
Die arbeiten doch nich zum Nulltarif. ;)

Niemand! Du kannst ja einfach genug Knete auf den Tisch legen - dann bekommst Du 3440x1440
Das werde ich ganz sicher auch machen.
700+ € sind für eine langjährige Investition absolut kein Beinbruch.

Mein jetziger Monitor kam neu 1550 €.
Habe ich seit 2008 und leistet mir immer noch treue Dienste.

So lange ich was ordentliches bekomm für mein Geld, wüßte ich nicht, warum ich einer solchen Ausgabe hinterjammeren sollte.

PS: Die 700+ € finde ich sogar einen Witz! Wenn meiner mal den Löffel abgibt, werde ich auf 21:9 umsteigen. Aber ganz sicher nicht in veralteten Auflösungen!
 
Es liegen 40 FPS an.
FreeSync sagt dem Monitor -> 40 Hz
Alles passt und der Monitor stellt alle 25 ms ein neues Bild dar.
Nun ändert sich aber plötzlich die Bildrate und das nächste Frame kommt schon nach 16,7 ms an, weil plötzlich 60 FPS anliegen.
Das ist aus sicht eines Entwicklers bullshit, wenn das wirklich so gemacht wird, hätten mindestens 3 wichtige Leute in der Verfahrenskette gepennt und etwas durchgewunken was MASSIV Komplizierter und schlechter ist, als wenn die Grafikkarte ganz einfach folgendes Mitteilt: "So, leztes Datenpaket dieses Frames, kannst jetzt darstellen."
Und der Monitor macht das dann.

So in etwa funktioniert ja GSync, und Adaptive Sync vermutlich auch.
 
Dann überlegen wir mal weiter und denken daran das sich die FPS quasi ständig ändern beim Spielen man schaue nur auf irgendein Testvideo von PCGamesHardware wo sie die Framerate auf dem Monitor für das Spiel anzeigen, das würde nach deiner Therorie bedeuten das Freesync quasi nie richtig funktioniert ausser man lockt die Framerate.

Nun ja, einfach gesagt ja. Aber in der Regel schwanken die Frametimes ja nicht sehr stark und sind bei Single GPUs eigentlich relativ konstant. Eine um einen Frame Verzögerte Reaktion auf veränderte Frametimes und damit erforderlichem Wechsel der Bildqiederholfrequenz wäre wohl trotzdem ausreichend, aber eben nicht perfekt.

Wie gesagt, es ist meine Vermutung, wie Free-Sync funktioniert und warum es verhältnissmäßig günstig ist. Dass es eine 1:1 kopie der Funktionsweise von G-Sync ist kann ich mir beim besten willen nicht vorstellen. Klar, wäre toll, aber IMHO einfach unrealistisch.


Meine Vermutung würde eben genau das Erklären, warum FreeSync schlechter auf schwankende FPS reagieren kann. Ich mein, der Entwickler hat ja nicht einfach gesagt, "FreeSync ist *******" er hat ja genau den Schwachpunkt genannt. Und der feste Intervall ist die für mich einzig logische Erklärung für den genannten Nachteil.
 
Zuletzt bearbeitet:
Deiner Spekulation nach zu urteilen, wären dann die erwiesenen ~15% weniger Frames bei 60fps mittels G-Sync/v-sync nicht möglich. Sind es aber..... ( Müsste ja dann auch Bilder berechnen, die es aber nicht gibt ) ...
 
Also ich denke oculus dürfte das Geschäft mit displays ins stottern bringen zumindest im gaming Bereich, bin gespannt wie die display Hersteller drauf reagieren ob die dan auch auf den virtual reality zug aufspringen, mit eigenen Produkten die sich nur minimal unterscheiden wie Smartphones oder tvs etc. Ich denke wen oculus wirklich ein Erfolg wird werden wir in den nächsten Jahren überschwemmt von Video brillen, das wird der nächste big hit so wie Smartphones mit touch Bildschirm oder tablets, zuerst war Apple die riesen Erfolg hatten 2 Jahre später gabs 30 Firmen
 
Das werde ich ganz sicher auch machen.
700+ € sind für eine langjährige Investition absolut kein Beinbruch.

Mein jetziger Monitor kam neu 1550 €.
Habe ich seit 2008 und leistet mir immer noch treue Dienste.

So lange ich was ordentliches bekomm für mein Geld, wüßte ich nicht, warum ich einer solchen Ausgabe hinterjammeren sollte.

PS: Die 700+ € finde ich sogar einen Witz! Wenn meiner mal den Löffel abgibt, werde ich auf 21:9 umsteigen. Aber ganz sicher nicht in veralteten Auflösungen!

Ich sehe das genauso wie Du - selbst den Tausender für den Curved 34UC97 finde ich akzeptabel! (gerade aus dem Grund weil man im Allgemeinen den Monitor nicht ständig wechselt)

Für viele sind aber schon 500€ eine Schmerzgrenze bei Monitoren - schau Dir mal diverse Threads bei Neuvorstellungen an.
Und wenn man für das Geld einen 34er Curved möchte - muss man halt die 1080p fressen:D
 
Nun ja, einfach gesagt ja. Aber in der Regel schwanken die Frametimes ja nicht sehr stark und sind bei Single GPUs eigentlich relativ konstant. Eine um einen Frame Verzögerte Reaktion auf veränderte Frametimes und damit erforderlichem Wechsel der Bildqiederholfrequenz wäre wohl trotzdem ausreichend, aber eben nicht perfekt.
Meinst du?
Schau mal auf das Video ab 1:20

https://www.youtube.com/watch?v=LY4J-T8Za0g
 
Also ich denke oculus dürfte das Geschäft mit displays ins stottern bringen zumindest im gaming Bereich, bin gespannt wie die display Hersteller drauf reagieren ob die dan auch auf den virtual reality zug aufspringen, mit eigenen Produkten die sich nur minimal unterscheiden wie Smartphones oder tvs etc. Ich denke wen oculus wirklich ein Erfolg wird werden wir in den nächsten Jahren überschwemmt von Video brillen, das wird der nächste big hit so wie Smartphones mit touch Bildschirm oder tablets, zuerst war Apple die riesen Erfolg hatten 2 Jahre später gabs 30 Firmen

Glaub ich kaum, da VR für die meisten Spiele "noch" nicht zu gebrauchen ist und Surfen, Arbeiten etc. will man mit dem Ding auch nicht.
Außerdem braucht man 100+ FPS, damit das gut aussieht und man keine Kopfschmerzen bekommt und das auf 2 Full HD Bildschirmen.
 
Framelimiter auf 40 FPS ohne Tearing ist mir immernoch lieber als Vsync 30 FPS oder 40 mit Tearing. So what? Es ist immerhin kostenlos.
 
Wow, die Art von Jounalismus die hier an den Tag gelegt wird wird ja immer katastrophaler :wall:

Und diese ''anonyme Quelle'', lasst mich raten, dabei handelt es sich um den werten Herrn Jen-Hsun Huang :lol:
 
HM also ich glaube mit meinen Augen stimmt was nicht in merke beim spielen nix von tearing etc auch bei SLI merke ich nix von mikro ruckeln und ich spiele immer am Fernseher im Wohnzimmer, ich verstehe nicht warum ich sowas nicht wahrnehmen kann obwohl fast alle Leute in Foren meinen das man ein Spiel so nicht genießen kann und es unaustehlich ist, das einzige was mir wichtig is sind fhd hohe Details und 35 fps, alles was drüber is merke ich nicht hmmmm meint ihr das ich vielleicht ne seh schwäche habe oder woran kann das liegen ?
 
Ehrlich gesagt finde ich den postulierten Unterschied gar nicht so schrecklich.

Der Hauptvorteil von GSync ist ja, dass die Framerate auch mit VSync frei variieren kann, also nicht an feste Werte gebunden ist (bei 60 Hz z.B. 60/30/20 fps) und auch kein zusätzlicher Lag benötigt wird (wie beim Triple Buffer).

Und diesen Vorteil hätte man m.E. auch bei FreeSync, selbst dann, wenn die Einschränkung, die hier behauptet wird, vorhanden wäre. Mit GSync werden die Ruckler selbst ja nicht weniger oder weniger schlimm. GSync ist genauso wie VSync aus ohne Tearing. Nicht mehr und nicht weniger.

(Ich besitze einen ROG Swift mit GSync).
 
Für viele sind aber schon 500€ eine Schmerzgrenze bei Monitoren - schau Dir mal diverse Threads bei Neuvorstellungen an.
Ja, diese Aussagen kenne ich und die hatte ich auch mit im Hinterkopf, als ich meinen Beitrag verfaßte.
Anfänglich dachte ich auch, du willst mir auf die Art kommen. :D

Framelimiter auf 40 FPS ohne Tearing ist mir immernoch lieber als Vsync 30 FPS oder 40 mit Tearing. So what? Es ist immerhin kostenlos.
Sehe ich auch so.

Ich arrangiere die Einstellungen (In-Game + Nv Inspector + DS/DSR) auch immer so, daß ich im bombenfesten Spektrum von 40 bis 45 FPS lande (entsprechende Sperre bei 40/45).
Da läßt es sich gut spielen und die Optik läßt nichts zu wünschen übrig. :)

Der einzige Nachteil ist natürlich, daß man damit irgendwo zwischen 60 und 30 Hz rumeiert.
Hier hoffe ich, daß FreeSync ansetzen kann und das Nvidia schlußendlich auch ein Einsehen hat und FreeSync unterstützt.

Und diese ''anonyme Quelle'', lasst mich raten, dabei handelt es sich um den werten Herrn Jen-Hsun Huang
:daumen:

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Die Überschrift is bildzeitungsmäßig....
Reißerische Überschrift aber am Ende nichts dahinter [...] Sieht verdammt nach Klickgeilheit hoch 3 aus
daumenrunter.gif
Sieht nicht nur so aus.
Wurde doch sogar erst kürzlich von einem „Redakteur“ in einem Video zugegeben.

So und noch was: aus zuverlässiger Quelle habe ich erfahren, dass ihr überwiegend NVidia Fanboys bei euch beschäftigt: merkt ihr was?
Das.. das.. das hat dir der Teufel gesagt! :D
 
Zuletzt bearbeitet:
HM also ich glaube mit meinen Augen stimmt was nicht in merke beim spielen nix von tearing etc auch bei SLI merke ich nix von mikro ruckeln und ich spiele immer am Fernseher im Wohnzimmer, ich verstehe nicht warum ich sowas nicht wahrnehmen kann obwohl fast alle Leute in Foren meinen das man ein Spiel so nicht genießen kann und es unaustehlich ist, das einzige was mir wichtig is sind fhd hohe Details und 35 fps, alles was drüber is merke ich nicht hmmmm meint ihr das ich vielleicht ne seh schwäche habe oder woran kann das liegen ?

Bist du evt ein Troll?:o
 
Ich bin auch sehr auf Tests zwischen G-Sync und FreeSync gespannt. Grundsätzlich denke ich schon, dass an der Aussage des Entwicklers was dran ist. Warum sonst sollte nVidia eine extra Platine für die Monitore brauchen, wenn es auch einfacher geht.

DAs is eigentlich selbsterklärend... Die wollen mehr Kohle machen .


Gabs nich irgendwo schonmal nen Test von jemanden der einen Gsync Monitor aufgeschraubt hat und dieser Chip eigentlich gar nichts gemacht hat?
 
Artikel schrieb:
Wir haben auf der CES mit einem Spieleentwickler und Programmierer gesprochen, der namentlich nicht genannt werden möchte, laut dem G-Sync spürbar besser arbeiten soll als Freesync.
Hört sich erst mal nicht sonderlich gut an, dieses Indiz verstärkt den verdacht den viele haben.
Zumindest ist diese Quelle interessanter als jede Mutmaßung, die in der Vergangenheit in den Raum gestellt wurde.
Ich bleibe Skeptisch und hoffe das Tests schnell veröffentlicht werden, Klarheit und untermauerte Fakten sind mir lieber als jede Annahme.
 
Wieder diese "nVidia ist eeeeevil" Trolle. Ist man nirgendwo vor denen sicher?

Offenbar haltet ihr auch alle die Monitorhersteller für komplette Idioten.
 
Zuletzt bearbeitet:
Zurück