LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Richtig vergleichen kannst du eh nur wenn sie direkt nebeneinander stehen und einstellen mache ich lieber selber.
Davon wäre es bestimmt lustig zu sehen wie ein Mitarbeiter von MM versucht den einzustellen.
 
Was ist das denn bitte schön für ein Artikel?!
Wurde euch hier etwas von Nvidia zugesteckt?
Schon der Titel "Freesync schlechter als G-Sync?" klingt wertend.
Dann ließt man den Artikel durch und denkt sich, "OK und wo ist nun der Vergleich?"
Der Artikel dreht sich eigentlich um einen neuen Curved Monitor und zwischen drin erwähnt ein "angeblicher Programmierer" das Freesync nicht so dolle ist.
Ohne Tests und keinerlei Vergleich. Keine Beweise, einfach nix.
Das ist doch nicht euer ernst! :daumen2:
Bei der Kolumne von Tom vor ein paar Tagen war ich ja noch auf eurer Seite, da es sich eben einfach um einen Kommentar handelte und nix weiter.
Aber hier soll es sich ja um einen Fachartikel handeln.
Das ist einfach nur ein schlechter Scherz.
Lest euch mal einfach eine Ausgabe der c't durch und ihr wisst wie man das richtig macht.

Bevor jetzt wieder welche kommen AMD Fanboy.
Das bin ich sicher nicht. Ginge es hier um Nvidia oder wen auch immer würde ich es genauso sehen.

Hätte man als Überschrift geschrieben "LG 34UM67 ausprobiert: Unterstützt AMD Freesync"
und danach den Monitor beschrieben und dann Freesync erläutert zusammen mit dem technischen Unterschieden zu G-Sync wäre alles gut.
Aber nein man muss den Artikel natürlich reißerischer machen und einen "anonymen Programmierer ins Spiel bringen".
Einfach nur schlecht! :daumen2:
 
Schmarrn…..
Der Monitor Refresh wird einfach dann ausgelöst wenn das Bild fertig gerendert ist, da muss überhaupt nichts „geschätzt“, „gemittelt“ oder „vorhergesagt“ werden.

Das macht G-Sync. Deswegen gibt es das Polling vom Treiber zum Modul. Wobei der Leistungsverlust sich mit dem letzten Treiber auf 0,005% reduziert hat.

Bei Freesync wird der Monitor real auf eine andere Hz-Zahl gestellt: AnandTech | AMD Shows Off Multiple FreeSync Displays
Der Samsung-Monitor zeigt die neue Hz an. Spricht für die getätigte Aussage der unbekannten Quelle. Und laut dem Forbes-Typen müsste AMD noch an den Treibern arbeiten...
 
Das macht G-Sync. Deswegen gibt es das Polling vom Treiber zum Modul. Wobei der Leistungsverlust sich mit dem letzten Treiber auf 0,005% reduziert hat.

Bei Freesync wird der Monitor real auf eine andere Hz-Zahl gestellt: AnandTech | AMD Shows Off Multiple FreeSync Displays
Der Samsung-Monitor zeigt die neue Hz an. Spricht für die getätigte Aussage der unbekannten Quelle. Und laut dem Forbes-Typen müsste AMD noch an den Treibern arbeiten...

Das steht überhaupt nicht in deiner Quelle :P Da steht "We could then enable/disable FreeSync and V-SYNC, we could set the target rendering speed from 40 to 55 Hz in 5Hz increments, or we could set it to vary (sweep) over time between 40 Hz and 55 Hz." Das ist eine Aufzählung von drei Punkten, mit "oder" getrennt. Zu Deutsch: "Wir konnten FreeSync und V-Sync ein-/und ausschalten, wir konnten die Bildwiederholfrequenz von 40 bis 55 Hz einstellen, oder wir konnten ...". Das heißt, dass das Einstellen der Bildwiederholfrequenz ein anderes, zusätzliches Feature ist. FreeSync macht das nicht. FreeSync teilt dem Monitor mit, wann er das übertragene Bild anzeigen soll. Kann man auch in gefühlten 100 Tech-Artikeln über FreeSync so nachlesen. G-Sync macht im Prinzip genau das gleiche. Deshalb bin ich auch sehr skeptisch bezüglich dieser anonymen Quelle.

Und laut dem Forbes-Typen müsste AMD noch an den Treibern arbeiten...
Das sehe ich auch so, habe ich ja weiter oben hier schon geschrieben. AMD weiß, dass erst in 2 Monaten die ersten Endkunden ein FreeSync-Display haben werden. FreeSync wird komplett über den Treiber abgewickelt (keine Zusatzplatine im Monitor). Also hat AMD offensichtlich noch 2 Monate Zeit, das zu optimieren. Es wäre regelrecht seltsam, wenn bereits 2 Monate vor dem Release alle Details im Treiber schon fertig optimiert wären. Was sollte das bringen? ;)
 
Weil das Panel zu dir gebogen ist und du nicht mehr so den seitlichen Blickwinkel hast, um den IPS glow zu sehen. .

Funktioniert nur leider nicht.
So hast du nämlich an viel mehr Stellen des panels einen seitlichen Blickwinkel als bei einem flachen.

Der LG Curved UltraWide 34UC87 hatte bei mir jedenfalls glow wie die anderen auch, da hilft die Biegung nix.
Im Gegenteil, sie macht es noch schlimmer (wie auch bei dem 27" VA curved von Samsung den ich auch da hatte).

Das kann sich natürlich ändern bei anderen Geräten, aber ich habe da wenig Hoffnung.

Um den zu beseitigen bräuchten wir wieder einen Poli oder andere Techniken.
Und da sieht es nicht so aus als ob so schnell was kommen würde.
Das was geplant ist sind auch nur panels bis 24".
 
Also ich sehe da jetzt nur beim seitlichen gucken einen glow, hier.
Allerdings kann es auch sein, das man es durch die Lichthöfe nicht sehen kann.
Ich konnte es beim 34UM65 auch nur rchts sehen, da links ein Lichthof war.
Beim VA wird es wohl eher das typisch silbrige Glänzen zur Aussenseite hin sein.
 
Das steht überhaupt nicht in deiner Quelle :P Da steht "We could then enable/disable FreeSync and V-SYNC, we could set the target rendering speed from 40 to 55 Hz in 5Hz increments, or we could set it to vary (sweep) over time between 40 Hz and 55 Hz." Das ist eine Aufzählung von drei Punkten, mit "oder" getrennt. Zu Deutsch: "Wir konnten FreeSync und V-Sync ein-/und ausschalten, wir konnten die Bildwiederholfrequenz von 40 bis 55 Hz einstellen, oder wir konnten ...". Das heißt, dass das Einstellen der Bildwiederholfrequenz ein anderes, zusätzliches Feature ist. FreeSync macht das nicht. FreeSync teilt dem Monitor mit, wann er das übertragene Bild anzeigen soll. Kann man auch in gefühlten 100 Tech-Artikeln über FreeSync so nachlesen. G-Sync macht im Prinzip genau das gleiche. Deshalb bin ich auch sehr skeptisch bezüglich dieser anonymen Quelle.

Steht a) im Text und b) ist im Video zu sehen:
The Samsung display meanwhile was even able to show the current refresh rate in its OSD, and with FreeSync enabled we could watch the fluctuations, as can be seen here.

Das Samsung Menü zeigt eine variable Refresh-Rate an. Das heißt, der Monitor läuft mit variablen Hz-Zahl. Er weiß also, wie lange das Bild nun stehen bleibt. Und dies ist nur möglich, wenn die Grafikkarte die Refresh-Rate vor dem Senden der Informationen umstellt.

Das ist nicht vergleichbar mit G-Sync. Hier hält das Modul den Monitor davon ab sich im fest eingestellten Intervall neu zu aktualisieren. Die Refresh-Rate ist im Monitormenü immer gleich.
 
@JoM79
Den LG 34UC97-S habe ich auch schon live erlebt.
Leider glowt auch der, wie du aber richtig bemerkst sind auf Fotos die Lichthöfe das Problem.

Wie gesagt, es kann natürlich sein das panels kommen wo keiner mehr ist, möglich wäre es.
 
Das Samsung Menü zeigt eine variable Refresh-Rate an. Das heißt, der Monitor läuft mit variablen Hz-Zahl. Er weiß also, wie lange das Bild nun stehen bleibt. Und dies ist nur möglich, wenn die Grafikkarte die Refresh-Rate vor dem Senden der Informationen umstellt.

Das ist nicht vergleichbar mit G-Sync. Hier hält das Modul den Monitor davon ab sich im fest eingestellten Intervall neu zu aktualisieren. Die Refresh-Rate ist im Monitormenü immer gleich.

Nein, deiner Schlussfolgerung widerspreche ich. Wenn die Grafikkarte jeweils den genauen Zeitpunkt mitteilt, wenn ein Bild angezeigt werden soll (so wie es G-Sync und FreeSync machen), führt das natürlich im Rückblick auch zu einer variablen Refresh-Rate, weil zwischen zwei Frames unterschiedlich viel Zeit vergeht, bis der Befehl zum Anzeigen eingeht. Also ist es klar, dass der Zähler im Monitor, der einfach die angezeigten Frames innerhalb der letzten vergangenen Sekunde mitzählt, dann variable Hz-Zahlen anzeigt. Das ist ja gerade der entscheidende Punkt beider Technologien, dass die zeitliche Abfolge der Frames variabel ist.
Das wäre bei diesem Monitor mit G-Sync genau so. Kann man leider nicht vergleichen, da dieser Monitor ja kein G-Sync unterstützt (und andere Monitore, die das tun, nicht die Frames mitzählen, sondern einfach eine feste Framerate im OSD anzeigen).

Da FreeSync noch nicht veröffentlicht wurde, werden wir wohl oder übel unsere unterschiedlichen Meinungen zu diesem Thema behalten, weil niemand handfeste Argumente hat, den anderen zu überzeugen. Es bleibt uns also nur, den Release von FreeSync abzuwarten. Dann wird PCGH eine genaue Analyse der Frame-Abfolge machen, und wir wissen mehr ;)
 
mal was jemand aus dem 3DCenter, dem man glauben kann, dazu sagt.

Bisher schaut es auch so aus, als ob nVidia ganz sicher NICHT der Vorreiter war. Ob es Intel oder AMD war, wird nicht ganz klar sein.
ABER:
Eine VESA Spec bringt man nicht 'mal eben' so auf die Beine, das bruacht 'nen paar Jahre.
Ebenso ist die Hardware, die für Fresync benötigt wird, schon in einigen aktuellen Chips. Auch das macht man nicht 'mal eben'.

Das lässt den Schluss zu, dass zumindest AMD daran schon seit einigen Jahren arbeitet. Und man könnte hier vermuten, dass nVidia die Idee geklaut hat, als AMD das ganze der VESA vorgeschlagen hat...
 
Nein, deiner Schlussfolgerung widerspreche ich. Wenn die Grafikkarte jeweils den genauen Zeitpunkt mitteilt, wenn ein Bild angezeigt werden soll (so wie es G-Sync und FreeSync machen), führt das natürlich im Rückblick auch zu einer variablen Refresh-Rate, weil zwischen zwei Frames unterschiedlich viel Zeit vergeht, bis der Befehl zum Anzeigen eingeht. Also ist es klar, dass der Zähler im Monitor, der einfach die angezeigten Frames innerhalb der letzten vergangenen Sekunde mitzählt, dann variable Hz-Zahlen anzeigt. Das ist ja gerade der entscheidende Punkt beider Technologien, dass die zeitliche Abfolge der Frames variabel ist.

Du missverstehst hier etwas: Der Monitor zählt überhaupt nichts mit. Die Monitoranzeige zeigt nur den Refreshintervall an. Dieser sollte sich überhaupt nicht ändern. Da es jedoch bei Adaptive-Sync/Freesync tut, ist die Grafikkarte nicht in der Kontrolle des eigentlichen Refreshintervalls sondern setzt diesen nur in einen anderen statischen.
Der Monitor kann überhaupt nicht wissen, in welchem Intervall Frames erzeugt werden. Da wird nichts mitgezählt.

Das wäre bei diesem Monitor mit G-Sync genau so. Kann man leider nicht vergleichen, da dieser Monitor ja kein G-Sync unterstützt (und andere Monitore, die das tun, nicht die Frames mitzählen, sondern einfach eine feste Framerate im OSD anzeigen).

Nein, das ist mit G-Sync im Allgemeinen nicht so. Das Modul hält den Refresh-Befehl fest und lässt ihn erst los, wenn die Grafikkarte neue Daten sendet. Dafür ist aber das Polling notwendig, da die Karte überhaupt nicht weiß, ob der Monitor noch im Scan-Out ist.
 
Du missverstehst hier etwas: Der Monitor zählt überhaupt nichts mit. Die Monitoranzeige zeigt nur den Refreshintervall an. Dieser sollte sich überhaupt nicht ändern. Da es jedoch bei Adaptive-Sync/Freesync tut, ist die Grafikkarte nicht in der Kontrolle des eigentlichen Refreshintervalls sondern setzt diesen nur in einen anderen statischen.
Der Monitor kann überhaupt nicht wissen, in welchem Intervall Frames erzeugt werden. Da wird nichts mitgezählt.

Sagt wer? :P Du kannst das ja gerne so behaupten, aber es ist eben trotzdem nur deine persönliche Meinung. Wir wissen schlichtweg beide nicht, wie dieser Monitor intern arbeitet. Ich behaupte eben, der Monitor zählt für diese Anzeige einfach die angezeigten Frames. Das wäre ein leichtes für die Steuerlogik des Monitors. Ob es echt so ist, kann nur der Monitor-Hersteller wissen.

Bisherige Monitore, die mit fester Bildwiederholfreqzenz laufen, brauchen offensichtlich nix mitzuzählen. Aber gerade durch G-Sync und FreeSync, wo eben nicht in jeder Sekunde die gleiche Anzahl an Frames angezeigt werden (zumindest bei dieser Aussage sind wir uns wohl hoffentlich einig ^^), wäre es naheliegend, den Monitor die Frames mitzählen zu lassen. So kann man sich dann z.B. über das OSD des Monitors die aktuelle Framerate anzeigen lassen, ohne auf dem PC Fraps/etc. zu starten. Das wäre ein echt nützliches Feature. Nach dem Lesen des Artikels unterstelle ich jetzt einfach, dass der dort neu vorgestellte Monitor dieses Feature besitzt.

Übrigens sind bereits alle gängigen digitalen Monitorports bidirektional, d.h. der Monitor kann schon seit ca. 10 Jahren auch Daten zurück an den PC senden. So erkennt z.B. Windows beim Einstecken eines neuen Monitors sofort die Modellnummer, etc. Es wäre ein leichtes, wenn der Monitor der Grafikkarte einfach mitteilt, wenn er mit der Anzeige eines neuen Bildes fertig ist. Dafür braucht es keine Zusatzplatine, etc.

Nachdem ich mich seit der ersten Erwähnung von FreeSync (damals noch Adaptive Sync) sehr für diese Thematik interessiere und inzwischen viele dutzend technische Reports / Spekulationen / Ankündigungen dazu gelesen habe, in denen nie etwas davon stand, dass FreeSync einfach stupide die Bildwiederholfrequenz neu festsetzen soll, halte ich dieses Gerücht einfach für recht ungaubwürdig. Daran ändert weder der "anonyme Entwickler" aus dem PCGH-Artikel, noch deine eine Quelle etwas. Falls es am Ende wirklich so ist, wäre das sehr schade, aber wie gesagt halte ich diesen Fall für sehr unwahrscheinlich.

Da es kein Stück weiter bringt, wenn wir hier im Dunkeln stochern, beende ich jetzt von meiner Seite diese Diskussion. In ein paar Monaten, nachdem PCGH den FreeSync-Test veröffentlicht hat, können wir die gerne fortsetzen ;)
 
Eine VESA Spec bringt man nicht 'mal eben' so auf die Beine, das bruacht 'nen paar Jahre.
Ebenso ist die Hardware, die für Fresync benötigt wird, schon in einigen aktuellen Chips. Auch das macht man nicht 'mal eben'.

Das lässt den Schluss zu, dass zumindest AMD daran schon seit einigen Jahren arbeitet. Und man könnte hier vermuten, dass nVidia die Idee geklaut hat, als AMD das ganze der VESA vorgeschlagen hat...

Auch NV´s Modul entwickelt man nicht in 2 Tagen. ;)
Ohne Beweise ist es nur eine Verschwörungstheorie.

NV hat auch 3D Vision (weiter)entwickelt, es könnte also sein das es schlichtweg daher kommt das Unternehmen versuchen Dinge zu erfinden die andere nicht haben.

Siehe DSR.
Da könnte ich nun auch behaupten AMD hat nur geklaut.
 
Auch NV´s Modul entwickelt man nicht in 2 Tagen. ;)
Was allerdings dafür sprechen würde, wäre die Tatsache, dass Nvidia zu Beginn ihre Zusatzplatine mit einem (sündhaft teuren) FPGA ausgestattet hat. Es gibt eigentlich nur einen plausiblen Grund dafür - nämlich, dass schlicht die Zeit für die Entwicklung und Fertigung eines ASICs zu knapp war ;) Inzwischen ist der FPGA ja sinnvollerweise von einem ASIC abgelöst. Das spricht m.E. sehr stark dafür, dass Nvidia heftigen Zeitdruck bei der Veröffentlichung hatte. Natürlich kann nicht die Rede von 2 Tagen sein, aber in ein paar Monaten schafft es ein erfahrenes Team, einen komplexen FPGA vernünftig zu programmieren.

Abgesehen davon finde ich es ehrlich gesagt auch zweitrangig, wer nun zu erst die Idee hatte. Beide großen Hersteller treiben das (bzw. jeweils ihr) Projekt aktiv voran, und davon profitieren letztlich alle Spieler :daumen:

Siehe DSR. Da könnte ich nun auch behaupten AMD hat nur geklaut.
Ja. "Geklaut" würde ich jetzt nicht sagen, eher "übernommen", aber stimme der Aussage zu. Ich finde überhaupt nichts verwerflich daran, eine gute Idee eines Konkurrenten auch umzusetzen, so dass letztlich noch mehr Anwender davon profitieren können. :)
 
Ach so NV klaut und AMD "übernimmt"! :D

Habe ich jemals irgendwo behauptet, Nvidia hätte irgendwas geklaut? :P Ich halte einfach nichts von solchen reißerischen Bildzeitungs-Formulierungen. Eine Technologie, die öffentlich vorgestellt wird (und nicht patentiert ist) kann man m.E. schlichtweg nicht klauen. Wo soll denn da der Straftatbestand des Diebstahls stecken? Ob nun AMD von Nv übernimmt oder umgedreht - das ist bei mir gleichwertig.

Na ja, im Kern sind wir uns ja einig :)
 
Welche Nachteile gibts denn noch?
IPS Glow?
Also ich finde dieses Argument, das oft kommt, Bullshit.

Das fällt normal unter tagtäglicher Benutzung gar nicht auf!
Wenn man natürlich extra das Bild komplett schwarz macht und die Ecken absucht, ja klar, dann sieht man es.
Das Spiel kann man aber mit so ziemlich mit jedem Produkt treiben.
Sucht man geradezu nach einem Fehler oder einer Beeinträchtigung, dann wird man die auch finden!

Finde das (Argument) einfach nur übertrieben.
Es fällt einfach nicht auf und das ohne mir Mühe geben zu müssen, es bewußt zu ignorieren.
Ich sehe es nicht, wenn ich es nicht darauf anlege.
In Foren oder Reviews werde ich dann wieder daran erinnert.

An deiner Stelle würde ich mir da keine Sorge machen. ;)
Zwar mit in die Entscheidung einbeziehen, aber nicht zum K.O.-Kriterium anheben.
Es ist eher marginal und sollte daher auch eher eine untergeordnete Rolle spielen.



mal was jemand aus dem 3DCenter, dem man glauben kann, dazu sagt.

Bisher schaut es auch so aus, als ob nVidia ganz sicher NICHT der Vorreiter war. Ob es Intel oder AMD war, wird nicht ganz klar sein.
ABER:
Eine VESA Spec bringt man nicht 'mal eben' so auf die Beine, das bruacht 'nen paar Jahre.
Ebenso ist die Hardware, die für Fresync benötigt wird, schon in einigen aktuellen Chips. Auch das macht man nicht 'mal eben'.

Das lässt den Schluss zu, dass zumindest AMD daran schon seit einigen Jahren arbeitet. Und man könnte hier vermuten, dass nVidia die Idee geklaut hat, als AMD das ganze der VESA vorgeschlagen hat...
Mensch, das kannste doch nicht bringen.
Da gehen doch die Nvidia-Fa... Mitmenschen auf die Barrikaden.
Für die ist Nvidia zugleich Henne und Ei.
Ursprung der Zivilisation. :D

Das grenzt doch an Gotteslästerung, AMD auch nur irgendetwas zuzugestehen!
 
Zuletzt bearbeitet:
Also ich finde dieses Argument, das oft kommt, Bullshit.

Das fällt normal unter tagtäglicher Benutzung gar nicht auf!
Wenn man natürlich extra das Bild komplett schwarz macht und die Ecken absucht, ja klar, dann sieht man es.
Das Spiel kann man aber mit so ziemlich mit jedem Produkt treiben.
Sucht man geradezu nach einem Fehler oder einer Beeinträchtigung, dann wird man die auch finden!

Finde das (Argument) einfach nur übertrieben.
Es fällt einfach nicht auf und das ohne mir Mühe geben zu müssen, es bewußt zu ignorieren.
Ich sehe es nicht, wenn ich es nicht darauf anlege.

Also ich habe es beim 34" 21:9 immer gesehen und auch die Lichthöfe sind immer da.
Und wenn man so argumentiert, dann finde ich das Argument mit der Blickwinkelabhängigkeit bei TN auch übertrieben.
 
Zurück