LG 34UM67 ausprobiert: Freesync schlechter als G-Sync?

Also ich habe es beim 34" 21:9 immer gesehen und auch die Lichthöfe sind immer da.
Wird wahrscheinl. von Gerät zu Gerät unterschiedl. sein, wie so oft bei techn. Sachen.

Die eigentl. Frage (an dich) ist aber doch: Wie sehr stört es dich denn? Kannst du nicht schlafen und fallen dir die Haare aus vor Streß? :D Hättest du lieber ein TN?

Und wenn man so argumentiert, dann finde ich das Argument mit der Blickwinkelabhängigkeit bei TN auch übertrieben.
Ich selbst hatte nie ein TN und Blickwinkel ist doch auch nur ein Kriterium, wenn mehrere Leute zugleich am Gerät sind.
Ansonsten wird es ja entsprechend ausgerichtet.

Außerdem dachte ich auch TN hat nicht eine so hohe Farbtreue?
 
Zuletzt bearbeitet:
Nvidia hat es aber zuerst umgesetzt, da nützen dir deine ganzen Seitenhiebe auf sie auch nix.
Genau, mit einem sack teuren FPGA, den man, wie schon erwähnt, nur nutzt, wenn man wirklich Zeitdruck hat.

Aber wenn du mal so frei bist, google doch mal nach 'variable refresh rate' oder sowas. Da wirst einiges finden. Und einiges davon ist z.T. weit älter als du glaubst!!
Als ich das letzte mal danach geschaut hab, waren die ersten Dokumente aus den 80ern...

Und sorry, aber der FPGA deutet echt drauf hin, dass nV die Idee geklaut hat und mit der Brechstange erster sein wollte...
Die Fakten sind da, ebenso der Zustand, dass 'Freesync' auch recht schnell von der VESA verabschiedet wurde, nachdem AMD das angekündigt hat...

Und WER ist alles Mitglied in der VESA?! Ach, auch nVidia...
Aber so ein Verhalten kennt man ja schon von Apple...
Und wer versucht Apple gerade nachzuäffen?!
 
Wird wahrscheinl. von Gerät zu Gerät unterschiedl. sein, wie so oft bei techn. Sachen.
Die eigentl. Frage (an dich) ist aber doch: Wie sehr stört es dich denn? Kannst du nicht schlafen und fallen dir die Haare aus vor Streß? :D Hättest du lieber ein TN?

Außerdem dachte ich auch TN hat nicht eine so hohe Farbtreue?
Lichthöfe gehen mir tierisch auf den Keks, vor allem siehst du das bei 21:9 halt relativ häufig wenn du 16:9 Inhalte guckst, z.B. Filme auf Netflix.
Und durch die Breite seihst du halt auch den IPS glow.
Farbtreue ist bei manchen TN ok, muss man halt bei Tests gucken.

Und sorry, aber der FPGA deutet echt drauf hin, dass nV die Idee geklaut hat und mit der Brechstange erster sein wollte...
Die Fakten sind da, ebenso der Zustand, dass 'Freesync' auch recht schnell von der VESA verabschiedet wurde, nachdem AMD das angekündigt hat...

Und WER ist alles Mitglied in der VESA?! Ach, auch nVidia...
Aber so ein Verhalten kennt man ja schon von Apple...
Und wer versucht Apple gerade nachzuäffen?!

Und wieder schön gegen Nvidia.
Dann haben sie es halt mit der Brechstange gemacht, aber sie haben es wenigstens gemacht und es funktioniert.
Von AMD wurde ich da zuletzt immer enttäuscht, sei es Bulldozer, Mantle oder jetzt Freesync.
Wie gut Freesync wirklich ist, wird sich erst noch zeigen müssen.
Aber bei Bulldozer und Mantle haben sie vorher auch gross getönt und hinterher kam nicht viel bei herum.
AMD soll halt Nvidia mal richtig einen vor den Bug knallen, damit es mal vorwärts geht.
 
Das fällt normal unter tagtäglicher Benutzung gar nicht auf!
Wenn man natürlich extra das Bild komplett schwarz macht und die Ecken absucht, ja klar, dann sieht man es.

Also ist das spielen eines Spiels mit dunklen Inhalten nicht normal? :D
In Spielen wir Metro oder The Evil Within fällt es bereits aus zentraler Sitzposition (ohne den Kopf zu bewegen) auf.

http://abload.de/img/dsc02613e8sgd.jpg

Und nein, das ist kein backlight bleeding. ;)
Das hat dieser Monitor nur oben rechts gehabt (das ist minimale Helligkeit).

Die hellen Bereiche links oben, links unten und rechts unten verschwinden sobald mein seinen Kopf in eine entsprechende Position bewegt.

Auch wenn die Kamera das Problem verstärkt, es Monitore gibt die in dieser Disziplin besser, man mit höherem Sitzabstand und Hintergrundbeleuchtung es subjektiv verbessern kann stört es mich.
Vor allem weil es ja besser geht!

Mein NEC 20WGX² hat dank Poli das Problem fast gar nicht, ebenso mein HP Dreamcolor z27x.
Eizo kriegt es bei den CG Serien ja auch hin.

Ich selbst hatte nie ein TN und Blickwinkel ist doch auch nur ein Kriterium, wenn mehrere Leute zugleich am Gerät sind.
Ansonsten wird es ja entsprechend ausgerichtet.

Du kannst die ab 27" gar nicht mehr zu 100% richtig ausrichten.
Die Farbveränderungen zwischen dem oberen und dem unteren Bereich des panels (oben ist orange z. B. eher gelb) kannst du durch Neigung auch nur bedingt ausgleichen.

TN´s sind zwar deutlich besser geworden, aber durch die großen Diagonalen reichen selbst kleine Kopfbewegungen (die ich mMn als normal einstufe) für Veränderungen.

@Freesync

Selbst wenn NV durch interne Infos die Idee geklaut hat...mit VSR sind beide wieder quitt. ;)

Daran sieht man auch schön einen überhasteten release (fehlende Auflösungen).
 
Und ohne curved hat man schön IPS glow auf der einen und Lichthöfe auf der anderen Seite.
Oder auch auf beiden Seiten.
Bei 34" macht curved echt Sinn.

Weil das Panel zu dir gebogen ist und du nicht mehr so den seitlichen Blickwinkel hast, um den IPS glow zu sehen.
Die Lichthöfe bleiben die gleichen, aber ist ja normal bei IPS.


Hast offensichtlich noch kein hochwertiges IPS-Panel bzw. Monitor bei dir gehabt.
Ich habe bei meinem LG (21:9, 25" (nur der kleine) )weder Lichthöfe (das hat auch gar nix mit dem Panel zu tun sondern mit der Bauweise des Gehäuses und den verwendeten LEDs bzw. der Stromversorgung eben dieser) noch besagten IPS-Glow. Ich war noch nie zufriedener mit einem Monitor.
Nevertheless: Recht hast du: mit 34" und IPS in 21:9 ist curved definitiv ein Schmankerl. :daumen:
 
Zuletzt bearbeitet:
Ist schon wieder Märchenstunde? :D

PRAD | Test Monitor LG 25UM65-P Teil 5

https://www.youtube.com/watch?v=1beHehU0WTg
Ab 4:31.

Mag sein das du den glow nicht siehst (z. B. aufgrund deines Sitzabstandes oder der panel-Größe), da ist er definitv.
Das hat auch nichts mit Serienstreuung wie z. B. im Bereich der Lichthöfe zu tun (wo mein LG 29UM55-P auch gut abschneidet), das ist bei IPS ohne Gegenmittel nunmal technisch bedingt.
 
Zuletzt bearbeitet:
Hast offensichtlich noch kein hochwertiges IPS-Panel bzw. Monitor bei dir gehabt.
Ich habe bei meinem LG (21:9, 25" (nur der kleine) )weder Lichthöfe (das hat auch gar nix mit dem Panel zu tun sondern mit der Bauweise des Gehäuses und den verwendeten LEDs bzw. der Stromversorgung eben dieser) noch besagten IPS-Glow. Ich war noch nie zufriedener mit einem Monitor.

Du meinst echt das dein Monitor hochwertiger als der 21:9 34" der gleichen Firma oder der Eizo FS2434 ist?
Guck dir Eizo oder NEC Monitore an die um die 2000€ kosten, das sind hochwertige Monitore.
Es ist einfach Fakt, das IPS Monitore Probleme mit Lichthöfen und glow haben.
Bei den hochwertigen Monitoren wird aber effektiv dagegen vorgegangen.
 
dsc02613e8sgd.jpg
Nee, so scheußlich sieht das bei mir nicht aus. :D

TESTBERICHT: Dell 3008WFP Teil 7
Selbst das ^^ ist noch ein Stück intensiver (getestet per Vollbildwechsel zwischen Bild von Prad und einfach nur schwarz).

Habe das probiert selbst auf Photo festzuhalten, aber das sah 20-mal schlimmer aus als in echt und selbst mit angepaßter Belichtung kommt's nur in etwa hin.
Per Video konnte ich's besser einfangen. Kann es ja mal bei Gelegenheit hochladen, wenn noch Bedarf bestehen sollte. ;)
 
Fotos sind ehrlich gesagt wenig hilfreich, da man nie ein Bild hinbekommt, das der Realität entspricht. Die Kamera kann das Bild nach belieben aufhellen und verdunkeln - wie auch das menschliche Auge. Weswegen auch jeder Mensch eine bestimmte Szene auch etwas anderes wahrnimmt.
 
Mann kann es schon auf Bildern festhalten, ist halt ein wenig Einstellerei an der Kamera.
Aber je nach Kamera kriegt man es halt nicht perfekt hin.
 
Mann kann es schon auf Bildern festhalten, ist halt ein wenig Einstellerei an der Kamera.
Aber je nach Kamera kriegt man es halt nicht perfekt hin.

Der Fotograf kann damit alles "beweisen" was er nur möchte. Deswegen taugen Bilder nichts als Nachweis oder Widerlegung von Schwächen von Monitoren. Es sei denn, man traut dem Fotografen explizit.
 
Auch NV´s Modul entwickelt man nicht in 2 Tagen. ;)
Ohne Beweise ist es nur eine Verschwörungstheorie.
Die 'Beweise' sind doch alle schon vorhanden, schau mal nach.

- es gibt eine VESA SPezifikation, die kurze Zeit nachdem AMD das angekündigt hat, veröffentlicht wurde. (und wer sitzt in der VESA: richtig, AMD und nV)
- Es gibt bei AMD jetzt schon einige Chips, die das in Hardware können. EInige davon gibt es schon seit einiger Zeit.*** was ich mal gefunden hab[/url]. In Hawaii und Tonga ists implementiert. Wie lange gibts Hawaii? WIe lang hat man dran gearbeitet?? Und man vermutet, dass auch Bonnaire das eventuell könnte. Und den gibts noch länger.
- nVidia hat ihr G-Sync mit einem FPGA Vorgestellt. Das macht man NUR; wenn die Zeit für einen ASIC nicht reicht.

Alle Fakten, die wir bisher haben, deuten daraufhin, dass das ganze von AMD initiiert wurde und nV, nachdem AMD das in die VESA eingebracht hat, gewaltsam vorgeprescht ist, um das ganze sich selbst anzueignen, um mit aller Macht zu zeigen, dass man der erste war...

Siehe DSR.
Da könnte ich nun auch behaupten AMD hat nur geklaut.
Nö, auch das war etwas, was man von langer Hand geplant hat. Und da gibt es Aussagen von Leuten, die behaupten, dass das für den Start der 300er Serie eh geplant war, man das schlicht vorgezogen hat...

Ist ja nicht so, dass es dieses Feature für 'Enduser' erst seit der nVidia Implementierung gibt :rolleyes:

hier mal 'nen Patent zu 'Variable Refresh Rate...
Man achte mal bitte aufs Datum...

Oh und hier gibts noch was.
Hat ja nur etwas über 30 Jahre gedauert, bis diese Idee verwirklicht wurde :rolleyes:

Und eine ganz frische diskussion in einem Forum...
Von 2009....

Da zu behaupten, dass nVidia der erste war, der das 'erfunden' haben will, ist schlicht NICHT haltbar...
Zumal etwas ähnliches ja auch schon seit Urzeiten in mobilen Geräten implementiert ist...
 
Zuletzt bearbeitet:
Du kannst es echt nicht akzeptieren, dass Nvidia diese Dinge zuerst auf den Markt gebracht hat?
Und wenn der Entwurf 100 Jahre alt ist, es hat trotzdem nie einer zuende gebracht.
Nvidia hat es halt mit allem was sie hatten vorangetrieben damit sie erster sind, wo ist das Problem?
Lieber so, als mehrere Jahre grossspurig reden, aber nie was auf die Reihe kriegen.
 
AMD hat sich sicherlich was dabei gedacht, die Display Engine in der 290 dafür fit zu machen. Man entwickelt nicht zum Spaß teile neu, die gut funktionieren. AMD handelt ja gerne nach dem Prinzip ganz oder garnicht (siehe z.B. Quadcores).

Es ist eher unwahrscheinlich, dass Nvidia da selbst drauf gekommen ist. Dann hätten die da heimlich mit Herstellern von Scalern zusammengearbeitet und eine ordentliche Lösung auf den Markt gebracht.
 
Du kannst es echt nicht akzeptieren, dass Nvidia diese Dinge zuerst auf den Markt gebracht hat?
Und du kannst wohl nicht akzeptieren, dass es doch sehr wahrscheinlich ist, dass das ganze auf AMDs Mist gewachsen ist und nVidia mit aller Gewalt AMDs Entwurf genommen haben, einen FPGA programmiert haben und das ganze dann mit der Brechstange auf den Markt gebracht haben...

Warum sonst soll man einen FPGA mit 768MiB RAM brauchen?!

Also ich weiß nicht, wie es dir geht, aber ich find es ist unter jeglicher Gürtellinie, einen Entwurf aus einem Standarddisierungs Gremium zu nehmen und daraus was eigenes zu machen.
GGf sogar Lizenzgebühren dafür kassieren wollen...
 
Ich akzeptiere das schon, aber ein Entwurf ist kein Patent und nicht geschützt.
Ob das so gut wie sie das gemacht haben, ist eine andere Sache.
Das ganze kann auch von einem Monitorhersteller kommen.

Wenn AMD anstatt immer alles Jahre vorher schon anzukündigen einfach mal machen würde, wenn es fertig ist das ganze vorstellen und Nvidia dumm dastehen lässt, dann würde es der Firma vielleicht auch besser gehen.
Fakt ist einfach, dass sie Bulldozer nicht wirklich hingekriegt haben und Mantle ist auch bei weitem nicht so leistungsfähig wie versprochen.
Und wenn es jetzt noch Probleme mit Freesync gibt, kann wirklich nur eine richtig schnelle Grafikkarte AMD helfen.
 
Zurück