Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex

Das ist ein vollwertiger Gsync-Monitor mit einem Nvidia-Modul.

Steht so in den beantworteten Fragen auf der Produktseite:

"The LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B is not a G-SYNC™ compatible monitor. G-SYNC™ compatible monitors are Freesync monitors that Nvidia engineers have tested and confirmed to receive a G-Sync compatibility update and therefore support adaptive sync with Nvidia GPUs...^IFV"

Und in den gleichen Antworten steht vom gleichen Typ, dass es keine Informationen über eine AdaptiveSync/FreeSync-Version gibt:
"Regrettably, we currently do not have any information about if LG is planning to offer a Freesync version of the LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B...^IFV"
Wurde auch dementsprechend als non-helpful in Grund und Boden gevoted :lol:.

Entweder weiß Nvidia mehr über eine Version ohne G-B hinten dran mit ASync oder LG und/oder der Supportfuzzi haben großen Mist gebaut auf ihrer Produktseite und deren verwirrendem Informationsgehalt:
Clipboard01.jpg :hmm:
Siehe auch selbe Diskussion auf Reddit, wo jemand meinte laut DisplayNinja soll es eine ASync-Version sein.

Dass Nvidia sich mit dem "Compatible"-Branding auch keinen Gefallen tut, hab ich schon mal erwähnt.

Wie es am Ende auch sei, "bereits erhältlich" wie PCGH behauptete ist keiner der beiden Phantommonitore - wurde im Update auch nun geändert aber den Typo 27GL580 hat man schön stehen lassen:ugly:.
 
Mit den kommenden HDMI 2.1 TVs mit 120Hz und VRR wird der überteurte Mist von Nvidia und seinen Partner sehr schnell ein Ladenhüter. Zumal die Monitorhersteller bzg. HDR sowieso enttäuscht haben. Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?
 
Mit den kommenden HDMI 2.1 TVs mit 120Hz und VRR wird der überteurte Mist von Nvidia und seinen Partner sehr schnell ein Ladenhüter. Zumal die Monitorhersteller bzg. HDR sowieso enttäuscht haben. Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?

Glaubst Du wirklich daran, dass Nvidia VRR via HDMI2.1 anbieten wird? Diese Funktion ist in den Spezifikation von HDMI2.1 als "optional" aufgeführt.
Nvidias kommende GPUs könnten also durchaus HDMI2.1-Ports haben, die aber kein VRR unterstützen.

Zusätzlich dazu muss man auch überlegen,
dass nicht jeder auf seinem Schreibtisch ein 43"-55"-65"-Display stehen haben will.

Je nach Platzangebot und Sitzabstand ist 32" schon das höchste der Gefühle.
Und bislang habe ich keinen 32"-4K-TV mit guten HDR-Funktionen gesehen (es ist nichtmal eines angekündigt).
So wird es dann am Ende doch wieder auf einen "Monitor" hinauslaufen...
 
Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?

Der Knackpunkt sind die einzelnen Timings. Die TV´s sind i.d.R. langsamer. OLED geht gerade so vom Inputlag her, kann jedoch einbrennen und hat kein Adaptive Sync. Die neuen Samsungs sind da besser, bereits mit Freesync.
Momentan ist ein richtiger Gaming-Moni noch am Besten. Da reicht HDR600 für 32" dicke aus.
(würde mal denken je näher man dran sitzt umso weniger nits reichen, um net geblitzdingst zu werden)

edit:
Bei Spielen kann man sich ganz schön irren, weil z.T. uralte Games (die auf Röhrenmonis liefen) auch schon HDR können.
Vermutlich wurde im Zuge der LCD´s dann mit der Farbkompression von NV das Niveau auf SDR runtergesetzt.
Zum Bsp. Aquanox Revelation+Crysis+FarCry+NfS-U2 schalten an meinem Moni net von HDR auf DP(SDR).

Bzgl. HDMi 2.1 stand mal im Raum das AMD bei der R7 nachrüsten könnte mit nem Adapter. (schön wärs)
 
Zuletzt bearbeitet:
Das Problem dieses Monitors ist die Schnittstelle DisplayPort 1.4

Das Panel kann ohne weiteres 4K/144hz bei 10bit (bzw. 8bit+FRC) udn HDR darstellen -
aber die Informationen zum Darstellen müssen von der GPU an den Monitor übertragen werden -
und der DisplayportStandard 1.4 weist nicht genug Bandbreite auf um all diese Eigenschaften bei entsprechend notwendiger Geschwindigkeit von der ausgebenden GPU über das Kabel zum Monitor zu übertragen.

Darum mussten die Hersteller Wege finden um im Rahmen der Bandbreite zu arbeiten -
und hier ist bei 4K/10bit/HDR schon bei 98hz Schluss -
4K/8bit/SDR kann via DP1.4 bei bis zu 120hz übertragen werden.
Und um auch in 4K/10bit/HDR höhere Refreshraten anbieten zu können hat man sich darauf geeinigt, zusätzlich zum RGB-Standard auch YCbCr mit Subsampling anzubieten,
denn das spart Bandbreite und ermöglicht bei minimal sichtbaren Unterschieden höhere hz-Raten.

Selbiges Problem weist übrigens HDMI2.0 auf:
wer auf seiner Xbox One X ein Spiel in 4K/60hz in 10bit/HDR spielen möchte, reizt die Bandbreite von HDMI2.0 so sehr aus,
dass die Xbox One X automatisch yCbCr mit Subsampling aktiviert - sofern man diese Funktion in den Einstellung erlaubt hat.

Am PC gibt es eine solche automatische Umschaltung nicht -
udn so muss man - je nach Inhalt - immer manuell hin- und herschalten oder sich auf eine Zwischenlösung festlegen (z.B.: Dauerbetrieb in 4K/10Bit bei 98hz) - HDR hingegen muss in Windows immer manuell aktiviert/deaktiviert werden -
die wenigsten Spiele erkennen, dass der PC/Monitor HDR-fähig ist, wenn nicht innerhalb von Windows bereits HDR-aktiviert wurde.
Dauerhaft aktiviert zu lassen ist aber aufgrund vieler URsachen nicht zu empfehlen -
also wie man es dreht und wendet -
man hat am PC immer ein bisschen "Frickelei". ;)



Ich danke sehr für die Aufklärung. :daumen:
 
Der Knackpunkt sind die einzelnen Timings. Die TV´s sind i.d.R. langsamer. OLED geht gerade so vom Inputlag her, kann jedoch einbrennen und hat kein Adaptive Sync. Die neuen Samsungs sind da besser, bereits mit Freesync.
Momentan ist ein richtiger Gaming-Moni noch am Besten. Da reicht HDR600 für 32" dicke aus.
(würde mal denken je näher man dran sitzt umso weniger nits reichen, um net geblitzdingst zu werden)

edit:
Bei Spielen kann man sich ganz schön irren, weil z.T. uralte Games (die auf Röhrenmonis liefen) auch schon HDR können.
Vermutlich wurde im Zuge der LCD´s dann mit der Farbkompression von NV das Niveau auf SDR runtergesetzt.
Zum Bsp. Aquanox Revelation+Crysis+FarCry+NfS-U2 schalten an meinem Moni net von HDR auf DP(SDR).

Bzgl. HDMi 2.1 stand mal im Raum das AMD bei der R7 nachrüsten könnte mit nem Adapter. (schön wärs)

Bist Du Dir sicher, dass Du bei den älteren Spielen nicht das Software-HDR meinst? Das ist eher ein emulierter Effekt.
Berühmt berüchtigt wurde es durch "TESIV:Oblivion" wo nach Aktivierung von HDR alle Gesichter wie von innen mit Glühbirnen gefüllt aussahen,...

Das CRT-Monitore bereits hohe Nitdichten besaßen ist mir auch neu...
 
Erinnert sich noch wer an Nvidias Big Format Gaming Displays? Genau....ich auch nicht. ;)
 
Bist Du Dir sicher, dass Du bei den älteren Spielen nicht das Software-HDR meinst? Das ist eher ein emulierter Effekt.
Berühmt berüchtigt wurde es durch "TESIV:Oblivion" wo nach Aktivierung von HDR alle Gesichter wie von innen mit Glühbirnen gefüllt aussahen,...

Das CRT-Monitore bereits hohe Nitdichten besaßen ist mir auch neu...

das "hdr" von oblivion hat nichts mit dem aktuellen begriff von "hdr" zu tun
das ganze "alte" hdr wie es dann auch in lost coast kam hat keine erhöhung der farbpalette von 8 auf 10bit geboten, das war lediglich ein rumgespiele mit helligkeitswerten
 
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.

Kann ich auch nicht nachvollziehen, ich sehe auch kein Unterschied. Bekannte und Freunde sehen diesen auch nicht. Aber das ist ja so ähnlich wie mit dem Lüfter hinten... Der eine findet es grausam laut, der andere prophezeit den Ausfall nach paar Monaten o Jahren, der Andere stört sich einfach nur an dem Gedanken das es ei nen gibt und 99% haben diesen LCD nicht mal Live erlebt.
 
Löse die Schrift doch noch größer auf, dann wird der Unterschied noch deutlicher... in der Praxis bis auf gewissen Anwendungen wie Grafikbearbeitung ziemlich zu vernachlässigen.
 
Ich hab es sofort gesehen und dabei einfach nur das Forum aufgemacht.
Auch andere Leute sehen das.
Deswegen, sei froh wenn du es nicht siehst.
 
Ich hab es sofort gesehen und dabei einfach nur das Forum aufgemacht.

Man sollte nicht immer von seinem eigenen Monitor auf andere Monitore schließen. Der hier besprochene Monitor zeigt dieses Problem nicht. Ich kann das beurteilen. Ich hab ihn hier stehen. Dass es unterschiedliche Pixel Strukturen und unterschiedliche Anordnungen der Sub-Pixel gibt, ist Dir bekannt? Der von Dir verlinkte Artikel bezieht sich übrigens auf TV Geräte, nicht auf PC Monitore. Nur mal so am Rande.
 
Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.

Naja bei LG steht beides.
Und LG hat auch nochmal den gleichen nur mit 144Hz stehen (erst stande 165Hz)
New Monitors In 2019: What To Expect [Professional, Gaming]

Auch bei der Vorstellung im Januar stand klar G-Sync drauf auf dem Schild.

Ich denke mal hier liegen noch falsche Infos vor,weil auch nur die G-Sync Version diesen RGB Ring hinten hat.

27” 1440p 160Hz G-SYNC (?) Q2 2019 LG 27GL850G
27” 1440p 144Hz FreeSync N/A LG 27GL850
 
Komisch, seit ihr wohl blind.

Nö.

Und 99% aller Monitore nutzen RGB.

Deswegen nutzen nicht alle RGB Displays die gleichen Pixel Strukturen. Und die haben sehr wohl einen großen Einfluss auf die Darstellung:

LCD pixels structure

Aber um beim Thema RGB zu bleiben: Im RGB Modus gibt es gar kein Chroma Subsampling. Dieser Monitor wird bis 120 Hz im RGB Farbraum - ohne Subsampling - in der vollen Bandbreite angesteuert. Die Diskussion 4:4:4 vs 4:2:2 ergibt sich also bis 120 Hz überhaupt nicht. Erst bei 144 Hz muss der Monitor im YCbCr Farbraum betrieben werden und erst dort findet Subsampling mit 4:2:2 statt.

Wer sich dort wirklich am dann auch in der Tat sichtbaren "Chroma Subsampling Effekt" stört, betreibt den Monitor im Desktop Betrieb einfach mit 98 oder 120 Hz und schaltet 144 Hz eben nur in Spielen ein. Bär geschält.

Die ganze Diskussion (bei diesem Monitor) rund um 4:4:4 vs. 4:2:2 ist eine rein theoretische. Im alltäglichen Gebrauch ist dieser Monitor (abgesehen vom Lüfter) über jeden Zweifel erhaben. Das Erlebnis beim Spielen gut gemachter HDR Titel ist mit den 1000 Nits und den rund 380 FALD Zonen eine einzige Augenweide - eine andere Welt! Und im Desktop Betrieb gibt es hier zumindest bei mehr als vollkommen ausreichenden 98 und 120 hz überhaupt keine negativen Auffälligkeiten. Text ist in jeder Situation knackscharf, ohne ausgerissene Ränder oder Farbsäume. Hinzu kommt der hohe Kontrast durch den FALD-bedingten, guten Schwarzwert.

In jedem Fall alles andere als "grausam".
 
Zurück