• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex

Monitore mit Nvidias "G-Sync Ultimate"-Zertifizierung müssen bekanntlich höchste Anforderungen an Auflösung, Ausleuchtung, Bildwiederholfrequenz und Kontrast erfüllen. Auf der derzeit laufenden Computex präsentiert Nvidia nun zwei neue High-End-Modelle von Asus und Acer. Darüber hinaus gibt es auch noch weitere Ankündigungen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex
 

Wake

Freizeitschrauber(in)
Der LG 27GL850G mit dem Nano IPS-Panel ist noch nicht erhältlich, soll im Juli für 699€ kommen.

Dachte erst auch mit dem G im Namen das ist ein vollwertiger G-Sync Monitor, scheint aber nun doch auch "nur" Compatible zu sein.
Auf der Produktseite steht aber andererseits nichts von Adaptive bzw. FreeSync:hmm:.
 
Zuletzt bearbeitet:
C

cryptochrome

Guest
Den PG27UQX bitte mal in einer 32 Zoll Variante anbieten, da würde ich sofort zuschlagen.
 
B

BastianDeLarge

Guest
Mmmhhhh

Von dem LG 27GL850 weis nicht mal LG was ?!

Was soll das für ein Monitor sein ?

Der LG 27GL850G-B welcher bald kommt hat sowieso G-Sync.
 

RX480

Volt-Modder(in)
4k-HDR10-RGB 4:4:4 ist evtl. net mit 144Hz. Der Vorgänger lief dann unterhalb 100Hz.(siehe DP-Bandbreite)
(8bit +FRC ?)

Dazu bräuchte man dann langsam auch schon ne echte "Super"-Graka ala Quadro 6000
oder BESSER.(mal schauen ob tatsächlich SUPER kommt)

Mit 65" gibts es bei ähnlichen Specs den HP Omen X Emperium:
HP Omen X Emperium 65, 64.5" (4JF30AA)
HP Omen X 65 Emperium Monitor Review: 65 Inches of Gaming Greatness - Tom's Hardware
(ob durch HDR10=8bit+FRC ne höhere Frequenz von 144Hz funzt steht leider net im Review)
 
Zuletzt bearbeitet:

JoM79

Trockeneisprofi (m/w)
Warum schreiben so viele RGB 4:4:4?
Es gibt kein anderes RGB Format.
Für 4:4:2 oder 4:2:0 braucht es YCbCr.
 

Wake

Freizeitschrauber(in)
Mmmhhhh

Von dem LG 27GL850 weis nicht mal LG was ?!

Was soll das für ein Monitor sein ?

Der LG 27GL850G-B welcher bald kommt hat sowieso G-Sync.

Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.
 

SichtWechsel86

Schraubenverwechsler(in)
Im Prinzip handelt es sich bei den angekündigten GSync-HDR-Monitoren nur um Refreshs der im letzten Jahr veröffentlichten Asus PG27UQ bzw. Acer X27.

Einzig das Backlight wurde verändert (was signifikant für HDR-Inhalte sein könnte, aber leider die anderen Probleme unangetastet lässt).

Im Pressetext von Asus steht außerdem, dass man an die Kühlungsrichtlinien der beiden eingebauten Lüfter gearbeitet hat, so dass diese nun "leiser" sein sollen und "nur bei Bedarf" aufdrehen.

Die Bandbreitenproblematik (DisplayPort 1.4) konnte natürlich nicht umgangen werden,
so dass weiterhin maximal 4K/120hz mit 8bit/RGB zugespielt werden kann - für 144hz muss dann ChromaSubsampling verwendet werden (YCbCr 4.2.2 bzw. 4:2:0).
Für 4K mit 10bit Signalen muss sogar auf 98hz reduziert werden, wenn man kein ChromaSubsampling verwenden möchte.

Fälschlicherweise wird in Testberichten oft geschrieben, dass HDR bei 4K-Auflösung oberhalb 98hz nur mit ChromaSubsampling funktioniere,
das ist jedoch nicht ganz richtig. Man kann auch bei 4K/120hz/8bit/RGB die HDR-Funktion einschalten, allerdings gibt die Grafikkarte dann kein 10bit-Signal aus und das Panel betreibt kein Dithering (was ja auch nicht nötig ist).
Viel Verwirrung herrscht auch über den 8bit+FRC-Prozess: wenn die GPU ein 8bit-Signal an den Monitor sendet, läuft der PG27UQ nativ mit 8bit.
Wenn jedoch - entsprechend der HDR10-Norm - ein 10bit-Signal zugespielt wird,
so versucht der Monitor über einen komplexen Algorithmus nebeneinanderstehende Pixel so zu vermischen, dass farblich neue Abstufungen entstehen -
wodurch sich die Darstellung einem nativen 10bit-Panel annähert.
Dieser Vorgang hat jedoch viele Nachteile: einigen Nutzern fällt "Unruhe" im Bild auf, die Farbabstufungen sind nur Annäherungen an die tatsächlichen Bild-Signale und obwohl 8bit+FRC deutlich besser als ein reines 8bit-Panel ist um 10bit-Signale darzustellen, reicht es bei weitem nicht an die Darstellung eines echten 10bit-Panels heran.

Das Panel selbst ist übrigens keine Neuentwicklung sondern genau jenes, welches auch schon im PG27UQ und im X27 verwendet wurde.
Entsprechend weist es alle bekannten Eigenschaften auf.

Unverständlich finde ich es, dass der PG27UQX offenbar keine DolbyVision-Funktionalität aufweist,
obwohl diese für den Asus ProArts PA32UCX (also das Refresh vom PA32UC) bereits bestätigt wurde.

Noch ist das Gerät nicht vorgeführt wurden und vielleicht überraschen Asus und Acer ja im Verlauf des Jahres noch mit weiteren Ankündigungen.
Die Einführung einer 32" Variante wäre zum Beispiel bei vielen sehr willkommen.
 
C

cryptochrome

Guest
Die Bandbreitenproblematik (DisplayPort 1.4) konnte natürlich nicht umgangen werden,
so dass weiterhin maximal 4K/120hz mit 8bit/RGB zugespielt werden kann - für 144hz muss dann ChromaSubsampling verwendet werden (YCbCr 4.2.2 bzw. 4:2:0).
Für 4K mit 10bit Signalen muss sogar auf 98hz reduziert werden, wenn man kein ChromaSubsampling verwenden möchte.

Das stimmt schon. Ich habe den PG27UQ und kann Dir aber sagen: Es ist vollkommen irrelevant. Du erkennst in Spielen nicht den geringsten Unterschied zwischen 4:4:4 und 4:2:2/4:2:0. Ich hab wegen dieser Specs den Monitor lange auf 98 hz betrieben, weil ich dachte, ich müsse unbedingt volle 4:4:4 haben. Aber es spielt keine Rolle. Es gibt keine erkennbaren Unterschiede zwischen den Modi.

Aber davon ab: wer sich diesen Monitor kauft, legt größten Wert auf ultimative Grafik in Spielen. Sprich, 4K, HDR, alles auf Ultra. Und unter diesen Voraussetzungen schafft man selbst mit einer 2080ti selten mehr als 60-70 FPS. Sprich, man kann den Monitor auch getrost auf 98 Hz laufen lassen, wenn man unbedingt 4:4:4 haben möchte, um sein Techi-Gewissen zu beruhigen.

Fälschlicherweise wird in Testberichten oft geschrieben, dass HDR bei 4K-Auflösung oberhalb 98hz nur mit ChromaSubsampling funktioniere,
das ist jedoch nicht ganz richtig. Man kann auch bei 4K/120hz/8bit/RGB die HDR-Funktion einschalten, allerdings gibt die Grafikkarte dann kein 10bit-Signal aus und das Panel betreibt kein Dithering (was ja auch nicht nötig ist).

Bei mir läuft der Monitor (so meldet es jedenfalls Windows in den Settings) folgendermaßen:

bei 98 Hz: volle 10 Bit (ohne FRC) mit 4:4:4
bei 120 Hz: 8 Bit + FRC mit 4:2:2
bei 144 Hz: 8 Bit mit 4:2:2

Aber wie gesagt, man sieht nicht den geringsten Unterschied. Entweder wird hier etwas falsches gemeldet, oder das Dithering ist so gut gelöst, dass man es schlicht nicht bemerkt. Vielleicht greift hier auch das G-Sync HDR Modul ein, das sicher nicht umsonst so teuer ist und aufwendig gekühlt wird. Voodoo... :)

Dieser Vorgang hat jedoch viele Nachteile: einigen Nutzern fällt "Unruhe" im Bild auf, die Farbabstufungen sind nur Annäherungen an die tatsächlichen Bild-Signale und obwohl 8bit+FRC deutlich besser als ein reines 8bit-Panel ist um 10bit-Signale darzustellen, reicht es bei weitem nicht an die Darstellung eines echten 10bit-Panels heran.

Siehe oben. In der Theorie richtig, bei diesem Monitor allerdings nicht der Fall. Mir sind weder unruhige Bilder aufgefallen, noch unterschiedliche Farbabstufungen zwischen den einzelnen Modi.

Unverständlich finde ich es, dass der PG27UQX offenbar keine DolbyVision-Funktionalität aufweist,
obwohl diese für den Asus ProArts PA32UCX (also das Refresh vom PA32UC) bereits bestätigt wurde.

Das ist schade, aber nicht wirklich unverständlich. Eine DolbyVision Lizenz ist nicht gerade billig und zu Zeiten, als dieser Monitor entwickelt wurde (der wurde ja bereits 2017 das erste mal angekündigt) bestand Dolby noch darauf, dass für DV eigene Hardware verbaut wird, die ebenfalls nicht billig war. Beides hätte den ohnehin schon sehr hohen Preis dieses Monitors noch weiter erhöht - Dem gegenüber steht die Tatsache, dass es quasi keine Spiele mit DV Support gibt (Ausnahmen bestätigen die Regel).

Ein weiteres Detail ist die Tatsache, dass HDMI 2.0 eigentlich nicht für DV geeignet ist. Es unterstützt nämlich in seiner Sepzifikation keine Übertragung von dynamischen Metadaten. Die TV Hersteller haben dafür (und übrigens auch für HDR10+ und HLG) aufwendige Workarounds implementiert.

Mittlerweile lässt sich DV auch rein über Software integrieren. Seit dem bauen auch TV Hersteller wie Panasonic, die vorher kein DV unterstützt haben, DV in ihre Geräte ein.

Die Einführung einer 32" Variante wäre zum Beispiel bei vielen sehr willkommen.

Das Fehlen einer 32 Zoll Variante ist für mich das eigentlich unverständliche an der ganzen Sache. Dafür würde ich sofort nochmal Geld in die Hand nehmen.

Wer sich näher für den Asus Monitor interessiert, hier gibt es einen technischen "Deep Dive" - einen sehr ausführlichen Testbericht der all die technischen Aspekte des Gerätes im Detail beleuchtet:

ASUS PG27UQ Review | PC Monitors
 

JoM79

Trockeneisprofi (m/w)
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.
 
C

cryptochrome

Guest
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.

Das kann ich hier nicht nachvollziehen. Das mag vielleicht bei anderen, niedriger aufgelösten Monitoren (und an TVs) der Fall sein, aber die Textdarstellung auf dem Desktop ist hier bei 4K und der Default Skalierung von Windows 10 von 150% absolut sauber und rattenscharf. Es ist nicht der geringste Unterschied zwischen 4:4:4 und 4:4:2 erkennbar. "Grausam" trifft es also nicht mal im Ansatz.
 

JoM79

Trockeneisprofi (m/w)
Schön wenn du es nicht siehst, es hat auch auch nichts mit der Schärfe oder der Auflösung zu tun.
 

BeaverCheese

Freizeitschrauber(in)
Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.

Das ist ein vollwertiger Gsync-Monitor mit einem Nvidia-Modul.

Steht so in den beantworteten Fragen auf der Produktseite:

"The LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B is not a G-SYNC™ compatible monitor. G-SYNC™ compatible monitors are Freesync monitors that Nvidia engineers have tested and confirmed to receive a G-Sync compatibility update and therefore support adaptive sync with Nvidia GPUs...^IFV"
 

Pixy

Software-Overclocker(in)
bei 98 Hz: volle 10 Bit (ohne FRC) mit 4:4:4
bei 120 Hz: 8 Bit + FRC mit 4:2:2
bei 144 Hz: 8 Bit mit 4:2:2


Ehrlich, bin ich der Einzige, der bei diesem ganzen Mist nicht mehr durchsieht? :what:
10 Bit ja, aber nur unter ........ Bedingungen und dann auch nur wenn ......... vorhanden und ........... ist.

BIIIITTTTTEEEEE was.
Wenn da 10Bit 1000HDR steht, erwarte ich doch auch als Kunde, dass es ohne Probleme funktioniert und nicht nur dann, wenn ich ...... was auch immer machen muss.

Am besten man kauft sich ein Monitor für 300€ und man ist glücklich.
Bei 800 - 1000€ Monitore funzt es ja scheinbar nur unter ganz bestimmten Vorraussetzungen.

10Bit ja check, 1000HDR ja check, 144hz ja ...... äh ne, unter diesen Bedingungen kann der Monitore nur 90Hz.
Pff, warum werben sie dann damit.

Ich sehe echt nicht mehr klar.
 

RX480

Volt-Modder(in)
OT:
Bei normalen 4k-HDR10-60Hz?-TV´s scheint YUF 4:4:2 aber net in Jedem Game sauber zu arbeiten.
BowWazoo im Turing-Thread merkt deutliche Unterschiede je nach Engine.(kann am Dev liegen)

8bit+Ditherung ist bei meinem normalen Moni eigentlich OK.(siehe Sig)
Das könnte daran liegen das die Samsung-Paneels eh 8bit+FRC sind.(analog HP Omen X)
 
Zuletzt bearbeitet:

SichtWechsel86

Schraubenverwechsler(in)
Ich hatte zum Release sowohl den Acer X27 als auch den Asus PG27UQ getestet und beide wieder zurückgesandt.

Beide Monitore nutzen ein Panel von AU-Optronics, welches keine native 10Bit-Darstellung beherrscht -
das ist auch offiziell auf den Herstellerseiten vermerkt.
Die Angabenin den Windows-Displaysettings haben was mit der Softwareseitigen Ausgabe unter Windows zu tun, nicht mit der tatsächlichen Bildreproduktion des Monitors.

ChromaSubsampling fällt bei diesem Monitor genauso auf wie an einem OLED-TV, der mit 4K/60hz bei 10bit HDR via HDMI2.0 betrieben wird.
In dynamischen Inhalten (Spiele/Filme) fällt es weniger auf, zumal Filme ohnehin in YCbCr 4:2:0 gespeichert sind.
Aber bei Officearbeiten, Textbearbeitungen und generell im Desktopbetrieb sind deutliche Farbschattierungen um Buchstaben und Linien herum zu erkennen.

Das Dithering per FRC (FrameRateControl) ist mir bei diesem Monitor vor allem am unteren Rand aufgefallen, wo bei 10bit-Zuspielung leichtes Flimmern ("Grieseln") zu erkennen war.
Fällt allerdings nur bei genauer Betrachtung und Standbildern auf.
Im Vergleich zu einem "Echten 10bit Panel" wirken die Farb-Übergänge allerdings weniger weich und etwas abgestufter.
Ohne Vergleich oder geschulten Blick fällt jedoch auch das kaum auf.

Mit der DolbyVision-Implementation hast Du insofern Recht, als dass nur wenige Spiele diesen Standard bisher unterstützen -
dafür allerdings recht viele Filme und Streamingportale (Netflix, Amazon Prime, etc...)
Und obwohl es schwer nachvollziehbar sein mag, bin ich nicht bereit 2300-2500€ für einen Monitor zu investieren, der gewisse Standard-Normen nicht beherrscht und somit in weniger als einem Jahr obsolet ist.
Obendrein wiegen mir die technisch bedingten Mängel und Limitierungen zu schwer, als dass ich mein Erspartes dafür auf den Kopf haue^^

Im Prinzip mag ich den Monitor -
und jeder, der damit glücklich und zufrieden ist, darf das genießen und sich daran erfreuen :)
Ich persönlich finde einfach nur, dass es ein klares FirstGen-Produkt für EarlyAdaptor ist, welches krass überteuert und weder technisch noch preislich reif für den Massenmarkt ist.
Dazu kommt, dass das Spieleangebot mit HDR-support (auf dem PC) noch recht überschaubar ist...

Ich hatte damals gehofft, eine Bildqualität ähnlich einem OLED-TV in Kombination mit GSync zu erhalten,
wurde aber durch sichtbaren Halo-Effekt, andere FALD-bedingte-Problemchen, hörbare Lüfter, "limitierende Schnittstellen" und eingeschränkte HDR-Standards enttäuscht -
zusätzlich dazu kam mir die Größe von 27" nicht ganz entgegen (ich hätte gerne ein 32"-Modell).

Auch bei dem nun kommenden PG27UQx glaube ich nicht daran, dass die Änderungen mir ausreichen um den sicherlich hohen Preis zu rechtfertigen.
Ich habe schon letztes Jahr nach Release der ersten GSync-HDR-Monitore gemutmaßt, dass man in der nächsten Version Mini-LEDs verwenden wird und dann stufenweise mit jedem Neujahresmodell die Anzahl der Zonen erhöht -
immerhin hat der PG27UQx ja nun über 2000 MiniLEDs verbaut, die allerdings "nur" in knapp 576 Zonen arbeiten (also sind immer mindestens 4 MiniLEDs zusammenhängend und gleichzeitig aktiv -> Raum für Softwaretechnische Verbesserungen -
bis schlussendlich MicroLEDs verwendet werden oder irgendein Hersteller das BurnIn-Risiko von OLED-Displays durch neue Fertigungsmethoden soweit reduzieren konnte, dass der Einsatz von OLED-Panels in Monitoren unbedenklich ist.
 

SichtWechsel86

Schraubenverwechsler(in)
Ehrlich, bin ich der Einzige, der bei diesem ganzen Mist nicht mehr durchsieht? :what:
10 Bit ja, aber nur unter ........ Bedingungen und dann auch nur wenn ......... vorhanden und ........... ist.

BIIIITTTTTEEEEE was.
Wenn da 10Bit 1000HDR steht, erwarte ich doch auch als Kunde, dass es ohne Probleme funktioniert und nicht nur dann, wenn ich ...... was auch immer machen muss.

Am besten man kauft sich ein Monitor für 300€ und man ist glücklich.
Bei 800 - 1000€ Monitore funzt es ja scheinbar nur unter ganz bestimmten Vorraussetzungen.

10Bit ja check, 1000HDR ja check, 144hz ja ...... äh ne, unter diesen Bedingungen kann der Monitore nur 90Hz.
Pff, warum werben sie dann damit.

Ich sehe echt nicht mehr klar.

Das Problem dieses Monitors ist die Schnittstelle DisplayPort 1.4

Das Panel kann ohne weiteres 4K/144hz bei 10bit (bzw. 8bit+FRC) udn HDR darstellen -
aber die Informationen zum Darstellen müssen von der GPU an den Monitor übertragen werden -
und der DisplayportStandard 1.4 weist nicht genug Bandbreite auf um all diese Eigenschaften bei entsprechend notwendiger Geschwindigkeit von der ausgebenden GPU über das Kabel zum Monitor zu übertragen.

Darum mussten die Hersteller Wege finden um im Rahmen der Bandbreite zu arbeiten -
und hier ist bei 4K/10bit/HDR schon bei 98hz Schluss -
4K/8bit/SDR kann via DP1.4 bei bis zu 120hz übertragen werden.
Und um auch in 4K/10bit/HDR höhere Refreshraten anbieten zu können hat man sich darauf geeinigt, zusätzlich zum RGB-Standard auch YCbCr mit Subsampling anzubieten,
denn das spart Bandbreite und ermöglicht bei minimal sichtbaren Unterschieden höhere hz-Raten.

Selbiges Problem weist übrigens HDMI2.0 auf:
wer auf seiner Xbox One X ein Spiel in 4K/60hz in 10bit/HDR spielen möchte, reizt die Bandbreite von HDMI2.0 so sehr aus,
dass die Xbox One X automatisch yCbCr mit Subsampling aktiviert - sofern man diese Funktion in den Einstellung erlaubt hat.

Am PC gibt es eine solche automatische Umschaltung nicht -
udn so muss man - je nach Inhalt - immer manuell hin- und herschalten oder sich auf eine Zwischenlösung festlegen (z.B.: Dauerbetrieb in 4K/10Bit bei 98hz) - HDR hingegen muss in Windows immer manuell aktiviert/deaktiviert werden -
die wenigsten Spiele erkennen, dass der PC/Monitor HDR-fähig ist, wenn nicht innerhalb von Windows bereits HDR-aktiviert wurde.
Dauerhaft aktiviert zu lassen ist aber aufgrund vieler URsachen nicht zu empfehlen -
also wie man es dreht und wendet -
man hat am PC immer ein bisschen "Frickelei". ;)
 

Wake

Freizeitschrauber(in)
Das ist ein vollwertiger Gsync-Monitor mit einem Nvidia-Modul.

Steht so in den beantworteten Fragen auf der Produktseite:

"The LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B is not a G-SYNC™ compatible monitor. G-SYNC™ compatible monitors are Freesync monitors that Nvidia engineers have tested and confirmed to receive a G-Sync compatibility update and therefore support adaptive sync with Nvidia GPUs...^IFV"

Und in den gleichen Antworten steht vom gleichen Typ, dass es keine Informationen über eine AdaptiveSync/FreeSync-Version gibt:
"Regrettably, we currently do not have any information about if LG is planning to offer a Freesync version of the LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B...^IFV"
Wurde auch dementsprechend als non-helpful in Grund und Boden gevoted :lol:.

Entweder weiß Nvidia mehr über eine Version ohne G-B hinten dran mit ASync oder LG und/oder der Supportfuzzi haben großen Mist gebaut auf ihrer Produktseite und deren verwirrendem Informationsgehalt:
Clipboard01.jpg :hmm:
Siehe auch selbe Diskussion auf Reddit, wo jemand meinte laut DisplayNinja soll es eine ASync-Version sein.

Dass Nvidia sich mit dem "Compatible"-Branding auch keinen Gefallen tut, hab ich schon mal erwähnt.

Wie es am Ende auch sei, "bereits erhältlich" wie PCGH behauptete ist keiner der beiden Phantommonitore - wurde im Update auch nun geändert aber den Typo 27GL580 hat man schön stehen lassen:ugly:.
 

JTRch

Software-Overclocker(in)
Mit den kommenden HDMI 2.1 TVs mit 120Hz und VRR wird der überteurte Mist von Nvidia und seinen Partner sehr schnell ein Ladenhüter. Zumal die Monitorhersteller bzg. HDR sowieso enttäuscht haben. Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?
 

SichtWechsel86

Schraubenverwechsler(in)
Mit den kommenden HDMI 2.1 TVs mit 120Hz und VRR wird der überteurte Mist von Nvidia und seinen Partner sehr schnell ein Ladenhüter. Zumal die Monitorhersteller bzg. HDR sowieso enttäuscht haben. Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?

Glaubst Du wirklich daran, dass Nvidia VRR via HDMI2.1 anbieten wird? Diese Funktion ist in den Spezifikation von HDMI2.1 als "optional" aufgeführt.
Nvidias kommende GPUs könnten also durchaus HDMI2.1-Ports haben, die aber kein VRR unterstützen.

Zusätzlich dazu muss man auch überlegen,
dass nicht jeder auf seinem Schreibtisch ein 43"-55"-65"-Display stehen haben will.

Je nach Platzangebot und Sitzabstand ist 32" schon das höchste der Gefühle.
Und bislang habe ich keinen 32"-4K-TV mit guten HDR-Funktionen gesehen (es ist nichtmal eines angekündigt).
So wird es dann am Ende doch wieder auf einen "Monitor" hinauslaufen...
 

RX480

Volt-Modder(in)
Was beim TV längst jeder billige Mist kann, bieten die Monitorhersteller immer noch nicht (native 10bit 1000 bis 1500 nits). Warum soll ich da ein Monitor mit 65" kaufen, wenn demnächst jeder 65" TV das für den halben bis drittel Preis bietet?

Der Knackpunkt sind die einzelnen Timings. Die TV´s sind i.d.R. langsamer. OLED geht gerade so vom Inputlag her, kann jedoch einbrennen und hat kein Adaptive Sync. Die neuen Samsungs sind da besser, bereits mit Freesync.
Momentan ist ein richtiger Gaming-Moni noch am Besten. Da reicht HDR600 für 32" dicke aus.
(würde mal denken je näher man dran sitzt umso weniger nits reichen, um net geblitzdingst zu werden)

edit:
Bei Spielen kann man sich ganz schön irren, weil z.T. uralte Games (die auf Röhrenmonis liefen) auch schon HDR können.
Vermutlich wurde im Zuge der LCD´s dann mit der Farbkompression von NV das Niveau auf SDR runtergesetzt.
Zum Bsp. Aquanox Revelation+Crysis+FarCry+NfS-U2 schalten an meinem Moni net von HDR auf DP(SDR).

Bzgl. HDMi 2.1 stand mal im Raum das AMD bei der R7 nachrüsten könnte mit nem Adapter. (schön wärs)
 
Zuletzt bearbeitet:

Pixy

Software-Overclocker(in)
Das Problem dieses Monitors ist die Schnittstelle DisplayPort 1.4

Das Panel kann ohne weiteres 4K/144hz bei 10bit (bzw. 8bit+FRC) udn HDR darstellen -
aber die Informationen zum Darstellen müssen von der GPU an den Monitor übertragen werden -
und der DisplayportStandard 1.4 weist nicht genug Bandbreite auf um all diese Eigenschaften bei entsprechend notwendiger Geschwindigkeit von der ausgebenden GPU über das Kabel zum Monitor zu übertragen.

Darum mussten die Hersteller Wege finden um im Rahmen der Bandbreite zu arbeiten -
und hier ist bei 4K/10bit/HDR schon bei 98hz Schluss -
4K/8bit/SDR kann via DP1.4 bei bis zu 120hz übertragen werden.
Und um auch in 4K/10bit/HDR höhere Refreshraten anbieten zu können hat man sich darauf geeinigt, zusätzlich zum RGB-Standard auch YCbCr mit Subsampling anzubieten,
denn das spart Bandbreite und ermöglicht bei minimal sichtbaren Unterschieden höhere hz-Raten.

Selbiges Problem weist übrigens HDMI2.0 auf:
wer auf seiner Xbox One X ein Spiel in 4K/60hz in 10bit/HDR spielen möchte, reizt die Bandbreite von HDMI2.0 so sehr aus,
dass die Xbox One X automatisch yCbCr mit Subsampling aktiviert - sofern man diese Funktion in den Einstellung erlaubt hat.

Am PC gibt es eine solche automatische Umschaltung nicht -
udn so muss man - je nach Inhalt - immer manuell hin- und herschalten oder sich auf eine Zwischenlösung festlegen (z.B.: Dauerbetrieb in 4K/10Bit bei 98hz) - HDR hingegen muss in Windows immer manuell aktiviert/deaktiviert werden -
die wenigsten Spiele erkennen, dass der PC/Monitor HDR-fähig ist, wenn nicht innerhalb von Windows bereits HDR-aktiviert wurde.
Dauerhaft aktiviert zu lassen ist aber aufgrund vieler URsachen nicht zu empfehlen -
also wie man es dreht und wendet -
man hat am PC immer ein bisschen "Frickelei". ;)



Ich danke sehr für die Aufklärung. :daumen:
 

SichtWechsel86

Schraubenverwechsler(in)
Der Knackpunkt sind die einzelnen Timings. Die TV´s sind i.d.R. langsamer. OLED geht gerade so vom Inputlag her, kann jedoch einbrennen und hat kein Adaptive Sync. Die neuen Samsungs sind da besser, bereits mit Freesync.
Momentan ist ein richtiger Gaming-Moni noch am Besten. Da reicht HDR600 für 32" dicke aus.
(würde mal denken je näher man dran sitzt umso weniger nits reichen, um net geblitzdingst zu werden)

edit:
Bei Spielen kann man sich ganz schön irren, weil z.T. uralte Games (die auf Röhrenmonis liefen) auch schon HDR können.
Vermutlich wurde im Zuge der LCD´s dann mit der Farbkompression von NV das Niveau auf SDR runtergesetzt.
Zum Bsp. Aquanox Revelation+Crysis+FarCry+NfS-U2 schalten an meinem Moni net von HDR auf DP(SDR).

Bzgl. HDMi 2.1 stand mal im Raum das AMD bei der R7 nachrüsten könnte mit nem Adapter. (schön wärs)

Bist Du Dir sicher, dass Du bei den älteren Spielen nicht das Software-HDR meinst? Das ist eher ein emulierter Effekt.
Berühmt berüchtigt wurde es durch "TESIV:Oblivion" wo nach Aktivierung von HDR alle Gesichter wie von innen mit Glühbirnen gefüllt aussahen,...

Das CRT-Monitore bereits hohe Nitdichten besaßen ist mir auch neu...
 

Pilo

Freizeitschrauber(in)
Erinnert sich noch wer an Nvidias Big Format Gaming Displays? Genau....ich auch nicht. ;)
 

soonsnookie

Komplett-PC-Aufrüster(in)
Bist Du Dir sicher, dass Du bei den älteren Spielen nicht das Software-HDR meinst? Das ist eher ein emulierter Effekt.
Berühmt berüchtigt wurde es durch "TESIV:Oblivion" wo nach Aktivierung von HDR alle Gesichter wie von innen mit Glühbirnen gefüllt aussahen,...

Das CRT-Monitore bereits hohe Nitdichten besaßen ist mir auch neu...

das "hdr" von oblivion hat nichts mit dem aktuellen begriff von "hdr" zu tun
das ganze "alte" hdr wie es dann auch in lost coast kam hat keine erhöhung der farbpalette von 8 auf 10bit geboten, das war lediglich ein rumgespiele mit helligkeitswerten
 

Frittenkalle

Software-Overclocker(in)
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.

Kann ich auch nicht nachvollziehen, ich sehe auch kein Unterschied. Bekannte und Freunde sehen diesen auch nicht. Aber das ist ja so ähnlich wie mit dem Lüfter hinten... Der eine findet es grausam laut, der andere prophezeit den Ausfall nach paar Monaten o Jahren, der Andere stört sich einfach nur an dem Gedanken das es ei nen gibt und 99% haben diesen LCD nicht mal Live erlebt.
 

Frittenkalle

Software-Overclocker(in)
Löse die Schrift doch noch größer auf, dann wird der Unterschied noch deutlicher... in der Praxis bis auf gewissen Anwendungen wie Grafikbearbeitung ziemlich zu vernachlässigen.
 

JoM79

Trockeneisprofi (m/w)
Ich hab es sofort gesehen und dabei einfach nur das Forum aufgemacht.
Auch andere Leute sehen das.
Deswegen, sei froh wenn du es nicht siehst.
 
C

cryptochrome

Guest
Ich hab es sofort gesehen und dabei einfach nur das Forum aufgemacht.

Man sollte nicht immer von seinem eigenen Monitor auf andere Monitore schließen. Der hier besprochene Monitor zeigt dieses Problem nicht. Ich kann das beurteilen. Ich hab ihn hier stehen. Dass es unterschiedliche Pixel Strukturen und unterschiedliche Anordnungen der Sub-Pixel gibt, ist Dir bekannt? Der von Dir verlinkte Artikel bezieht sich übrigens auf TV Geräte, nicht auf PC Monitore. Nur mal so am Rande.
 

Leitwolf200

Software-Overclocker(in)
Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.

Naja bei LG steht beides.
Und LG hat auch nochmal den gleichen nur mit 144Hz stehen (erst stande 165Hz)
New Monitors In 2019: What To Expect [Professional, Gaming]

Auch bei der Vorstellung im Januar stand klar G-Sync drauf auf dem Schild.

Ich denke mal hier liegen noch falsche Infos vor,weil auch nur die G-Sync Version diesen RGB Ring hinten hat.

27” 1440p 160Hz G-SYNC (?) Q2 2019 LG 27GL850G
27” 1440p 144Hz FreeSync N/A LG 27GL850
 
C

cryptochrome

Guest
Komisch, seit ihr wohl blind.

Nö.

Und 99% aller Monitore nutzen RGB.

Deswegen nutzen nicht alle RGB Displays die gleichen Pixel Strukturen. Und die haben sehr wohl einen großen Einfluss auf die Darstellung:

LCD pixels structure

Aber um beim Thema RGB zu bleiben: Im RGB Modus gibt es gar kein Chroma Subsampling. Dieser Monitor wird bis 120 Hz im RGB Farbraum - ohne Subsampling - in der vollen Bandbreite angesteuert. Die Diskussion 4:4:4 vs 4:2:2 ergibt sich also bis 120 Hz überhaupt nicht. Erst bei 144 Hz muss der Monitor im YCbCr Farbraum betrieben werden und erst dort findet Subsampling mit 4:2:2 statt.

Wer sich dort wirklich am dann auch in der Tat sichtbaren "Chroma Subsampling Effekt" stört, betreibt den Monitor im Desktop Betrieb einfach mit 98 oder 120 Hz und schaltet 144 Hz eben nur in Spielen ein. Bär geschält.

Die ganze Diskussion (bei diesem Monitor) rund um 4:4:4 vs. 4:2:2 ist eine rein theoretische. Im alltäglichen Gebrauch ist dieser Monitor (abgesehen vom Lüfter) über jeden Zweifel erhaben. Das Erlebnis beim Spielen gut gemachter HDR Titel ist mit den 1000 Nits und den rund 380 FALD Zonen eine einzige Augenweide - eine andere Welt! Und im Desktop Betrieb gibt es hier zumindest bei mehr als vollkommen ausreichenden 98 und 120 hz überhaupt keine negativen Auffälligkeiten. Text ist in jeder Situation knackscharf, ohne ausgerissene Ränder oder Farbsäume. Hinzu kommt der hohe Kontrast durch den FALD-bedingten, guten Schwarzwert.

In jedem Fall alles andere als "grausam".
 
Oben Unten