Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex

Monitore mit Nvidias "G-Sync Ultimate"-Zertifizierung müssen bekanntlich höchste Anforderungen an Auflösung, Ausleuchtung, Bildwiederholfrequenz und Kontrast erfüllen. Auf der derzeit laufenden Computex präsentiert Nvidia nun zwei neue High-End-Modelle von Asus und Acer. Darüber hinaus gibt es auch noch weitere Ankündigungen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia G-Sync Ultimate: Neue High-End-Monitore mit HDR und Co. auf der Computex
 
Der LG 27GL850G mit dem Nano IPS-Panel ist noch nicht erhältlich, soll im Juli für 699€ kommen.

Dachte erst auch mit dem G im Namen das ist ein vollwertiger G-Sync Monitor, scheint aber nun doch auch "nur" Compatible zu sein.
Auf der Produktseite steht aber andererseits nichts von Adaptive bzw. FreeSync:hmm:.
 
Zuletzt bearbeitet:
Den PG27UQX bitte mal in einer 32 Zoll Variante anbieten, da würde ich sofort zuschlagen.
 
Mmmhhhh

Von dem LG 27GL850 weis nicht mal LG was ?!

Was soll das für ein Monitor sein ?

Der LG 27GL850G-B welcher bald kommt hat sowieso G-Sync.
 
4k-HDR10-RGB 4:4:4 ist evtl. net mit 144Hz. Der Vorgänger lief dann unterhalb 100Hz.(siehe DP-Bandbreite)
(8bit +FRC ?)

Dazu bräuchte man dann langsam auch schon ne echte "Super"-Graka ala Quadro 6000
oder BESSER.(mal schauen ob tatsächlich SUPER kommt)

Mit 65" gibts es bei ähnlichen Specs den HP Omen X Emperium:
HP Omen X Emperium 65, 64.5" (4JF30AA)
HP Omen X 65 Emperium Monitor Review: 65 Inches of Gaming Greatness - Tom's Hardware
(ob durch HDR10=8bit+FRC ne höhere Frequenz von 144Hz funzt steht leider net im Review)
 
Zuletzt bearbeitet:
Warum schreiben so viele RGB 4:4:4?
Es gibt kein anderes RGB Format.
Für 4:4:2 oder 4:2:0 braucht es YCbCr.
 
Mmmhhhh

Von dem LG 27GL850 weis nicht mal LG was ?!

Was soll das für ein Monitor sein ?

Der LG 27GL850G-B welcher bald kommt hat sowieso G-Sync.

Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.
 
Im Prinzip handelt es sich bei den angekündigten GSync-HDR-Monitoren nur um Refreshs der im letzten Jahr veröffentlichten Asus PG27UQ bzw. Acer X27.

Einzig das Backlight wurde verändert (was signifikant für HDR-Inhalte sein könnte, aber leider die anderen Probleme unangetastet lässt).

Im Pressetext von Asus steht außerdem, dass man an die Kühlungsrichtlinien der beiden eingebauten Lüfter gearbeitet hat, so dass diese nun "leiser" sein sollen und "nur bei Bedarf" aufdrehen.

Die Bandbreitenproblematik (DisplayPort 1.4) konnte natürlich nicht umgangen werden,
so dass weiterhin maximal 4K/120hz mit 8bit/RGB zugespielt werden kann - für 144hz muss dann ChromaSubsampling verwendet werden (YCbCr 4.2.2 bzw. 4:2:0).
Für 4K mit 10bit Signalen muss sogar auf 98hz reduziert werden, wenn man kein ChromaSubsampling verwenden möchte.

Fälschlicherweise wird in Testberichten oft geschrieben, dass HDR bei 4K-Auflösung oberhalb 98hz nur mit ChromaSubsampling funktioniere,
das ist jedoch nicht ganz richtig. Man kann auch bei 4K/120hz/8bit/RGB die HDR-Funktion einschalten, allerdings gibt die Grafikkarte dann kein 10bit-Signal aus und das Panel betreibt kein Dithering (was ja auch nicht nötig ist).
Viel Verwirrung herrscht auch über den 8bit+FRC-Prozess: wenn die GPU ein 8bit-Signal an den Monitor sendet, läuft der PG27UQ nativ mit 8bit.
Wenn jedoch - entsprechend der HDR10-Norm - ein 10bit-Signal zugespielt wird,
so versucht der Monitor über einen komplexen Algorithmus nebeneinanderstehende Pixel so zu vermischen, dass farblich neue Abstufungen entstehen -
wodurch sich die Darstellung einem nativen 10bit-Panel annähert.
Dieser Vorgang hat jedoch viele Nachteile: einigen Nutzern fällt "Unruhe" im Bild auf, die Farbabstufungen sind nur Annäherungen an die tatsächlichen Bild-Signale und obwohl 8bit+FRC deutlich besser als ein reines 8bit-Panel ist um 10bit-Signale darzustellen, reicht es bei weitem nicht an die Darstellung eines echten 10bit-Panels heran.

Das Panel selbst ist übrigens keine Neuentwicklung sondern genau jenes, welches auch schon im PG27UQ und im X27 verwendet wurde.
Entsprechend weist es alle bekannten Eigenschaften auf.

Unverständlich finde ich es, dass der PG27UQX offenbar keine DolbyVision-Funktionalität aufweist,
obwohl diese für den Asus ProArts PA32UCX (also das Refresh vom PA32UC) bereits bestätigt wurde.

Noch ist das Gerät nicht vorgeführt wurden und vielleicht überraschen Asus und Acer ja im Verlauf des Jahres noch mit weiteren Ankündigungen.
Die Einführung einer 32" Variante wäre zum Beispiel bei vielen sehr willkommen.
 
Die Bandbreitenproblematik (DisplayPort 1.4) konnte natürlich nicht umgangen werden,
so dass weiterhin maximal 4K/120hz mit 8bit/RGB zugespielt werden kann - für 144hz muss dann ChromaSubsampling verwendet werden (YCbCr 4.2.2 bzw. 4:2:0).
Für 4K mit 10bit Signalen muss sogar auf 98hz reduziert werden, wenn man kein ChromaSubsampling verwenden möchte.

Das stimmt schon. Ich habe den PG27UQ und kann Dir aber sagen: Es ist vollkommen irrelevant. Du erkennst in Spielen nicht den geringsten Unterschied zwischen 4:4:4 und 4:2:2/4:2:0. Ich hab wegen dieser Specs den Monitor lange auf 98 hz betrieben, weil ich dachte, ich müsse unbedingt volle 4:4:4 haben. Aber es spielt keine Rolle. Es gibt keine erkennbaren Unterschiede zwischen den Modi.

Aber davon ab: wer sich diesen Monitor kauft, legt größten Wert auf ultimative Grafik in Spielen. Sprich, 4K, HDR, alles auf Ultra. Und unter diesen Voraussetzungen schafft man selbst mit einer 2080ti selten mehr als 60-70 FPS. Sprich, man kann den Monitor auch getrost auf 98 Hz laufen lassen, wenn man unbedingt 4:4:4 haben möchte, um sein Techi-Gewissen zu beruhigen.

Fälschlicherweise wird in Testberichten oft geschrieben, dass HDR bei 4K-Auflösung oberhalb 98hz nur mit ChromaSubsampling funktioniere,
das ist jedoch nicht ganz richtig. Man kann auch bei 4K/120hz/8bit/RGB die HDR-Funktion einschalten, allerdings gibt die Grafikkarte dann kein 10bit-Signal aus und das Panel betreibt kein Dithering (was ja auch nicht nötig ist).

Bei mir läuft der Monitor (so meldet es jedenfalls Windows in den Settings) folgendermaßen:

bei 98 Hz: volle 10 Bit (ohne FRC) mit 4:4:4
bei 120 Hz: 8 Bit + FRC mit 4:2:2
bei 144 Hz: 8 Bit mit 4:2:2

Aber wie gesagt, man sieht nicht den geringsten Unterschied. Entweder wird hier etwas falsches gemeldet, oder das Dithering ist so gut gelöst, dass man es schlicht nicht bemerkt. Vielleicht greift hier auch das G-Sync HDR Modul ein, das sicher nicht umsonst so teuer ist und aufwendig gekühlt wird. Voodoo... :)

Dieser Vorgang hat jedoch viele Nachteile: einigen Nutzern fällt "Unruhe" im Bild auf, die Farbabstufungen sind nur Annäherungen an die tatsächlichen Bild-Signale und obwohl 8bit+FRC deutlich besser als ein reines 8bit-Panel ist um 10bit-Signale darzustellen, reicht es bei weitem nicht an die Darstellung eines echten 10bit-Panels heran.

Siehe oben. In der Theorie richtig, bei diesem Monitor allerdings nicht der Fall. Mir sind weder unruhige Bilder aufgefallen, noch unterschiedliche Farbabstufungen zwischen den einzelnen Modi.

Unverständlich finde ich es, dass der PG27UQX offenbar keine DolbyVision-Funktionalität aufweist,
obwohl diese für den Asus ProArts PA32UCX (also das Refresh vom PA32UC) bereits bestätigt wurde.

Das ist schade, aber nicht wirklich unverständlich. Eine DolbyVision Lizenz ist nicht gerade billig und zu Zeiten, als dieser Monitor entwickelt wurde (der wurde ja bereits 2017 das erste mal angekündigt) bestand Dolby noch darauf, dass für DV eigene Hardware verbaut wird, die ebenfalls nicht billig war. Beides hätte den ohnehin schon sehr hohen Preis dieses Monitors noch weiter erhöht - Dem gegenüber steht die Tatsache, dass es quasi keine Spiele mit DV Support gibt (Ausnahmen bestätigen die Regel).

Ein weiteres Detail ist die Tatsache, dass HDMI 2.0 eigentlich nicht für DV geeignet ist. Es unterstützt nämlich in seiner Sepzifikation keine Übertragung von dynamischen Metadaten. Die TV Hersteller haben dafür (und übrigens auch für HDR10+ und HLG) aufwendige Workarounds implementiert.

Mittlerweile lässt sich DV auch rein über Software integrieren. Seit dem bauen auch TV Hersteller wie Panasonic, die vorher kein DV unterstützt haben, DV in ihre Geräte ein.

Die Einführung einer 32" Variante wäre zum Beispiel bei vielen sehr willkommen.

Das Fehlen einer 32 Zoll Variante ist für mich das eigentlich unverständliche an der ganzen Sache. Dafür würde ich sofort nochmal Geld in die Hand nehmen.

Wer sich näher für den Asus Monitor interessiert, hier gibt es einen technischen "Deep Dive" - einen sehr ausführlichen Testbericht der all die technischen Aspekte des Gerätes im Detail beleuchtet:

ASUS PG27UQ Review | PC Monitors
 
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.
 
Naja, bei Spielen mag die Farbunterabtastung nicht auffallen, aber sobald man Sachen wie das Forum aufmacht, ist einfach grausam.

Das kann ich hier nicht nachvollziehen. Das mag vielleicht bei anderen, niedriger aufgelösten Monitoren (und an TVs) der Fall sein, aber die Textdarstellung auf dem Desktop ist hier bei 4K und der Default Skalierung von Windows 10 von 150% absolut sauber und rattenscharf. Es ist nicht der geringste Unterschied zwischen 4:4:4 und 4:4:2 erkennbar. "Grausam" trifft es also nicht mal im Ansatz.
 
Schön wenn du es nicht siehst, es hat auch auch nichts mit der Schärfe oder der Auflösung zu tun.
 
Wohl doch nicht, die Produktseite hat eben auch nur "NVIDIA G-SYNC Compatible" stehen. Hab ich auch erst anders angenommen.
Vielleicht liegt es auch daran, dass mit einem ASync-Scaler nur die 160 Hz erreicht werden statt der sonst üblichen 165 mit dem G-Sync-Modul.
Das -B ist wohl nur der Farbe der schwarzen Rückseite und des Standfußes geschuldet.

Das ist ein vollwertiger Gsync-Monitor mit einem Nvidia-Modul.

Steht so in den beantworteten Fragen auf der Produktseite:

"The LG 27” Class QHD Nano IPS UltraGear™ Gaming Monitor with G-SYNC™ (27” Diagonal), Model # 27GL850G-B is not a G-SYNC™ compatible monitor. G-SYNC™ compatible monitors are Freesync monitors that Nvidia engineers have tested and confirmed to receive a G-Sync compatibility update and therefore support adaptive sync with Nvidia GPUs...^IFV"
 
bei 98 Hz: volle 10 Bit (ohne FRC) mit 4:4:4
bei 120 Hz: 8 Bit + FRC mit 4:2:2
bei 144 Hz: 8 Bit mit 4:2:2


Ehrlich, bin ich der Einzige, der bei diesem ganzen Mist nicht mehr durchsieht? :what:
10 Bit ja, aber nur unter ........ Bedingungen und dann auch nur wenn ......... vorhanden und ........... ist.

BIIIITTTTTEEEEE was.
Wenn da 10Bit 1000HDR steht, erwarte ich doch auch als Kunde, dass es ohne Probleme funktioniert und nicht nur dann, wenn ich ...... was auch immer machen muss.

Am besten man kauft sich ein Monitor für 300€ und man ist glücklich.
Bei 800 - 1000€ Monitore funzt es ja scheinbar nur unter ganz bestimmten Vorraussetzungen.

10Bit ja check, 1000HDR ja check, 144hz ja ...... äh ne, unter diesen Bedingungen kann der Monitore nur 90Hz.
Pff, warum werben sie dann damit.

Ich sehe echt nicht mehr klar.
 
OT:
Bei normalen 4k-HDR10-60Hz?-TV´s scheint YUF 4:4:2 aber net in Jedem Game sauber zu arbeiten.
BowWazoo im Turing-Thread merkt deutliche Unterschiede je nach Engine.(kann am Dev liegen)

8bit+Ditherung ist bei meinem normalen Moni eigentlich OK.(siehe Sig)
Das könnte daran liegen das die Samsung-Paneels eh 8bit+FRC sind.(analog HP Omen X)
 
Zuletzt bearbeitet:
Ich hatte zum Release sowohl den Acer X27 als auch den Asus PG27UQ getestet und beide wieder zurückgesandt.

Beide Monitore nutzen ein Panel von AU-Optronics, welches keine native 10Bit-Darstellung beherrscht -
das ist auch offiziell auf den Herstellerseiten vermerkt.
Die Angabenin den Windows-Displaysettings haben was mit der Softwareseitigen Ausgabe unter Windows zu tun, nicht mit der tatsächlichen Bildreproduktion des Monitors.

ChromaSubsampling fällt bei diesem Monitor genauso auf wie an einem OLED-TV, der mit 4K/60hz bei 10bit HDR via HDMI2.0 betrieben wird.
In dynamischen Inhalten (Spiele/Filme) fällt es weniger auf, zumal Filme ohnehin in YCbCr 4:2:0 gespeichert sind.
Aber bei Officearbeiten, Textbearbeitungen und generell im Desktopbetrieb sind deutliche Farbschattierungen um Buchstaben und Linien herum zu erkennen.

Das Dithering per FRC (FrameRateControl) ist mir bei diesem Monitor vor allem am unteren Rand aufgefallen, wo bei 10bit-Zuspielung leichtes Flimmern ("Grieseln") zu erkennen war.
Fällt allerdings nur bei genauer Betrachtung und Standbildern auf.
Im Vergleich zu einem "Echten 10bit Panel" wirken die Farb-Übergänge allerdings weniger weich und etwas abgestufter.
Ohne Vergleich oder geschulten Blick fällt jedoch auch das kaum auf.

Mit der DolbyVision-Implementation hast Du insofern Recht, als dass nur wenige Spiele diesen Standard bisher unterstützen -
dafür allerdings recht viele Filme und Streamingportale (Netflix, Amazon Prime, etc...)
Und obwohl es schwer nachvollziehbar sein mag, bin ich nicht bereit 2300-2500€ für einen Monitor zu investieren, der gewisse Standard-Normen nicht beherrscht und somit in weniger als einem Jahr obsolet ist.
Obendrein wiegen mir die technisch bedingten Mängel und Limitierungen zu schwer, als dass ich mein Erspartes dafür auf den Kopf haue^^

Im Prinzip mag ich den Monitor -
und jeder, der damit glücklich und zufrieden ist, darf das genießen und sich daran erfreuen :)
Ich persönlich finde einfach nur, dass es ein klares FirstGen-Produkt für EarlyAdaptor ist, welches krass überteuert und weder technisch noch preislich reif für den Massenmarkt ist.
Dazu kommt, dass das Spieleangebot mit HDR-support (auf dem PC) noch recht überschaubar ist...

Ich hatte damals gehofft, eine Bildqualität ähnlich einem OLED-TV in Kombination mit GSync zu erhalten,
wurde aber durch sichtbaren Halo-Effekt, andere FALD-bedingte-Problemchen, hörbare Lüfter, "limitierende Schnittstellen" und eingeschränkte HDR-Standards enttäuscht -
zusätzlich dazu kam mir die Größe von 27" nicht ganz entgegen (ich hätte gerne ein 32"-Modell).

Auch bei dem nun kommenden PG27UQx glaube ich nicht daran, dass die Änderungen mir ausreichen um den sicherlich hohen Preis zu rechtfertigen.
Ich habe schon letztes Jahr nach Release der ersten GSync-HDR-Monitore gemutmaßt, dass man in der nächsten Version Mini-LEDs verwenden wird und dann stufenweise mit jedem Neujahresmodell die Anzahl der Zonen erhöht -
immerhin hat der PG27UQx ja nun über 2000 MiniLEDs verbaut, die allerdings "nur" in knapp 576 Zonen arbeiten (also sind immer mindestens 4 MiniLEDs zusammenhängend und gleichzeitig aktiv -> Raum für Softwaretechnische Verbesserungen -
bis schlussendlich MicroLEDs verwendet werden oder irgendein Hersteller das BurnIn-Risiko von OLED-Displays durch neue Fertigungsmethoden soweit reduzieren konnte, dass der Einsatz von OLED-Panels in Monitoren unbedenklich ist.
 
Ehrlich, bin ich der Einzige, der bei diesem ganzen Mist nicht mehr durchsieht? :what:
10 Bit ja, aber nur unter ........ Bedingungen und dann auch nur wenn ......... vorhanden und ........... ist.

BIIIITTTTTEEEEE was.
Wenn da 10Bit 1000HDR steht, erwarte ich doch auch als Kunde, dass es ohne Probleme funktioniert und nicht nur dann, wenn ich ...... was auch immer machen muss.

Am besten man kauft sich ein Monitor für 300€ und man ist glücklich.
Bei 800 - 1000€ Monitore funzt es ja scheinbar nur unter ganz bestimmten Vorraussetzungen.

10Bit ja check, 1000HDR ja check, 144hz ja ...... äh ne, unter diesen Bedingungen kann der Monitore nur 90Hz.
Pff, warum werben sie dann damit.

Ich sehe echt nicht mehr klar.

Das Problem dieses Monitors ist die Schnittstelle DisplayPort 1.4

Das Panel kann ohne weiteres 4K/144hz bei 10bit (bzw. 8bit+FRC) udn HDR darstellen -
aber die Informationen zum Darstellen müssen von der GPU an den Monitor übertragen werden -
und der DisplayportStandard 1.4 weist nicht genug Bandbreite auf um all diese Eigenschaften bei entsprechend notwendiger Geschwindigkeit von der ausgebenden GPU über das Kabel zum Monitor zu übertragen.

Darum mussten die Hersteller Wege finden um im Rahmen der Bandbreite zu arbeiten -
und hier ist bei 4K/10bit/HDR schon bei 98hz Schluss -
4K/8bit/SDR kann via DP1.4 bei bis zu 120hz übertragen werden.
Und um auch in 4K/10bit/HDR höhere Refreshraten anbieten zu können hat man sich darauf geeinigt, zusätzlich zum RGB-Standard auch YCbCr mit Subsampling anzubieten,
denn das spart Bandbreite und ermöglicht bei minimal sichtbaren Unterschieden höhere hz-Raten.

Selbiges Problem weist übrigens HDMI2.0 auf:
wer auf seiner Xbox One X ein Spiel in 4K/60hz in 10bit/HDR spielen möchte, reizt die Bandbreite von HDMI2.0 so sehr aus,
dass die Xbox One X automatisch yCbCr mit Subsampling aktiviert - sofern man diese Funktion in den Einstellung erlaubt hat.

Am PC gibt es eine solche automatische Umschaltung nicht -
udn so muss man - je nach Inhalt - immer manuell hin- und herschalten oder sich auf eine Zwischenlösung festlegen (z.B.: Dauerbetrieb in 4K/10Bit bei 98hz) - HDR hingegen muss in Windows immer manuell aktiviert/deaktiviert werden -
die wenigsten Spiele erkennen, dass der PC/Monitor HDR-fähig ist, wenn nicht innerhalb von Windows bereits HDR-aktiviert wurde.
Dauerhaft aktiviert zu lassen ist aber aufgrund vieler URsachen nicht zu empfehlen -
also wie man es dreht und wendet -
man hat am PC immer ein bisschen "Frickelei". ;)
 
Zurück