Hm, inwiefern kann man den BenQ denn überhaupt als HDR-Monitor bezeichnen?
Vielleicht gehe ich die Sache zu simpel an, aber ich hatte den Eindruck, dass ein hoher cd/m²-Wert essenziell für einen HDR-Monitor ist. Gleichzeitig habe ich den Eindruck, dass viele Monitorhersteller jetzt auf den HDR-Zug aufspringen wollen indem man an "klassischen Monitoren" etwas rumbastelt und dann kommen eben Geräte mit knapp 400 cd/m² und Edge-Lit-Technik mit knapp 8 Zonen auf über 30 Zoll dabei heraus...
Nach meinem Verständnis ist der von dir erwähnte DisplayHDR1000-Standard (am besten kombiniert mit einem FALD) praktisch als sinnvolle Minimalbedingung anzusehen - deshalb habe ich den Ausdruck HDR als Synonym für DisplayHDR1000 genutzt.
Nich falsch verstehen: Mir ist schon klar, dass ein Monitor noch andere Qualitäten haben muss. Aber im Gaming-Bereich richtet sich der Fokus beim HDR - das ist zumindest mein Eindruck - schon auf eine hohe maximale Helligkeit mit möglichst vielen Zonen.
HDR hat neben Kontrast (und in geringem Maße auch absoluter Helligkeit) halt auch ganz viel mit Farben zu tun. Es sollen lange prägende Probleme neutralisiert werden:
Da ist zum einen das ColorBanding, also das Problem, dass bei einem kalibrierten 8bit-100%SRGB-Panel zwei direkt nebeneinanderliegende Farbtöne wie R128,G0,B0 und R127,G0,B0 immer noch von den meisten menschlichen Augen klar zu unterscheiden sind. Wenn das nicht mehr der Fall wäre, würde man perfekte Farbverläufe hinkriegen. Lösung? Naja, eben mehr als 256, also acht bit Abstufungen. Der unambitioniertes Schritt wäre zum Beispiel hin zu 9bit aka 512 Farbabstufungen.
Dann gibt es das OutOfGamut-Problem: Es gibt ein röteres Rot, ein grüneres Grün und ein blaueres Blau als in sRGB spezifiziert ist. Dadurch, dass man das nicht zur Verfügung hat, leiden vor allen Dingen Photographie und Film. Indirekt leidet deshalb natürlich auch Gaming mit. Machen wir es uns mal zur Anschauung einfach und sagen, dass man mal doppelt so rotes Rot, doppelt so grünes Grün und doppelt so blaues Blau haben möchte. In diesem newRGB teilen sich zum Beispiel die 8bit jetzt so auf: 128 Abstufung im alten sRGB-Spektrum, 128 Abstufungen im newRGB-exklusiven Spektrum. → Will man ColourBanding und OutOfGamut zugleich lösen, muss die Bittiefe weiter steigen. Mit 10bit hat man dann 512 Farbabstufungen im alten sRGB-Spektrum und 512bit Abstufungen im newRGB-exklusiven Spektrum. Klingt zumindest nach einem eindeutigen Fortschritt, mehr wäre aber natürlich trotzdem besser.
Wie kommt jetzt noch die Themen Kontrast und Helligkeit dazu? Das ist das Phänomen OutOfColorVolume: Neben einer guten Farbton-Abstufung und Abdeckung (die dafür Voraussetzung sind, dass man hier überhaupt gut abschneiden kann) soll nun auch obendrein noch die Helligkeit besser manipuliert werden können. Auch hier der Schritt hin zu mehr Bit, von acht zu zehn. Naheliegend ist nun folgendes: Doppelt so hell und doppelt so dunkel wie vorher. Hier zeigen sich nun die Grenzen der Vereinfachungen.
Doppelt so hell, doppelt so dunkel, das klapp nicht so einfach. Das Auge nimmt tatsächlich doppelt so hell (also gemessen doppelt so hell) nicht als doppelt so hell wahr. Auch doppel so dunkel, hach. Der Part ist kompliziert.
Eine andere Vereinfachung war das newRGB: Die konkurrierenden Farbräume Rec2020 und DCIP3 haben eine Sache gemeinsam: Über doppelt so blau und doppelt so rot wird nicht im entferntesten nachgedacht. Nur doppelt so grün, davon kann man tatsächlich sprechen.
Verkanntes Detail oder: Neben diesen Hauptvorteilen für hohe Dynamikbandbreite haben viele der Einzeleigenschaften auch noch tolle andere Effekte:
-Die gesteigerte Bittiefe ist superwichtig, um Spieleperformance voran zu bringen. Das klingt jetzt erstmal voll abstrus, schließlich werden die Daten ja größer (mehr Bit) und nicht kleiner. Aber, das große aber: Wer das nachvollziehen will, muss dafür bereits verstanden haben, wie Antialiasing funktioniert und sich wahrscheinlich trotzdem noch einmal explizit daran
erinnern: Die errechneten Auflösungsinformationen werden in Farben abgebildet. Das heißt, bei gleicher Sampleanzahl steigt die Qualität des Endresultates ohne Performanceverlust, was wiederum heißt, dass man weniger Samples für ein erträgliches Ergebnis braucht.
-Hoher Kontrast ist direkt nach Auflösung wohl die wichtigste Eigenschaft für Office
-Hoher Kontrast ist allgemein in jedem Szenario für Ablesbarkeit gut
-Um zu guten Werten zu kommen, muss die Kalibrierbarkeit besser werden, schöner Nebeneffekt
-und sicher noch zig weitere Sachen, die ich übersehe
Zurück jetzt mal zu Praxis, also maximale Helligkeit und explizit auch zu FALD. Was bringt das für die Ziele, also weniger ColorBanding, weniger OutOfColorVolume und weniger OutOfGamut? Naja, naja, naja. Hier mal der Vergleich zwischen dem Acer PredatorX27 (UHD144hz, DisplayHDR1000, FALD, IPS, über 2000€) und dem vorher schon genannten Benq EW3270U (UHD60hz, VA, unter 400€)
Acer Predator X27 Review - RTINGS.com
BenQ EW3270U Review - RTINGS.com
ColorBanding sind sie beide super. Was Gamut angeht führt der Acer recht klar, doch dennoch sind sie beim ColorVolume enorm nah bei einander. Bei beiden sind sie aber recht weit vom Optimum entfernt. Das sind aktuell alle Geräte, auch TVs. Problematisch für den Acer ist halt, dass der statische Kontrast halt um die 1000:1 liegt und damit ganz TN-IPS-gewöhnlich ist. Entsprechend rettet ihn das FALD eher, als das es selber zu Stärken beitragen kann. Die Schwächen durch die Zonenzahl hingegen, hmm...
...ich würde mich daher nicht festlegen wollen, welcher von den beiden denn jetzt der bessere HDR-Monitor ist!
also mal ehrlich - ich fahre hier einen DELL monitor mit 1080p 27" (ca 10 jahre alt) der noch nichtmal LED-beleuchtung hat. aber das teil hat 96%srgb und das bei nem TN-panel, brennt dir die augen mit 500cd/m² raus und hat einen input-lag von 6ms. ich traue mich nicht das teil auszutauschen, weil ein downgrade bis auf die auflösung schon recht wahrscheinlich ist. aber sobald der 8-12kerner hier unterm tisch steht und meine 1070 ordentlich befreurt wird, möchte ich dann doch mal in 120hz+ zocken. und 3k wären auch mal angebracht bei 27". dann hat man noch das geschiss mit g-sync oder freesync - nutze momentan pascal aber wenn NV weiterhin lauter unnötigen kram auf seine chips presst, werd ich wohl zu navi oder vega2 wechseln müssen. ich muss wohl bis zu den nächsten graka-generationen von ATI warten bis ich überhaupt weiss ob ich freesync oder g-sync brauchen werde... sehr ärgerlich das ganze - jez hält mich dieser sync-shit von NV tatsächlich noch 1-2 jahre vom monitorkauf ab - "oder wie man sich selbst in die eier tritt" ...danke NVIDIA dafür, das ist schonmal ein klares gegenargument zu pascal 2 (falls nochmal GTX karten kommen sollten)...
Mal schauen, wie schon gesagt: Vielleicht wird diese CES endlich mal keine Monitor-Enttäuschung.