Gaming-Monitore: Neues Modell vereint 240 Hz, HDR und 0,6 ms Reaktionszeit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Gaming-Monitore: Neues Modell vereint 240 Hz, HDR und 0,6 ms Reaktionszeit

Ein neu vorgestellter Monitor verbindet 240 Hz, eine niedrige Reaktionszeit von 0,6ms und HDR10. Der Bildschirm soll ausschließlich in Japan verkauft werden, identische Panel könnten aber in Zukunft auch in anderen Monitoren eingesetzt werden, die in Deutschland verkauft werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Gaming-Monitore: Neues Modell vereint 240 Hz, HDR und 0,6 ms Reaktionszeit
 
Was NOCH genutzt wird, dort steht aber nicht wie Alt die verwendeten Geräte sind. Es schmeißt ja nicht jeder alle paar Jahre etwas weg das noch gut funktioniert um ein aktuelleres Modell zu kaufen.
 
Wer sich heute nen neuen Monitor kauft, will die nächsten Jahr (höchstwahrscheinlich?) Ruhe haben. Nen FHD würd ich mir also auch nicht mehr holen :P
 
Kann man nicht so einfach pauschalisieren.
Der eine hat nie genug Pixel, der nächste immer zu wenig Hz.

Man darf auch nicht von einem Fachforum auf die Allgemeinheit schließen.
Klar, hier und in anderen Foren legt man eher Wert auf Auflösungen, Pixeldichte, Panel ect und diskutiert bis ins kleinste Detail,
"Draußen" sieht es jedoch anders aus. Da muss halt einfach ein Bild erscheinen. Vergleiche hat man kaum, also passt es wie es ist. (Zumindest oft)

FHD ist noch lange nicht tot, auch wenn viele hier niemals wieder zurück zu dieser Auflösung wollen.
 
So peinlich. DisplayPort 1.4 gibt es seit der 1080, also seit über zweieinhalb Jahren und immer noch gibt noch kein 1440p240hz-Monitor...
...keinen einzigen Monitor mit UHD72 und entsprechend kaum Aufpreis gegenüber UHD60. Nur zwei mit UHD144hz, aber zu gigantischem Preispunkt und Lüfter und jetzt einen Neuling ohne!

Hieß es nicht damals eigentlich, dass nur auf einen Anschluss gewartet würde und das die Panels alle schon mehr als UHD60 können würden?

So oder so: Wo ist das Nachbohren seitens der Redaktionen geblieben? Wo bleibt schon die Kritik innerhalb der Monitornews? Unter fast jeder (oder doch nicht fast?) News finden sich enttäuschte Kommentare...

Des weiteren, wieso hat einer der UHD120hz-Fernseher keinen DP1.4 als PC-Anschluss verpasst bekommen? Wieso?
Ich hoffe, die CES wird keine Enttäuschung, sondern bringt endlich die über zweieinhalb Jahre (so heftig!) verspäteten Geräte!
 
Mir würde auch ein 24-25 Zöller (mehr passt physisch bei mir nicht) in FHD mit G-Sync und HDR600 vollkommen reichen, da gibt es aber nix...
 
Nur 400 cd/m²? Also kein HDR.
Ich finde das immer witzig, wenn das jemand schreibt. PanelHDR sind vier bis fünf Elemente: Höherer statischer Kontrast (besseres Schwarz im Verhältnis zum Weiß), höherer Gamut (mehr Farben), höhere Bittiefe (mehr Abstufungen innerhalb der Farben) und höherer maximaler Helligkeit (besseres Weiß). Das fünfte Element wäre höherer dynamischer Kontrast---das ist aber eigentlich nur ein Hilfsmittel als Ausgleich für fehlenden höheren statischen Kontrast.

Dem Monitor hier mangelt es davon am höheren statischen Kontrast, dem höheren Gamut und der höheren maximalen Helligkeit und höheren dynamischen Kontrast hat er auch nicht. Nur die Bittiefe gibt es. DESHALB ist er kein vernünftiger HDR-Monitor. Weil er nur ein einziges Kriterium erfüllt. Nicht, wie du (und andere) es schreiben, weil ihm eines der vier oder fünf Elemente fehlen.

Edit: PanelHDR nutzte ich als Gegenstück zu ContentHDR, also dem HDR in Spielemenus der mittleren 2000er, was für FP16 statt Int8-Berechnung steht. Bzw. dem HDR von Filmen; es geht halt darum, was es anzeigt. Einen vernünftigen, etablierten Begriff dafür kenne ich nicht.
 
Also ist meine Aussage unterm Strich doch richtig - die mickrigen 400 cd/m² sind sowieso ein Ausschlusskriterium.
Naaa, du stellst es halt als den einzigen, ausreichenden Grund da. Das finde ich kritisch. Damit könnte man auch sagen, dass ein EW3270U (VA-typisch erhöhter statischer Kontrast, DCIP3 und 10bit) kein HDR-Monitor wäre. Das ist halt sehr gewagt, in etwa so, wie wenn man eine Optane 905p keine echte PCIe-3.0-x4-NVMe-SSD nennen würde, weil sie nur etwa zweieinhalb statt dreieinhalb Gigabyte die Sekunde schafft, obwohl sie alles sonst locker packt (und dort sogar eine der besten ist) und damit in die gleiche Klasse packt wie die Mogelpackung namens 600p.

HDR und auch echte PCIe-3.0-x4-NVMe-SSD sind ja nunmal ein abstrakt-emotionalene Begriffe und nicht sowas wie eine klare Norm, wie zum Beispiel DisplayHDR1000. (DisplayHDR 400 würde es übrigens wahrscheinlich erreichen---im Gegensatz zum EW3270U; vielleicht aber auch nicht, falls die sRGB-Abdeckung nicht mindestens 95% erreicht)
 
Hm, inwiefern kann man den BenQ denn überhaupt als HDR-Monitor bezeichnen?

Vielleicht gehe ich die Sache zu simpel an, aber ich hatte den Eindruck, dass ein hoher cd/m²-Wert essenziell für einen HDR-Monitor ist. Gleichzeitig habe ich den Eindruck, dass viele Monitorhersteller jetzt auf den HDR-Zug aufspringen wollen indem man an "klassischen Monitoren" etwas rumbastelt und dann kommen eben Geräte mit knapp 400 cd/m² und Edge-Lit-Technik mit knapp 8 Zonen auf über 30 Zoll dabei heraus...

Nach meinem Verständnis ist der von dir erwähnte DisplayHDR1000-Standard (am besten kombiniert mit einem FALD) praktisch als sinnvolle Minimalbedingung anzusehen - deshalb habe ich den Ausdruck HDR als Synonym für DisplayHDR1000 genutzt.

Nich falsch verstehen: Mir ist schon klar, dass ein Monitor noch andere Qualitäten haben muss. Aber im Gaming-Bereich richtet sich der Fokus beim HDR - das ist zumindest mein Eindruck - schon auf eine hohe maximale Helligkeit mit möglichst vielen Zonen.
 
Jepp, Local Dimming + FALD , nur so lässt sich HDR auf nem LCD einigermaßen ordentlich darstellen. Der Schwarzwert ist genauso wichtig wie Helligkeit und Farben. Was nützt mir HDR, wenn im milchigen Schwarz die feinsten Details verschluckt werden? Monitore mit FALD + HDR gibts aber glaub ich noch nicht.

Ich würd um die heutigen HDR-Monitore nen Bogen machen. Fühlt sich eher wie "HDR Light" an, und das für nen saftigen Aufpreis. Wartet lieber noch das ein oder andere Jährchen ab, bis die Sache etwas ernster angegangen wird.
Aber jedem das Seine, ich hab da ziemlich hohe Ansprüche :P
 
also mal ehrlich - ich fahre hier einen DELL monitor mit 1080p 27" (ca 10 jahre alt) der noch nichtmal LED-beleuchtung hat. aber das teil hat 96%srgb und das bei nem TN-panel, brennt dir die augen mit 500cd/m² raus und hat einen input-lag von 6ms. ich traue mich nicht das teil auszutauschen, weil ein downgrade bis auf die auflösung schon recht wahrscheinlich ist. aber sobald der 8-12kerner hier unterm tisch steht und meine 1070 ordentlich befreurt wird, möchte ich dann doch mal in 120hz+ zocken. und 3k wären auch mal angebracht bei 27". dann hat man noch das geschiss mit g-sync oder freesync - nutze momentan pascal aber wenn NV weiterhin lauter unnötigen kram auf seine chips presst, werd ich wohl zu navi oder vega2 wechseln müssen. ich muss wohl bis zu den nächsten graka-generationen von ATI warten bis ich überhaupt weiss ob ich freesync oder g-sync brauchen werde... sehr ärgerlich das ganze - jez hält mich dieser sync-shit von NV tatsächlich noch 1-2 jahre vom monitorkauf ab - "oder wie man sich selbst in die eier tritt" ...danke NVIDIA dafür, das ist schonmal ein klares gegenargument zu pascal 2 (falls nochmal GTX karten kommen sollten)...
 
Hm, inwiefern kann man den BenQ denn überhaupt als HDR-Monitor bezeichnen?

Vielleicht gehe ich die Sache zu simpel an, aber ich hatte den Eindruck, dass ein hoher cd/m²-Wert essenziell für einen HDR-Monitor ist. Gleichzeitig habe ich den Eindruck, dass viele Monitorhersteller jetzt auf den HDR-Zug aufspringen wollen indem man an "klassischen Monitoren" etwas rumbastelt und dann kommen eben Geräte mit knapp 400 cd/m² und Edge-Lit-Technik mit knapp 8 Zonen auf über 30 Zoll dabei heraus...

Nach meinem Verständnis ist der von dir erwähnte DisplayHDR1000-Standard (am besten kombiniert mit einem FALD) praktisch als sinnvolle Minimalbedingung anzusehen - deshalb habe ich den Ausdruck HDR als Synonym für DisplayHDR1000 genutzt.

Nich falsch verstehen: Mir ist schon klar, dass ein Monitor noch andere Qualitäten haben muss. Aber im Gaming-Bereich richtet sich der Fokus beim HDR - das ist zumindest mein Eindruck - schon auf eine hohe maximale Helligkeit mit möglichst vielen Zonen.
HDR hat neben Kontrast (und in geringem Maße auch absoluter Helligkeit) halt auch ganz viel mit Farben zu tun. Es sollen lange prägende Probleme neutralisiert werden:

Da ist zum einen das ColorBanding, also das Problem, dass bei einem kalibrierten 8bit-100%SRGB-Panel zwei direkt nebeneinanderliegende Farbtöne wie R128,G0,B0 und R127,G0,B0 immer noch von den meisten menschlichen Augen klar zu unterscheiden sind. Wenn das nicht mehr der Fall wäre, würde man perfekte Farbverläufe hinkriegen. Lösung? Naja, eben mehr als 256, also acht bit Abstufungen. Der unambitioniertes Schritt wäre zum Beispiel hin zu 9bit aka 512 Farbabstufungen.

Dann gibt es das OutOfGamut-Problem: Es gibt ein röteres Rot, ein grüneres Grün und ein blaueres Blau als in sRGB spezifiziert ist. Dadurch, dass man das nicht zur Verfügung hat, leiden vor allen Dingen Photographie und Film. Indirekt leidet deshalb natürlich auch Gaming mit. Machen wir es uns mal zur Anschauung einfach und sagen, dass man mal doppelt so rotes Rot, doppelt so grünes Grün und doppelt so blaues Blau haben möchte. In diesem newRGB teilen sich zum Beispiel die 8bit jetzt so auf: 128 Abstufung im alten sRGB-Spektrum, 128 Abstufungen im newRGB-exklusiven Spektrum. → Will man ColourBanding und OutOfGamut zugleich lösen, muss die Bittiefe weiter steigen. Mit 10bit hat man dann 512 Farbabstufungen im alten sRGB-Spektrum und 512bit Abstufungen im newRGB-exklusiven Spektrum. Klingt zumindest nach einem eindeutigen Fortschritt, mehr wäre aber natürlich trotzdem besser.

Wie kommt jetzt noch die Themen Kontrast und Helligkeit dazu? Das ist das Phänomen OutOfColorVolume: Neben einer guten Farbton-Abstufung und Abdeckung (die dafür Voraussetzung sind, dass man hier überhaupt gut abschneiden kann) soll nun auch obendrein noch die Helligkeit besser manipuliert werden können. Auch hier der Schritt hin zu mehr Bit, von acht zu zehn. Naheliegend ist nun folgendes: Doppelt so hell und doppelt so dunkel wie vorher. Hier zeigen sich nun die Grenzen der Vereinfachungen.

Doppelt so hell, doppelt so dunkel, das klapp nicht so einfach. Das Auge nimmt tatsächlich doppelt so hell (also gemessen doppelt so hell) nicht als doppelt so hell wahr. Auch doppel so dunkel, hach. Der Part ist kompliziert.

Eine andere Vereinfachung war das newRGB: Die konkurrierenden Farbräume Rec2020 und DCIP3 haben eine Sache gemeinsam: Über doppelt so blau und doppelt so rot wird nicht im entferntesten nachgedacht. Nur doppelt so grün, davon kann man tatsächlich sprechen.

Verkanntes Detail oder: Neben diesen Hauptvorteilen für hohe Dynamikbandbreite haben viele der Einzeleigenschaften auch noch tolle andere Effekte:
-Die gesteigerte Bittiefe ist superwichtig, um Spieleperformance voran zu bringen. Das klingt jetzt erstmal voll abstrus, schließlich werden die Daten ja größer (mehr Bit) und nicht kleiner. Aber, das große aber: Wer das nachvollziehen will, muss dafür bereits verstanden haben, wie Antialiasing funktioniert und sich wahrscheinlich trotzdem noch einmal explizit daran erinnern: Die errechneten Auflösungsinformationen werden in Farben abgebildet. Das heißt, bei gleicher Sampleanzahl steigt die Qualität des Endresultates ohne Performanceverlust, was wiederum heißt, dass man weniger Samples für ein erträgliches Ergebnis braucht.
-Hoher Kontrast ist direkt nach Auflösung wohl die wichtigste Eigenschaft für Office
-Hoher Kontrast ist allgemein in jedem Szenario für Ablesbarkeit gut
-Um zu guten Werten zu kommen, muss die Kalibrierbarkeit besser werden, schöner Nebeneffekt
-und sicher noch zig weitere Sachen, die ich übersehe


Zurück jetzt mal zu Praxis, also maximale Helligkeit und explizit auch zu FALD. Was bringt das für die Ziele, also weniger ColorBanding, weniger OutOfColorVolume und weniger OutOfGamut? Naja, naja, naja. Hier mal der Vergleich zwischen dem Acer PredatorX27 (UHD144hz, DisplayHDR1000, FALD, IPS, über 2000€) und dem vorher schon genannten Benq EW3270U (UHD60hz, VA, unter 400€)

Acer Predator X27 Review - RTINGS.com
BenQ EW3270U Review - RTINGS.com

ColorBanding sind sie beide super. Was Gamut angeht führt der Acer recht klar, doch dennoch sind sie beim ColorVolume enorm nah bei einander. Bei beiden sind sie aber recht weit vom Optimum entfernt. Das sind aktuell alle Geräte, auch TVs. Problematisch für den Acer ist halt, dass der statische Kontrast halt um die 1000:1 liegt und damit ganz TN-IPS-gewöhnlich ist. Entsprechend rettet ihn das FALD eher, als das es selber zu Stärken beitragen kann. Die Schwächen durch die Zonenzahl hingegen, hmm...
...ich würde mich daher nicht festlegen wollen, welcher von den beiden denn jetzt der bessere HDR-Monitor ist!
also mal ehrlich - ich fahre hier einen DELL monitor mit 1080p 27" (ca 10 jahre alt) der noch nichtmal LED-beleuchtung hat. aber das teil hat 96%srgb und das bei nem TN-panel, brennt dir die augen mit 500cd/m² raus und hat einen input-lag von 6ms. ich traue mich nicht das teil auszutauschen, weil ein downgrade bis auf die auflösung schon recht wahrscheinlich ist. aber sobald der 8-12kerner hier unterm tisch steht und meine 1070 ordentlich befreurt wird, möchte ich dann doch mal in 120hz+ zocken. und 3k wären auch mal angebracht bei 27". dann hat man noch das geschiss mit g-sync oder freesync - nutze momentan pascal aber wenn NV weiterhin lauter unnötigen kram auf seine chips presst, werd ich wohl zu navi oder vega2 wechseln müssen. ich muss wohl bis zu den nächsten graka-generationen von ATI warten bis ich überhaupt weiss ob ich freesync oder g-sync brauchen werde... sehr ärgerlich das ganze - jez hält mich dieser sync-shit von NV tatsächlich noch 1-2 jahre vom monitorkauf ab - "oder wie man sich selbst in die eier tritt" ...danke NVIDIA dafür, das ist schonmal ein klares gegenargument zu pascal 2 (falls nochmal GTX karten kommen sollten)...
Mal schauen, wie schon gesagt: Vielleicht wird diese CES endlich mal keine Monitor-Enttäuschung.
 
also mal ehrlich - ich fahre hier einen DELL monitor mit 1080p 27" (ca 10 jahre alt) der noch nichtmal LED-beleuchtung hat. aber das teil hat 96%srgb und das bei nem TN-panel, brennt dir die augen mit 500cd/m² raus und hat einen input-lag von 6ms. i
Mich würde mal interessieren welcher Monitor das ist.
 
Zurück