Display HDR: VESA spezifiziert drei HDR-Stufen von Low- bis High-End

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Display HDR: VESA spezifiziert drei HDR-Stufen von Low- bis High-End

Die Video Electronics Standards Association, kurz VESA, hat drei HDR-Standards definiert, mit denen Monitor- und Fernseherhersteller ihre Geräte zertifizieren können. Die Spezifikationen hören auf die Namen Display HDR 400, 600 sowie 1000 und decken den Low- bis High-End-Bereich ab. Erste entsprechende Bildschirme werden zur CES 2018 im Januar erwartet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Display HDR: VESA spezifiziert drei HDR-Stufen von Low- bis High-End
 
Wird auch Zeit für einen genormten Standard durch VESA, das derzeitige Durcheinander irritiert mehr, als es bei der Auswahl eines Gerätes hilft...
 
Also gibt es bald.... HDR 10, Dolby Vision, G-Sync HDR, Freesync 2, HDR400, HDR 600 und HDR 1000? :ugly:

Edit:
Eine Tabelle wäre schön wo alle Unterschiede aufgelistet sind. Mit den hundert Standards und dem Hersteller eigenen HDR beerdigt sich die Technik doch nur selbst.

 
Zuletzt bearbeitet:
HDR10 und Sync HDR werden wohl bei der HDR-Zertifizierung im Vesa-Standard aufgehen. HDR400 sollte ja mindestens drin sein.
 
Finde ich sehr gut, endlich sinnige Standards, spannend was noch folgen wird. (Ich vermute mal noch irgend ne Mittelstufe wie 400+ oder so)
G- und F-Sync lassen sich dabei ja denke ich problemlos integrieren, bzw. fraglich ob's beides dank neuem HDMI 2.1 überhaupt noch benötigt.

Mein Wunschmonitor rückt immer näher :D
 
Also gibt es bald.... HDR 10, Dolby Vision, G-Sync HDR, Freesync 2, HDR400, HDR 600 und HDR 1000? :ugly:

Edit:
Eine Tabelle wäre schön wo alle Unterschiede aufgelistet sind. Mit den hundert Standards und dem Hersteller eigenen HDR beerdigt sich die Technik doch nur selbst.


Im Falle von Freesync 2 und G-Sync haben AMD und Nvidia AFAIK keine Specs öffentlich ausformuliert. Im Falle von G-Sync HDR gibt Nvidia ohnehin die einzusetzenden Panels vor. Wenn AUO nicht verkackt, sollten die Display HDR 1000 schaffen. Bei Samsungs F2-Monitoren könnte 400 drin sein.

Edit (nach Grestorns Like): Samsungs Datenblätter bei den CHG70-Modellen würden für Display HDR 600 sprechen.
 
Zuletzt bearbeitet:
HDR10 und Sync HDR werden wohl bei der HDR-Zertifizierung im Vesa-Standard aufgehen. HDR400 sollte ja mindestens drin sein.

HDR10 schreibt 1.000 cd/m² meinem Wissen nach dauerhaft vor, erfordert also eine höhere Helligkeit als sie ein gerade-eben-so-HDR1000-Gerät bieten kann. Umgekehrt macht HDR10 keine Angaben zur Reaktionszeit, so dass ein HDR10-Fernseher gegebenenfalls nicht einmal die Bedingungen von HDR400 erfüllt. Und das sind nur die Anforderungen an das Panel – wie die Diskussion HDR10 gegen Dolby Vision rund um dynamische Metadaten gezeigt hat, spielen auch Ansteuerung respektive Datenübertragung eine Rolle.
 
Also gibt es bald.... HDR 10, Dolby Vision, G-Sync HDR, Freesync 2, HDR400, HDR 600 und HDR 1000? :ugly:

Edit:
Eine Tabelle wäre schön wo alle Unterschiede aufgelistet sind. Mit den hundert Standards und dem Hersteller eigenen HDR beerdigt sich die Technik doch nur selbst.


Man muss erstmal unterscheiden zwischen dem Content und dem Abspielgerät. HDR10 und Dolby Vision beschreiben den Content, also welche Farbräume und Helligkeitswerte genutzt werden wobei Dolby Vision auf 12 Bit und dynamische Helligkeitswerte je Szene und angepasst an das Abspielgerät setzt. Bei HDR10 gibt es halt 10 Bit und feste Helligkeitswerte und es liegt dann am Abspielgerät wie gut oder schlecht die Szenen umgesetzt werden. Samsung hat mit HDR10+ eine Technik die ähnlich wie Dolby Vision versucht die Helligkeitswerte an das Display anzupassen damit helle Szenen nicht zu hell und dunkle Szenen auch wirklich dunkel dargestellt werden. Besonders bei günstigen Geräten hat man bei HDR10 das Problem das die geforderten Werte einfach vom Display nicht dargestellt werden können. Wenn in einer Szene die Maximalhelligkeit 1000cd/m² beträgt und das Display nur 600 cd/m² kann, dann versucht es trotzdem die 1000 cd/m² darzustellen und die Szene ist insgesamt zu hell. Bei Dolby Vision und HDR10+ werden die Helligkeitswerte für jede Szene umgerechnet um die Szene möglichst so darzustellen wie sie gedacht ist. Anstatt 1000 cd/m² ist der hellste Werte dann nur noch 600 cd/m² aber die Abstufungen in der Szene insgesamt passen.

Der jetzige VESA Standard, G-Sync und Freesync 2 beschreiben was das Display kann und ist eher mit dem UHD Premium Siegel bei TV Geräten zu vergleichen. Die Siegel sagen nur aus wie gut HDR auf dem Display umgesetzt wird. Für die Kaufentscheidung muss man in Zukunft dann gucken welchen Content man konsumieren möchte wie z.B. HDR10 in Spielen und einigen Serien oder Dolby Vision was in einigen Serien genutzt wird und dann ein Display raussuchen welches diesen Content möglichst gut darstellen kann. Wie bei den TV Geräten wird es dann verschiedene Siegel gleichzeitig für das Display geben. Dann hat man halt G-Sync 2 + HDR1000 und zusätzlich noch das HDR10 Logo weil das Display HDR10 Inhalte darstellen kann.
 
Uh, ein Standard der mal etwas mehr Sinn macht - auch die Schwarzwerte wurden spezifiziert.
Jetzt noch das ganze so das der Bildschirm wirklich hell ist (also > 1000 Lux) und eventuell für die Zukunft dann noch 16 bit und > 100 Hz.
 
Und wieder drei unterschiedliche standards am besten noch mit 10-Bit++ und so quatsch, die sind ja bis heute nicht in der Lage vernünftige Displays zu bauen
 
Mir ist unbegreiflich warum man hier bereits wieder mit verschiedenen Standards hantiert und diese gleich in 3 verschiedenen splittet anstatt wenigstens die zu nutzen die bereits im Markt sind.
Alles ab 540 Nits im DCI-P3 Farbraum un 10-bit Panel zertifizieren und gut.

Summa sumarum habwn wir also nun insgesamt 8 HDR Standards :daumen2:
Die hier genannten plus HDR10, HDR10+, Dolby Vision, HLG, Advanced HDR...:wall:
 
VESA Vorgaben sind soweit ich es verstanden habe minimal Anforderung an das Display. HDR10 und Dolby Vision ist nur eine Signalformat. UHD Premium ist ein vergleichbares Standard. Es geht also beim einen um die technische Spezifikation des Displays und bei anderen um Signalverarbeitung. Das ist nicht dasselbe. Und man braucht beim Signal unbedingt HDMI 2.0 oder Displayport 1.4. Darunter ist alles nur Fake HDR. Darum können die ersten PS4 und Xbox One kein HDR, sie haben die Anschlüsse nicht! Und meines Wissens ist mit der Angabe HDR10 kein natives 10bit vorgeschrieben, sondern man kann auch 8bit Panel mit FRC laufen lassen.

Alle anderen sind Eigenerfindungen von Samsung (HDR+, ist das Hochrechnen von einem SDR zu HDR, sprich Fake HDR, genauso HDRpro bei der Frame Linie) oder HDR advanced etc. Wer sicher gehen will etwas brauchbares zu haben setzt auf VESA DisplayHDR1000 oder UHD Premium. Jeder TV der das Premium Label nicht hat, muss irgendwo das gewünschte unterschreiten. Denn UHD Premium setzt 1000nits und natives 10bit (also kein 8bit+FRC) voraus. Wobei man auch sagen muss: die meisten Leute werden von Auge den Unterschied zwischen nativen 10bit und 8bit+FRC (die meisten Gaming Monitore heute nutzen das) nicht sehen.

Gibt es überhaupt native 12bit Panels für Dolby Vision zu kaufen, oder ist das 10bit+FRC?
 
Zuletzt bearbeitet:
Gerade mal nach HDR Monitoren und TVs geschaut, also wenn HDR10 1000 cd/m² vorgibt, erfüllen aber etliche nicht diese Voraussetzung!!!
Das gleiche gilt bei beim Panel:
HDR10 10bit
Dolby Vision 12bit

TVs:
Fernseher mit HDR: Dolby Vision/HDR10, Diagonale ab 55", Auflösung: ab 3840x2160 (4K UHD), Wireless: WLAN, Energieeffizienzklasse: bis A Preisvergleich Geizhals Deutschland
Eigentlich kein TV erfüllt die 1000 cd/m²

Monitore das gleiche:
Monitore mit Diagonale ab 24", Panel-Besonderheiten: HDR10 Preisvergleich Geizhals Deutschland

Was ist das für ein Bullshit?
 
HDR10 gibt keine 1000 cd/m² vor. Abgesehen davon kannst du die Helligkeitsangaben bei Geizhals in der Pfeife rauchen.
 
HDR10 gibt keine 1000 cd/m² vor. Abgesehen davon kannst du die Helligkeitsangaben bei Geizhals in der Pfeife rauchen.

Genauso wie die Reaktionszeit, die Farbraumabdeckung und die Farbtiefe...Heutzutage kann man solchen Angaben ja nicht mehr vertrauen. Glücklicherweise gibt's ja Magazine, wie pcgh, die die Monitore testen und die echten Werte herausfinden.
 
Da ich grad nach einem neuen Monitor suche und durch HDR etwas verwirrt bin...

HDR10 ist der gängigste Standard und für eine breite Basis recht konservativ gehalten.

Bedeutet das jetzt, dass HDR 10 unterhalb von HDR 400 einzuordnen ist, was die Wirkung angeht? Da ich verschiedene Geräte in der engeren Auswahl hab und manche HDR10 haben, manche HDR400, würde ich da ja schon gerne den optimaleren Standard erwischen...
 
Zurück