Zukunft des Gaming: Lohnt sich der Wechsel auf HDR und 10 Bit bereits?

Du hattest deine Fragen bereits beantwortet bekommen und hast sie dennoch nocheinmal gestellt - also nein, du hast all Antworten ignoriert - ob Mutwillig oder auß unfähigkeit kannn ich da nicht beurteilen.

Entweder ließt du nicht richtig oder du hast ein anderes Forum vor dir. ^^
Nachfragen bzw. Zusatzfragen sind übrigens nicht mit Ignoranz gleichzusetzen.

Aber wahrscheinlich haben wir beide, eine unterschiedliche Definition von Ignoranz.
Du solltest deshalb lieber deine abstrusen Beleidigungen für dich behalten, wenn du schon das geistige Niveau eines technischen Forums ansprichst. ;)

Das sollte nu endgültig geklärt sein! Danke.
 
Ob man die dargestellten zusätzlichen Details auch immer wahrnimmt, stelle ich mal stark in Frage. Der Unterschied vom Farbwert 0x00000 zu 0x010101, ist in der Regel eher nicht wahrnehmbar.
Und genau das ist der Punkt. Die Informationen sind da aber ohne Anhebung nicht wahrnehmbar.
Es stimmt halt einfach nicht das man 10 bit aufnimmt, abspeichert und automatisch auf 10 bit Panels mehr sieht. ;)

Und das Quitschibunti mit abnormalem Kontrast sieht schön aus?
Meintest du mich? Ich hab ja schon gesagt das HDR richtig eingesetzt eben nicht so aussieht, sondern natürlich und damit unauffällig.
Wie und wo ist denn nun der Standarddynamikbereich standardisiert?
Jep, dass würde mich auch mal interessieren?!?

MfG
 
Es hat etwas damit zu tun das es oft verwendet wird und ich diese Begrifflichkeit gar nicht kenne. Standard Dynamic Range. Was genau ist denn eigentlich der Standard?

Also bei semi Pro Vollformat Cams ist eine Blendenzahl von knapp 15 Blendenstufen Standard beim Dynamikumfang. Nach Definition wäre das aber HDR, ich bin verwirrt. :ugly:

MfG

Sehr gute Erklärung unter diesem Link.

High Dynamic Range - Deutsche TV-Plattform
 
Und genau das ist der Punkt. Die Informationen sind da aber ohne Anhebung nicht wahrnehmbar.
Es stimmt halt einfach nicht das man 10 bit aufnimmt, abspeichert und automatisch auf 10 bit Panels mehr sieht. ;)

Meintest du mich? Ich hab ja schon gesagt das HDR richtig eingesetzt eben nicht so aussieht, sondern natürlich und damit unauffällig.

Jep, dass würde mich auch mal interessieren?!?

MfG

aaaaaaa man sieht es extrem und bei dolby hdr nochmal um welten besser !!!

HDR Vergleich: Dolby Vision vs. Ultra HD Blu-ray HDR 10 - YouTube
 
HDR bedeutet in beiden das Fällen das gleiche: Hoher Dynamik Umfang

Ob man das jetzt mit 10 bit kombiniert oder nicht ändert erstmal nichts daran. Das (un)realistische Aussehen hängt einfach von der Justierung ab.

Ein hoher Dynamikumfang ließe sich zwar auch mit einer gröberen Ansteuerung kombinieren, ein Blitzlicht zum Beispiel gibt 1-Bit-Extrem-Ultra-HDR aus :-). Aufgrund der resultierenden Farbabstufungen auch bei SDR-Inhalten gab es meinem Wissen nach aber nie einen HDR-Standard mit 8 Bit oder weniger.


Wenn ich im Artikel das Bild mit dem Schieber sehe, sehe ich nichts, was man mit Reshade/SweetFX nicht auch hin bekommt. (bekommen sollte)

Alles nur eine Sache der Einstellungen..... :nicken:

Du siehst in dem Bild logischerweise nichts, was dein SDR-Monitor nicht darstellen kann. Die Aussage des Schiebers liegt im Vergleich: Stelle dir vor, dein Monitor könnte nur die Qualität auf der rechten Seite darstellen, dann zeigt dir die linke Seite den Fortschritt, den Dolby-Vision gegenüber diesem darstellt.


Ich arbeite mit einer Vollformatkamera, mit erweitertem Dynamikumfang. Die Bearbeitung erfolgt dann an einem 1000:1, 10 Bit Adobe RGB tauglichen Monitor und auch dort müssen die Bereiche Tiefen und Höhen angehoben werden um sie sichtbar zu machen. Mehr Dynamikumfang bedeutet einfach nur mehr Zeichnung aber nicht unbedingt in unserem sichtbarem Bereich. Das geschieht dann erst durch die "nachträgliche" Anhebung.

Eben nicht. Auf einem 1.000:1-SDR-Monitor musst du diese Details durch Bildbearbeitung sichtbar herausarbeiten, was je nach grad des Einsatzes und der Sorgfalt des Bearbeitenden zu unnatürlichen Ergebnissen führt. Hat man auch ein HDR-Ausgabegerät (meinem Wissen nach 20.000:1 Minimum), entfallen dieser Bearbeitungsschritt und die einhergehenden Verfälschungen.


Ich such schon die ganze Zeit nach Kontrastwerten für einen CRT, find aber irgendwie.
Das was ich finde, reicht von 200:1 bis 20000:1.

Der Kontrast eines CRTs ist praktisch unbegrenzt, da der Monitor echtes Schwarz wiedergeben kann. Die Kontrolle über den Elektronenstrahl müsste sogar um Größenordnungen besser sein, als die durch Leckströme in den Transistoren bei OLEDs verbleibende (nicht sichtbare) Restemission bei "Abschaltung" eines Pixels. Das für Röhrenmonitore dennoch deutlich niedrigere Kontrastwerte als "unendlich:1" angegeben werden, liegt an den Messmethoden. In einem normal beleuchteten Raum wird immer auch etwas Umgebungslicht im Glas der Röhre selbst gestreut und die Fotosensoren sind nicht dafür konzipiert, exakt "0" Helligkeit zu messen.
Die gleichen Einschränkungen gelten aber auch für menschliche Betrachter: Ein schwarzer Bereich auf einen Röhrenmonitor erscheint in beleuchteter Umgebung hellgrau. Der reale Kontrastumfang war dadurch sogar deutlich geringer als bei heutigen LCDs mit höherer maximaler Helligkeit, wie vielen Röhrenmonitor-Nutzern noch in Erinnerung sein dürfte. Stichwort: Spiegelungen, geschlossene Vorhänge, usw..
Selbst in komplett abgedunkelten Räumen, wo der Röhrenmonitor echtes 0,0000 cd/m² schwarz wiedergibt, würde man aber 0,03 cd/m² als Berechenungsgrundlage heranziehen, denn dort verläuft in etwa die Untergrenze menschlichen Farbsehens. Um dem Betrachter einen Kontrast von 20.000:1 zu bieten müsste der CRT im Gegenzug 600 cd/m² maximale Helligkeit erreichen – in der Praxis wurden 130-cd/m²-Geräte schon mit "extra bright" beworben. HDR-Wahrnehmung ist mit diesen Geräten also nur in komplett dunkler Umgebung und mit nachtadaptierten Augen möglich, was leider eine Reduzierung der Farbwahrnehmung bedeutet.
Aber CRT-TVs wurden ja auch ursprünglich für schwarz-weiß-Filme entwickelt ;-)
 
Zuletzt bearbeitet:
Eben nicht. Auf einem 1.000:1-SDR-Monitor musst du diese Details durch Bildbearbeitung sichtbar herausarbeiten, was je nach grad des Einsatzes und der Sorgfalt des Bearbeitenden zu unnatürlichen Ergebnissen führt. Hat man auch ein HDR-Ausgabegerät (meinem Wissen nach 20.000:1 Minimum), entfallen dieser Bearbeitungsschritt und die einhergehenden Verfälschungen.
Ich verstehe worauf du hinaus willst. Dennoch sieht man die feinen Unterschiede welche dargestellt werden nicht, es sei denn man hebt sie hervor. Wie vorhin geschrieben wurde sind die fienen Nuancen welche nun dargestellt werden von untersten Schwarzwerten zwar vorhanden aber eigentlich nicht wahrnehmbar es sei denn man hebt ihren Kontrast an. Und genau bei diesem Prozess entsteht der unrealistische look, wenn diese Anhebung zu stark ausfällt. Es wird sicherlich in der Gesamtdarstellung durch den einheitlichen Produktionsprozess zu sichtbaren Verbesserungen kommen aber orientiert man sich hier an den hiesigen Beispielen mit durchzeichneten Tiefen und Lichtern, so werden auch solche Effekte bei 10 Bit Panels erst durch Anhebung deutlich sichtbarer, auch wenn sie vorher schon da sind. Das ist jedenfalls meine Erfahrung.

Ich glaube ich muss das sicherlich auch noch mehr praktische Erfahrungen sammeln aber grundsätzlich bewege ich mich produktiv schon unter den aktuellen HDR Bedingungen.

Vielleicht könnt ihr euch dem Thema noch ein bisschen investigativer und aufklärender witmen, ich sehe da einen großen Nachholbedarf und nehme mich da selber auch gar nicht aus. :)

MfG
 
TEST: SONY ZD9 65" 4K HDR - Auf Augenhöhe mit OLED? - YouTube
Das ist Momentan das Brett in Sachen HDR Sonnys ZD9 zeigt momentan wo die Latte steht.:D
Ob es einem fast 4500Euro Wert ist muss man halt selber wissen die vollen HDR Speks erreicht auch er nicht jedoch macht er es bisher am allerbesten bei den TVs .

hat der dolby hdr wenn nein ist er schon unten durch gibt nichts besseres als dolby:

HDR Vergleich: Dolby Vision vs. Ultra HD Blu-ray HDR 10 - YouTube
 
TEST: SONY ZD9 65" 4K HDR - Auf Augenhöhe mit OLED? - YouTube
Das ist Momentan das Brett in Sachen HDR Sonnys ZD9 zeigt momentan wo die Latte steht.:D
Ob es einem fast 4500Euro Wert ist muss man halt selber wissen die vollen HDR Speks erreicht auch er nicht jedoch macht er es bisher am allerbesten bei den TVs .
Naja solche Einschätzungen überlasse ich eher den Profis, wenn ich schon solche Sprüche wie "dem perfektem Schwarzwert" höre...
Ich spreche dabei von solchen Videos von Profis hier.

Test Sony KD 65 ZD9 UHD HDR TV mit Backlight Master Drive - YouTube
 
Die neuen Sony sollen sich vom Schwarzwert auf OLED Niveau befinden aber mit dem Vorteil der hohen Leuchtkraft. Hatte ich auch irgendwo gelesen.

MfG
 
Ich verstehe worauf du hinaus willst. Dennoch sieht man die feinen Unterschiede welche dargestellt werden nicht, es sei denn man hebt sie hervor. Wie vorhin geschrieben wurde sind die fienen Nuancen welche nun dargestellt werden von untersten Schwarzwerten zwar vorhanden aber eigentlich nicht wahrnehmbar es sei denn man hebt ihren Kontrast an. Und genau bei diesem Prozess entsteht der unrealistische look, wenn diese Anhebung zu stark ausfällt. Es wird sicherlich in der Gesamtdarstellung durch den einheitlichen Produktionsprozess zu sichtbaren Verbesserungen kommen aber orientiert man sich hier an den hiesigen Beispielen mit durchzeichneten Tiefen und Lichtern, so werden auch solche Effekte bei 10 Bit Panels erst durch Anhebung deutlich sichtbarer, auch wenn sie vorher schon da sind. Das ist jedenfalls meine Erfahrung.

Ich glaube ich muss das sicherlich auch noch mehr praktische Erfahrungen sammeln aber grundsätzlich bewege ich mich produktiv schon unter den aktuellen HDR Bedingungen.

Vielleicht könnt ihr euch dem Thema noch ein bisschen investigativer und aufklärender witmen, ich sehe da einen großen Nachholbedarf und nehme mich da selber auch gar nicht aus. :)

MfG

Ein HDR10-Monitor stellt genau diese Kontrastanhebung, die du bislang in Software machst, in Hardware dar ;-).
Nehmen wir an du fotografierst weiße Details auf einer hellgrauen, sonnenbeschienenen Fläche die im einer Helligkeit von 732 und 733 cd/m² entsprechen. Dein Auge konnte diese Details unterscheiden, aber auf einem herkömmlichen 256 cd/m² Monitor sind sie nicht darstellbar.

Lösung 1: Man komprimiert den Dynamikumfang, so dass es rechnerisch 244 und 244,3 cd/m² sind. Dein 10-Bit-Monitor gibt diese als 244 und 244,25 cd/m² aus, was kaum zu unterscheiden ist (wenn er überhaupt ein echtes 10-Bit-Panel hat, aufgrund des minimalen Unterschiedes werden 10- und sogar 12-Bit-LUTs sehr oft mit 8-Bit-Panels und Dithering kombiniert). Anwender mit einem normalen 8-Bit-Panel kriegen von Anfang an nur 244 und 244 cd/m² angezeigt, denn der nächsthöhere mögliche Wert ihres Ausgabegerätes laut 245 cd/m².

Lösung 2: Man verschiebt den Dynamikumfang (bevorzugt durch eine engere Blende oder kürzere Verschlusszeit) und die Details werden als 232 und 233 cd/m² angezeigt. Das funktioniert aber nur, solange das Bild frei von Inhalten mit <401 cd/m² ist, sonst gehen diese Details in einer einheitlich schwarzen Fläche verloren.

Lösung 3: Man kombiniert selektiv beide Ansätze und passt die Helligkeit verschiedener Bildteile getrennt an. Das ist klassische HDR-Bildbearbeitung zur Ausgabe auf SDR-Geräten, wie du sie gerade praktizierst. Solange man keine mittelhellen Inhalte hat, funktioniert das relativ gut. Bei einem Bild, dessen Details sich über den gesamten HDR-Bereich verteilen, muss man irgendwo Abstriche machen. Entweder weil einem die Feinheit, die maximale oder die minimale Helligkeit ausgehen. Gute Bildbearbeiter können zwar viele Bilddetails retten, ohne dass die Szene unnatürlich wirkt, aber das Endergebnis ist ein Kompromis.

Lösung 4: Man nimmt einen HDR10-Monitor mit maximal 1.000 cd/m² und gibt die Fotodetails mit 732 und 733 cd/m² aus. Fertig. Das Auge kann diese Details schließlich in der Natur unterscheiden – aber bislang haben unsere Wiedergabegeräte nur ein Tausendstel des menschlichen Wahrnehmungsbereiches genutzt. (HDR10 und Dolby Vision sind da übrigens auch noch nicht am biologischen Limit.)
 
Also um mal ein bisschen Übersicht hier reinzubekommen. Es gibt genau 3 momentan mehr oder weniger relevante HDR Standards.
HDR10, Dolby Vision und HLG.
HLG ist eher für den Fernsehgebrauch interessant, da es abwärtskompatibel zu SDR ist und TV-Sender daher nicht zwei Signale separat ausstrahlen müssen.
Dolby Vision ist theoretisch etwas besser als HDR10, wird sich voraussichtlich aber nicht durchsetzen, da Lizenznehmer hohe Gebühren an Dolby entrichten müssen. Außerdem sind die Unterschiede zwischen Dolby Vision und HDR10 sehr übersichtlich, für die Helligkeitsabbildung wird beispielsweise bei beiden die PQ-Funktion herangezogen, weshalb beide einen sehr ähnlichen Kontrasteindruck vermitteln sollten. Einzige Unterschied: Bei Dolby kann die Funktion während der Übertragung dynamisch angepasst werden, das geht bei HDR10 (noch) nicht.
HDR10 wird sich wohl wegen seiner Gebührenfreiheit auf absehbare Zeit als der HDR Standard etablieren. Tatsächlich hat er das eigentlich schon.
Andere Standards gibt es quasi nicht. Der BenQ SW320 hat HDR10. Es gibt kein Technicolor HDR, das ist nur ne Zertifizierung, was auch immer die besagen soll.

Als Farbraum wird bei HDR immer der Rec2020 angestrebt und auch genau darauf abgemischt. Momentane TVs können diesen allerdings noch nicht ganz abdecken, daher wird effektiv momentan mit dem Farbraum für digitales Kino DCI-P3 gearbeitet. Das Signal selbst enthält aber eigentlich schon den vollen Rec2020.

SDR arbeitet nach dem Standard BT.1886 und beschreibt eine Helligkeitsverteilung von 0,1-100cd. Bei HDR10 geht das ganze von 0,0005-10000cd.
Neben der Tatsache, dass HDR also einen größeren Helligkeitsbereich abdeckt kommt noch hinzu, dass die EOTF wesentlich mehr Informationen in dunklere Bildbereiche legt, wie in diesem Bild gut zu sehen ist.
8.png
Das ist dem menschlichen Sehvermögen angepasst, das in dunkleren Helligkeitsbereichen mehr Details wahrnehmen kann, als bei hoher Helligkeit.
Hier ein kleiner Vergleich der Helligkeitsverläufe verschiedener HDR und SDR Ansätze.
JimDEOTF.png
In grün der normale SDR-Raum, rot 10-bit SDR, türkis der HDR-Raum für Fernsehen und blau HDR10 bzw. Dolby Vision. Wohl gemerkt sind die HDR Räume in dieser Grafik auf der hellen Seite abgeschnitten.
Die orangene Linie ist relativ irrelevant, da sie im medizinnischen Bereich eingesetzt wird.
 
Du immer mit deinem Dolby. :ugly:

MfG

na mir gehört die Technik nicht aber sie soll die beste sein daher orientiere ich mich nun mal dran ...ich selber habe ja den samsung js9000 der kann hdr aber ich kann eben auch sehen wenn was besser ist und das ist dolby nun mal um welten wenn du das nicht verstehen kannst kann ich dir auch nicht helfen...
 
Also um mal ein bisschen Übersicht hier reinzubekommen. Es gibt genau 3 momentan mehr oder weniger relevante HDR Standards.
HDR10, Dolby Vision und HLG.
HLG ist eher für den Fernsehgebrauch interessant, da es abwärtskompatibel zu SDR ist und TV-Sender daher nicht zwei Signale separat ausstrahlen müssen.
Dolby Vision ist theoretisch etwas besser als HDR10, wird sich voraussichtlich aber nicht durchsetzen, da Lizenznehmer hohe Gebühren an Dolby entrichten müssen. Außerdem sind die Unterschiede zwischen Dolby Vision und HDR10 sehr übersichtlich, für die Helligkeitsabbildung wird beispielsweise bei beiden die PQ-Funktion herangezogen, weshalb beide einen sehr ähnlichen Kontrasteindruck vermitteln sollten. Einzige Unterschied: Bei Dolby kann die Funktion während der Übertragung dynamisch angepasst werden, das geht bei HDR10 (noch) nicht.
HDR10 wird sich wohl wegen seiner Gebührenfreiheit auf absehbare Zeit als der HDR Standard etablieren. Tatsächlich hat er das eigentlich schon.
Andere Standards gibt es quasi nicht. Der BenQ SW320 hat HDR10. Es gibt kein Technicolor HDR, das ist nur ne Zertifizierung, was auch immer die besagen soll.

Als Farbraum wird bei HDR immer der Rec2020 angestrebt und auch genau darauf abgemischt. Momentane TVs können diesen allerdings noch nicht ganz abdecken, daher wird effektiv momentan mit dem Farbraum für digitales Kino DCI-P3 gearbeitet. Das Signal selbst enthält aber eigentlich schon den vollen Rec2020.

SDR arbeitet nach dem Standard BT.1886 und beschreibt eine Helligkeitsverteilung von 0,1-100cd. Bei HDR10 geht das ganze von 0,0005-10000cd.
Neben der Tatsache, dass HDR also einen größeren Helligkeitsbereich abdeckt kommt noch hinzu, dass die EOTF wesentlich mehr Informationen in dunklere Bildbereiche legt, wie in diesem Bild gut zu sehen ist.
Anhang anzeigen 928756
Das ist dem menschlichen Sehvermögen angepasst, das in dunkleren Helligkeitsbereichen mehr Details wahrnehmen kann, als bei hoher Helligkeit.
Hier ein kleiner Vergleich der Helligkeitsverläufe verschiedener HDR und SDR Ansätze.
Anhang anzeigen 928757
In grün der normale SDR-Raum, rot 10-bit SDR, türkis der HDR-Raum für Fernsehen und blau HDR10 bzw. Dolby Vision. Wohl gemerkt sind die HDR Räume in dieser Grafik auf der hellen Seite abgeschnitten.
Die orangene Linie ist relativ irrelevant, da sie im medizinnischen Bereich eingesetzt wird.

ich würde schon hoffen das es sich durchsezt gib dir mal den unterschied!!

HDR Vergleich: Dolby Vision vs. Ultra HD Blu-ray HDR 10 - YouTube

und soweit ich weiß ist dolby e abwärtskompatibel daher kann man eigentlich kaum was falsch machen
 
ich werd mir im.fruehjar 2017 einen ordebtlichen 75 zoll hdr tv kaufen zusammen mit ner ps4pro.

das wird toll :)
vielleicht schliess ich meinen popligen pc auch mal an.....wobei der halt kein hdr kann.
 
Hier werden mir zu viele Dinge bei den Erklärungen vorab in einen Topf geworfen...

HDR beschreibt grundlegend erstmal eine Technik zur Darstellung eines erweiterten Kontrastumfangs eines Bildes. Man kann es sich grundlegend so vorstellen: Ein "gewöhnliches" Bild hat einen durchschnittlichen Kontrastumfang. Dabei gehen in hellen und dunklen Bereichen Details in der Wiedergabe bzw Darstellung "verloren". HDR verfolgt nun folgenden Ansatz: Es werden (minimal) 3 Einzelbilder mit verschiedenen Belichtungsstufen gemacht und zu einem Gesamtbild zusammengefügt. Ein normal belichtetes, ein überbelichtetes (damit differenziert man besser die Details in dunklen Bildbereichen, dabei gehen allerdings Details in hellen Bildbereichen verloren) und ein unterbelichtetes (damit differenziert man besser Details in hellen Bildbereichen, dabei gehen allerdings die Details in dunklen Bildbereichen verloren) Bild. Setzt man diese 3 Einzelbilder nun zusammen entsteht ein HDR-Bild, welches es ermöglicht Details sowohl in hellen Bildbereichen, als auch in dunklen Bildbereichen GLEICHZEITIG darzustellen. Damit ist der erweiterte Dynamikumfang von HDR gemeint. Die Ausgabe von HDR-(Einzel-)Bildern funktioniert grundlegend somit auch auf gewöhnlichen Panels bzw. Bildschirmen, allerdings nur simuliert, da die Aufnahmen nicht mit einem HDR-Sensor aufgenommen wurden und man dem Umweg über die Berechnung aus mind. 3 Einzelbildern gehen muss und nicht schon mit der ersten Aufnahme den vollen Kontrastumfang "einfangen" konnte. Man muss somit zwischen der Aufnahme und der Ausgabe von HDR-Material unterscheiden.

Um nun die Darstellung von nativem HDR-Material, ohne dabei die Simulation/Zwischenberechnung über verschiedene Belichtungsszenarien gehen zu müssen, zu gewährleisten, muss das Ausgabegerät gewisse Eigenschaften/Standards besitzen bzw. GLEICHZEITIG NATIV IN ECHTZEIT erfüllen. Da wären wir dann beim Thema "HDR10": Erste Bedingung von HDR10 ist die Fähigkeit des Ausgabegerätes Schwarzwerte unterhalb 0,05 nits (Nits = Leuchtdichte = Candela/m²) realisieren zu können. Zweite Bedingung ist eine Maximalhelligkeit von mind. 1000 nits. Dritte Bedingung ist ein Panel, welches mit mind. 10 Bit PRO KANAL arbeitet und darstellen kann. Vereinfacht gesagt: je mehr Bit ein Panel hat, desto mehr Farbzwischenstufen kann ein Panel sauber ohne störende Farbtreppen darstellen. Damit verbessert sich die Farbdarstellung, da wesentlich mehr Zwischenfarben ohne Zwischenberechnung (Dithering) dieser Farben dargestellt werden können und somit Farbverläufe wesentlich fließender und natürlicher sind. Dithering ist somit eher eine Technik (Mogelpackung) aus der Vergangenheit Mangels Verbreitung/Verfügbarkeit höherbittiger Panels. Über den Minimal- und Maximalwert der Helligkeit lässt sich der Kontrast/Dynamikumfang eines Ausgabegerätes berechnen. LCD/LED-TV's haben im Vergleich zu OLEDs zwar keinen so niedrigen Schwarzwert (OLED = 0, da einzelne Pixel komplett "stromlos" und somit tiefstes schwarz sind), allerdings erreichen LCD/LEDs eine höhere Maximalhelligkeit im Vergleich zu OLEDs. Der daraus resultierende Dynamikumfang ist bei beiden ähnlich, allerdings haben OLEDs (für gewöhnlich) Vorteile bei der Schwarzdarstellung, aber wiederum Nachteile bei der (Maximal)Helligkeit und neigen bei hellen "Standbildern" (noch) zu Einbrenneffekten.

HDR10 hat im Vergleich zum Konkurrenzstandard Dolby Vision geringere Anforderungen an die Geräte. HDR10: Maximalnits bei 4.000, Minimalnits bei 1.000, 10 Bit Farbtiefe / Dolby Vision: Maximalnits 10.000, Minimalnits 4.000, 12 Bit Farbtiefe. Wer schon einmal eine Helligkeit von ca. 1.500 nits live gesehen hat, weiß, dass die Anforderungen an Dolby Vision etwas "over the top" sind. 1.500 nits sind schon extrem hell und an der Grenze zum Blenden. Deshalb denke ich, dass sich HDR10 als Standard durchsetzen wird. Chromecast ist das bisher einzige mir bekannte Empfangsgerät, welches Dolby Vision unterstützt, die Xbox One S und PS4 Pro setzen hingegen auf HDR10. Vergessen darf man dabei nicht, dass diese HDR-Anforderungen nicht durchgängig gefordert bzw. über den gesamten Bildschirm dargestellt werden können bzw. sollen, denn nicht jede Filmszene besitzt einen so hohen Dynamikumfang den es abzubilden gilt. Die meisten HDR10-Geräte können diesen Maximal-Dynamikumfang Stand heute ca. 10s auf einer Bildschirmfläche von 10% darstellen, anschließend wird die Helligkeit vom Gerät heruntergeregelt, was allerdings nicht schlimm ist, da wie gesagt kein Film durchgängig so einen extremen Dynamikumfang und auch nie über dem ganzen Bildausschnitt erfordert, sondern immer nur in Bildteilbereichen für eine relativ kurze Zeit.

Zusammenfassend kann man also sagen, dass man HDR in Aufnahme und Ausgabe unterteilen und unterscheiden muss. HDR-Sensoren fangen bei der Aufnahme schon einen größeren Kontrastumfang ohne Einzelbildzwischenberechnung ein, HDR-Ausgabegeräte stellen diesen Kontrastumfang aufgrund der Anforderungen an den Bildschirm/TV in Echtzeit ohne "Simulation" dar. Das bedeutet allerdings nicht, dass man zwingend ein HDR-Aufnahme/Ausgabegerät braucht, um HDR-Bilder aufzunehmen bzw. abzuspielen, nur erfolgt das HDR bei diesen eben über eine Zwischenberechnung bei der Aufnahme bzw. Wiedergabe und eben nicht in "Echtzeit" und ohne Verluste bzw. Restriktionen durch das Ausgabegerät. Den im Vergleich zu SDR erweiterten Kontrastumfang sieht man somit auch auf non-HDR-Ausgabegeräten, allerdings auch nicht zu 100% in vollem Umfang, da meistens die Möglichkeiten der Schwarzwertdarstellung und/oder Maximalhelligkeit des Ausgabegerätes Grenzen setzen. Außerdem liegt die Grenze bei HDMI 2.0a bei max. 18 GB/s, somit ist entweder 4K ohne HDR bei 60 fps möglich, oder 4K mit HDR bei 30 fps, mehr lassen die 18 GB/s im Moment eben nicht zu...
 
Zurück