Zukunft des Gaming: Lohnt sich der Wechsel auf HDR und 10 Bit bereits?

Ein HDR10-Monitor stellt genau diese Kontrastanhebung, die du bislang in Software machst, in Hardware dar ;-).
Nehmen wir an du fotografierst weiße Details auf einer hellgrauen, sonnenbeschienenen Fläche die im einer Helligkeit von 732 und 733 cd/m² entsprechen. Dein Auge konnte diese Details unterscheiden, aber auf einem herkömmlichen 256 cd/m² Monitor sind sie nicht darstellbar.

Problematik bei der ganzen Sache ist allerdings dass man auf einmal eine sonnenbeschienende Fläche im Wohnzimmer an der Wand hat, beim saturn im Regal mag das noch schick sein, Zuhause garantiert viel zu hell.
 
Problematik bei der ganzen Sache ist allerdings dass man auf einmal eine sonnenbeschienende Fläche im Wohnzimmer an der Wand hat, beim saturn im Regal mag das noch schick sein, Zuhause garantiert viel zu hell.

warum es kommt auf die Szene an ich hatte neulich xmen gesehen und das war Affen geil in hdr es war eben wie im echt als er an der sonne vorbei ging dachte man man steht daneben!
 
Dir ist schon klar das das heutige SDR auf den Röhrenmonitoren basiert, bzw. wegen den Röhrenmonitoren so designt wurde wie es ist.
Wie soll also ein Röhrenmonitor HDR darstellen können wenn wegen ebend diesem Röhrenmonitor SDR so entwickelt wurde?
Höre mal auf den guten Mann von AMD in dem Video hier ab 3:50

CES 2016: AMD Talks Polaris GPU and HDR Monitors - YouTube

Schon klar dass das übliche 24Bit Farbschema ursprünglich für Röhrenmonitore entwickelt wurde. Der Punkt ist, die Teile können deutlich mehr, üblich sind 32 Bit (soweit ich weiß waren es 10 Bit für Blau und Rot, sowie 12Bit für Grün, also mehr als die 10Bit Fachbildschirme können) und das reicht problemlos.

Theoretisch kann ein Röhrenmonitor unendlich viele Farben wiedergeben und hat einen unendlichen Dynamikumfang. Die praktischen technischen Probleme sind dass man etwas konstruieren muß das dies auch darstellen kann, was quasi unmöglich ist, irgendwann wird es zu schwierig, die 12 Bit für Grün sind schon 4096 Möglichkeiten, die man einzeln trennen muß und das bei einem Pixeltakt von 250 MP/sec und mehr. Heute würde man wohl 14 Bit oder gar 16 Bit Pro Farbkanal hinbekommen und mehr, dann ist irgendwann wohl Schluß. Die Kabel werden bei einem analogen Signal wohl auch irgendwann ein Problem, wobei ich selbst mit bleistiftdicken 1,8m Kabeln keine Probleme habe. Das größte Problem ist natürlich ein wirtschaftliches, heute wird der analoge Anschluß nicht mehr verbaut (ich mußte mir deshalb eine GTX 980Ti statt GTX 1070/1080 holen), eine Neuentwickung für vermutlich duzende Millionen Dollar dürfte da mehr als nur utopisch sein.

Von daher muß ich mich damit begnügen, zumindest farbtiefemäßig, jeden TFT in die Tasche zu stecken, zumindest bis die 12 Bit oder gar 14 Bit Displays auf den Markt kommen

ich gebs hier ehrlich gesagt auf glaube was du meinst .....soweit ich weiß kriegst du nicht mal ein hdr Signal zu deinen Monitor da weder vga noch dvi das kann aber egal ....

Klar kriegt man das durch das VGA Kabel, im Gegensatz zum digitalen Krempel, geht da an und für sich alles durch, sofern einem irgendwann nicht die schlechte Abschirmung einen Strich durch die Rechnung machen.
 
Um nun die Darstellung von nativem HDR-Material, ohne dabei die Simulation/Zwischenberechnung über verschiedene Belichtungsszenarien gehen zu müssen, zu gewährleisten, muss das Ausgabegerät gewisse Eigenschaften/Standards besitzen bzw. GLEICHZEITIG NATIV IN ECHTZEIT erfüllen. Da wären wir dann beim Thema "HDR10": Erste Bedingung von HDR10 ist die Fähigkeit des Ausgabegerätes Schwarzwerte unterhalb 0,05 nits (Nits = Leuchtdichte = Candela/m²) realisieren zu können. Zweite Bedingung ist eine Maximalhelligkeit von mind. 1000 nits. Dritte Bedingung ist ein Panel, welches mit mind. 10 Bit PRO KANAL arbeitet und darstellen kann. Vereinfacht gesagt: je mehr Bit ein Panel hat, desto mehr Farbzwischenstufen kann ein Panel sauber ohne störende Farbtreppen darstellen. Damit verbessert sich die Farbdarstellung, da wesentlich mehr Zwischenfarben ohne Zwischenberechnung (Dithering) dieser Farben dargestellt werden können und somit Farbverläufe wesentlich fließender und natürlicher sind. Dithering ist somit eher eine Technik (Mogelpackung) aus der Vergangenheit Mangels Verbreitung/Verfügbarkeit höherbittiger Panels. Über den Minimal- und Maximalwert der Helligkeit lässt sich der Kontrast/Dynamikumfang eines Ausgabegerätes berechnen. LCD/LED-TV's haben im Vergleich zu OLEDs zwar keinen so niedrigen Schwarzwert (OLED = 0, da einzelne Pixel komplett "stromlos" und somit tiefstes schwarz sind), allerdings erreichen LCD/LEDs eine höhere Maximalhelligkeit im Vergleich zu OLEDs. Der daraus resultierende Dynamikumfang ist bei beiden ähnlich, allerdings haben OLEDs (für gewöhnlich) Vorteile bei der Schwarzdarstellung, aber wiederum Nachteile bei der (Maximal)Helligkeit und neigen bei hellen "Standbildern" (noch) zu Einbrenneffekten.
Das ist nicht ganz richtig ein HDR10 TV muss nicht mindestens eine Maximalhelligkeit von 1000nits erreichen, der TV muss nur einen bestimmten Kontrastumfang bieten.
Z.B. müssen OLED TVs aufgrund ihres niedrigen Schwarzwertes nur 450nits an Maximalhelligkeit erreichen und erfüllen schon den HDR10 und Dolby Vision Standard.
LGs OLEDs sind so eingestellt das sie in etwa konstant 600nits an Maximalhelligkeit halten können, man erreicht am Ende in sehr hellen Bereichen nicht den Kontrastumfang eines z.B. Quantum Dot TVs, dafür ist der Kontrastumfang im Schwarzbereich besser als bei Quantum Dot TVs.
 
Schon klar dass das übliche 24Bit Farbschema ursprünglich für Röhrenmonitore entwickelt wurde. Der Punkt ist, die Teile können deutlich mehr, üblich sind 32 Bit (soweit ich weiß waren es 10 Bit für Blau und Rot, sowie 12Bit für Grün, also mehr als die 10Bit Fachbildschirme können) und das reicht problemlos.

Theoretisch kann ein Röhrenmonitor unendlich viele Farben wiedergeben und hat einen unendlichen Dynamikumfang. Die praktischen technischen Probleme sind dass man etwas konstruieren muß das dies auch darstellen kann, was quasi unmöglich ist, irgendwann wird es zu schwierig, die 12 Bit für Grün sind schon 4096 Möglichkeiten, die man einzeln trennen muß und das bei einem Pixeltakt von 250 MP/sec und mehr. Heute würde man wohl 14 Bit oder gar 16 Bit Pro Farbkanal hinbekommen und mehr, dann ist irgendwann wohl Schluß. Die Kabel werden bei einem analogen Signal wohl auch irgendwann ein Problem, wobei ich selbst mit bleistiftdicken 1,8m Kabeln keine Probleme habe. Das größte Problem ist natürlich ein wirtschaftliches, heute wird der analoge Anschluß nicht mehr verbaut (ich mußte mir deshalb eine GTX 980Ti statt GTX 1070/1080 holen), eine Neuentwickung für vermutlich duzende Millionen Dollar dürfte da mehr als nur utopisch sein.

Von daher muß ich mich damit begnügen, zumindest farbtiefemäßig, jeden TFT in die Tasche zu stecken, zumindest bis die 12 Bit oder gar 14 Bit Displays auf den Markt kommen



Klar kriegt man das durch das VGA Kabel, im Gegensatz zum digitalen Krempel, geht da an und für sich alles durch, sofern einem irgendwann nicht die schlechte Abschirmung einen Strich durch die Rechnung machen.
Die Monitore schaffen aber nicht den Mindesthelligkeitswert beim HDR Kontrastumfang womit sie allein deswegen nicht für HDR geeignet sind.
 
Schon klar dass das übliche 24Bit Farbschema ursprünglich für Röhrenmonitore entwickelt wurde. Der Punkt ist, die Teile können deutlich mehr, üblich sind 32 Bit (soweit ich weiß waren es 10 Bit für Blau und Rot, sowie 12Bit für Grün, also mehr als die 10Bit Fachbildschirme können) und das reicht problemlos.

Theoretisch kann ein Röhrenmonitor unendlich viele Farben wiedergeben und hat einen unendlichen Dynamikumfang. Die praktischen technischen Probleme sind dass man etwas konstruieren muß das dies auch darstellen kann, was quasi unmöglich ist, irgendwann wird es zu schwierig, die 12 Bit für Grün sind schon 4096 Möglichkeiten, die man einzeln trennen muß und das bei einem Pixeltakt von 250 MP/sec und mehr. Heute würde man wohl 14 Bit oder gar 16 Bit Pro Farbkanal hinbekommen und mehr, dann ist irgendwann wohl Schluß. Die Kabel werden bei einem analogen Signal wohl auch irgendwann ein Problem, wobei ich selbst mit bleistiftdicken 1,8m Kabeln keine Probleme habe. Das größte Problem ist natürlich ein wirtschaftliches, heute wird der analoge Anschluß nicht mehr verbaut (ich mußte mir deshalb eine GTX 980Ti statt GTX 1070/1080 holen), eine Neuentwickung für vermutlich duzende Millionen Dollar dürfte da mehr als nur utopisch sein.

Von daher muß ich mich damit begnügen, zumindest farbtiefemäßig, jeden TFT in die Tasche zu stecken, zumindest bis die 12 Bit oder gar 14 Bit Displays auf den Markt kommen



Klar kriegt man das durch das VGA Kabel, im Gegensatz zum digitalen Krempel, geht da an und für sich alles durch, sofern einem irgendwann nicht die schlechte Abschirmung einen Strich durch die Rechnung machen.

hdcp2.2 geht durch ??? vga!?!?

und wie bereits gesagt niemals die 1000 nits....
 
Problematik bei der ganzen Sache ist allerdings dass man auf einmal eine sonnenbeschienende Fläche im Wohnzimmer an der Wand hat, beim saturn im Regal mag das noch schick sein, Zuhause garantiert viel zu hell.

:-)
Glücklicherweise lässt sich die Gesamthelligkeit auch unabhängig von diesen zwecks einfacher Rechnung gewählten Zahlen auf einen gewünschten Wert einstellen. Für konstraststarke, aber leuchtschwache OLED-Fernseher sieht HDR10 sogar von vorneherein in eine geringere maximale Helligkeit bei deutlich besserem Schwarzwert vor – in dunklen Umgebungen ergibt das die gleiche Bildqualität. Der Mangel an echtem Schwarz bei LCDs erfordert aber eine gewisse maximale Helligkeit, um das volle Spektrum an Zwischenwerten wiedergeben zu können. Sonst versinken dunkle Details weiterhin in dem grauen Brei, der "Schwarz" genannt wird. Für das abgedunkelte Heimkino sollte man also die richtige Displaytechnik wählen.


Schon klar dass das übliche 24Bit Farbschema ursprünglich für Röhrenmonitore entwickelt wurde. Der Punkt ist, die Teile können deutlich mehr, üblich sind 32 Bit (soweit ich weiß waren es 10 Bit für Blau und Rot, sowie 12Bit für Grün, also mehr als die 10Bit Fachbildschirme können) und das reicht problemlos.

Meiner Erinnerung nach gab es nie eine 32-Bit-Ausgabe. 32-Bit-Rendering bezieht sich auf Rot, Grün, Blau und Alpha (Transparenz) – aber diese letzten 8 Bit dienen natürlich nur der Verrechnung mehrerer Bildebenen, ausgegeben werden 24 Bit. Beispielsweise Matrox hat das damals auch im Treiber entsprechend angezeigt und 16,7 Millionen Farben nicht als "32 Bit" bezeichnet (32 Bit codieren knapp 4,3 Milliarden Abstufungen). Kurz nach der Jahrtausendwende gab es aber beispielsweise bei 3dfx Bestrebungen, Ausgabe mit 3× 10 Bit aus dem professionellen in den privaten Bereich zu bringen. Neben der eigenen Pleite haben LCDs diese Pläne verhindert, denn im Gegensatz zu CRTs müssten diese speziell für feinere Ausgaben angepasst werden und derartige Henne-Ei-Probleme sind immer wieder ein Problem für den IT-Fortschritt.
 
:-)
Glücklicherweise lässt sich die Gesamthelligkeit auch unabhängig von diesen zwecks einfacher Rechnung gewählten Zahlen auf einen gewünschten Wert einstellen. Für konstraststarke, aber leuchtschwache OLED-Fernseher sieht HDR10 sogar von vorneherein in eine geringere maximale Helligkeit bei deutlich besserem Schwarzwert vor – in dunklen Umgebungen ergibt das die gleiche Bildqualität. Der Mangel an echtem Schwarz bei LCDs erfordert aber eine gewisse maximale Helligkeit, um das volle Spektrum an Zwischenwerten wiedergeben zu können. Sonst versinken dunkle Details weiterhin in dem grauen Brei, der "Schwarz" genannt wird. Für das abgedunkelte Heimkino sollte man also die richtige Displaytechnik wählen.




Meiner Erinnerung nach gab es nie eine 32-Bit-Ausgabe. 32-Bit-Rendering bezieht sich auf Rot, Grün, Blau und Alpha (Transparenz) – aber diese letzten 8 Bit dienen natürlich nur der Verrechnung mehrerer Bildebenen, ausgegeben werden 24 Bit. Beispielsweise Matrox hat das damals auch im Treiber entsprechend angezeigt und 16,7 Millionen Farben nicht als "32 Bit" bezeichnet (32 Bit codieren knapp 4,3 Milliarden Abstufungen). Kurz nach der Jahrtausendwende gab es aber beispielsweise bei 3dfx Bestrebungen, Ausgabe mit 3× 10 Bit aus dem professionellen in den privaten Bereich zu bringen. Neben der eigenen Pleite haben LCDs diese Pläne verhindert, denn im Gegensatz zu CRTs müssten diese speziell für feinere Ausgaben angepasst werden und derartige Henne-Ei-Probleme sind immer wieder ein Problem für den IT-Fortschritt.

noch dazu wird die Helligkeit ja auch nicht immer für das ganze Bild genutzt zb bei einem Feuerwerk wird sie genau auf dem Punkt eingesetzt Ergebnis es war noch nie so realistisch ein Feuerwerk zuhause zu schauen habs selber versucht ist der Hammer!

himmel bin ich froh das die Monitore gestorben sind bo die klobigen schweren Dinger ich habe heute einen 40 zoll led hier an der wand würde dies ein Monitor sein wüsste ich nicht mal wohin damitt...
 
:-)
Glücklicherweise lässt sich die Gesamthelligkeit auch unabhängig von diesen zwecks einfacher Rechnung gewählten Zahlen auf einen gewünschten Wert einstellen. Für konstraststarke, aber leuchtschwache OLED-Fernseher sieht HDR10 sogar von vorneherein in eine geringere maximale Helligkeit bei deutlich besserem Schwarzwert vor – in dunklen Umgebungen ergibt das die gleiche Bildqualität. Der Mangel an echtem Schwarz bei LCDs erfordert aber eine gewisse maximale Helligkeit, um das volle Spektrum an Zwischenwerten wiedergeben zu können. Sonst versinken dunkle Details weiterhin in dem grauen Brei, der "Schwarz" genannt wird. Für das abgedunkelte Heimkino sollte man also die richtige Displaytechnik wählen.


D.h. die gesamte tn ( auch ips / pls / va ? ) baggage fällt raus ? das hat den HDR stickern aber noch keiner erzählt ! Spiegelt aber witzigerweise exakt meine ( kurze erfahrung ) mit meinem "HDR" TN wieder.
 
Das ist nicht ganz richtig ein HDR10 TV muss nicht mindestens eine Maximalhelligkeit von 1000nits erreichen, der TV muss nur einen bestimmten Kontrastumfang bieten.
Z.B. müssen OLED TVs aufgrund ihres niedrigen Schwarzwertes nur 450nits an Maximalhelligkeit erreichen und erfüllen schon den HDR10 und Dolby Vision Standard.
LGs OLEDs sind so eingestellt das sie in etwa konstant 600nits an Maximalhelligkeit halten können, man erreicht am Ende in sehr hellen Bereichen nicht den Kontrastumfang eines z.B. Quantum Dot TVs, dafür ist der Kontrastumfang im Schwarzbereich besser als bei Quantum Dot TVs.

Das war mir beim Schreiben des Beitrags auch klar, nur konnte ich auf die Schnelle keinen Hinweis bzw. harte Fakten/Zahlen finden. Sie haben natürlich recht, dass es genau genommen um den erreichten Dynamikumfang geht. =)
 
D.h. die gesamte tn ( auch ips / pls / va ? ) baggage fällt raus ? das hat den HDR stickern aber noch keiner erzählt ! Spiegelt aber witzigerweise exakt meine ( kurze erfahrung ) mit meinem "HDR" TN wieder.

Die gibt es meinem Wissen nach auch mit recht gutem Kontrast (für Details musst du Manu fragen, ich bin Mainboard-Fachred ;-)), aber TN (und vermutlich auch IPS) werden es allgemein schwerer haben und müssen mit hoher maximaler Helligkeit und local dimming gegen ihre schlechtes Schwarz ankämpfen. Nur weil es einen neuen Standard gibt, werden ja die Flüssigkristalle nicht automatisch besser. Ich glaube da gab es aber schon immer Kompromisse zwischen Kontrast, Blickwinkel und Reaktionszeit und bei der Filmwiedergabe spielen letztere eine untergeordnete Rolle.
 
Vielleicht liegt es ja daran, ich keine HDR-Bilder gewohnt bin, aber ich finde, dass diese Bilder ein bisschen über-real, etwas unnatürlich, wirken.
Nichtsdestotrotz sind es aufregende Bilder, an denen man bestimmt Gefallen finden kann.
Der beobachtbare Informationsgehalt scheint mit auf jeden Fall höher, und das ist doch schonmal super.
 
Ähm die Realität ist sogar UltraHDR, also denk ich schon, dass du sowas schon mal gesehen hast ;)

Generell braucht es für HDR10 auch keinen Mindestkontrast oder sonst was. Lediglich die HDR10 Metadaten muss er lesen können.
Natürlich kommt HDR bei geringem Display Kontrast eher bescheiden rüber, aber immer noch besser als SDR.

@PCGH_Thorsten: Ahja bzgl. CRTs nein die haben tatsächlich keinen unendlichen Kontrast weil sich auch kein perfektes Schwarz darstellen können. Wenn ich mich recht erinnere lag der Schwarzwert bei CRTs so bei ca. 0,1cd was auch den Schwarzpunkt der Gammakurve erklären würde. LCDs bekommen glaube ich heute bestenfalls 0,03cd hin bei OLEDs ca. 0,001cd?!? Schwierig das genau zu beziffern. Subjektiv wirkt es schwarz und viele günstigere Messgeräte steigen da dann aus und messen einfach 0cd.
 
Zuletzt bearbeitet:
@PCGH_Thorsten: Ahja bzgl. CRTs nein die haben tatsächlich keinen unendlichen Kontrast weil sich auch kein perfektes Schwarz darstellen können. Wenn ich mich recht erinnere lag der Schwarzwert bei CRTs so bei ca. 0,1cd was auch den Schwarzpunkt der Gammakurve erklären würde. LCDs bekommen glaube ich heute bestenfalls 0,03cd hin bei OLEDs ca. 0,001cd?!? Schwierig das genau zu beziffern. Subjektiv wirkt es schwarz und viele günstigere Messgeräte steigen da dann aus und messen einfach 0cd.
OLEDs gehen sogar runter bis auf 0,0005cd.
 
Der Kontrast eines CRTs ist praktisch unbegrenzt, da der Monitor echtes Schwarz wiedergeben kann.
Kann er nicht.
Ein Leuchtstoff in der Kathodenstrahlröhre hat eine Eigenfarbe.
Auch wenn die Schicht sehr dünn ist, sieht man das.

Das Glas hat eine gewisse Trübung durch den variierenden Bleigehalt.
Ein Bildschirm ist niemals tiefschwarz, was man ganz gut von der Seite sehen kann.

Auch die Black-Matrix-Röhren konnten das nicht ganz vermeiden.

Das Streulicht ist noch mal einen gesonderten Beitrag wert.
 
Zuletzt bearbeitet:
Lohnt sich in meinen Augen noch nicht.
Gibt noch nicht sehr viele Inhalte, die von dieser Technik richtigen Gebrauch machen.
Und die Preise sind zusätzlich auch sehr hoch (bei guten OLED HDR UHD Fernsehern), wie das mit neuer Technik so üblich ist.

Ansich ist das ganze aber sehr interessant, und sollten gute Fernseher mit OLED, HDR und UHD zu einem "normalen" Preis zu haben sein, sprich ~1500€, dann kann man sich so ein Ding sicher zulegen :daumen:
 
Und selbst wenn es dann kommt, ziehen die meisten die Kontrast bzw Helligkeit steiler so weit, dass die durch die Technik dunkleren Bereiche wieder künstlich aufgehellt werden. Es könnte ja ein Gegner in der Ecke hocken.

HDR erscheint mir oft als alternative zu einen gut eingestellten monitor... Nur eben jetzt für viel Geld zu erwerben.
Ich will jetzt nicht sagen das das nichts bringt, aber selbst bei meinen TV habe ich Energiesparen an und ihn auf mein persönliches empfinden eingestellt. Kontrast und Farbe würde er in anderen Einstellungen mehr bringen...
 
Du kannst deinen Monitor noch so gut einstellen, wenn er keine 10bit hat und einen hohen Schwarz-/Weisswert , dann bringt dir das garnichts.
 
Zurück