Zukunft des Gaming: Lohnt sich der Wechsel auf HDR und 10 Bit bereits?

Wo soll den plötzlich ein voll Spieltauglicher HDR Monitor herkommen.
Um HDR in seinem vollen Umfang darzustellen benötigt man 1000 Nits.
Aktuelle LCDS liegen bei ca 350 -400 wen sie gut sind.
Sonny erreicht mit dem Z9 glaub ich hies das Ding an die 500 Nits da zu kann jeder Pixel angesteuert werden hell und aus bisher das beste Ergebnis für HDR Darstellung jedoch mit 30 Sek Inputlag für Konsolen Okay aber nicht für den PC .
LGs Oleds weisen Teilweise 25-100ms Inputlag auf.
Die Oled erreichen bisher an die 600 Nits durch den guten schwarz Wert von Oled auch ein gutes Ergebnis in HDR doch leider brennen Oleds ein.
Glaube Dolby hat mit 1500Nits für HDR Dolby Vision speziefiziert bei 12 Bit oder 16Bit bin nicht ganz sicher.

Also das wird noch dauern.:daumen2:
Überwiegend kann man derzeit fast alle TVs nicht msl als vernünftige Übergangslösung bezeichnen.
 
Zuletzt bearbeitet:
Bei aller Technik und steigenden Dynamikbereichen sollten diese stets so eingesetzt werden, dass sie möglichst neutral die menschlich, gewohnte Wahrnehmung abbildet, deshalb muss man mit dem Einsatz dezent umgehen. Zu starke Farben oder aber zu viel Zeichnung in den Tiefen/ Lichtern lassen Bilder unnatürlich aussehen, auch bei optimalem Farbraum, 1000 Nits und hohem Kontrastwerten.

Und deshalb wiederhole ich mich gerne, HDR dient der natürlichen und nicht übertrieben, künstlichen Darstellung. Im Optimalfall sollte HDR als solches also gar nicht zu erkennen sein, sondern schlicht ein realistisches Bild. ;)

MfG
 
Beim Slider Bild sieht es aus wie SweetFX an und aus :devil:

wollte das gleiche schreiben^^ glaube kaum das hdr was bringt am pc. der kontrast der jetzt erreicht wird reicht vollkommen und ansonnsten eben ein sweet fx profil. zocke selbst in 4k am tv mit dem pc aber das ist für mich auch das maximum alles darüber ist sinnlos. aber von 4k will ich nicht mehr weg. leider muss ich oft auf dsr 1620p zurückgreifen da meine karte zu langsam ist :-(

habe nen sonx x8505b 55" und die reaktionszeit ist sehr gut. nicht überragend wie bei meinem eizo gaming monitor aber reicht mehr als aus. ist auch der einzige fernseher wo ich ohne inputlagg zoken kann. habe mehrere probiert aber sony bleibt das einzige bei fernsehern. und oled soll ja noch mal ne ecke langsamer sein laut tests.
 
Verstehe ich das richtig, dass mir PCGH ein Slider Bild auf meinem von 2009 stammenden Sony Vaio Notebook zeigt, wo dessen Monitor mir plötzlich auf der linken Seite ein HDR Bild ermöglicht und rechts sehe ich das "normale"? :D
 
  • Like
Reaktionen: ICE
Bei aller Technik und steigenden Dynamikbereichen sollten diese stets so eingesetzt werden, dass sie möglichst neutral die menschlich, gewohnte Wahrnehmung abbildet, deshalb muss man mit dem Einsatz dezent umgehen. Zu starke Farben oder aber zu viel Zeichnung in den Tiefen/ Lichtern lassen Bilder unnatürlich aussehen, auch bei optimalem Farbraum, 1000 Nits und hohem Kontrastwerten.

Und deshalb wiederhole ich mich gerne, HDR dient der natürlichen und nicht übertrieben, künstlichen Darstellung. Im Optimalfall sollte HDR als solches also gar nicht zu erkennen sein, sondern schlicht ein realistisches Bild. ;)

MfG

naja aber genau das ist zu sehen da bis dato kein tv ein realistisches bild darstellen konnte daher sieht man es sehr wohl ;)
 
genau das ist der Fehler das hdr aus farcray hat 0,0 mit diesem hdr zu tun ehrlich nicht!

das hdr war simuliert aber auch das haben wir bereits gestern alles durch...

HDR hat etwas mit dem Dynamikumfang zu tun und den haben Röhrenmonitore nunmal. Wahr ist, dass HDR auf Monitoren mit extremer Leuchtkraft viel besser zur Geltung kommt, das ändert allerdings (zum Glück) nichts daran das Röhrenmonitore prinzipiell HDR Fähig sind.
 
HDR hat etwas mit dem Dynamikumfang zu tun und den haben Röhrenmonitore nunmal. Wahr ist, dass HDR auf Monitoren mit extremer Leuchtkraft viel besser zur Geltung kommt, das ändert allerdings (zum Glück) nichts daran das Röhrenmonitore prinzipiell HDR Fähig sind.
Leuchtkraft ist halt ein Kriterium von Dreien.

MfG
 
HDR hat etwas mit dem Dynamikumfang zu tun und den haben Röhrenmonitore nunmal. Wahr ist, dass HDR auf Monitoren mit extremer Leuchtkraft viel besser zur Geltung kommt, das ändert allerdings (zum Glück) nichts daran das Röhrenmonitore prinzipiell HDR Fähig sind.

ich gebs hier ehrlich gesagt auf glaube was du meinst .....soweit ich weiß kriegst du nicht mal ein hdr Signal zu deinen Monitor da weder vga noch dvi das kann aber egal ....
 
Deshalb schrieb ich ja auch ein Kriterium von Dreien...;)

Um das zu konkretisieren muss man dazu sagen das wir dann vom Wiedergabemedium sprechen.
Reines HDR also high dynamic range ist ausschließlich per Definition der erweiterte Dynamikumfang.

MfG

schon klar aber dennoch hdr ist schon sehr gut zu erkennen(soll es ja) besonders wenn du es neben einen normalen tv herstellst:

Samsung SUHD JS9590: HDR und Quantum Dot Farbraumerweiterung erklart (dt. UT) - YouTube
 
HDR hat etwas mit dem Dynamikumfang zu tun und den haben Röhrenmonitore nunmal. Wahr ist, dass HDR auf Monitoren mit extremer Leuchtkraft viel besser zur Geltung kommt, das ändert allerdings (zum Glück) nichts daran das Röhrenmonitore prinzipiell HDR Fähig sind.
Dir ist schon klar das das heutige SDR auf den Röhrenmonitoren basiert, bzw. wegen den Röhrenmonitoren so designt wurde wie es ist.
Wie soll also ein Röhrenmonitor HDR darstellen können wenn wegen ebend diesem Röhrenmonitor SDR so entwickelt wurde?
Höre mal auf den guten Mann von AMD in dem Video hier ab 3:50

CES 2016: AMD Talks Polaris GPU and HDR Monitors - YouTube
 
Es hat etwas damit zu tun das es oft verwendet wird und ich diese Begrifflichkeit gar nicht kenne. Standard Dynamic Range. Was genau ist denn eigentlich der Standard?

Also bei semi Pro Vollformat Cams ist eine Blendenzahl von knapp 15 Blendenstufen Standard beim Dynamikumfang. Nach Definition wäre das aber HDR, ich bin verwirrt. :ugly:

MfG
 
@Brainwaver
Mal ganz kurz, ohne zu googlen, was heißt SDR eigentlich in dem Zusammenhang? :)

MfG
Standard Dynamic Range - gleich wie bei HighDefinition und StandartDefintion.

Und nein, das HDR um das es hier im Artikel geht ist HDR10 - 10 bit Fabrtiefe und 1000.
Das ist nicht das selbe wie du für die Fotografie beschrieben hast.
Beim Foto wird halt mit 10-14 bit aufgenommen - bis dahin noch nichts mit HDR zu tun - und dann wird das ganze am Computer nachbearbeitet.
Wie du schon so schön gesagt hast - die Tiefen werden angehoben, die Höhen abgedunkelt und das ganze dann zu einem BIld verarbeitet das auf einem normalen 8bit Monitor ansehnlich ist - und genau das ist das alte Fake-HDR wie es auch Farcry 1 hatte.

Hier aber geht es um die Hardwareunterstützung zur direkten Ausgabe eines 10 bit Farbraumes. Also kein nachbearbeiten um die Illusion eines höheren kontrastes zu erzeugen - sondern echte bessere Qualität.

Kann man auch einfach mit Auflösung vergleichen:
Ein Spiel wird auf 4K gerendert und dann auf 1080p runtergerechnet wird.
Sieht zwar gut aus, aber wenn man das Bild nativ auf einem 4K Monitor ausgibt sieht es trozdem besser aus.


Wenn du ein 10 bit Bild hast und es auf einem 10 bit Monitor ausgibst dann geht keine Information verloren. Bei einem 8bit Monitor muss aber getrickst werdne und du verlierst 2 Bit.
Und nein, in den entsprechenden Szenarien sollte der Unterschied sehr wohl sehr deutlich ausfallen - genau um eben realistischere (oder fantastischere) Bilder darstellen zu können.
Tropische Inseln, schöner Sandstrand mit Palmen und ein paar Bungalows - der Kontrast vom hellen Strand zu den Schatten in den Bungalows ist zu groß um dann noch im Schatten details darstellen zu können, wenn das bild 8 bit Farbtiefe hat.

Kann man auch so sehen - mit 8 bit gibt es genau 256 verschieden Helligkeitswerte pro Farbkanal.
Das heist wenn ein Farbunterscheid kleiner als 1/256 des gesamt Kontrastes entspricht, es er NICHT darstellbar mit 8 bit.
Mit 10 bit ist das Limit dann bei 1/1024.
Und im Extremfall heist das, dass dort wo vorher eine schwarze Fläche war jetzt 64 verschiedene Farben sind.






Dsweiteren bin ich auf die Anderen eingegangen und habe diese alles andere als ignoriert. Ich weiß daher nicht was du hier so ließt. O.o
Du hattest deine Fragen bereits beantwortet bekommen und hast sie dennoch nocheinmal gestellt - also nein, du hast all Antworten ignoriert - ob Mutwillig oder auß unfähigkeit kannn ich da nicht beurteilen.
 
Ich habe aber keinen 8-Bit Monitor, wie ich geschrieben hatte. ;)
Dennoch muss nachgearbeitet werden, damit das Mehr an Informationen auch sichtbar gemacht wird.

p.s.: Ich glaube vielen ist gar nicht klar wie ein Standard-Bild im RAW Format eigentlich aussieht, da fast jeder nur die bearbeiteten JPGs kennt. ;)

MfG
 
Zuletzt bearbeitet:
Und im Extremfall heist das, dass dort wo vorher eine schwarze Fläche war jetzt 64 verschiedene Farben sind.

Ob man die dargestellten zusätzlichen Details auch immer wahrnimmt, stelle ich mal stark in Frage. Der Unterschied vom Farbwert 0x00000 zu 0x010101, ist in der Regel eher nicht wahrnehmbar. Hängt wohl aber auch vom Monitor ab. Wenn man jetzt hingeht und die maximale Helligkeit erhöht, kann man auch den Kontrast zwischen den Einzelnen Farbwerten verbessern. Wahrscheinlich sitzen die Leute in Zukunft mit einer Sonnenbrille vorm Bildschirm *g*
 
Zuletzt bearbeitet:
Zurück