Zukunft des Gaming: Lohnt sich der Wechsel auf HDR und 10 Bit bereits?

Du verwechselst gerade 10-Bit mit HDR. HDR erhöht einfach nur den Kontrast ins unermessliche und lässt Bilder "Photorealistisch wirken".

Du verwechselst hier HDR kompositionen mit dem hier beschriebenen HDR10.
HDR in diesem zusammenhang IST 10 bit Farbtiefe und ein höherer Kontrast.

Was du beschreibst ist eine Dynamik Kompression.
Das bild wird mit weitaus höherem Dynamikumfang aufgenommen, oftmals in 3-4 Einzelbildern, und dann zu einem Bild mit nierigerem Kontrast gerechnet, wobei das ganze durch einen Hochpass gejagt wird - was dann sowohl in hellen als auch dunklen bereichen Details zulässt, aber eben surreal wirkt.
 
Du verwechselst (wie so viele andere) HDR Fotografie mit HDR Video.

HDR Video erlaubt wesentlich realistischere Kontraste und die Darstellung von deutlich mehr Farben. Es gibt etliche Artikel zum Thema, bei Wired z.B. wird das ganze recht simpel erklärt.

HDR bedeutet in beiden das Fällen das gleiche: Hoher Dynamik Umfang

Ob man das jetzt mit 10 bit kombiniert oder nicht ändert erstmal nichts daran. Das (un)realistische Aussehen hängt einfach von der Justierung ab.
 
Ich kann nicht nachvollziehen wie viele behaupten können HDR wäre Geschmackssache. SDR ist eine Teilmenge von HDR, HDR erschließt nur das Potenzial die Darstellung noch natürlicher zu gestalten. Schaut euch mal die Filme aus den 70ern oder 80ern an, die sehen im Vergleich zu neuen Produktionen auch blass oder unnatürlich aus.

Ich warte auf jeden Fall noch, HDR ist mir noch zu neu und chaotisch.
 
Zuletzt bearbeitet:
ich empfehle mal die folgende Seite zu lesen dann wird auch klar das es ein Fehler ist Foto hdr mit Video hdr zu vergleichen und warum hdr in der tat eine sehr gute Technik ist hier mal ein Auszug:

Das menschliche Auge ist in der Lage, Kontrastumfänge von rund 1:1.000.000 zu erfassen. Auch sehr gute Displays schaffen das nicht annähernd. Deshalb nehmen wir Szenen in der Realität sehr viel brillanter wahr, als auf einem Monitor.

Mit der HDR-Technologie soll die Wiedergabe durch die Darstellung höherer Kontrastumfänge wesentlich brillanter und natürlicher werden. Die Marketing-Strategen tun sich jedoch noch schwer, HDR in der Breite zu vermitteln. Ein Grund dafür ist, dass man HDR nur versteht, wenn man es auf einem HDR-Panel gesehen hat. Es ist weder möglich ein HDR-Bild auf einem Monitor zu zeigen, der nicht in der Lage ist, hohe Kontrastumfänge darzustellen, noch es auf irgendeinem Printmedium abzubilden.


High Dynamic Range: HDR-Monitore uberzeugen mit hohem Kontrastumfang › Professional System
 
HDR bedeutet in beiden das Fällen das gleiche: Hoher Dynamik Umfang

Ob man das jetzt mit 10 bit kombiniert oder nicht ändert erstmal nichts daran. Das (un)realistische Aussehen hängt einfach von der Justierung ab.

Wenn ich im Artikel das Bild mit dem Schieber sehe, sehe ich nichts, was man mit Reshade/SweetFX nicht auch hin bekommt. (bekommen sollte)

Alles nur eine Sache der Einstellungen..... :nicken:
 
leute ihr müsst euch echt mal mit hdr auseinandersetzen!
Schwierig, wenn man alle Jahre wieder eingebläut bekommt, das man nu HDR Effekte nutzen kann und Jahre später kommt raus, das man nu doch einen passenden Monitor dazu braucht. ^^

Was nu? :ugly:

Denn Unterschied hab ich ehrlich gesagt noch immer nicht begriffen. Dann hätten sie es damals nicht HDR nennen dürfen. ;)
 
Schwierig, wenn man alle Jahre wieder eingebläut bekommt, das man nu HDR Effekte nutzen kann und Jahre später kommt raus, das man nu doch einen passenden Monitor dazu braucht. ^^

Was nu? :ugly:

Denn Unterschied hab ich ehrlich gesagt noch immer nicht begriffen. Dann hätten sie es damals nicht HDR nennen dürfen. ;)

dann lies dir mal oben den Artikel durch den ich gepostet habe das hadr was wir in den video spielen hatten war ein simulierter Effekt welcher eben hdr nachahmen soll nun soll hdr nicht mehr nachgeahmt werden sondern real dargestellt werden!
 
Der Unterschied sind vor allem viel höhere Kontrastwerte.
Wenn du zB ein Bild vom Sternenhimmel siehst, dann ist das schwarz richtig schwarz und die Sterne leuchten trotzdem richtig hell.
 
dann lies dir mal oben den Artikel durch den ich gepostet habe das hadr was wir in den video spielen hatten war ein simulierter Effekt welcher eben hdr nachahmen soll nun soll hdr nicht mehr nachgeahmt werden sondern real dargestellt werden!
Ja, aber wo ist da nu der bildhafte Unterschied? Wenn man ihn sehen will, sagt man bloß, braucht man einen Monitor mit HDR Support. ^^

Gab es damals (2004) denn überhaupt HDR fähige Monitore?

Können mir ja jetzt sonst was erzählen das man dazu nun auf einmal einen Monitor mit HDR Support benötigt.

Der Unterschied sind vor allem viel höhere Kontrastwerte.
Wenn du zB ein Bild vom Sternenhimmel siehst, dann ist das schwarz richtig schwarz und die Sterne leuchten trotzdem richtig hell.

Das was du beschreibst höre ich ständig über OLED. ^^
 
Zuletzt bearbeitet:
Ja, aber wo ist da nu der bildhafte Unterschied? Wenn man ihn sehen will, sagt man bloß, braucht man einen Monitor mit HDR Support. ^^

ja aber das ist halt so wenn ich dir die g von einer Achterbahn erklären will musst du auch damit fahren!

ich kann dir auch 3 stunden den Geschmack einer Lasagne erklären...aber am ende wirst du sie selber essen müssen um es zu verstehen!
 
Ich frage mich einfach nur wenn bereits vor 12 Jahren HDR (meinetwegen auch teilweise, was ich zu. B. Zuvor nie wusste) simulieren konnte. Warum nicht auch heute mit wesentlich besserer Hardware? O.o

nja weil das eine echt ist und das eine nur simuliert!
wobei ja eben noch mehr hinzukommt als das was wir aus der Simulation kennen ...zb erweiterter Farbraum usw...

beisbiel:

biss jetzt simulierte das hdr zb das es dich geblendet hat und dein Charakter im spiel sa die ersten Sekunden mal kaum was....und dann kam das bild..


nun würde sie bedeutet das es nicht simuliert wird sondern es dich wie im echten leben echt so stark blendet da du mal etwas brauchts usw..
 
ich finde diese Marketingbilder /-videos immer zum totlachen. Da wird einem ein vermeintlich besseres Bild suggeriert - und das auch noch auf meinem fürchterlich schlechten Display was ich jetzt habe.

@pcgh, könnt ihr bitte ein Programm raus bringen wo der Schieberegler auf meinem PC permanent auf rechts ist? Da müsste ich mir keinen neuen Monitor kaufen, danke. :nicken:
 
Ich kann nicht nachvollziehen wie viele behaupten können HDR wäre Geschmackssache. SDR ist eine Teilmenge von HDR, HDR erschließt nur das Potenzial die Darstellung noch natürlicher zu gestalten. Schaut euch mal die Filme aus den 70ern oder 80ern an, die sehen im Vergleich zu neuen Produktionen auch blass oder unnatürlich aus.

Ich warte auf jeden Fall noch, HDR ist mir noch zu neu und chaotisch.
Genau so sehe ich das auch. Nur naja chaotisch ist relativ ;) Letztlich gibt es momentan einen dominierenden Standard, der sich mit 99% Wahrscheinlichkeit auch durchsetzen wird.

HDR ist eine künstliche Erhöhung des Kontrastumfanges.
Ähm ich verstehe nicht genau was du damit meinst. In der digitalen Signalverarbeitung ist letztlich alles irgendwo "künstlich".

HDR setzt genau da an in dem es diese beiden Szenarien mischt also gute Sichtbarkeit in den dunklen als auch in den hellen Bereichen. Das wiederum hat dann zur Folge, dass das erzeugte Bild unrealistisch für den Betrachter aussieht, da natürlicher Weise nicht beide Leuchtszenarien ideal dargestellt werden können.
Doch eben genau das macht HDR.
Heutige Kamera Sensoren haben einen Dynamik-Umfang von etwa 15 stops. Damit das ganze Material in den SDR Raum (~6 Stops) passt muss Information rausgeschmissen werden. Mit HDR (je nachdem welchen Standard man sich jetzt anschaut) liegt der Dynamik-Umfang bei über 14 Stops, das bedeutet letztlich, dass weniger von der Information, die der Kamera-Sensor aufgenommen hat, weggeschmissen werden muss bzw. kann. Das Ergebnis entspricht also eher der Realität, wenn man so will.

Ähh, das ist mir bei meiner Nikon so noch nicht aufgefallen, die schiesst im raw modus immerhin mit 14bpc, sah auf 8bit pls sehr gut aus, haste da mal Beispiele ? ( ich meine mich auch zu erinnern das Alien isolation mit 10Bpc auf nem 8ter gerät exakt so aussah wie mit nur 8bpc gerendert ? )
Naja klar sieht das gut aus. So gut wie es eben auf einem SDR Display aussehen kann. Aber warum schießt du RAW? Damit du danach noch Blende, Kontrast und weitere Feinheiten anpassen kannst? Genau das ist doch der Punkt. Wenn du ein bisschen mit RAW Bildern mit viel Dynamik spielst wirst du feststellen, dass gewisse Details noch in dem Bild stecken, die zuerst garnicht dargestellt wurden, weil sie nicht im Dynamik-Bereich des Displays lagen. Das ist auch die Crux bei HDR Fotografie. Man versucht mehr Details aus unterschiedlichen Dynamik-Bereichen zu bekommen bildet diese dann aber auf einen kleineren Dynamik-Bereich ab, wodurch zB verschiedenste Helligkeitsabstufungen den selben Wert erhalten. Das ganze wirkt also unrealistischer. Und jetzt kommt unser HDR Signal ins Spiel. Dank des höheren Dynamikumfangs kann ich jetzt eben genau die Helligkeitsstufen unterscheiden, die vorher eine einzige waren. Mein Bild wird also dem eigentlichen Sensorbild ähnlicher. Nachteil des ganzen ist natürlich, dass ich weniger Freiraum bei meiner Bearbeitung habe, da ich weniger "Dynamik-Verschnitt" habe. deswegen sollten HDR Aufnahmen gewissenhafter gemacht werden.

Du verwechselst gerade 10-Bit mit HDR. HDR erhöht einfach nur den Kontrast ins unermessliche und lässt Bilder "Photorealistisch wirken". Mach mal ein Foto mit deiner Kamera und stell HDR ein, plötzlich hast du Wellen im Himmel obwohl dort gar keine waren vorher. Das ist alles andere als Gut, das ist als würde man sein gamma runterstellen damit das Bild hübscher aussieht und der Druck am ende komplett anders aussieht.
Was ist denn HDR? Letztlich sagt es doch nur aus, dass man einen hohen Dynamikumfang hat. Stellt sich natürlich erst mal die Frage: Was ist hoch? Aber vor allem auch: Was zeichnet Dynamik aus?
Klar da kann man natürlich sagen 10Bit ist nicht HDR, PQ-Funktion alleine ist auch nicht HDR, größerer Farbraum betrifft auch nicht HDR. Das sind alles Teilkomponenten die gemeinsam den Dynamikumfang charakterisieren.
Und dazu trägt eben bei digitalen Signalen die Art der Quantisierung nicht alleine, aber maßgeblich bei. Deswegen ist sie in den ganzen HDR Standards auch fest vorgeschrieben, zumindest auf einen Minimalwert und daher zähle ich 10bit eben auch zu HDR.

Was du auch etwas verwechselst ... HDR-Bilder von Kameras sind alles andere als HDR, da meistens auf JPEG aufgezeichnet wird. Dieses Format ansich bietet aber schon gar keine Möglichkeit einen hohen Dynamikumfang aufzuzeichnen letztlich ist das sozusagen reine Schwindelei. Aber ich denke auch du wirst mal RAW Bilder bearbeitet haben?!? Warum RAW und warum nicht jpeg, wenn ein höherer Dynamik-Umfang doch unnatürlich ist? Denn genau das liefert RAW. Ein Bild mit über 14 stops Dynamikinformationen letztlich also quasi perfekt geeignet für aktuelle HDR-Bildsignale. Letztlich sind wir mit HDR endlich auch bei den TVs auf dem Niveau heutiger Kamera-Sensoren angekommen.
 
nja weil das eine echt ist und das eine nur simuliert!
wobei ja eben noch mehr hinzukommt als das was wir aus der Simulation kennen ...zb erweiterter Farbraum usw...

beisbiel:

biss jetzt simulierte das hdr zb das es dich geblendet hat und dein Charakter im spiel sa die ersten Sekunden mal kaum was....und dann kam das bild..


nun würde sie bedeutet das es nicht simuliert wird sondern es dich wie im echten leben echt so stark blendet da du mal etwas brauchts usw..
Das ist ja mein Anliegen. Warum nicht weiter simulieren? :)

Weißt du von heut auf morgen, so kommt es mir zumindest vor, heißt es auf einmal: ätsch, bätchi, ihr braucht nun für HDR einen neuen Monitor. ^^
 
Zurück