L
Laggy.NET
Guest
AW: Xbox One X: HDR benötigt mehr Aufwand als bei der Playstation 4 Pro
Du hast nicht gelesen, was ich geschrieben habe.
Was du schreibst ist mir bewusst. (Wobei HDR und bloom zwei ganz verschiedene Dinge sind, aber das nur am Rande)
Fakt ist trotzdem, dass sämtliche Games intern mit HDR rechnen. In-Engine wird ein ähnlich großes Lichtspektrum wie in der Realität berechnet.
Nur ist bei SDR der Ausschnitt dieses Spektrums deutlich kleiner, als bei HDR bzw. HDR Monitoren.
HDR braucht man in Games eben intern, um die Belichtung ändern zu können, indem man den "ausschnitt" den SDR darstellen kann nach oben oder nach unten verscheibt (über oder unterbelichtung).
Das Spiel muss ja erstmal diesen Helligkeitsraum bereitstellen, damit der Entwickler mit der Virtuellen Kamera regeln kann, wie hoch die Belichtung ausfallen soll.
Es ist halt wie bei ner echten Kamera. Das Licht, das in die Kamera fällt enthält das volle Spektrum. Aufs foto kommt aber nur ein Ausschnitt dieses Spektrums. Welcher Ausschnitt das ist, regelst du mit der Belichtung bzw. Blende.
Das machen auch Spiele wie gesagt seit Jahren so. Das hat überhaupt nichts mit Fake HDR zu tun.
Das einzige was fürs Spiel jetzt anders ist, ist, dass der Ausschnitt des bereits berechneten Lichtspektrums, das an den Monitor weitergegeben wird nun größer ist. Der ausschnitt umfasst halt jetzt nicht mehr meinetwegen 50% des Spektrums (bei SDR), sondern vielleicht 80 oder 90% (bei HDR). Wie die realen werte sind weiß ich nicht, aber du weißt, was ich meine?!
Bloom Effekte, die du meinst, haben mit echtem HDR nichts zu tun.
Du kannst dir mal gerne einen echten HDR Monitor mit dem korrekten Farbraum kaufen und dann zwischen einem "Fake" HDR Rendering, was die meisten Spiele nutzen, und echten HDR anschauen. Das sind große Unterschiede.
Du hast nicht gelesen, was ich geschrieben habe.
Was du schreibst ist mir bewusst. (Wobei HDR und bloom zwei ganz verschiedene Dinge sind, aber das nur am Rande)
Fakt ist trotzdem, dass sämtliche Games intern mit HDR rechnen. In-Engine wird ein ähnlich großes Lichtspektrum wie in der Realität berechnet.
Nur ist bei SDR der Ausschnitt dieses Spektrums deutlich kleiner, als bei HDR bzw. HDR Monitoren.
HDR braucht man in Games eben intern, um die Belichtung ändern zu können, indem man den "ausschnitt" den SDR darstellen kann nach oben oder nach unten verscheibt (über oder unterbelichtung).
Das Spiel muss ja erstmal diesen Helligkeitsraum bereitstellen, damit der Entwickler mit der Virtuellen Kamera regeln kann, wie hoch die Belichtung ausfallen soll.
Es ist halt wie bei ner echten Kamera. Das Licht, das in die Kamera fällt enthält das volle Spektrum. Aufs foto kommt aber nur ein Ausschnitt dieses Spektrums. Welcher Ausschnitt das ist, regelst du mit der Belichtung bzw. Blende.
Das machen auch Spiele wie gesagt seit Jahren so. Das hat überhaupt nichts mit Fake HDR zu tun.
Das einzige was fürs Spiel jetzt anders ist, ist, dass der Ausschnitt des bereits berechneten Lichtspektrums, das an den Monitor weitergegeben wird nun größer ist. Der ausschnitt umfasst halt jetzt nicht mehr meinetwegen 50% des Spektrums (bei SDR), sondern vielleicht 80 oder 90% (bei HDR). Wie die realen werte sind weiß ich nicht, aber du weißt, was ich meine?!
Zuletzt bearbeitet: