Pixelformat und Farbtiefe richtig einstellen

60Hz, 100Hz gehen eh nicht mit HDMI 2.0 bei UHD.
Für HDR brauchst halt 10bit optimalerweise, was normalerweise schon ausserhalb der Bandreite von HDMI 2.0 bei UHD 60Hz ist.
 
60Hz, 100Hz gehen eh nicht mit HDMI 2.0 bei UHD.
Für HDR brauchst halt 10bit optimalerweise, was normalerweise schon ausserhalb der Bandreite von HDMI 2.0 bei UHD 60Hz ist.
Meine Grafikkarte und auch der Fernseher unterstützen bei HDMI Eingängen 2 und 3 den HDMI 2.2 Format.
Ich habe hier auch schon was gefunden aber verstehe trotzdem nicht welches ich am besten einstellen muss.
So richten Sie auf Ihrem Sony 4K-TV eine UHD-/4K-/HDCP 2.2-kompatible HDMI-Verbindung ein. | Sony DE

Gesendet von meinem SM-N9005 mit Tapatalk
 
Erstens gibt es noch kein HDMI 2.2 und zweitens ist das HDCP 2.2, das ist die Verschlüsselung.
Davon ab kann deine V64 eh nur HDMI 2.0.
 
Könnt ihr mir bitte sagen was ich bei Pixelformat und Farbtiefe einstellen muss um ein optimales Bildqualität zu haben? Ich hatte bis jetzt alles so gelassen wie nach der Installation des Treibers wie hier zu sehen ist. Ich spiele auf ein Sony Bravia KD65XE8577 4K Fernseher mit HDR 10Bit und natives 100 Hz.

Gesendet von meinem SM-N9005 mit Tapatalk

Für nicht HDR Inhalte kannst du die Einstellungen so lassen. 8 Bit Farbtiefe je Kanal (RGB+Alpha = 4x8Bit) ergeben die 32 Bit Farbtiefe die man so kennt. YCbCr ist das Chroma Signal und bezieht sich auf die RGB Kanäle. 4:4:4 ist Full RGB. Für HDR Inhalte brauchst du 10 Bit Farbtiefe und bei 4k@60Hz hat HDMI 2.0 nicht genug Durchsatzrate für 10 Bit und 4:4:4. 3840Pixelx2160Pixelx60Hzx10Bitx4Kanäle = 20GBit/s und HDMI 2.0 kann nur 18 GBit/s. Damit das Signal übertragen werden kann muss die Datenmenge reduziert werden indem man Chroma Subsampling betreibt. Ob 4:2:2 bereits ausreicht oder man auf 4:2:0 runter gehen muss weiß ich nicht, da ich nicht genau weiß wie man die Effektive Farbtiefe mit Chroma Subsampling berechnet.
 
Für nicht HDR Inhalte kannst du die Einstellungen so lassen. 8 Bit Farbtiefe je Kanal (RGB+Alpha = 4x8Bit) ergeben die 32 Bit Farbtiefe die man so kennt. YCbCr ist das Chroma Signal und bezieht sich auf die RGB Kanäle. 4:4:4 ist Full RGB. Für HDR Inhalte brauchst du 10 Bit Farbtiefe und bei 4k@60Hz hat HDMI 2.0 nicht genug Durchsatzrate für 10 Bit und 4:4:4. 3840Pixelx2160Pixelx60Hzx10Bitx4Kanäle = 20GBit/s und HDMI 2.0 kann nur 18 GBit/s. Damit das Signal übertragen werden kann muss die Datenmenge reduziert werden indem man Chroma Subsampling betreibt. Ob 4:2:2 bereits ausreicht oder man auf 4:2:0 runter gehen muss weiß ich nicht, da ich nicht genau weiß wie man die Effektive Farbtiefe mit Chroma Subsampling berechnet.
Ok aber wie funktioniert das dann auf der XboxOne X? Da läuft doch auch alles wunderbar mit HDR und 10Bit. Oder kann die One X was die Vega 64 nicht kann was die HDMI Ports angeht? Soweit ich weiss hat die One X auch nur HDMI 2.0b.
Ausserdem habe ich am PC schonmal HDR benutzen können bei BF1 zb. aber ob da die optimale Farbtiefe und 10 Bit eingestellt war weiss ich jetzt nicht.

Gesendet von meinem SM-N9005 mit Tapatalk
 
Also rein wegen der Farbeinstellung bzw Farbtiefe , dafür gibt es Meßgeräte . Geh mal zu einem Kinoausstatter deines Vertrauens und leih es dir mal aus .

Ansonsten einfach so einstellen wie es dir am Besten gefällt ;)
 
Zurück