8bit vs 10bit Farbtiefe

Rammler2

Freizeitschrauber(in)
Hallo.

Ich habe jetzt einen Monitor wo ich mit der 980ti 10 bit Farbtiefe bei der Systemsteuerung einstellen kann. Leider habe ich keien Ahnung ob es einen Vorteil bringt gegenüber 8 bit oder einen Nachteil. Weiß einer wozu das gut ist und was das für Auswirkungen hat? Höhere Latenzen oder Farbfehler?
Danke für eure Beiträge.
 
Eine höhere Farbtiefe hat einen Vorteil wenn du professionelle Bildbearbeitung betreibst und dazu natürlich einen kalibrierten Profimonitor nutzt da Farben schlichtweg genauer dargestellt werden können bzw. der Farbraum größer ist - bei üblichen 8 bit haste 256 Farbabstufungen aller Grundfarben (technisch gesehen ist das bei RGB ein 24bit-Signal), das ist das was man als Hex-Farbcode "#F322A4" oder vergleichbares kennt (das wäre ähm... pink^^). Bei 10 bit sinds eben 1024 Abstufungen.

Oder ums anders auszurechnen: 8bit pro Kanal (TrueColor) kann 16.777.216 verschiedene Farben darstellen, 10bit pro Kanal (DeepColor) kann 1.073.741.824 verschiedene Farben darstellen.

Auf den normalen Spieler hat die ganze Geschichte Null Einfluss.
 
Zuletzt bearbeitet:
8bit: 2^8 Abstufungen pro Farbkanal->256*256*256(RGB) unterschiedliche Farben. Das macht 16,8 Millionen Farben, die dargestellt werden können.

10bit: 2^10 Abstufungen pro Farbkanal->1024*1024*1024(RGB) unterschiedliche Farben. Das macht 1,07 Milliarden Farben, die dargestellt werden können.


edit: **** bin ich langsam
 
Auch wenns keinen Unterschied für Nich-Profis macht kann ichs also einfach bei 10bit lassen? Macht ja dann keinen Sinn es bei 8 zu lassen
 
Eine 10bit-Übertragung erfordert logischerweise mehr Bandbreite als eine 8bit-Übertragung. Bedeutet im Grenzfall wäre die mögliche Auflösung und Bildwiederholrate geringer wenn du dich am Limit deiner Verbindung befindest. Das dürfte aber nur in den seltensten Fällen der Fall sein.

In der Theorie müsste die 10bit-Variante auch ein bisschen mehr Strom verbrauchen einfach weil die Datenmengen die verarbeitet/gesendet werden größer sind - das aber sicherlich in einem Bereich der kaum interessiert.

Persönlich würde ich es auf 8bit lassen da du von 10bit schlicht keinen Vorteil hast, aber irgendwelchen etwaigen problemen aus dem Weg gehst (im normalen Anwenderbereich ist quasi alles auf TrueColor ausgelegt).
 
Eine 10bit-Übertragung erfordert logischerweise mehr Bandbreite als eine 8bit-Übertragung. Bedeutet im Grenzfall wäre die mögliche Auflösung und Bildwiederholrate geringer wenn du dich am Limit deiner Verbindung befindest. Das dürfte aber nur in den seltensten Fällen der Fall sein.

In der Theorie müsste die 10bit-Variante auch ein bisschen mehr Strom verbrauchen einfach weil die Datenmengen die verarbeitet/gesendet werden größer sind - das aber sicherlich in einem Bereich der kaum interessiert.

Persönlich würde ich es auf 8bit lassen da du von 10bit schlicht keinen Vorteil hast, aber irgendwelchen etwaigen problemen aus dem Weg gehst (im normalen Anwenderbereich ist quasi alles auf TrueColor ausgelegt).

Ok danke. ALso Auflösung ist 4k mit DP 1.2. Können da Engpässe auftreten?
 
Kann ich dir auswendig nicht sagen. DP1.2 kann 4K@60Hz in 8bit. Obs für 10bit reicht bei den Settings müsste ich auch nachschlagen - aber wenn du beim Umstellen auf 10bit nicht auf einmal ne kleinere Auflösung oder nur noch 30Hz hast reichts offenbar noch. ;-)
 
Natürlich sind 10 bit auch für den normalen Anwender von Vorteil. Das Problem liegt eher darin, dass nur sehr wenig Consumerhardware und -software diese Farbtiefe unterstützt/nutzt.
 
Das meine ich ja. Wenn du nen (kalibrierten) 10bit-TFT hast der das alles darstellt und entsprechende Software hast nutzt mans natürlich. Da das aber wohl nur die allerwenigsten haben kann mans auch bei 8 lassen.
 
10Bit sind (potenziell) sehr wohl auch in Spielen interessant, insbesondere mit HDR. Gängige Spiele unterstützen soweit ich weiß (?) aber 10Bit nicht wodurch die Sache sinnlos ist.

Es geht hier wohlgemerkt nicht um eine "genauere" Farbdarstellung sondern um einen höheren effektiv nutzbaren Kontrast.
 
Von der HDR-Geschichte hab ich in dem Zusammenhang gehört, allerdings zunächst wenns um die UHD-BluRay ging.

Wenn Spiele das unterstützen sollten irgendwann umso besser, ich schätze aber dass bis dahin noch einige Jahre ins Land gehen^^
 
Aber wenns von der Bandbreite reicht und ich sonst keinen Nachteil habe,dann kann ich doch auch 10bit anmachen oder nicht. Wenn ich aber dadurch minimal Lag oder sonstige Fehler bekommen sollte mache ich es lieber aus
 
Sorry wenn ich den Thread gerade noch mal hoch hole, aber falls Andere wie ich gerade darüber stolpern, wäre es zumindest interessant das zu wissen:

Alien Isolation unterstützt die 10Bit Farbausgabe. Es gibt also bereits Spiele, die 10bit unterstützen. Bin aber selbst gerade noch am einlesen in das Thema und hab noch nichts über weitere Spiel finden können.
 
Hallo hallo alle Profis bitte ich zur Hilfe habe da ein Problem was nicht mal nvidia verstand...4 tage suport mit einen herrn aus Indien blieb ohne Erfolg...
Mein tv samsung js9000 kann 4k und hdr soweit so gut...
Wenn ich bei nvidia in Einstellungen gehe...kann ich wählen zwischen 4:4:4 oder 4:2:2 soweit noch alles normal der tv unterstützt 60 herz hdmi2.0.. aber jetzt wirds komisch: wenn ich 4:4:4 auswählen will sagt er mir nur möglich mit 8 bit....wenn ich die herz auf 30 runter gebe ...kann ich plötzlich auch 12 bit wählen +?!?!?
Wenn ich 4:2:2wähle kann ich mit 60 herz auch die 10 bit wählen....nur eben bei 4:4:4 wirds alles komisch...warum muss ich den die Herz runterfahren???wäre echt super wenn hier ein experte wäre danke!!!!

Mein englisch reicht zwar aber es ist leider nicht perfekt villeicht hilft ja das:

UHD 101: Demystifying 4K, UHD Blu Ray, wide color gamut, HDR, 4:4:4, 18Gbps and the rest! - Acoustic Frontiers

So wie ich da lese geht es einfach nicht das 4:4:4 mit 10 bit auf 60 herz geht???
Versthe ich das richtig???

Wäre nett wen das einer hier klären könnten bitte!
 
Zuletzt bearbeitet:
Hallo hallo alle Profis bitte ich zur Hilfe habe da ein Problem was nicht mal nvidia verstand...4 tage suport mit einen herrn aus Indien blieb ohne Erfolg...
Mein tv samsung js9000 kann 4k und hdr soweit so gut...
Wenn ich bei nvidia in Einstellungen gehe...kann ich wählen zwischen 4:4:4 oder 4:2:2 soweit noch alles normal der tv unterstützt 60 herz hdmi2.0.. aber jetzt wirds komisch: wenn ich 4:4:4 auswählen will sagt er mir nur möglich mit 8 bit....wenn ich die herz auf 30 runter gebe ...kann ich plötzlich auch 12 bit wählen +?!?!?
Wenn ich 4:2:2wähle kann ich mit 60 herz auch die 10 bit wählen....nur eben bei 4:4:4 wirds alles komisch...warum muss ich den die Herz runterfahren???wäre echt super wenn hier ein experte wäre danke!!!!

Mein englisch reicht zwar aber es ist leider nicht perfekt villeicht hilft ja das:

UHD 101: Demystifying 4K, UHD Blu Ray, wide color gamut, HDR, 4:4:4, 18Gbps and the rest! - Acoustic Frontiers

So wie ich da lese geht es einfach nicht das 4:4:4 mit 10 bit auf 60 herz geht???
Versthe ich das richtig???

Wäre nett wen das einer hier klären könnten bitte!

Wie du schon geschrieben hast, die Lösung steht im verlinkten Artikel:

Für Formate mit Hdmi 2.0 gilt folgendes:

HDMI-color-spaces.png
 
4k@60 herz geht in 10bit Farbtiefe. Aber nur mit 4:2:0 Farb'sampling' (keine Ahnung wie das auf Deutsch heist).

Für 4:4:4 musst du entweder runter auf 10bit oder runter auf 30hz. Such dir aus was dir wichtiger ist.

Das Problem ist halt dass die Bandbreite der Uebertragung immer noch nicht ausreicht für 4k mit 60Hz und auch noch 10bit

Soweit ich weiss sind sowieso noch keine Spiele mit 10bit Farbtiefe auf dem Markt.

And das Playstation hdr wird, so weit ich weiss, nur mit 'ner Hochrechnung auf 4k gebracht statt wirklich 4k zu sein. Dann reicht's auch wieder mit der Bandbreite.
 
Zurück