HDMI-Monitor an Geforce-GPU: Achtung bei dynamischem Ausgabebereich

Das war so ziemlich die erste Einstellung die ich geändert habe nachdem ich mir vor paar Jahren meine GTX780 geholt habe. Vorher lange nur Radeons gehabt und da gabs solche Probleme nicht oft.
Mittlerweile hängt mein UHD Monitor sowieso über DP dran (Wegen UHD, 60Hz, 10Bit und so Geschichten) und da hab ich das nicht mehr gehabt.
 
AMD nutzt beim Anschluss eines HDMI Monitors standardmäßig das Fernsehformat YCbCr4:4:4. Das ist zwar auch nicht optimal (ich hab's direkt auf FullRGB umgestellt), aber zumindest ist der Unterschied zwischen den beiden Modi nicht sichtbar. Ich frage mich, wieso Nvidia das nicht auch einfach so löst.

AMD.jpg
 
Na das erklärt so einiges und ich hab mich schon oft bei meiner 980ti gewundert, dass die Einstellung immer mal wieder umspringt. Vor allem wenn ich zwischen TV und Monitor wechsel, ist das Bild plötzlich blass/milchig und ich muss das wieder manuell ändern. Das hatte ich bei AMD bis jetzt noch nie, währe nett wenn Nvidia das mal beheben könnte.
 
10 Bit und 12 Bit gehen bei RGB 4:4:4 bei 30Hz. Reicht für meinen Geschmack. Mehr geht bei den Konsolen auch nicht...
 
WOW! :hail: nach Jahren schreibt auch mal die Presse darüber.. :daumen:

Das habe ich anno dazumal bei meiner GTX 660 schon festgestellt, ich kaufte einen Monitor mit Displayport. Aus irgend einem Grund meint so eine Geforce, das alles, was nicht über den uralten DVI angeschlossen wird, ein Fernseher sein muss. Wenn das nicht mehr für den DP gelten sollte, und der Artikel lässt das vermuten, ist das auch erst seit Anfang max Juli der Fall, der Zeitpunkt an dem meine GTX960 gegen eine RX480 getauscht habe.

Desweiteren hat es ewig und drei Tage gedauert, bis Nvidia es endlich geschafft hat, wenigstens eine Option in das Treibermenü zu integrieren, die den vollen Farbraum ermöglichte. Das haben wir User mit dem Custom Resolution Utility bewerkstelligen müssen.
 
Die Problematik ist mittlerweile recht alt und erst ca. Ende 2014 wurde überhaupt ein Treiber vorgestellt in dem die Einstellung des Ausgabebereiches möglich war (Bei NV, bei AMD gings schon vorher und kein Plan was da default ist)
Davor musste man sich irgendwelcher Hacks bedienen. Bei älteren Intel Grafiken (zB Sandy Bridge) lässt sich der Ausgabebereich gar nicht auf voll umstellen.

Die Monitorhersteller waren aber wenigstens so clever, dass man zumindest den Grauschleier umgehen kann indem man "HDMI Black Level" aus Low einstellt (was zB bei meinem Samsung sogar werksmäßig der Fall ist). Klar, verlorene Bildinformationen kommen dadurch nicht wieder, aber wenigstens ist das Grau weg :D
 
Also entweder ich habe Augengulasch oder ich brauche doch ne neue Brille. Ist mir nie aufgefallen ?

Gesendet von meinem SM-G900F mit Tapatalk
 
Vor allem ist es aber fatal für User, die nicht wissen, dass das Problem überhaupt exisitiert. Die haben dann jahrelang ein total verwaschenes Bild und denken sich nichts dabei.
Ein kollege hat sich letztens im Büro auch darüber gewundert, warum das Bild mit der AMD Karte, die er in den Rechner gebaut hat plötzlich so viel besser und kontraststärker ist...

Das ist mir letzte Woche nach dem Umstige von einer 670 auf eine RX480 auch aufgefallen....
 
Das ist mir letzte Woche nach dem Umstige von einer 670 auf eine RX480 auch aufgefallen....

Tja, jetzt wissen wir auch woher der Mythos kommt, dass manche behaupten, AMD/Nvidia hätten ein besseres Bild. Wenns an den richtigen Einstellungen scheitert logisch.
Es sollte eigentlich in Nvidias größtem Interesse sein, dass die Einstellung korrekt gesetzt wird.... Ein User, der keinen Plan davon hat, wird dann in Zukunft nur noch AMD kaufen, weil "das Bild besser" ist. :ugly:

Mich macht das gerade irgendwie ganz kirre, wenn ich mir vorstelle, dass so viele Leute unwissentlich mit begrenztem Farbraum zocken. :D Vor allem käufer von HighEnd Karten, und teuren Monitoren, die extra wegen der Grafik viel Geld ausgeben.
 
Habe gerade eine neue GTX 1070 (von GTX770) an einen "HD Monitor" angeschlossen. Bin von begrenzt auf "voll". Das Bild wurde sofort heller. WOW!! Cooler Beitrag! Wußte ich nicht!
Frage: Werden denn mehr Fernseher als Monitore an NVidia GPUs angeschlossen? Weil DP ist ja nicht so verbreitet?
 
Hatte heute den ersten Blue Screen seit 3 oder 4 Jahren, jetzt weiß ich auch mal wie sowas unter Windows 10 aussieht. Gestern den Treiber der Gtx 970 aktualisiert. Das Bild war auch ganz gelblich heute morgen. Jetzt weiß ich zumindest woran es lag. Dem Bluescreen schreibe ich auch mal dem Treiber zu gute, scheint NVIDIA uns ja was feines beschert zu haben.
 
Habe gerade eine neue GTX 1070 (von GTX770) an einen "HD Monitor" angeschlossen. Bin von begrenzt auf "voll". Das Bild wurde sofort heller. WOW!! Cooler Beitrag! Wußte ich nicht!
Frage: Werden denn mehr Fernseher als Monitore an NVidia GPUs angeschlossen? Weil DP ist ja nicht so verbreitet?

nvidia denkt sich, wer soviel geld verpulvert, wird schon reinscheißen beim monitor und displayport haben.

naja, sie dachten nicht, dass 12 jährige mit ihren geburtstagsgeld sich eine kaufen würden. :ugly:
 
nvidia denkt sich, wer soviel geld verpulvert, wird schon reinscheißen beim monitor und displayport haben.

naja, sie dachten nicht, dass 12 jährige mit ihren geburtstagsgeld sich eine kaufen würden. :ugly:

Das Problem existiert auch bei Display Port. Mein 21:9 Monitor ist mit DP angeschlossen und wenn ich auf 1920x1080 wechsle, steht da nach dem Treiberupdate immer "begrenzt".
 
Hätte man mal selbst drauf kommen können, Asche auf mein Haupt.
Wollte meinem TN Panel schon die Schuld geben, so kann man sich täuschen.
Die Verbesserung des Bildes ist enorm, Danke!
 
Zurück