HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17?

Die aktuellen Geforce-Treiber erlauben es, 4k/UHD-Material mit voller Auflösung und 60 Hertz an trotz HDMI 1.4 den Monitor zu schicken. Geht nicht? Geht doch, ist aber ein Kompromiss. Wenn man den eingehen will, hat man bei Nvidia die Option dazu. Die Kalifornier lösen das Problem, indem sie Bandbreite bei der Farbe sparen.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17?
 
Ist es dann - vom aktuellen Standpunkt aus - nicht eigentlich ziemlich nutzlos?:huh: Die mMn einzig sinnvolle Verwendung wäre für 4K-Filme, die jedoch praktisch so gut wie gar nicht vorhanden sind. Im PC-Einsatz verliert die Qualität zu deutlich, als dass es sich für Spieler lohnen würde. Daher "nett", aber letztlich doch ohne nennenswerten Belang. Würde man konsequent auf DP 1.2 (und in Zukunft auf HDMI 2.0 und DP 1.2a bzw. folgend DP 1.3) setzen, müsste man sich solche Sperenzchen erst gar nicht einfallen lassen.:(
 
Dann warte ich eben noch 3 Jahre. Sollte kein großes Problem sein, aber wenn Filme und schnelle Grafikkarten verfügbar sind gibt es für mich kein "Wenn und Aber".
 
Ist ja super! Wenn sie es jetzt noch schaffen über DisplayPort und hdmi endlich ein Full RGB Signal an einen PC Monitor zu senden, wäre ich wirklich begeistert. Warum kann das AMD, Nvidia aber nicht? Da muss man erst mit Registry Hacks oder modifizierten Monitortreibern arbeiten, ansonsten hat man immer nur einen eingeschränkten Farbraum.

Oder bin ich zu blöd? War bis jetzt zumindest bei allen meinen Monitoren so.
 
So schlimm ist das doch gar nicht. Im Grunde sollte das doch nur den Farbraum etwas reduzieren, wodurch Farbabstufungen nicht mehr so exakt differenziert sind oder nicht?. Bei Video kompression ist das wie gesagt wurde ja Standard. Selbst auf BluRays?!

Da das Luma Signal vollwertig ausgegeben wird, sollte der Unterschied doch eigentlich mit der Lupe zu suchen sein, und ist wahrscheinlich auch nur bei fließenden Farbverläufen in Form von leichten Abstufungen sichtbar...
 
So schlimm ist das doch gar nicht. Im Grunde sollte das doch nur den Farbraum etwas reduzieren, wodurch Farbabstufungen nicht mehr so exakt differenziert sind oder nicht?. Bei Video kompression ist das wie gesagt wurde ja Standard. Selbst auf BluRays?!

Da das Luma Signal vollwertig ausgegeben wird, sollte der Unterschied doch eigentlich mit der Lupe zu suchen sein, und ist wahrscheinlich auch nur bei fließenden Farbverläufen in Form von leichten Abstufungen sichtbar...

Für Filme sicherlich kein Problem, völlig richtig, aber wenn du den normalen Desktop (z.B. in Excel das Zellengitter) nutzt bzw. ein Spiel zockst, dann sollte man schon einen Unterschied sehen.
 
Für Filme sicherlich kein Problem, völlig richtig, aber wenn du den normalen Desktop (z.B. in Excel das Zellengitter) nutzt bzw. ein Spiel zockst, dann sollte man schon einen Unterschied sehen.

Wo hast du bei Excel großartige Farbverläufe? Das Luminanzsignal (sprich unterschied hell/dunkel) ist mit abstand am wichtigsten. Dieses ist voll vorhanden, also hast du 100% Bildschärfe.

Als ich meinen TV am PC eingerichtet habe stand das Signal standardmäßig auch auf 4:2:irgendwas. Hab dann auf 4:4:4 umgestellt und konnte keinen Unterschied feststellen. Wie gesagt, ich bin mir sicher, dass man die Unterschiede mit der Lupe suchen muss und speziell bei Farbverläufen sieht.
 
Zuletzt bearbeitet:
Wo hast du bei Excel großartige Farbverläufe? Das Luminanzsignal (sprich unterschied hell/dunkel) ist mit abstand am wichtigsten. Dieses ist voll vorhanden, also hast du 100% Bildschärfe.

Als ich meinen TV am PC eingerichtet habe stand das Signal standardmäßig auch auf 4:2:irgendwas. Hab dann auf 4:4:4 umgestellt und konnte keinen Unterschied feststellen. Wie gesagt, ich bin mir sicher, dass man die Unterschiede mit der Lupe suchen muss und speziell bei Farbverläufen sieht.

Dir gehen Signalinformationen zum Ansprechen der Subpixel verloren. Du hast bei Excel weiße Zellen mit grauer Umrandung, schon bei einem billigen TN Panel, oder generell ein TFT mit schlechter Farbkalibierrung, geht dir dieser graue Rahmen der Zellen verloren oder wird schwer erkennbar.

Hier ein Beispiel:
RY3YrFn.png

Dir verschwimmen halt alle scharfen Übergänge und damit eigentlich jegliche GUI.
 
Zuletzt bearbeitet:
Chroma Subsampling ist beim (Extrem-)Downsampling auf beinahe jeder Geforce Standard. Wer hat's gewusst? ;)

In welchem Umfange eigentlich?
Solange die Auflösung des Farbsamplings nicht unter die der nativen Auflösung sinkt, stört es ja nicht unbedingt, wenn DS nur zusätzliche Helligkeitssamples berücksichtigt. Sollte dagegen z.B. x1,5+1,5 DS zu 0,75*0,75 Farbrendering führen, wäre es in meinen Augen komplett sinnlos. *wir brauchen einen weiteren DS-Artikel*
Wo/Wie/Warum wäre auch mal interessant. Bei klassischen Fernsehsignalen ist Chroma-Untersampling ja ganz leicht möglich. Aber Grafikkarten arbeiten ja eigentlich ausschließlich in R/G/B. Die müssten überhaupt erstmal das komplette Bild transferieren, ehe sie Sample-Zahlen reduzieren können - und das erscheint mir für DS irgendwie sinnlos, wenn das komprimierte Bild anschließend ohnehin nur einmal in einen Puffer geschrieben wird, bevor es für die Ausgabe ohnehin runtergerechnet wird.
 
Hättet ihr nicht ein schärferes 3D UHD Erlebnis gehabt wenn ihr Shutter Brillen benutzt hättet?! Dann noch Nvidia 3DVision :D aber wohl nicht mit HDMI1.4:(
 
Zurück