HDMI 1.4: Mit Nvidia-Treiber zu 4k/UHD bei 60 Hertz: Stein der Weisen oder Trick 17?

4k Monitor kaufen mit Displayport Anschluss. Monitor per Displayport anschließen. Problem gelöst. :D ...ich hoffe mal das die GTX8xx endlich HDMI 2.0 haben...
 
hallo,diese 4:4:4 gelten die nur für Fernseher oder kann das auch jeder Computer Bildschirm.Also ich habe ein samsung Syncmaster 21,5Zoll(21,5 B Plus) Bildschirm von 2010 kann der auch 4:4:4 oder nur 4:2:0?
Und ich denke der hat kein Displayport anschluss.Der hat nur 2x HDMI Anschlüsse.Also ist dieser Bildschirm schon zu alt dafür.Auch das ich downsampling betreibe also sprich 2880x1620 auf 1920x1080 downgesampelt.Warum ich keine 3840x2160 nehme,na weil es der Bildschirm nicht kann.Ich konnte noch auf 3260x2160 downsamplen wird aber beim spielen alles mir zu klein sodass ich kaum etwas bei Egoshooter sehen konnte und meien Augen fingen an zu Tränen.Ich weis nicht warum aber es könnte an den 50 Herz liegen die ich bei der Auflösung nur maximal einstellen konnte.Das würde ja auch erklären warum es auch in Zukunft keine 22 Zöllner mit 3840x2160 Auflösung kommen werden,denn wer wird sich sowas nur antuen.Also ich kenne niemandem der so was sich auf dauer antuen wird.

Also bei mir wird sich keine Farben verfälschen oder etwa doch?
 
Hallo,

ich habe ja das Problem das ich einen 4K TV nur mit HDMI 2.0 ausgestattet habe und somit kein UHD in 60Hz darstellen kann. Wenn ich jetzt aber zb. eine 780Ti (Kepler) + denn im Artikel genannten Adapter und ein Passives HDMI/DP kabel habe, könnte/sollte es doch funktionieren, oder?

Und im Prinzip ist das doch nichts anderes als downsampling was eine Nvidia GPU so auch kann !?!?
 
Zuletzt bearbeitet:
Chroma Subsampling ist beim (Extrem-)Downsampling auf beinahe jeder Geforce Standard. Wer hat's gewusst? ;)

MfG,
Raff

Ich nicht, aber das ist wohl Euer Versäumnis, denn ich habe die letzten Jahre über so ziemlich jeden Eurer Artikel zum Thema Downsampling gelesen, und noch nie etwas davon gehört dass es dabei zu Chr.-Subsampling kommt.

Ich nutze meist 2880x1800 auf meinem Asus VW-266h (nativ 1920x1200).
Allerdings sind mir kompressions-ähnliche Artefakte dabei noch nie aufgefallen, auch nicht auf dem Desktop.

Wo gibts denn nähere Infos dazu? Wo kann man genauer nachlesen, wann/wie das beim Downsampling zum Einsatz kommt?

Ein gesonderter Artikel dazu wäre sicher sehr gut.



PS
Jedenfalls kotzt mich diese künstliche Bandbreiten-Limitierung, die nur dazu dient dass der User alle Nase lang die komplette Gerätekette (BR-Player, Fernseher/Monitor, Grafikkarten, AV-Receiver, Projektoren usw.) neu kaufen muss, langsam ziemlich an.
Das war mit der ganzen HDMI 1.3 Verisionitis auch so, Beispiel: 3D mit 60 Bildern pro Auge war auch nur in 720p möglich, für mehr reichte die Bandbreite nicht.
Jetzt reicht sie nicht für 60fps in UHD.
Mich würds gar nicht wundern wenn beim HDMI 2.0-Standard 3D in UHD auch wieder nur mit max. 30fps pro Auge laufen würde...
Man könnte die Bandbreite natürlich einfach von vornherein zukunftssicherer auslegen, das würde auch nicht mehr Materialkosten verursachen, aber dann könnte man ja auch nicht immer wieder neue Geräte verkaufen, siehe oben...
 
Zuletzt bearbeitet:
Chroma Subsampling ist beim (Extrem-)Downsampling auf beinahe jeder Geforce Standard. Wer hat's gewusst? ;)

MfG,
Raff

Hi Raff,

in dem Video sagst du, ihr hättet "mit Downsampling" 50Hz in UHD erreicht. Das kann ja aber offenbar mit HDMI 1.4 nicht stimmen. Kannst du dazu bitte was sagen, insb. welche Art von Downsampling ihr eingesetzt habt?
Grundsätzlich habt ihr drei Möglichkeiten, "Downsampling" einzusetzen, bzw. den Begriff zu interpretieren
1) das Bild in höherer Auflösung als der native-Auflösung erstellen, es in dieser höheren Auflösung an den Monitor zu schicken, und dann vom Monitor runterrechnen zu lassen. Diese Variante werdet ihr aber sicherlich nicht meinen, denn das hieße, das Bild in deutlich HÖHERER Auflösung als UHD zu erzeugen+übertragen...d.h. die Bandbreite würde noch ERHÖHT, nicht verringert.
2) das Bild in höherer Auflösung als der native-Auflösung erstellen, es von der GraKa auf UHD runterrechnen zu lassen, und dann UHD zum Monitor schicken. Das ändert aber dann nichts an der erforderlichen 60Hz-UHD-Bandbreite, die mit HDMI 1.4 nicht geht.
3) das Bild in UHD-Auflösung erstellen , aber dann von der Grafikkarte downsamplen und nur 1080p o.ä. zu übertragen. Das verringert natürlich die Bandbreite (und erlaubt daher >30Hz) - aber natürlich ist die Anzeige aufgrund der geringeren Auflösung dann unscharf (sprich, für eine textintensive Anwendung nutzlos).

Ansonsten ist es eben NICHT möglich, bei voller Farbtiefe ein UHD-Signal per HDMI 1.4 (oder gar Dual-Link DVI) mit 60Hz zu übertragen, das geht nur mit HDMI 2.0, mit DP 1.2, oder eben durch Reduktion der Farbtiefe auf 4:2:0.

Wie genau habt ihr also die erwähnten 50Hz erreicht?

Vielen Dank,
Wolfram
 
Dafür hat Nvidia einen Treiber rausgebracht ,Seit über 1 Jahr ist es bereits möglich ,Nutze 60 HZ bei 2160p bzw 4K Farbformat ycbcr444 -- mit RGB sah Schwarz mehr aus wie Grau Farben wirkten zu Fade , Rot Grün Blau Total Überzogen , Digitales Farbformat ycbcr444 Auswählte Resultat Perfekte Farben ,UHD Filme wirkten im Farbverlauf viel Detaillierter , besonders Groß ist der Unterschied bei 4k Naturdokus ,Farben sehen Fantastisch aus , RGB wird seit es Farb TV gibt genutzt aber Das Farbspektrum was wir wahrnehmen können ist Begrenzt bzw die Farben die wir erzeugen mit Farbrezeptoren Zwischen Auge und Gehirn ,
 
Kurze Frage an Dich Glaubst du SKY pay Tv Sendet 1080p mit 60hz , nein Sky arbeitet mit 1080i , zum ersten mal Wird 1080p mit 60Hz durch DVB-T2 gesendet
 
Zurück