AMDs GPU-Generation 2016 mit DP1.3 für UHD@120Hz und HDR

DKK007

PCGH-Community-Veteran(in)
AMDs GPU-Generation 2016 mit DP1.3 für UHD@120Hz und HDR

AMDs 2016er GPU-Generation soll DP1.3 und HDMI 2.0 unterstützen. Damit sind dann erstmals UHD-Displays mit mehr als 60 Hz möglich. Diese können auch Freesync bis 120 Hz bieten. Außerdem sollen die neuen GPUs und die aktuell schnellsten GPUs der R9-300 Klasse in der Lage sein HDR-Displays anzusteuern.

Nachdem der aktuelle Crimson 15.11.1 Treiber Freesync über HDMI unterstützt, soll nun auch Freesync für Laptops dazu kommen. Der Lenovo Y700 mit einer Carrizo-APU und der Radeon R9 380M unterstützt über den eDP-Standard bereits FreeSync innerhalb des Bereiches von 40 bis 60 Hz.

Quelle: AMD Radeon: Support für HDR- und 4K-Displays mit 120 Hz ab 2016 - ComputerBase



Künftige "Freesync über HDMI"-Monitore:

1-1080.3127297241.png

HDR:

http://pics.computerbase.de/6/9/3/5/6/9-630.4230829929.png

http://pics.computerbase.de/6/9/3/5/6/8-630.1617251548.png


UHD und "5K"


4-630.2459175913.png

http://pics.computerbase.de/6/9/3/5/7/2-630.1672413403.png

Freesync für Notebooks:

1-630.3938731613.png
 
Zuletzt bearbeitet:
AW: AMDs GPU-Generation 2016 mit DP1.3 für UHD@120Hz und HDR

Was bedeutet HDR in diesem Fall? 10 bit pro Farbkanal an den Bildschirm übertragen? Das haben wir doch bereits seit einigen Jahren, oder? Auch in der Fotografie und bei der Rasterisierung bei Spieleengines ist mir der Begriff durchaus bekannt aber das wird hier wohl nicht gemeint sein..
 
AW: AMDs GPU-Generation 2016 mit DP1.3 für UHD@120Hz und HDR

Was bedeutet HDR in diesem Fall? 10 bit pro Farbkanal an den Bildschirm übertragen? Das haben wir doch bereits seit einigen Jahren, oder? Auch in der Fotografie und bei der Rasterisierung bei Spieleengines ist mir der Begriff durchaus bekannt aber das wird hier wohl nicht gemeint sein..

Künftig kann man das dann eben direkt auf dem Monitor anzeigen lassen. 10 Bit gibt es ja bisher nur bei sehr teuren Profimonitoren. Außerdem soll der Helligkeitsbereich erweitert werden.

Laut AMD kommen qualitativ hochwertige LC-Displays mit einer Leuchtdichte von 0,1 bis maximal 250 cd/m² oder auch Nit daher (ein Nit entspricht nach Definition der Leuchtkraft einer brennenden Kerze), Fernseher dagegen mit 0,1 bis maximal 350 bis 400 cd/m². Der HDR-Standard für UHDTVs legt eine Spanne zwischen 0,005 bis hin zu 10.000 cd/m² fest. Die 10.000 cd/m² sind jedoch zumindest zunächst nur ein theoretischer Wert. AMD spricht davon, dass aktuelle HDR-Monitore rund 1.000 cd/m² darstellen können, während es gegen Ende nächsten Jahres 2.000 cd/m² werden sollen. Diesbezüglich soll es zwischen den HDR-Displays auch größere Unterschiede bei der Leuchtdichte geben. Die Monitore werden das HDR-Feature entsprechend unterschiedlich gut unterstützen.
 
Zurück