Cebit 2017: Erster HDR-Monitor von LG mit USB-C im Video

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Cebit 2017: Erster HDR-Monitor von LG mit USB-C im Video gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cebit 2017: Erster HDR-Monitor von LG mit USB-C im Video
 
Was mich wundert ist......
Was war HDR dann damals in den Spielen? Da konnte man das doch auch schon immer, potente Grafikkarte vorausgesetzt, mit aktivieren und nutzen. Warum zu Hölle braucht man dafür einen Fernseher oder Monitor, wenn es die HDR Funktion
eigentlich schon so lange gibt und schon damals nutzbar war und eigentlich doch das selbe machte, wie das neue heutige Zeug, oder sehe ich hier etwas verkehrt?

Ich erinnere mich da noch an das erste Far Cry was die HDR Funktion anbot.
 
HDR in Far Cry oder Lost Coast sind Lichteffekte und haben so weit ich mich noch entsinnen kann, nicht viel bis nichts mit dem heutigen HDR für Monitore und Fernseher zu tun.



farcryhdr.jpg

lostcoasttrnsmsn.jpg
 
Zuletzt bearbeitet:
ich habe irgendwie das Gefühl das es bei Monitoren kaum voran geht. Oder nur langsam .

Besitze seit Jahren einen 29 zoll IPS 21:9 Monitor.

Mit seiner Auflösung von 2560x1080 ein Overkill Feature. Jeder der mal zockt sieht an den seiten mehr.

Für mich kommt auch nichts anderes ins Haus. Normale 16:9 Monitore sind mir zu Eng geworden.


Mein Wunsch wäre ein 34 Zoll Curved 21:9 Monitor . 4k und Freesync an Board für Maximal 399 euro und die Reaktionzeit unter 8 ms .
 
HDR in Far Cry oder Lost Coast sind Lichteffekte und haben so weit ich mich noch entsinnen kann, nicht viel bis nichts mit dem heutigen HDR für Monitore und Fernseher zu tun.

Auch wenn der Wikipedia-Artikel das nicht so recht erwähnt, HDR Rendering hat im Gegenteil sehr viel, fast schon sogar alles damit zu tun.

Bisher war die höhere Farbtiefe (-dynamik) halt "nur" per Tone Mapping auf den eingestellten Farbraum projiziert worden, fast ähnlich wie bei einer leichten Komprimierung. Das ist nun ein dazu passend gegossener Standard für Ausgabegeräte, aber vom höheren rechnerischen Dynamikumfang dahinter haben wir auch schon bisher auf den gewohnten Ausgabegeräten profitiert.

Edith: Immerhin High Dynamic Range Image – Wikipedia gibt etwas dazu her
 
........, oder sehe ich hier etwas verkehrt?
Bei Prad gab es im Februar eine schöne News zu HDR.
HDR (High Dynamic Range) bei Monitoren und Fernsehern: Reines Marketing oder tatsächlicher Mehrwert?
HDR bei Monitoren und Fernsehern: Prad.de fragt - Marketing oder tatsachlicher Mehrwert?
Das sollte deine Fragen beantworten.

Und mit Horizon Zero Dawn gibt es auch ein sehr gutes PS4 Game wo HDR auftrumpfen kann.
Horizon: Zero Dawn im Test: Jurassic World eingebettet in ein wunderschones RPG

Und was genau bringt HDR?

Auf unserem Sony KD-55XD9305 wirkt die Sonne wie ein organisches, nicht künstliches Gebilde und ihre Strahlen sind sehr viel kraftvoller, aber auch nuancierter. Man muss das im Grunde direkt vergleichen, um den Unterschied zu sehen, aber die Strahlen sind nicht nur gelb oder ins Orange gehende, sondern haben sehr viel mehr Farbabstufungen.
Noch viel deutlicher sieht man das bei Wolken, die normalerweise entweder weiß oder grau sind. In HDR wirken sie "fluffiger", also mehr so wie im echten Leben. Zudem kann die Sonne richtig kräftig durchscheinen, aber das funktioniert nur wenn das Panel die entsprechende Helligkeit mitbringt. HDR ist also sehr vom eigenen Gerät abhängig, unser Referenz-TV Sony arbeitet mit 1.000 Nits. Deaktivieren wir jetzt wieder HDR, geht nicht nur der kraftvolle Sonnenschein, sondern vor allem auch die vielen Grauabstufungen innerhalb der Wolken verloren, sie wirkt also platter und flacher. Auch in den Bosskämpfen wirken Partikeleffekte wie Laserstrahlen oder explodierende Raketen viel knalliger und kontrastreicher, weil HDR das ganze Bild plastischer macht.
 
Mich würde mal interessieren, wie die ganzen 4K Geschichten so mit nicht nativen Auflösungen ausschauen,
ob die Skalierung hier taugt oder nicht. Vor allem wie der Eindruck zu einem identischen mit FHD ausfällt.

Ich warte ja immer noch auf einen 21:9 Richtung 32-35", Curved, der Freesync kann und mehr als 1080p, mit mindestens 120Hz.
der aktuelle AOC geht jedenfalls schon in die absolut richtige Richtung (21:9, 200Hz, 1080, FS 30-200hz). Fehlt nur noch 1440p und HDR, wegen mir auch 4k.

Was HDR angeht, sollte das nicht mit HDR bei BIldbearbeitung oder beim Rendering (HL2) verwechselt werden.
Sofern die Entwickler das sinnvoll einbauen und verwenden (auch bei Filmen), ist das wirklich toll und ein dicker qualitativer Mehrwert!

Was 4K angeht, habe ich mal einen kleinen Beitrag geschrieben, für alle Interessierten:
Auflösung versus Größe & Blickabstand
 
Ich habe jetzt seit zwei Tagen einen PG348Q vor mir.
Davor jahrelang einen Qnix (1440p @110Hz) und hab auch vieles ausprobieren können.
4k ist die Zukunft,keine Frage - aber mit 60Hz komme ich nicht mehr klar!
Über den Qnix musste ich viel schlechtes lesen, kann ich persönlich überhaupt nicht bestätigen und war wirklich super zufrieden.
Das 21:9 Format bietet gegenüber normalen Monitoren meiner Meinung nach aber einen echten Mehrwert.
Assetto Corsa und Dirt Rally fühlen sich einfach unglaublich realistisch an und Battlefield profitiert von der größeren Rundumsicht.
Man kanns am besten damit beschreiben das es sich einfach natürlicher und dem menschlichen Sichtfeld am nähsten kommt.
Und G-Sync ist auch wirklich ne feine Sache - ich bin jetzt die nächsten Jahre versorgt und kann jedem dieses Format empfehlen!
 
Ich finde am witzigsten (und traurigsten) das bei Monitoren und Fernehern einfach das HDR als Begriff übernommen wird welches bei Foto-Versierten schon seit geraumer Zeit ein begriff ist , aber NICHTS mit der WIEDERGABE zu tun hat .
Wie war das nochmal bei Fotos mit HDR ? Achja ... eigendlich sind das ja MEHRERE Fotos mit unterschiedlichen Belichtungszeiten damit das ganze dann nachher entsprechend bearbeitet werden kann und wirklich ALLE Details auf min. einem der "Teilbilder" drauf ist . Die ausbereitung zu einem fertigen Bild ist u.U. dann recht aufwendig wenn man diverse bereicht von unterschiedlichen Teilbildern im Finalen Bild haben will .... aber DAS ist die Dynamik .

Und was ist bei Displays davon übrig ? Werden Pro Pixel MEHRERE Farbwerte übertragen (Wo das Dynamik herkommt) oder nur der finale ? RICHTIG , natürlich nur einer ... es kann ja auch nur ein einziger ANGEZEIGT werden und das Display wählt garantiert net SELBST aus welche Farbe es sein soll ......
Wir haben am Ende als "nur" 10Bit statt 8 pro Farbkanal (bei HDR10) und das einzig Dynamische scheint zu sein das die Helligkeit Pro Pixel besser gesteuert werden kann (Für eine vollwertige Umsetzung also Pro-Pixel Beleuchtung und KEIN Durchgehendes Leuchtpanel o.ä.) .
Klar wird die Farbzahl pro Kanal durch die "nur" 2 Bit mehr gleich mal vervierfacht und die Helligkeitssteuerung tut ihr übriges , aber von DYNAMISCH bleibt auf Seite der Anzeige NIX mehr übrig (und streng genommen auch auf Seiten der Engine die das Bild berechnet) .
 
Die Umsetzung von HDR ist bisher "nur" bei Horizon Zero Dawn wirklich gut gelungen, wenn man einen entsprechenden TV besitzt.
Aber genau dieses Bsp. zeigt auch gut, welches Potential in HDR schlummert.
Ich hoffe auf weitere gute Games mit HDR, mehr Monitore für den PC dafür, und dass die Technik endlich einmal beim PC ankommt.
Kann ja nicht sein, dass die "olle" PS4 hier zum Vorreiter wird. :devil:
 
Ich finde am witzigsten (und traurigsten) das bei Monitoren und Fernehern einfach das HDR als Begriff übernommen wird welches bei Foto-Versierten schon seit geraumer Zeit ein begriff ist , aber NICHTS mit der WIEDERGABE zu tun hat . [...] Und was ist bei Displays davon übrig ? Werden Pro Pixel MEHRERE Farbwerte übertragen (Wo das Dynamik herkommt) oder nur der finale ? RICHTIG , natürlich nur einer ... es kann ja auch nur ein einziger ANGEZEIGT werden und das Display wählt garantiert net SELBST aus welche Farbe es sein soll.[...]
HDR in der Bildbearbeitung hat nichts mit Farben zu tun, sondern nur mit Helligkeit. Im Übrigen hieß das früher nicht HDR (das ist nämlich auch in der Digitalfotografie ein genauso bescheuerter und nichtssagender Modebegriff, wie bei den Fernsehern) sondern DRI (Dynamic Range Increase). Und den Grad des "Increase" hat der Fotograf selbst gesteuert.

Wenn die Kamera viele Schattendetails darstellen soll, kann sie am anderen Ende der Skala keine Lichterdetails mehr darstellen und umgekehrt, weil der Dynamikumfang des Sensors das nicht zulässt. Deshalb machst du 3 bis 7 Fotos mit unterschiedlichen Beleichtungszeiten und hast dann sowohl die Schatten als auch die Lichterdetails. Alternativ kannst du auch ein 10/12 Bit Raw machen und dann im Raw Converter basteln. Damit erreichst du mit einem modernen Kamerasensor (die haben inzwischen brutal gute Schattendetailzeichnung) oft fast die gleichen Ergebnisse wie mit drei JPEG 8 Bit Einzelbildern.

Ein HDR Fernseher macht im Prinzip das Gleiche. Mit 8 Bit (= 256 Helligkeitsabstufungen) bist du sehr eingeschränkt. Stell dir vor, du brauchst 100 davon schon in den Schattenbereichen des Bildes und was dann noch für den Rest des Bildes übrig bleibt. Entweder du gehtst jetzt extrem mit dem Kontrast runter (Bild wird flau und farbarm) oder du hast ausbrennende Lichter (einfach nur weiß). Mit 10 Bit (HDR) hast du schon 1024 Abstufungen und damit viel mehr Möglichkeiten Schatten und Lichter differenziert darzustellen und trotzdem einen vernünftigen Kontrast aufrecht zu erhalten.
 
Zuletzt bearbeitet:
"Mein Wunsch wäre ein 34 Zoll Curved 21:9 Monitor . 4k und Freesync an Board für Maximal 399 euro und die Reaktionzeit unter 8 ms ."

1ms und der Preis darf bei 700isch sein.
 
Auch wenn der Wikipedia-Artikel das nicht so recht erwähnt, HDR Rendering hat im Gegenteil sehr viel, fast schon sogar alles damit zu tun.

Bisher war die höhere Farbtiefe (-dynamik) halt "nur" per Tone Mapping auf den eingestellten Farbraum projiziert worden, fast ähnlich wie bei einer leichten Komprimierung. Das ist nun ein dazu passend gegossener Standard für Ausgabegeräte, aber vom höheren rechnerischen Dynamikumfang dahinter haben wir auch schon bisher auf den gewohnten Ausgabegeräten profitiert.

Edith: Immerhin High Dynamic Range Image – Wikipedia gibt etwas dazu her

Genau das meinte ich. Weil vom Prinzip her ist das Hardware basierende HDR nichts anderes als das damalig existierende Software basierende. Denn auch das damalige HDR hat eigentlich
schon das gemacht, was das heutige auch macht (nur vielleicht optimierter etc.)
 
Jetzt wäre es noch schön wenn der Bildschirm auch per USB-C mit Strom versorgt werden könnte.
irgendwann - in vielen vielen jahren, wirds dann auchmal leistbare gut 4k monitore mit HDR10 und >120Hz geben.
Wenn das erreicht ist können sie mit dem ziemlich nutzlosem gimmick 3D daherkommen - den dann haben wir schon ein perfektes bild =)




Und weil hier die Leute wieder über HDR und dessen bedeutung reden:
HDR heist einfach nur High Dynamic Range - nichts weiter. Es sagt ncihts über die Absolutwerte der helligkeit oder Farbwiedergabe aus.
Auch meine taschenlampe ist HDR-Fähig von unter 0.01 nit bis weit über 1000 nit. Nur halt eben in reinem schwarz-weiss und nur 1 pixel.

Bei Monitoren gibt es jetzt dann HDR10 - ein Standard der gewisse Werte spezifiziert. 10 bit Kanalfarbtiefe und mindestens 1000 cd/m² .


Was jetzt zB bei alten Spielen wie farcry gemacht wurde kommt schon ziemlich an das ran was jetzt die monitore auch reell wiedergeben können.
Die Spielszene wird dann itnern mit 10, 16 oder auch mehr bit farbtiefe berechnet was bessere Lichtverhältnisse und beleuchtung allgemein ermöglicht. Nur bissher wurde das ganze dann auf 8 bit runter gemapped. jetzt muss dieser letzte Schritt nichtmehr gemacht werden.


Bei fotografie hat HDR auch eine spezielle bedeutung - aaufnahmen mit mehr als 8 bit farbtiefe, mit guten Kameras und entsprechenden Sensoren sind das heutzutage 12 oder 14 bit.
serien-Aufnahmen mit Unterschiedlicher belichtung können dies auch sehr gut approximieren, sind aber NICHT das selbe und dementsprechen wird diese methode auch anders gennant - DRI.
Wobei hier dann vorallem im Konsumerbereich noch weiter getrickst wird indem aus 3 8-bit Bildern wieder ein 8bit bild errechnet wird - in diesem Bild ist dann der dynamik Umfang stark komprimiert.



Damit erreichst du mit einem modernen Kamerasensor (die haben inzwischen brutal gute Schattendetailzeichnung) oft fast die gleichen Ergebnisse wie mit drei JPEG 8 Bit Einzelbildern.

Wenn jemand HDR-Bilder machen will aber Jpeg nutzt dann sollte man demjenigen den kopf gründlichst waschen 8oder gleich mit etwas Hirn auffüllen)
 
@NForcer:
Ich hatte dir doch alles zu HDR verlinkt.
HDR muss eine geschlossene Kette bilden, angefangen von der Software bis zum Monitor.
Horizon Zero Dawn ist aktuell das beste Bsp. für HDR bei Games, und zeigt gut was möglich ist.
Die Technik dazu ist schön älter, wird aber jetzt erst teilweise gut umgesetzt.
Ich persönlich finde das Potential von HDR viel größer als das von G-Sync/Frees Sync.
 
Zuletzt bearbeitet:
Ich persönlich finde das Potential von HDR viel größer als das von G-Sync/Frees Sync.
Schon mal vor einem G-Sync Monitor gesessen? Schönere Farben sind immer gut, auf G-Sync würde ich deswegen aber auf keinen Fall verzichten wollen. Für PC Gamer ist Free- und G-Sync neben 144 Hz die beste Neuerung der letzten Jahre. Die HDR Varianten von Free- und G-Sync stehen aber zum Glück schon in den Startlöchern ;)
 
Bei hohen Bildwiederholfrequenzen verschwindet der Vorteil von G-Sync/Free Sync fast völlig, wie die Tests dazu zeigten.
Diese Technologie ist "nur" in einem gewissen Frequenzraum effektiv.
Deshalb war ich auch nie so begeistert davon, und habe mich bei den Diskussionen dazu hier oft zurück gehalten.
Bei dem hier vorgestellten Monitor würde Free Sync auch Sinn machen, da er nur eine Free Sync Range von 50Hz-70Hz haben soll.
Ich würde mich immer eher für einen Monitor mit hoher Bildwiederholfrequenz entscheiden.

HDR dagegen kann gut umgesetzt einen echten Mehrwert bieten.
 
Zuletzt bearbeitet:
Zurück