HDR ausprobiert in Resident Evil 7, Shadow Warrior 2 und Hitman

Ich musste mich extra hierfür anmelden, weil es leider eklatante Fehler in der Berichterstattung gibt.

Zuerst einmal ist es ziemlich unsinnig ECHTES HDR zu bewerten auf einem TV, der mit EDGE-Beleuchtung ausgestattet ist. Da es keinerlei Beleuchtungszonen gibt, wie bei einem local gedimmten Gerät (von hinten), ist das HDR bei Edge Geräten eher ein Gimmick und hat mit richtigem HDR leider nix zu tun.

Dass die Hersteller dennoch überall heutzutage HDR draufschreiben liegt daran, das sie sonst die aktuellen TV´s kaum loswerden würden, weil die Konsumer nur danach gehen, was sie mal aufgeschnappt haben und was draufsteht.
Also lieber HDR Light, als gar keins.

Aber von einem Fachmagazin sollte man erwarten, dass solche Tests auf richtigen Geräten durchgeführt werden. Ich empfehle Euch da den KS9590 von Samsung. Der ist derzeit einer der ganz wenigen auf dem Markt, der die wirklich realen HDR Vorgaben hat UND zudem noch die HDR+ Technik, welche nochmals einen draufsetzt.

Nun aber zu dem allerschlimmsten Fehler im Bericht. Das "normale" HDR in den Fernseher ändert rein gar nichts am Input-Lag. Es ist ja kein hinzugeschalteter Bildmodus, sondern von der Funktion her, wie wenn sie am Kontrast rumstellen oder an der Farbe oder Helligkeit.


Der Input-Lag verändert ich NUR bei zusätzlich HDR Modi wie zb. dem HDR+ Modus bei Samsung. Und NUR dabei. Denn diese Funktion arbeitet wie ein Bildverbesserer (zb. wie Motion Plus, digital aufbereiten etc.). Da erhöht sich der Input-Lag. Bei jeglichem "normalen" HDR in den Fernseher ändert sich rein gar nichts.

Habe hier auch für Euch einen Link, damit es gerne nochmal nachschauen könnt. Ob der TV nun in 4K YUV4:4:4 OHNE oder mit HDR läuft als Beispiel, hat keinerlei Auswirkung auf den Input-Lag.

Input Lag of TVs


das mit diesem punkt ist schon mal nicht richtig :

Zuerst einmal ist es ziemlich unsinnig ECHTES HDR zu bewerten auf einem TV, der mit EDGE-Beleuchtung ausgestattet ist. Da es keinerlei Beleuchtungszonen gibt, wie bei einem local gedimmten Gerät (von hinten), ist das HDR bei Edge Geräten eher ein Gimmick und hat mit richtigem HDR leider nix zu tun.

habe den Ks8090 und der hat ebenso max 1500 nit s wie die 9000 serie...und wurde im Test bei digtialfernsehr zb als ein Tv mit ausgezeichneten Hdr getestet welcher sogar den LG oled hinter sich lies...

und auch hier quark:

Nun aber zu dem allerschlimmsten Fehler im Bericht. Das "normale" HDR in den Fernseher ändert rein gar nichts am Input-Lag. Es ist ja kein hinzugeschalteter Bildmodus, sondern von der Funktion her, wie wenn sie am Kontrast rumstellen oder an der Farbe oder Helligkeit.

den nur samsung hat dies im Moment im griff andere Hersteller haben unter hdr oft über 50ms und dies ist sehr wohl eine Veränderung ;)


und das YUV4:4:4 erreichts du sowieso nit mehr als 30 herz weil dies nicht möglich ist für den Hdmi kabel den YUV4:4:4 mit 10 bit ist maximal biss 30 herz möglich sonst weicht man auf 422 aus oder 420 ;)
 
das mit diesem punkt ist schon mal nicht richtig :

Zuerst einmal ist es ziemlich unsinnig ECHTES HDR zu bewerten auf einem TV, der mit EDGE-Beleuchtung ausgestattet ist. Da es keinerlei Beleuchtungszonen gibt, wie bei einem local gedimmten Gerät (von hinten), ist das HDR bei Edge Geräten eher ein Gimmick und hat mit richtigem HDR leider nix zu tun.

habe den Ks8090 und der hat ebenso max 1500 nit s wie die 9000 serie...und wurde im Test bei digtialfernsehr zb als ein Tv mit ausgezeichneten Hdr getestet welcher sogar den LG oled hinter sich lies...

und auch hier quark:

Nun aber zu dem allerschlimmsten Fehler im Bericht. Das "normale" HDR in den Fernseher ändert rein gar nichts am Input-Lag. Es ist ja kein hinzugeschalteter Bildmodus, sondern von der Funktion her, wie wenn sie am Kontrast rumstellen oder an der Farbe oder Helligkeit.

den nur samsung hat dies im Moment im griff andere Hersteller haben unter hdr oft über 50ms und dies ist sehr wohl eine Veränderung ;)


und das YUV4:4:4 erreichts du sowieso nit mehr als 30 herz weil dies nicht möglich ist für den Hdmi kabel den YUV4:4:4 mit 10 bit ist maximal biss 30 herz möglich sonst weicht man auf 422 aus oder 420 ;)

Zuerst einmal SORRY an die PCGamesHardware. Ich habe den falschen Buchstaben gelesen. der Dxw ist ein local gedimmtes Gerät. Also sorry...

Aber zum zweiten Fehler, es ist und bleibt falsch. Erstens hat der 8090er keine 1500 Nits, er hat MAXIMAL bei perfekter Ausleuchtung 1000. Und die Nits haben nur die Aussage, wie hell das Panel angesteuert werden kann. Du bist da leider auch wie soviele auf die "Masche" drauf reingefallen.

Was bringen dir 500, 1000, 1500 Nits, wenn du das HDR nicht dort anzeigen lassen kannst, wo es hingehört? Der 8090er fährt schlicht den Kontrastumfang in die Höhe bei besserer Detailzeichnung. HDR Light halt. Wenn du aber nur einen bestimmtem Bereich im Bild HDR zuführen willst, wie willst du das bewerkstelligen, wenn du nicht DIREKT dahinter anstrahlst? Ja, es geht nicht.

Ein EDGE-Gerät kann kein echtes HDR zeigen. Ist eigentlich auch nicht so schwer zu begreifen denke ich. Ich versuche es dir zu erklären. Nehmen wir mal als Beispiel du hast ein ein schwarzes Blatt Papier mit ein paar Löchern in der Mitte. Diese willst du nun optimal ausleuchten. Eins auf 100% und eins auf 60%. Wie macht man das nun? Direkt dahinter, jedes Loch von einer anderen Beleuchtungszone oder vom Papierrand? Was meinst du hat den vollständigen Effekt? Genau, NUR direkt dahinter. Denn vom Rand bestrahlt haben beide Löcher die gleiche Ausleuchtung.

Und bitte noch als Zusatz. Bitte zeige mir ein Gerät, welches durch das implementierte HDR einen Input-Lag Unterschied hat. Gibt es leider nicht. Denn es gibt auch kein Gerät, dass ihren Input-Lag verändert, wenn du am Helligkeitsregler oder der Farbe etwas änderst.
 
Zuletzt bearbeitet:
Man sollte sowieso bis Mitte des Jahres warten (wenn man das nötige Kleingeld hat) bis die neuen TVs rauskommen, dann haben die OLEDs von LG auch endlich 1000nits Helligkeit und Samsung hat noch mal einen draufgelegt und ist dann bei 2000Nits und einem besseren Schwarzwert.
 
Zuerst einmal SORRY an die PCGamesHardware. Ich habe den falschen Buchstaben gelesen. der Dxw ist ein local gedimmtes Gerät. Also sorry...

Aber zum zweiten Fehler, es ist und bleibt falsch. Erstens hat der 8090er keine 1500 Nits, er hat MAXIMAL bei perfekter Ausleuchtung 1000. Und die Nits haben nur die Aussage, wie hell das Panel angesteuert werden kann. Du bist da leider auch wie soviele auf die "Masche" drauf reingefallen.
Was bringen dir 500, 100, 1500 Nits, wenn du das HDR nicht dort anzeigen lassen kannst, wo es hingehört? Der 8090er fährt schlicht den Kontrastumfang in die Höhe bei besserer Detailzeichnung. HDR Light halt. Wenn du abe nur einen bestimmtem Bereich im Bild HDR zuführen willst, wie willst du das bewerkstelligen, wenn du nicht DIREKT dahinter anstrahlst? Ja, es geht nicht.

ich verlinke dir mal den link max wert 1500 nits !

und das andere ist wie gesagt nicht wirklich so wie du es schreibst weil es in verschiedenen test auch schon gezeigt wurde wie gesagt der 8090 hat bei hdr den lg oled hinter sich gelassen!

und das war ein Hdr test mit Messgeräten!



ich finde Grad das Test Video nicht aber er hat 1000 nits wie auf der ersten Seite geschrieben er hat im Test einen maximal auschlag biss 1500 erreicht halten kann er die natürlich nicht daher ja auch max. er hällt die 1000 nits der 9000 Schaft 1250 nits ....



nachtarg: hab da wohl was Durcheinander gebracht der Sony war der der max 1500 schaffte der 9000 1250 und der 8090 max 1100 so aber ändert ja im Grunde nichts an den gesagten ;)


im übrigen kann man ja alle vergleichen bei uns im Tv shop steht zb der ks8090 neben den 9000 und auf beiden geht HDR und mit bloßem Auge erkennst du 0,0 unterschied !
 
Zuletzt bearbeitet:
Man sollte sowieso bis Mitte des Jahres warten (wenn man das nötige Kleingeld hat) bis die neuen TVs rauskommen, dann haben die OLEDs von LG auch endlich 1000nits Helligkeit und Samsung hat noch mal einen draufgelegt und ist dann bei 2000Nits und einem besseren Schwarzwert.

samsungs qoled wäre ja sehr interessant wurde ja vorgestellt mal sehen wann sie dann kommen ;)
 
Und noch einmal, dann lasse ich es.

Die NITS habe rein gar nichts damit zu tun, wie gut das HDR ist. Es besagt nur, wie hell dein Gerät angesteuert werden kann. Es ist also vollkommen egal. Auch vollkommen egal, ob er den LG OLED geschlagen hat. Was absolut derzeit keine Kunst ist, da die OLEDs alle noch in den Kinderschuhen stecken und mit der Spitzenhelligkeit noch Probleme haben wie die Plasmas zuvor.

Also bitte verwechsel nicht weiterhin NITS mit HDR. Zweiteres profitiert natürlich SEHR davon, aber wenn ein Gerät viel Nits hat, heißt es noch lange nicht, dass es echtes HDR darstellen kann.

Und ja der 8090er ist ein TOP-Gerät, kann aber kein echtes HDR Punkt!

Und das was getestet wurde, ist die THEORETISCHE Möglichkeit bei HDR. Aber auf das GANZE Bild bezogen. Solche Test sind reine Kundenverarsche. Und es wirkt wie man sieht.

Aber ganz ehrlich, ich denke der eigene Verstand sagt einem, was der Unterschied ist, wenn der TV von der Seite beleuchtet wird oder wenn er mit hunderten Zonen von hinten individuell beleuchtet wird. Mehr braucht man da nicht.

Was meinst du wovon Testmagazine leben? Von Geld! Und wenn jetzt 4 von 5 Geräten kein echtes HDR derzeit möglich ist und sie das permanent anprangern würden, was meinst du wieviele Geräte sie noch zum Testen bekommen würden von den Herstellern? Wenige bis gar keine. Es sind auch nur normale Jobs die daran hängen. Also habe sie alles Aussagen "gelöscht" die es 2014 und 15 noch in MASSEN gab bzgl. EDGE kein HDR und gehen diesen HDR-Light Müll halt mit.
 
Man sollte sowieso bis Mitte des Jahres warten (wenn man das nötige Kleingeld hat) bis die neuen TVs rauskommen, dann haben die OLEDs von LG auch endlich 1000nits Helligkeit und Samsung hat noch mal einen draufgelegt und ist dann bei 2000Nits und einem besseren Schwarzwert.

Viel wichtiger wären die derzeitigen OLED Probleme zu beseitigen. Denn derzeit brennen selbst bei den Top-Modellen Logos ein, wie zu besten Plasma Zeiten. Ausserdem wäre es immens wichtig, das Problem mit den blauen LEDs in den Griff zu bekommen, die derzeit noch VIEL schneller an Leuchtkraft nachlassen als seine anderen "Farbkollegen", was Farbverfälschungen nach 1-2 Jahren nach sich zieht.

Aber einen perfekten TV wirds nie geben. Ich wünsche mir ebenfalls irgendwann dann meinen 9590er gegen einen OLED mit mindestens 2000 Nits austauschen zu können, der kein Nachleuchten oder Einbrennen hat. Aber das dauert noch mindestens 2-3 Jahre.


PS: was mir gerade als perfektes Beispiel einfällt, wie man am besten zeigen kann, worin der krasse Unterschied zwischen EDGE und LocalDimming liegt bei HDR ist die Szene bei Uncharted 4, wo sie in der Nacht aus einem Anwesen fliehen müssen und die Wachen alle mit Taschenlampen nach einem suchen. Spätestens da erkennt man den deutlichen Unterschied, was mit Aussenbeleuchtung nicht möglich ist. Am besten im Direktvergleich mal angucken, wenn die Möglichkeit besteht.
 
@zukolada
besser konnte man die ganze hdr-problematik nicht erklären. aber es war klar, dass sobald irgendwo ein hdr-sticker draufgeklebt wird oder mit irgendwelchen ach so hohen nits werten geprahlt wird genug leute getäuscht werden. oled kann den hdr-effekt am besten darstellen, da einfach jeder einzelne pixel selbstleuchtend ist allerdings hat man dann noch die oled spezifischen probleme mit denen man sich rumärgern muss (einbrennen, haltbarkeit, nicht die gleiche helligkeit wie lcd). ansonsten bleiben nur der ks9590 und der sony zd9 die es am besten darstellen können.
 
Ausserdem wäre es immens wichtig, das Problem mit den blauen LEDs in den Griff zu bekommen, die derzeit noch VIEL schneller an Leuchtkraft nachlassen als seine anderen "Farbkollegen", was Farbverfälschungen nach 1-2 Jahren nach sich zieht.

Dieses Problem existiert eigentlich nicht mehr da LG dieses Problem umgeht in dem sie nur weiße OLEDs bei ihren Fernsehern einsetzen!

Aber einen perfekten TV wirds nie geben. Ich wünsche mir ebenfalls irgendwann dann meinen 9590er gegen einen OLED mit mindestens 2000 Nits austauschen zu können, der kein Nachleuchten oder Einbrennen hat. Aber das dauert noch mindestens 2-3 Jahre.]

Für mich persöhnlich ist das Bild eines OLED TV mit seinem tiefen Schwarzwert jedem Hell erleuchteten LED TV vorzuziehen. Das einzige was mich vom Kauf eines OLED TV im Momment noch abhält ist das Einbrennen, wobei ich einfach nicht sicher bin wie sich das mit dem Einbrennen im Altagsbetrieb so verhält?
 
Ich selber Nutze einen Hisense H49MEC3050 und bin mir nicht sicher ob die HDR Funktion so funktioniert wie gewollt... RE7 ist gefühlt viel zu dunkel... und das ganze umgestelle am TV nervt eigentlich mehr als das es einem etwas bringt... RE7 sieht zwar nun auch in HDR angenehmer aus... aber nicht unbedingt besser als im "normalen" Modus... Hat jemand evtl. den gleichen TV und Tips für mich? :D
 
Und noch einmal, dann lasse ich es.

Die NITS habe rein gar nichts damit zu tun, wie gut das HDR ist. Es besagt nur, wie hell dein Gerät angesteuert werden kann. Es ist also vollkommen egal. Auch vollkommen egal, ob er den LG OLED geschlagen hat. Was absolut derzeit keine Kunst ist, da die OLEDs alle noch in den Kinderschuhen stecken und mit der Spitzenhelligkeit noch Probleme haben wie die Plasmas zuvor.

Also bitte verwechsel nicht weiterhin NITS mit HDR. Zweiteres profitiert natürlich SEHR davon, aber wenn ein Gerät viel Nits hat, heißt es noch lange nicht, dass es echtes HDR darstellen kann.

Und ja der 8090er ist ein TOP-Gerät, kann aber kein echtes HDR Punkt!

Und das was getestet wurde, ist die THEORETISCHE Möglichkeit bei HDR. Aber auf das GANZE Bild bezogen. Solche Test sind reine Kundenverarsche. Und es wirkt wie man sieht.

Aber ganz ehrlich, ich denke der eigene Verstand sagt einem, was der Unterschied ist, wenn der TV von der Seite beleuchtet wird oder wenn er mit hunderten Zonen von hinten individuell beleuchtet wird. Mehr braucht man da nicht.

Was meinst du wovon Testmagazine leben? Von Geld! Und wenn jetzt 4 von 5 Geräten kein echtes HDR derzeit möglich ist und sie das permanent anprangern würden, was meinst du wieviele Geräte sie noch zum Testen bekommen würden von den Herstellern? Wenige bis gar keine. Es sind auch nur normale Jobs die daran hängen. Also habe sie alles Aussagen "gelöscht" die es 2014 und 15 noch in MASSEN gab bzgl. EDGE kein HDR und gehen diesen HDR-Light Müll halt mit.

Ich verwechsle keine nits mit hdr ich sage dir nur das du wenn du beide nebeneinander stehen hast kein Unterschiede mit dem Auge wahrnehmen kannst und wen dem so wäre wie du es schilderst(das es so krasser unterschied ist) dann würde man es ja sehen oder?

mir ist es egal da der 8090 e wieder weg kommt und ich überlege auf der 9 serie zu setzen oder auf qled zu warten aber Fakt ist nur das man kein unterschied merkt habe beide mit hdr vor den Augen gehabt und null sehen können um ehrlich zu sein war ich sogar mit meinen js9000 mehr zufrieden als mit dem 8090 aber das ist wieder eine andere sache...

ich verwechsle keine nits mit hdr aber es geht darum das du sagts es ist ein Riesen unterschied und das ist leider nicht korrekt!

oled kommt mir nicht ins haus zu viele Nachteile :

nachleuchten

einbrennen auch noch möglich

hdr weit weg vom qualitäts- Standard

und Farbverlust in den Jahren wegen der blauen led usw..

das Beispiel mit den Taschenlampen wird sicher sein das ist eben der voreilt vom direct led....aber bei den meisten Hdr hab ich zumindest im laden kaum oder gar kein unterschied zur 9000 serie sehen können ..

aber die restlichen Sachen sind schlicht nicht korrekt

die Sache mit dem input lag unter hdr ist bei anderen echt ein Problem ...

ebenso die Darstellung von yuv 444 bringt dich beim hdmi auf 30 herz ud da willst ga nicht erst zocken daher meist 420 oder 422 mit 60 herz und 10 bit wobei auch die 10 bit bei spielen Quark sind da die spiele meist in 8 bit sind einziges Spiel ist alien was ich mich erinnere alle anderen laufen in 8 bit...
 
Zuletzt bearbeitet:
Wer auf Oled Panels von Samsung wartet wird dies, aktueller Stand ,wohl bis zum Ende seiner Tage .Samsung setzt derzeit voll auf QuantumDot Technik und hat sich von Oled Panels bei TVs und Monitoren erstmal verabschiedet .War auch in der Print von PCGH in einer der letzten Ausgaben eine Samsung Aussage in einem Interview mit mehreren Herstellern dazu drin .

Habe vor kurzem von einem 46" Samsung FHD auf ein 55" LG mit UHD IPS Quantum Dot Panel inkl. HDR & DolbyVision gewechselt anstatt eines Oled .Oled noch zu teuer und noch mit zu vielen Kinderkrankheiten .Aber der Bildqualitätsunterschied ist auch ohne Oled schon gewaltig .Nie wieder würde ich mir einen TV aufgrund der größe der Bildfläche mit FHD antun nachdem ich den direkten Vergleich habe .

Bei Netflix UHD Abo gibt es Filme/Serien die HDR oder DolbyVison haben wobei ich zwar einen leichten Mehrwert erkennen kann als einen WoW Effekt würde ich es noch nicht unbedingt bezeichnen .Der letzte Teil vom Hobbit ist zwar nur als FHD Stream auf Netflix aber beim erneuten anschaun auf dem neuen LG ist mir trotzdem die Kinnlade runtergeklappt was die Bildqualität betrifft auch ohne HDR oder Vision Verbesserung .


Mfg
 
Zuletzt bearbeitet:
Hm.... der test ist nicht wirklich Aussagekräftig.
Und die Fotos? Das sieht eher so aus, als hätten die keinerlei lust HDR gut aussehen zu lassen.





Ein großes problem ist, das wenige wissen was HDR wirklich bedeutet und das es auchnoch von den ehrstellern, dem Marketing und leider auch "Journaolisten" es mit HDR10 gleichsetzen.


HDR bedeutet einfach nur high dynamic range - sagt rein garnichts über die Bild-Qualität oder Helligkeit aus.
HDR10 ist ein standart der 10 bit Farbtiefe und 1000 nits vorschreibt. Auch dies sagt wenig über die Qualität aus.



was braucht HDR damit es gut aussieht?
Relativ einfach
höhere bit-Tiefe der einzellnen Farbkanäle - 10 bit sind ein anfang, 12 bit wäre weit besser, 16 bit ist schon wieder fast das ende der Fahnenstange.
Die erlaubt eine feinere Abstufung der Farben und reduziert die oft stark sichtbaren Farbbänder.

Leuchtkraft
Das Bild muss wirklich hell sein können, damit man auch die Vorteile der vielen Farbabstufungen nutzen kann.
1000 nits sind ein guter anfang, 10 000 nts würde dann der Helligkeit eines schönen Sommertags entsprechen - erst damit kann dann auch ein Sonnenuntergang wirklich realistisch und schön aussehen, oder zB das glitzern von Schnee dargestellt werden.

Schwarzwerte
Es hilft nicht viel, wenn der Bildschrim nur Hell ist - eine Glühbirne schafft das auch.
Dunkle Stellen müssen auch entsprechend schwarz sein damit man im Dunklen noch details erkennen kann. Gut zu sehen wenn man in der nacht alle Lichter aus macht. Slebst ein komplet schwarzers Bild ist auf den meisten Monitoren noch weit heller als ein dunkler Raum in dem man noch sehen kann. Wichtig vorallem für Nacht-szenen.


Und was meist unterschlagen wird: die möglichkeit beide extreme - sehr hell als auch sehr dunkel - gleichzeitig darzustellen. ansosnten sind die 10 bit für die Katz.
zB ein Feuerwerk. Am Boden gibt es genug helle Beleuchtungen, der himmel beinahe pechschwarz, udn dann das leuchtende Feurerwerk.
Hierfür ist eine direkte per Pixel beleuchtung natürlich das beste, Edge-light das schlechteste bzw schon fast ungeeignet.
 
Also bis auf Resident Evil 7 fand ich das SDR Bild immer besser. In dem Bild von Shadow Warrior wird der Hintergrund schon so extrem hell, dass man kaum noch was erkennen kann. Ob sich HDR durchsetzen wird? Ich glaubs nicht. Wird genauso dahinscheiden wie 3D.
 
ja samsung kann hdr gut darstellen aber es kommt eben auf die hintergrundbeleuchtung beim lcd tv an. du selbst stellst ja hier ein video zur verfügung, was den ks9590 zeigt, der wiederum ein full array local dimming system benutzt und nicht wie die anderen zb. ks9090 und wie sie alle heißen die nur eine edge-beleuchtung haben und deshalb hdr nicht optimal darstellen können.
 
Denke das Problem liegt sowohl bei den Herstellern von Monitoren/TVs, als auch bei den Spielen und an den Standards.

Im Standard-Jungel blickt bei HDR doch kein Mensch mehr durch, jeder kocht sein eigenes Süppchen. Nur HDR10 scheint langsam die Mehrheit zu werden.
Bei den Monitoren für PCs tut sich auch sehr wenig, hoffentlich kommt da dieses Jahr mal was. Aber solange es keine Spiele dafür gibt, besteht auch wenig Anreiz für die Hersteller solche Monitore zu bauen.
Bei den Spielen ist es genau gleich, solange kaum Monitore da sind, wird sich auch niemand um eine ernsthafte Implementation mühen - sieht am Ende ja sowieso keiner. Ein klassisches Henne-Ei Problem.

Ich denke dass HDR generell schon viel bringen kann, sofern man sich mal auf einen Standard einigt und entsprechende Monitore großflächig verfügbar sind. Da ja die bisherigen TVs anscheinend alle ein mehr oder weniger unterschiedliches Bild liefern (weil jeder noch 50 Bildverbesserungen und Dynamikausgleiche usw. reinbastelt und es keinen gescheiten Standard gibt), ist es auch kein Wunder, dass die Spiele bisher nicht so toll aussehen. Wer weiß mit welchen Einstellungen und an welchem TV/Monitor die Entwickler getestet und für gut befunden haben. Wenn mein TV das Signal dann völlig anders interpretiert ist es ja kein Wunder, dass das Bild am Ende nicht so der Burner ist. Zumal die Spiele vermutlich auch nicht die allergrößten Anstrengungen erfahren haben, HDR's volles Potential zu nutzen.

Erste Monitore kommen doch dieses Jahr auf den Markt und anscheinend haben die einfach auf DP 1.4 für dem HDR 10 Support gewartet und wollten nicht HDMI 2.0a nutzen. Spiele sind wie man bei der PS4 oder Xbox One sieht weniger das Problem. Jedes größere Spiel kommt mit HDR und viele ältere wurden entsprechend gepatched. Was man jetzt braucht sind einfach nur entsprechend gute Displays mit entsprechender Hintergrundbeleuchtung wo viele Zonen separat angesteuert werden können. Der Asus PG27UQ schaut ganz gut aus mit Quantum Dot und 384 Zonen die angesteuert werden können. Die veranschlagten 2000€ sind erstmal happig aber in 1-2 Jahren werden die Preise unter 1000€ fallen wie damals mit den 4k Monitoren.

Was die Standards angeht gehen die meisten auf HDR10 weil der offen, kostenlos und geringere Voraussetzungen hat als z.B. Dolby Vision. Auf dem PC wird sich wohl HDR10 als Standard etablieren da es von Windows 10 und DP1.4 unterstützt wird.
 
Viel wichtiger wären die derzeitigen OLED Probleme zu beseitigen. Denn derzeit brennen selbst bei den Top-Modellen Logos ein, wie zu besten Plasma Zeiten. Ausserdem wäre es immens wichtig, das Problem mit den blauen LEDs in den Griff zu bekommen, die derzeit noch VIEL schneller an Leuchtkraft nachlassen als seine anderen "Farbkollegen", was Farbverfälschungen nach 1-2 Jahren nach sich zieht.


Da muss ich dich verbessern.;)
Bei Plasmas ist nichts eingebrannt, zumindest nicht im eigentlichen Sinn. Helle Inhalte führen nur zu Geisterbildern, die aber im Gegensatz zum "richtigen" Einbrennen vorübergehend sind und verschwinden, wenn das Gerät länger ausgeschaltet ist oder wechselnde Bildinhalte angezeigt werden. Beim Einbrennen durch unterschiedlich gealterte LEDs geht das ja nicht. Zumal sich der Effekt mit mehr Laufzeit auch deutlich legt. Wer also nicht in den ersten hundert Betriebsstunden durchgehend denselben Sender guckt oder dasselbe Spiel spielt hat nichts zu befürchten.;)
Bei meinem Panasonic hat sich zumindest in jetzt 9 Jahren nichts eingebrannt.

Vielleicht hast du dich nur ungenau ausgedrückt, aber mir tut es immer ein bisschen weh, wenn eine der "Mythen" zur Sprache kommt, die dazu geführt haben, dass die eigentlich überlegenen Plasmas durch die für die Hersteller deutlich günstigeren LCDs verdrängt wurden... (eben dieses "Einbrennen, der angeblich exorbitante Stromverbrauch usw.)

Und ich werde ihn "leider" weiter nutzen müssen. Wirklich brauchbare und überlegene LCDs sind schlicht zu teuer. Wenn man bedenkt, dass der Panasonic, der damals durchaus nicht das Einsteigermodell war, knapp über 1000€ gekostet hat und wenn man jetzt die Bildqualität sieht, die man bei den Edge-LED-Modellen für ähnliches Geld bekommt, dann vergeht einem die Lust aufs Aufrüsten. Dann lieber warten, bis endlich eine vernünftige Technologie den Massenmarkt erreicht. An OLED glaube ich nicht mehr, nachdem bis auf LG alle Hersteller abgesprungen sind (oder?). Mal schauen, was die Zukunft bringt.
 
ja samsung kann hdr gut darstellen aber es kommt eben auf die hintergrundbeleuchtung beim lcd tv an. du selbst stellst ja hier ein video zur verfügung, was den ks9590 zeigt, der wiederum ein full array local dimming system benutzt und nicht wie die anderen zb. ks9090 und wie sie alle heißen die nur eine edge-beleuchtung haben und deshalb hdr nicht optimal darstellen können.

jup das localdiming besser ist streite ich nicht ab ich sage nur das die anderen auch hdr können und das sigar sehr gut und ich die Bezeichnung : light hdr als falsch sehe!

Loca Dimiig hat voreilte die nicht von der Hand zuweisen sind jedoch kann auch der nicht loca hdr gut darstellen auch auf dem Punkt siehe hier:

UHD TV Test Samsung JS8090 und Sony S8505C - YouTube

mann ich finde denn richtigen Test einfach nicht mehr naja egal..oooooooooo endlich hier der Test hier wird das hdr vs den 9590 verglichen !!! und was sagt er?? genau sehr gru t Ausleuchtung genau auf dem Punkt bei minute 7.51 kaum ein unterschied !!und genau das meine ich andauernd!


Samsung UE 55 KS8090 UHD HDR Quantum Dot TV im Test - YouTube


sorry hat etwas gedauert aber hab die video auch nicht alle gespeichert und ist halt immer so wenn man was sucht findet man es nie ;)


und bitte genau hin hören ab minte 8 ....kaum ein unterschied zu direct led ... und das ist was ich andauernd sagte nicht das ich nits verwechsle mann mann



das es Unterschiede gibt ist klar aber das es fake hdr ist ist Quark !
 
Zuletzt bearbeitet:
Zurück