HDR ausprobiert in Resident Evil 7, Shadow Warrior 2 und Hitman

Hat der TV denn dafür überhaupt, den nötigen 18 Gb HDMI Chip verbaut um 4:4:4 Chroma Werte mit 60 HZ in 4 K bandbreitentechnisch zu staemmen?


Da wird wohl der Hase im Pfeffer liegen, warum er 60HZ nicht freigibt, mit allen Optionen am Anschlag

geau das sage ich ja du kriegst kein 4.4.4 mit 10 bit und 60 herz keine Chance!!

erst mit dem kommenden Hdmi Standard aber der aktuelle never!
 
Die könnten den Fury Linker davor schalten ,und das Ganze in FHD reproduzieren, für die entsprechenden HDR Ergebnisse, muss ja nicht zwingend 4K sein für diesen Test hier

Dann machen das auch die "antiquierten" HDMI Chips mit
 
Also deutlich wird es ja bei Shadow Warrior. Schon sehr geil. Kann mir jemand sagen, ob mein Monitor (Signatur) HDR dank der 10bit Farbtiefe kann? Hat man denn bei den 10er Nvidia auch die Option wenn der Monitor es nicht kann, bzw. kann man dies dann einfach einstellen? Da ich auf die 1080Ti warte würde dies ja dann spätestens zu testen sein, vorher das Wissen darüber zu erlangen wäre Prima ;)...
 
Von der Bandbreite her sollte das kein Thema für den sein das zu wuppen über Displayport

Nur eben nicht über HDMI, da er sicher auch keinen der neuen 18Gbs Chips integriert hat
 
Also bis auf Resident Evil 7 fand ich das SDR Bild immer besser. In dem Bild von Shadow Warrior wird der Hintergrund schon so extrem hell, dass man kaum noch was erkennen kann. Ob sich HDR durchsetzen wird? Ich glaubs nicht. Wird genauso dahinscheiden wie 3D.

Du siehst ja hier in dem Vergleichsvideo auch kein HDR, dazu brauchst du ja einen HDR Monitor. :)
 
Zitat aus dem Artikel "Dabei sollen die AMD-GPUs die HDR-Ausgabe nur mit 8-Bit-Abtastung unterstützen, da HDMI 2.0a nicht genügend Bandbreite für UHD in 10 Bit hat. In unserem Fall mit der GTX 1070 konnten wir in der Nvidia-Systemsteuerung mit angeschlossenem HDR-TV eine Farbtiefe zwischen 8 Bit und 12 Bit wählen. Da kein Unterschied zwischen beiden Optionen festzustellen war, haben wir stets 12 Bit aktiviert gelassen. Zudem fuhren wir im RGB-Modus am besten - ein YCbCr-Farbmodell verfälschte stark die Farben."

Also ist das jetzt einfach nur Unwissen oder schon fast bewusste Täuschung? Es wird suggeriert, dass Amd Polaris einen Nachteil ggü. Nvidia Pascal bzgl. HDR hat.
Anders kann ich das nicht lesen, da 2 Aussagen hintereinander geklatscht werden, die überhaupt nichts miteinander zu tun haben.
Es glaube jetzt vll.noch Leute Nvidia könnte UHD 12bit HDR über "G-Hdmi" bei 4:4:4 Abtastung fahren...
.... Abgesehen davon, dass wir von nativen 12-bit Panels noch Jahre entfernt sind.


Es sollte erwähnt werden, dass auch Nvidia mit der Bandbreitenbeschränkung von HDMI 2.0a/b umgehen muss. Es sollte erwähnt werden, dass es über Display Port 1.3 diese Bandbreitenbeschränkung nicht gibt, noch Platz nach oben ist (UHD, 10bit HDR bei 4:4:4 möglich)

Die Fakten:

- die meisten aktuellen Spiele werden eh nativ in 8bit gerendert, deshalb würde eine Ausgabe in 10bit Stand heute auch keinen Unterschied machen.
- Polaris kann sehr wohl 10bit HDR in UHD/1440p über HDMI ausgeben. So gesehen bei der PS4 Pro welche dies in Spielen wie Uncharted 4 bereits tut. Allerdings bei Farbunterabtastung bzw. im Format YUV 4:2:2 statt der vollen Abtastung (YUV 4:4:4) um die Bandbreite von HDMI nicht zu überschreiten.
-Alle bisher erschienenen PC Spiele mit HDR (3 an der Zahl) nutzen bei Amd als auch Nvidia Grafikkarten ein proprietäres Format. Wenn bei Nvidia die Ausgaben von 10bit HDR in UHD über Hdmi gelingt, gehe ich davon aus, dass da auch eine geringe Farbabtastung (4:2:2) vollzogen wird oder halt andere Tricksereien.
Nvidia äußert sich dazu bisher nicht.

Die anderen User habe ja bereits alles zu dem verwendeten Fernseher bzw. zu geeigneten Displays allgemein gesagt. Insbesondere Casurin.
Diesen PCGH Artikel finde ich insgesamt nicht hilfreich. "Ausprobiert" ist sicher das richtige Stichwort.
 
Zuletzt bearbeitet:
Kann mir jemand sagen, ob mein Monitor (Signatur) HDR dank der 10bit Farbtiefe kann? Hat man denn bei den 10er Nvidia auch die Option wenn der Monitor es nicht kann, bzw. kann man dies dann einfach einstellen?

Also er kann 10 bit farbtiefe Darstellen. hat damt also durchaus HDR.
Aber nicht der HDR10 Standard der normalerweise nur als HDR angepriesen wird, da er dafür zu dunkel ist (300 vs 1000 nits).
 
Also er kann 10 bit farbtiefe Darstellen. hat damt also durchaus HDR.
Aber nicht der HDR10 Standard der normalerweise nur als HDR angepriesen wird, da er dafür zu dunkel ist (300 vs 1000 nits).

Ok danke, damit ich dass ganz verstehe werde ich mich noch ein wenig einlesen. Dass mit den nits sagt mir nix.
 
Ich verwechsle keine nits mit hdr ich sage dir nur das du wenn du beide nebeneinander stehen hast kein Unterschiede mit dem Auge wahrnehmen kannst und wen dem so wäre wie du es schilderst(das es so krasser unterschied ist) dann würde man es ja sehen oder?

mir ist es egal da der 8090 e wieder weg kommt und ich überlege auf der 9 serie zu setzen oder auf qled zu warten aber Fakt ist nur das man kein unterschied merkt habe beide mit hdr vor den Augen gehabt und null sehen können um ehrlich zu sein war ich sogar mit meinen js9000 mehr zufrieden als mit dem 8090 aber das ist wieder eine andere sache...

ich verwechsle keine nits mit hdr aber es geht darum das du sagts es ist ein Riesen unterschied und das ist leider nicht korrekt!

oled kommt mir nicht ins haus zu viele Nachteile :

nachleuchten

einbrennen auch noch möglich

hdr weit weg vom qualitäts- Standard

und Farbverlust in den Jahren wegen der blauen led usw..

das Beispiel mit den Taschenlampen wird sicher sein das ist eben der voreilt vom direct led....aber bei den meisten Hdr hab ich zumindest im laden kaum oder gar kein unterschied zur 9000 serie sehen können ..

aber die restlichen Sachen sind schlicht nicht korrekt

die Sache mit dem input lag unter hdr ist bei anderen echt ein Problem ...

ebenso die Darstellung von yuv 444 bringt dich beim hdmi auf 30 herz ud da willst ga nicht erst zocken daher meist 420 oder 422 mit 60 herz und 10 bit wobei auch die 10 bit bei spielen Quark sind da die spiele meist in 8 bit sind einziges Spiel ist alien was ich mich erinnere alle anderen laufen in 8 bit...

Natürlich warst du mit deinem JS9590er (local gedimmter TV) mehr zufrieden, da es ein besseres Gerät als der 8090er (EDGE-LED) ist. Sorry, aber du kennst dich leider bei den Geräten zu wenig aus. Bitte nicht angegriffen fühlen. Die Steigerung zum JS9590er ist NUR der KS9590er.

Denn auch deine Aussage, du hast keinen Unterschied zwischen der 9000er Serie aktuell sehen können. Es gibt keine reine 9000er Serie. Der 9090er ist ein EDGE LED und der 9590er ist ein Local Dimming (FullArray) Gerät. Also VOLLKOMMEN unterschiedliche Geräte.

Der 9090er ist absolut identisch zum 8090er, ausser dass der 9090er ein Curved Display hat. Wahrscheinlich hast du den 8090er und den 9090er nebeneinander gesehen und gedacht, es sei ein Vergleich zwischen zwei unterschiedlichen Klassen. Dass du im Endeffekt das gleiche Gerät dir angesehen hast, hast wohl nicht gewusst.

Denn wer zwischen dem 9590er und dem 8090er keinen Unterschied bei HDR bei gleichem Material sieht, der ist blind. Das ist sogar für Leute ersichtlich, die nicht mal wissen, was HDR ist. Und du kannst dir gerne weiterhin versuchen durch irgendwelche "Tests" dir die Sache schönzureden. Ich bin mir aber GANZ sicher, dass dir die eigene Logik sagt, wie groß der Unterschied ist, wenn 400 Zonen einzeln gedimmt werden können und bei deinem TV nur 1! Und warum manche "Blätter" das gern schönreden, habe ich erklärt.

Und ich weiß nicht, warum du immer wieder erzählst, dass es über den derzeitigen 2.0b HDMI Standard nicht geht mehr als 30Hz bei 4:4:4 YUV darzustellen. Das ist jedem klar, der sich damit auskennt. Ich kann nix dafür, dass die verlinkte Seite den Vergleich für die Input-Lags mit den Werten gewählt hat. Es sollte nur aufzeigen, dass es Schwachsinn ist, dass der normale HDR Modus sich auf den Input-Lag auswirkt, da es kein Bildverbesserer ist wie zb. Motion Plus. Das kann man auch auf vielen anderen Seiten nachlesen. Es ist halt so blödsinnig, als wenn man nunmal sagen würde, je höher ich die Helligkeit im TV stelle, desto schlechter wird der Input-Lag. NUR HDR+ (PLUS) zb. wirkt sich drauf aus.

Also wie gesagt, gucke dir in einem Fachhandel mal beide Geräte (KS8090 und KS9590) nebeneinander an. Wo auch das Bild perfekt eingestellt ist und nicht in einem MediaMarkt, wo nix ordentlich eingestellt ist und auf dynamisch läuft. Du wirst sehen, wie immens die Unterschiede sind. Du kannst dir wohl denken, warum ich mich extra für diesen Thread angemeldet habe. Denn ich arbeite seit 21 Jahren Im TV-Fachhandel Ein- und Verkauf und bin TV-Techniker. Deshalb lassen einen solche Berichte nicht kalt und möchte das gern klarstellen, wie die Technik wirklich funktioniert.

Zu demjenigen der zu mir hier meinte, die Plasmas der letzten Jahre hatten nur Nachleuchten und kein Einbrennen. Und es sei ein "Mythos", da musste ich sehr schmunzeln. Allein der STW60 von Pana kam bei mir zu Reparatur wegen kompletten Einbrennern in Scharen zurück. Auch der VT50 war ein ganz großer Kandidat auf dem Gebiet. Aber sicherlich haben die meisten "nur" noch Nachleuchten gehabt, dem stimme ich zu. Aber für die OLEDs ist das ein absolutes NO-GO, da es bei höherwertigen Komponenten nicht diese "Plasma-Probleme" haben müsste... Deshalb bin ich SEHR enttäuscht von allen Modellen die ich bei mir durchlaufen ließ und habe sie derzeit komplett aus dem Programm genommen, weil ich da beim Verkauf nicht hinter stehen kann.
Wenn man vom technischen Niveau der Komponenten ausgeht, dann ist es gerade bei den High-End OLEDs ein Armutszeugnis. Es steht in keinem Verhältnis zu den derzeitigen Verkaufspreisen.

Und um es klarzustellen. ALLE OLEDs haben derzeit auch IMMENSES Nachleuchten. Ein "echtes" Einbrennen gibt es zwar nicht, aber wenn zb. ein Gerät den ganzen Tag den gleichen Sender mit dem gleichen Logo hat oder man stundenlang ein Game zockt wo eine Anzeige immer an der gleichen Stelle steht, gibt es ein fast identisches Problem. Nämlich LED Leuchtkraftverlust an dieser Stelle. Zwar dezent, ABER auf einfarbigen Hintergründen zu sehen und können störend werden. Bei Plasma sah man es vorallem beim weißen Hintergrund aufgrund des Einbrennens und bei den OLEDs aufgrund des "Verlustes" auf farbigen Hintergründen. Ergo man kann nicht von Einbrennen reden, aber vom fast identischen Problem. Vorallem der E6er ist ein ganz toller Kandidat bei dem Mist.
 
Bei allem Respekt, ihr irrt euch gewaltig! Der Test wurde fehlerhaft durchgeführt. Ich erziele auf meinem TV grandiose Ergebnisse in Sadow Warrior 2 und Resident Evil 7. Ihr habt nicht mal die 4K Auflösung korrekt eingestellt bekommen, ich Zweifel stark an einer aussagekräftigen Ausführung. Ich habe zudem weder ein Input lag noch Risse im Bild (Vsync on). Ihr solltet den Test mit einem aktuellen HDR TV wiederholen, am besten mit UHD Premium Logo. Stellt den genutzten Eingang auf PC um. Aktiviert im TV Menü UHD Depp Colour. Nutzt für die Verbindung ein echtes HDMI 2.0a Kabel für mindestens 20€+. Nun geht ihr am PC in die Einstellungen, dort wählt ihr 3840 x 2160, Farbmodus YcBcR 4:2:0, 12 Bit. Bestätigt das ganze und geht ins Spiel, hier solltet ihr HDR aktivieren und dann zurück ins TV Menü, dort HDR Spiel auswählen oder HDR dynamisch, dabei TrueMotion etc. deaktivieren. Nun im Spiel etwas an den Helligkeits Einstellungen und Gamma werten rum probieren. Ihr müsst ein deutlich brillantes Bild erhalten mit hohen Kontrasten und schier endlosen Farben mit perfekten Farbverläufen. Wenn nicht, dann habt ihr entweder etwas falsch gemacht oder der TV taugt nichts oder das Kabel ist kein echtes HDMI 2.0a. Bei Fragen schreibt mir, wenn ihr wollt komm ich vorbei. Helf euch beim Test. Also viel Glück. Lg
 
Und um es klarzustellen. ALLE OLEDs haben derzeit auch IMMENSES Nachleuchten. Ein "echtes" Einbrennen gibt es zwar nicht, aber wenn zb. ein Gerät den ganzen Tag den gleichen Sender mit dem gleichen Logo hat oder man stundenlang ein Game zockt wo eine Anzeige immer an der gleichen Stelle steht, gibt es ein fast identisches Problem. Nämlich LED Leuchtkraftverlust an dieser Stelle. Zwar dezent, ABER auf einfarbigen Hintergründen zu sehen und können störend werden. Bei Plasma sah man es vorallem beim weißen Hintergrund aufgrund des Einbrennens und bei den OLEDs aufgrund des "Verlustes" auf farbigen Hintergründen. Ergo man kann nicht von Einbrennen reden, aber vom fast identischen Problem. Vorallem der E6er ist ein ganz toller Kandidat bei dem Mist.

Wie ich dieses Argument langsam nicht mehr hören oder auch lesen kann. Dieses Problem gibt es in gewissem Maße, aber:

Einen lokalen Leuchkraftverlust gibt es nicht. Gibt es sicher schon, aber erst nach mehreren tausend Stunden Betrieb mit dem selben statischen Logo. Bei hellen statischen Bildelementen regeln die OLEDs nach knapp einer Minute automatisch die Helligkeit in diesem Bereich runter um eben genau dies zu verhindern. Vielleicht meinst du auch das mit dem Effekt.
Einbrennen gibt es auch keines, wie du richtig erwähnt hast. Es gibt ein Nachleuchten bei statischen Bildern, welches aber nach 10-60 Sekunden wieder verschwunden ist. Bei gängigen Nutzungsverhalten hast du aber nie Probleme damit. Das liegt auch nicht am OLED Material selbst sondern an lokalen Temperaturunterschieden im Panel.
Die aktuellen 2016er OLEDs haben eine Halbwertszeit von ~30000h bis zur Halbierung der Leuchtkraft der OLEDs. Das entspricht selbst bei erhöhten Nutzungsverhalten etwa 16 Jahren. Einige Geräte mit 8000h+ aus der 2015er Serie im Dauerbetrieb haben bisher noch keinen messbaren Leuchtkraftverlust oder ein Einbrennen und das selbst bei wechselnden statischen Bildern zwecks Demozwecken. Ja es kommt bei solchen Demogeräten zu offensichtlichen Nachleuchteffekten, und diese werden bei dauerhaftem Betrieb auch erst wieder durch den Korrekturalgorithmus behoben wenn man das Gerät im Standby einige Zeit werkeln lässt, aber das hat mit gängigem Nutzungsverhalten auch nichts zu tun.

Wo wir gerade bei Leuchtkraftverlusten sind. Die aktuellen High Power LEDs in den aktuellen "FALD" LCD TVs verlieren nach etwa 2000h 15-30% ihrer Ursprungshelligkeit und auch die Farbtemperatur driftet ab. Dort hat man mit höheren Temperaturen zu kämpfen und wegen der immer schmaleren Bauweise und keiner aktiven Kühlung (Ausnahme DXW904) hat man hier sogar mit mehr Verlusten als bei den aktuellen OLEDs zu rechnen. Gerade bei Geräten mit vielen Zonen hast du da deutlich schneller mit sichtbaren lokalen Helligkeitsunterschieden zu kämpfen.
Dazu kommt noch Halo, DSE und die stellenweise fiese Ausleuchtung-Homogenität ab Werk bei der LCD Technik und das auch bei den Top Modellen.

Zugegeben haben auch aktuelle OLEDs ein paar Schwächen, wie die Serienstreuung bei der Randabdunklung, der geringeren Spitzen Helligkeit und eben dem kurzzeitigen Nachleuchten, das vor allem im Zusammenspiel mit PC oder Konsole durchaus mal sichtbar werden kann.
Aber diese Ammenmärchen von sterbenden OLEDs, Einbrennen "IMMENSEM Nachleuchten" oder sonstigem Blödsinn sollte man sich langsam mal sparen.

Mir scheint es stellenweise eher so, als wären LCD Verfechter deutlich resistenter gegenüber der Schwächen ihrer Technik oder haben sich schlichtweg damit abgefunden. Man muss schon konsequent sein und beides wirklich objektiv vergleichen. Je nach Nutzungsverhalten dürfte hier mal die eine und mal die andere Technik besser geeignet sein. Für den reinen Filmbetrieb sehe ich aktuell OLED ganz klar im Vorteil, auch wenn man im HDR Betrieb durchaus mal mit geringerer Farbhelligkeit im Vergleich zu High End LCDs rechnen muss. Dafür wiegt der SDR Betrieb, und das sind nunmal 99% der Inhalte, alles wieder auf. Für den Konsolenbetrieb gibt es sicherlich auch auf seiten der LCDs bessere Alternativen. Aber auch hier muss man sich vor Augen halten, dass Nachleuchten nur in Ladescreens mal zum kurzzeitigen Problem werden kann und man ansonsten genauso darauf spielt wie auf einem LCD auch, mit dem Unterschied, dass es keinerlei Probleme mit Nachzieheffekten gibt.
Übrigens hat LG auf die Petitionen reagiert und Firmware Updates mit Inputlag Verbesserungen und einem HDR Gamemode zu Verfügung gestellt hat. Beim B6 bspw. wurde der Inputlag von rund 55ms auf 28ms gesenkt.
Allgemein ist LG sehr fixiert auf Fehlerbehebung und hört auf die Kunden, was ich denen schon anrechne. Da gibt es Hersteller die gängeln ihre Kunden lieber mit Datensammelei und unnützer Werbung und Bloatware.
 
Zuletzt bearbeitet:
Aber diese Ammenmärchen von sterbenden OLEDs,
Einbrennen "IMMENSEM Nachleuchten" oder sonstigem Blödsinn sollte man sich langsam mal sparen.


Alienware 13 Zoll-Gaming-Notebook mit Quad Core-Prozessor der 7. Generation | Dell Deutschland
Alienware 13 OLED ab 2200€


Alienware 13r3 OLED Ghosting - YouTube
Alienware 13r3 OLED Ghosting

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58697&d=1485293386
Nachleuchten, Memory-Effect oder Einbrennen egal wie man es nennt, es ist da und stört,
und die Test würden erst vor einer Woche gemacht.
 
Vorallem der E6er ist ein ganz toller Kandidat bei dem Mist.

Hast du einen? 55 oder 65 zoll. Bei meinem 55er ist das Nachleuchten so gering, dass es nicht auffällt.

Nachleuchten, Memory-Effect oder Einbrennen egal wie man es nennt, es ist da und stört,
und die Test würden erst vor einer Woche gemacht.

Was für ein Display ist das? OLED Panels stellt zurzeit ja nur LG her? (Samsung für den Mobilbereich, vllt. einer von denen?).
Und bei den OLED TVs aus 2016 ist das so nicht zu sehen.

Zum Test: Joa, kann ja nichts werden bei dem TV. Und wie schon in einem anderen Post geschrieben, gibt den OLED B6 unter 2000€ und die Samsung QLEDs auch in dem Preisbereich.
Das HDR in seiner vollen Pracht zurzeit nur teuer zu erleben ist, sollte jedem klar sein. Das an so einem TV zu testen ist schon traurig.

Freue mich auf den Test der 2000€ 144hz HDR UHD Asus und Acer Monitore.
Da sollte es dann klarer werden wie groß doch der Unterschied ist. Zeigen kann man das leider schwer, aber ich denke das Fazit wird anders ausfallen.
 
Ich kann den Test und die Probleme auch nicht so richtig nachvollziehen. Ich habe wie gesagt den LG OLED von 2015 EG9209 und habe sowohl den PC mit 980ti als auch die PS4 Pro dran hängen und habe sowohl Uncharted 4 in HDR als auch alle oben genannten PC Spiele in HDR gespielt. Mit ein paar kleinen Anpassungen läuft sogar RE7 mit der 980ti in 2160p und HDR sowie durchgehen 60 Bilder pro Sekunde ruckelfrei. Ich denke ich kann aktuell jetzt einiges zum Thema HDR sagen und es ist definitiv ein Mehrwert. Ich kann allerdings nicht die tollen Vergleichsbilder zwischen OLED und QDot mit 1000Nits verstehen. Wenn die die Fernseher in Vergleichsbildern zeigen dann wird OLED immer als exrem dunkel dargestellt der ein Haufen Details verschluckt. Ich kann das so nicht bestätigen. Ich habe die Fernseher ja beide Live gesehen und die 1000 Nits braucht man nur wenn da die Sonne direkt draufscheint. Wer hier immer fasselt das OLED nicht die Helligkeit bringt da frag ich mich wirklich ob die Leute mit Sonnenbrille vor dem Fernseher sitzen wollen.
 
Bei allem Respekt, ihr irrt euch gewaltig! Der Test wurde fehlerhaft durchgeführt. Ich erziele auf meinem TV grandiose Ergebnisse in Sadow Warrior 2 und Resident Evil 7. Ihr habt nicht mal die 4K Auflösung korrekt eingestellt bekommen, ich Zweifel stark an einer aussagekräftigen Ausführung. Ich habe zudem weder ein Input lag noch Risse im Bild (Vsync on). Ihr solltet den Test mit einem aktuellen HDR TV wiederholen, am besten mit UHD Premium Logo. Stellt den genutzten Eingang auf PC um. Aktiviert im TV Menü UHD Depp Colour. Nutzt für die Verbindung ein echtes HDMI 2.0a Kabel für mindestens 20€+. Nun geht ihr am PC in die Einstellungen, dort wählt ihr 3840 x 2160, Farbmodus YcBcR 4:2:0, 12 Bit. Bestätigt das ganze und geht ins Spiel, hier solltet ihr HDR aktivieren und dann zurück ins TV Menü, dort HDR Spiel auswählen oder HDR dynamisch, dabei TrueMotion etc. deaktivieren. Nun im Spiel etwas an den Helligkeits Einstellungen und Gamma werten rum probieren. Ihr müsst ein deutlich brillantes Bild erhalten mit hohen Kontrasten und schier endlosen Farben mit perfekten Farbverläufen. Wenn nicht, dann habt ihr entweder etwas falsch gemacht oder der TV taugt nichts oder das Kabel ist kein echtes HDMI 2.0a. Bei Fragen schreibt mir, wenn ihr wollt komm ich vorbei. Helf euch beim Test. Also viel Glück. Lg

Der letzte Satz war der entscheidende: viel Glück - denn darauf kommt's wohl an! ;)

Ohne Quark: Ich habe mich natürlich nen ganzen Nachmittag durch TV- UND PC-Einstellungen gewühlt und die HDR-Ausgabe schon vorher an mehreren TVs getestet. 4:2:0 beispielsweise führte bei mir zur erwähnten LSD-Ausgabe. Da es nicht auf 4K-Ausgabe oder UHD-Premium-Logo ankommt habe ich die Bilder trotzdem am Panasonic geknipst. Einen neuen, besseren TV zu organisieren, wo die Konfiguration so flutscht, wie von dir beschrieben, wäre hier aufwändiger gewesen und hätte am (HDR-)Ergebnis ja nix geändert. Genauere Ursachenforschung habe ich mir daher erspart.

Ansonsten:
Weil hier der Input Lag so oft zerrissen wurde: Ich habe hier KEINEN Zusammenhang zur HDR-Ausgabe hergestellt. Habe den Lag unabhängig davon gemessen und lediglich den Spielemodus des TV erwähnt, der ihn ja drastisch reduziert. Dachte mir halt, dass es ne nützliche Zusatzinfo ist. Ob HDR auch den Lag erhöht, ist weder bewiesen noch widerlegt. Ich nehme ab, dass HDR ihn kaum bis gar nicht beeinflusst. Ansonsten bitte ultimative Aussagen hierzu mit Quelle belegen.
 
Auf den Vergleichsbildern sehe ich jetzt keine Unterschiede, die ich nicht auch mit ReShade so hinbekommen würde. Für HDR brauchts wohl erstmal mehr Spiele und Hardware.

Den Unterschied kannst du ohne HDR fähiges Bild auch gar nicht sehen, das hat nichts mit ReShade oder den HDR Settings von Spielen zu tun ;)
 
Natürlich warst du mit deinem JS9590er (local gedimmter TV) mehr zufrieden, da es ein besseres Gerät als der 8090er (EDGE-LED) ist. Sorry, aber du kennst dich leider bei den Geräten zu wenig aus. Bitte nicht angegriffen fühlen. Die Steigerung zum JS9590er ist NUR der KS9590er.

Denn auch deine Aussage, du hast keinen Unterschied zwischen der 9000er Serie aktuell sehen können. Es gibt keine reine 9000er Serie. Der 9090er ist ein EDGE LED und der 9590er ist ein Local Dimming (FullArray) Gerät. Also VOLLKOMMEN unterschiedliche Geräte.

Der 9090er ist absolut identisch zum 8090er, ausser dass der 9090er ein Curved Display hat. Wahrscheinlich hast du den 8090er und den 9090er nebeneinander gesehen und gedacht, es sei ein Vergleich zwischen zwei unterschiedlichen Klassen. Dass du im Endeffekt das gleiche Gerät dir angesehen hast, hast wohl nicht gewusst.

Denn wer zwischen dem 9590er und dem 8090er keinen Unterschied bei HDR bei gleichem Material sieht, der ist blind. Das ist sogar für Leute ersichtlich, die nicht mal wissen, was HDR ist. Und du kannst dir gerne weiterhin versuchen durch irgendwelche "Tests" dir die Sache schönzureden. Ich bin mir aber GANZ sicher, dass dir die eigene Logik sagt, wie groß der Unterschied ist, wenn 400 Zonen einzeln gedimmt werden können und bei deinem TV nur 1! Und warum manche "Blätter" das gern schönreden, habe ich erklärt.

Und ich weiß nicht, warum du immer wieder erzählst, dass es über den derzeitigen 2.0b HDMI Standard nicht geht mehr als 30Hz bei 4:4:4 YUV darzustellen. Das ist jedem klar, der sich damit auskennt. Ich kann nix dafür, dass die verlinkte Seite den Vergleich für die Input-Lags mit den Werten gewählt hat. Es sollte nur aufzeigen, dass es Schwachsinn ist, dass der normale HDR Modus sich auf den Input-Lag auswirkt, da es kein Bildverbesserer ist wie zb. Motion Plus. Das kann man auch auf vielen anderen Seiten nachlesen. Es ist halt so blödsinnig, als wenn man nunmal sagen würde, je höher ich die Helligkeit im TV stelle, desto schlechter wird der Input-Lag. NUR HDR+ (PLUS) zb. wirkt sich drauf aus.

Also wie gesagt, gucke dir in einem Fachhandel mal beide Geräte (KS8090 und KS9590) nebeneinander an. Wo auch das Bild perfekt eingestellt ist und nicht in einem MediaMarkt, wo nix ordentlich eingestellt ist und auf dynamisch läuft. Du wirst sehen, wie immens die Unterschiede sind. Du kannst dir wohl denken, warum ich mich extra für diesen Thread angemeldet habe. Denn ich arbeite seit 21 Jahren Im TV-Fachhandel Ein- und Verkauf und bin TV-Techniker. Deshalb lassen einen solche Berichte nicht kalt und möchte das gern klarstellen, wie die Technik wirklich funktioniert.

Zu demjenigen der zu mir hier meinte, die Plasmas der letzten Jahre hatten nur Nachleuchten und kein Einbrennen. Und es sei ein "Mythos", da musste ich sehr schmunzeln. Allein der STW60 von Pana kam bei mir zu Reparatur wegen kompletten Einbrennern in Scharen zurück. Auch der VT50 war ein ganz großer Kandidat auf dem Gebiet. Aber sicherlich haben die meisten "nur" noch Nachleuchten gehabt, dem stimme ich zu. Aber für die OLEDs ist das ein absolutes NO-GO, da es bei höherwertigen Komponenten nicht diese "Plasma-Probleme" haben müsste... Deshalb bin ich SEHR enttäuscht von allen Modellen die ich bei mir durchlaufen ließ und habe sie derzeit komplett aus dem Programm genommen, weil ich da beim Verkauf nicht hinter stehen kann.
Wenn man vom technischen Niveau der Komponenten ausgeht, dann ist es gerade bei den High-End OLEDs ein Armutszeugnis. Es steht in keinem Verhältnis zu den derzeitigen Verkaufspreisen.

Und um es klarzustellen. ALLE OLEDs haben derzeit auch IMMENSES Nachleuchten. Ein "echtes" Einbrennen gibt es zwar nicht, aber wenn zb. ein Gerät den ganzen Tag den gleichen Sender mit dem gleichen Logo hat oder man stundenlang ein Game zockt wo eine Anzeige immer an der gleichen Stelle steht, gibt es ein fast identisches Problem. Nämlich LED Leuchtkraftverlust an dieser Stelle. Zwar dezent, ABER auf einfarbigen Hintergründen zu sehen und können störend werden. Bei Plasma sah man es vorallem beim weißen Hintergrund aufgrund des Einbrennens und bei den OLEDs aufgrund des "Verlustes" auf farbigen Hintergründen. Ergo man kann nicht von Einbrennen reden, aber vom fast identischen Problem. Vorallem der E6er ist ein ganz toller Kandidat bei dem Mist.

em zur Info der js9000 hat auch kein direct led soviel zu deiner Fachkenntnis lol!

ps. hast du das video ignoriert??

ein fachman sagt: merkt man kaum noch einen unterschied....also alle blind nur nicht du?

geil erzähl mir mehr !
 
Zurück