HDR in PC-Spielen: Erfahrungs-Thread im PCGHX-Forum

Das haben wir aber eher OLED zu verdanken.

oled ist nochmals ne andere Sache aber auf meinen hdr sieht es eben genau wie beschrieben aus...zuvor hatte ich einen beamer und noch 2 andere tvs hier nun nur noch den 65 zoll 4k hdr samsung und einen pihlips hdr....beide kein oled....aber hdr ist echt wie beschrieben..

Meine irgendwo gelesen zu haben Alien Isolation bietet auch HDR Support

soweit ich weiß ist das der einzige Titel der 10 bit unterstützt aber das ist nicht hdr sondern erweiterter Farbraum...



danke Klutte sorry für Doppelpost ich habs mit dem doppel zitieren nicht gecheckt mein Fehler ;)
 
Zuletzt bearbeitet:
All diese Abhängigkeiten, Umstände und Kundengängelung kann es HDR einfach nicht Wert sein. Nachdem ich meinen wenige Monate alten FreeSync Monitor beiseite schieben muss, alle die Gängelung beim Spielekauf ertragen habe, an alles technische gedacht habe und mein Geld für immer weg ist, werde ich ernüchtert davor sitzen und denken, was bin ich doch für ein Vollidiot.
 
Meine irgendwo gelesen zu haben Alien Isolation bietet auch HDR Support
Das Spiel unterstützt kein HDR, ist aber das einzige PC-Spiel das den 10bit Farbraum unterstützt. Alles andere ist 8bit-Farbtiefe Software. Das ist einfach der Standard beim PC, was auch an den typischen PC-Monitoren (und Windows) liegt. Schnelle Gaming-Monitore mit TN-Panel haben sogar nur native 6bit-Panel die mittels FRC (Frame rate control - Wikipedia) auf 8bit aufgeblasen werden. Ebenso wird bei vielen Fernsehern getrickst. Die haben nämlich auch nur 8bit+FRC->10bit. Wenn man glück hat, erwischt man ein Gerät mit echtem 10bit Panel, das dann sogar die maximalen 12bit bei HDMI mit FRC verarbeiten kann.
 
All diese Abhängigkeiten, Umstände und Kundengängelung kann es HDR einfach nicht Wert sein. Nachdem ich meinen wenige Monate alten FreeSync Monitor beiseite schieben muss, alle die Gängelung beim Spielekauf ertragen habe, an alles technische gedacht habe und mein Geld für immer weg ist, werde ich ernüchtert davor sitzen und denken, was bin ich doch für ein Vollidiot.
Hä, was wieso?
Das Spiel unterstützt kein HDR, ist aber das einzige PC-Spiel das den 10bit Farbraum unterstützt. Alles andere ist 8bit-Farbtiefe Software. Das ist einfach der Standard beim PC, was auch an den typischen PC-Monitoren (und Windows) liegt. Schnelle Gaming-Monitore mit TN-Panel haben sogar nur native 6bit-Panel die mittels FRC (Frame rate control - Wikipedia) auf 8bit aufgeblasen werden. Ebenso wird bei vielen Fernsehern getrickst. Die haben nämlich auch nur 8bit+FRC->10bit. Wenn man glück hat, erwischt man ein Gerät mit echtem 10bit Panel, das dann sogar die maximalen 12bit bei HDMI mit FRC verarbeiten kann.
Danke, wieder was gelernt!
 
Habe einen Samsung der KS8000 (US Bezeichnung) Serie und habe HDR schon in z.B. Shadow Warriors 2 getestet, der Effekt ist am Anfang subtil. Aber desto länger man mit HDR Spielt desto brutaler wirds wenn man es dann ausschaltet und sieht was man nicht sieht in SDR :ugly:
Kann man so erklären als wenn man das Gamma so grausig einstellt das alles dunkel wird und man viele Details verliert (so fühlt sich der Unterschied zwischen SDR vs HDR an)

Wobei für vernüftiges HDR braucht Ihr unbedigt einen Ultra HD Premium und/oder Dolby Vision tauglichen TV!

Alles andere was HDR unterstützt kann es zwar Abspielen aber diese haben zu schwache Helligkeit bzw Schwarzwerte. Kann es hier direkt bei mir zwischen einen KU und einem KS Modell vergleichen (das ist Tag und Nacht unterschied) wobei hier das 10Bit Panel des KS hier auch noch nachhilft.

Quantum Dot kann ziemlich gut mit den OLEDs mithalten, aber kommt dennoch nicht ganz ran (wobei hier der Unterschied schon sehr gering wird). Jedoch hätte mich der LG einen 1000er mehr gekostet und hätt nicht mehr auf meine Wunschwand gepasst :ugly:
 
Zuletzt bearbeitet:
Sowohl AMD als auch Nvidia unterstützen die HDR-Wiedergabe in 10 Bit eigentlich schon seit Jahren, genauer ab GCN Gen 2 alias GCN 1.1 (Bonaire, Hawaii) beziehungsweise Maxwell. Umfassend dafür geworben wird jedoch erst seit diesem Jahr

Beworben wird darum erst damit ,weil erst ab Pascal,Polaris auch der HTCP Kopierschutz gegeben ist. Maxwell kann zwar theoretisch schon 10 bit ,aber leider nicht fuer die Wiedergabe von geschuetzten Filmmaterial, ueber den HDMI Ausgang.

Steckt also eine Ultra HD Blu Ray im Player mit High Dynamic Range ,bringt erst Pascal (bzw die letzte releaste GTX960 Maxwell Karte)HDR auf den Screen
 
Habe einen Samsung der KS8000 (US Bezeichnung) Serie und habe HDR schon in z.B. Shadow Warriors 2 getestet, der Effekt ist am Anfang subtil. Aber desto länger man mit HDR Spielt desto brutaler wirds wenn man es dann ausschaltet und sieht was man nicht sieht in SDR :ugly:
Kann man so erklären als wenn man das Gamma so grausig einstellt das alles dunkel wird und man viele Details verliert (so fühlt sich der Unterschied zwischen SDR vs HDR an)

Wobei für vernüftiges HDR braucht Ihr unbedigt einen Ultra HD Premium und/oder Dolby Vision tauglichen TV!

Alles andere was HDR unterstützt kann es zwar Abspielen aber diese haben zu schwache Helligkeit bzw Schwarzwerte. Kann es hier direkt bei mir zwischen einen KU und einem KS Modell vergleichen (das ist Tag und Nacht unterschied) wobei hier das 10Bit Panel des KS hier auch noch nachhilft.

Quantum Dot kann ziemlich gut mit den OLEDs mithalten, aber kommt dennoch nicht ganz ran (wobei hier der Unterschied schon sehr gering wird). Jedoch hätte mich der LG einen 1000er mehr gekostet und hätt nicht mehr auf meine Wunschwand gepasst :ugly:

sehr gut geschrieben ich habe mal versucht jemanden den unterschied zu erklären und wurde als dumm erklärt....weil ich sagte mein Samsung js9000 kann zwar hdr es ist aber nur eine art pseudo hdr....weil er keine 1000 nits schafft und damit kein hdr premium logo erhalten hat....aber genau das macht echt einen Unterschied...
 
Vielleicht wird das in ein paar Jahren interessant, wenn es 45" 5k 21:9 HDR g-sync Monitore mit 100Hz gibt.
Kosten dann bestimmt nur 3000€. Die GPU dazu noch mal 1,5k .



Also so einen wie ich will, kann ich mir nicht vorstellen.

ich habe erst letztens meinen Traum monitor beschrieben;)

65 zoll 4k oder 8 k :)

144 herz

curved

mit Displayport der kak hdmi hat ja null Leistung schafft nicht mal 10 bit mit 4.4.4 60 herz!!

HDR plus also über 1000 nits

am besten dolby wegen der 12 bit ;)

ja so könnte er kommen :)
 
Sind denn mal solche Monitore irgendwie in Sichtweite?

Anfang des Jahres hieß es auf der CES das die ersten im Sommer kommen, dann gegen Ende des Jahres und jetzt sollen die erst im neuen Jahr auf der CES vorgestellt werden und kommen dann wahrscheinlich gegen Sommer/Herbst. Was noch dazu kommt ist die Aussage von LG von vor ein paar Tagen das nächstes Jahr die OLED Revolution beginnen soll, aber nur für den professionellen Sektor (Public Displays, Leuchtreklamen, Automatenbildschirme usw.) und im Consumermarkt will man mit premium IPS Displays den Markt versorgen. Die aktuellen OLED Fernseher sind einfach zu teuer und verkaufen sich entsprechend nicht oft genug. Mal gucken ob es nächstes Jahr dann neue OLED Fernseher für den selben Preis gibt oder die vorerst wieder vom Markt genommen werden bzw. durch IPS Displays ersetzt werden. Ansonsten will Panasonic und glaube Philips nächstes Jahr erste OLED Fernseher auf den Markt bringen.

Bei Monitoren bin ich gespannt welche Displaytechnologie für HDR gentutzt wird. OLED ist noch sehr teuer (der von Dell kostet ca. 3000€), VA schafft das tolle Schwarz, aber nicht die Helligkeit, IPS hat aktuell das selbe Problem und TN genauso. Quantum Dot kann man nutzen aber auch da hat man bei Monitoren (gibt glaube aktuell nur einen von Philips) das selbe Problem wie z.B. bei IPS das der Schwarzwert nicht passt. Wenn man OLED nicht nutzt wird man wohl wie beim TV auf local Dimming zurückgreifen müssen was meines Wissen nach nur bei größeren Displays verbaut werden kann, weil es einfach entsprechend Platz braucht und die einzelnen Dimming Zonen nur begrenzt verkleinert werden können.
 
Ich warte ebenfalls ab, bis sich das ganze weiter etabliert hat. Bis dahin werden die Angebote vielfältiger und die Technik ausgereifter sein. Habe zwar ne GTX 1080, aber aktuell ist HDR am PC für mich nicht interessant. Auch im TV und Konsolenbereich befindet sich aktuell alles eher im Umbruch. Selbst native 4k Inhalte sind sperrlich gesät.

4k, HDR, VR & Co haben großes Potential, benötigen aber noch etwas Reifezeit um den Markt zu erobern und sich zu etablieren. Aktuell passiert zu viel, neue Technologien und Ideen, teils unklar in welche Richtung es geht. Ich beobachte erstmal und schlage zu, wenn die Dinge ihren Lauf genommen haben.

Da ich kein HDR genutzt habe, vermisse ich es auch nicht und könnte auch die nächsten Jahre noch ohne leben. Hat bisher auch gut funktioniert. Keine Eile.
 
@ TheFanaticTesters: Lass und weit träumen.
In ein paar Jahren, evtl. wird's vielleicht was. ;)

tja was sollen wir machen selber ein bauen heheh :)

ne ich warte inzwischen habe ja den js9000 65 zoll 4k hdr von Samsung und als zweit tv/Monitor den pihlips 4k hdr....inzwischen zum Erfahrung sammeln reicht es aus....ich hab mich auch schon soviel geärgert das ich weiß was der nächste eben können sollte ;)
 
Falsch!

Der Samsung KS9590 und der Sony ZD9 zb. haben beide VA Panels und sind die hellsten TVs, die es auf dem Markt zu kaufen gibt...
Achja, das mit dem Schwarz ist korrekt :D

interessant steht das bei Samsung irgend wo unter Details??
ich habe selber den js9000

ich habe gelesen das die aber empfindlicher sind:

Sind die Panels großen Temperaturen ausgesetzt, bewährt sich auch hier das IPS-Panel. VA-Panels bilden durch Einstrahlungen ab 57 Grad Celsius schwarze Flecken, sogenannte HotSpots. Diese verschwinden nach dem Abkühlen zwar wieder, dauerhaft kann das jedoch zu Schäden am Panel führen.
 
Was muss eigentlich meine GraKa ausgeben, damit der TV es als HDR erkennt?
Auch der Desktop sollte sich doch als HDR übertagen lassen, oder?

Ich habe an meiner AMD Karte zur Zeit YUV 4:2:2, 10bit, UHD, und 60Hz via HDMI2.0b am TV.
 
Was muss eigentlich meine GraKa ausgeben, damit der TV es als HDR erkennt?
Auch der Desktop sollte sich doch als HDR übertagen lassen, oder?

Ich habe an meiner AMD Karte zur Zeit YUV 4:2:2, 10bit, UHD, und 60Hz via HDMI2.0b am TV.

sei vorsichtig wenn du hdmi2.0b schreibst ich wurde im ps4 tered dafür gesteinigt hehehe

zu deiner frage eigentlich sollte deine Einstellung bereits für hdr passen da der hdmi kein volles 4.4.4 und 10 bit mit 60 herz schaft bleibt dir nur das oder 4.2.0
 
dann hast du entweder einen Fake-HDR Ferseher oder kein vernünftiges Material


"Umfassend dafür geworben wird jedoch erst seit diesem Jahr, da erst Polaris und Pascal Displayport 1.3/1.4 unterstützen, der genug Bandbreite zur Verfügung stellt, um HDR in 10 Bit ohne Farbabstufung darstellen zu können. Über HDMI 2.0 setzt AMD hingegen auf 8 Bit plus Dithering, Nvidia auf 10 Bit mit Farbabstufung auf 4:2:2 in 30 Hertz beziehungsweise 4:2:0 in 60 Hertz."

da sollte man vllt noch dazu schreiben, dass es sich auf UHD bezieht

Typisch Forum...immer erst einmal die Leute für bescheuert erklären... Mir ist schon klar, dass ich HDR Material brauche, aber der Fernseher stellt auch schon normale Signale anders dar... eine Art HDR Remastering... Wie ein Vorredner hier schon gesagt hat... die Unterschiede sind eher subtil...
 
Zurück