Zukunft des Gaming: Lohnt sich der Wechsel auf HDR und 10 Bit bereits?

Damit war jetzt gemeint das nun auch der Monitor das Ganze unterstützen muss.
Daher nochmal die Rückfrage. Gab es damals denn keine HDR Monitore oder warum kommen die erst jetzt? :)

Das kommt mir irgendwie alles sehr seltsam vor. :D

korrekt es gab noch keine hdr fähige tvs gibt es seit ende 2015 mein samsung js9000 einer der ersten war der es konnte...und selbst der ist nicht mehr ganz top den die neuen können eben 1000nits meiner nur 500 und es macht sehr viel aus...

der erklärt es recht gut damit hab ich damals angefangen ;)

Samsung SUHD JS9590: HDR und Quantum Dot Farbraumerweiterung erklart (dt. UT) - YouTube
 
korrekt es gab noch keine hdr fähige tvs gibt es seit ende 2015 mein samsung js9000 einer der ersten war der es konnte...und selbst der ist nicht mehr ganz top den die neuen können eben 1000nits meiner nur 500 und es macht sehr viel aus...
Aber schon irgendwie seltsam...
HDR an sich gibt es seit mind. 12 Jahren aber die Technik dies am Monitor direkt wiederzugeben erst seit kurzem bzw gar erst demnächst? O.o
 
Das ist ja mein Anliegen. Warum nicht weiter simulieren? :)

Bist du schon mal mit einer achterbahn gefahren? Und warst du schon mal in einem Rüttelschütteln Kino?
dann solltest du ja den Unterschied erkennen - mit der Simulation ist es UNMÖGLICH das gleiche Ergebnis zu erzielen.

Und so sieht es eben mit HDR10 aus:
Die bisherige simulation hat nur 8 bit Farbtiefe zur verfügung - egal welche tricksereien man anwendet, echte 10 bit haben nun einfach einen 4 mal größeren Kontrastraum.


Mir fällt es schwer zu verstehen wie manche Leute derartig Begriffstuzig sein können.
 
Bist du schon mal mit einer achterbahn gefahren? Und warst du schon mal in einem Rüttelschütteln Kino?
dann solltest du ja den Unterschied erkennen - mit der Simulation ist es UNMÖGLICH das gleiche Ergebnis zu erzielen.

Und so sieht es eben mit HDR10 aus:
Die bisherige simulation hat nur 8 bit Farbtiefe zur verfügung - egal welche tricksereien man anwendet, echte 10 bit haben nun einfach einen 4 mal größeren Kontrastraum.


Mir fällt es schwer zu verstehen wie manche Leute derartig Begriffstuzig sein können.
Hat nix mit Begriffstutzig sein zu tun. Wenn du keine Geduld für Menschen aufweisen kannst, die auch mal Dinge hinter fragen, dann ist das dein eigenes Problem.

Es ist ganz legitim zu fragen warum nach über 1 Jahrzehnt!!! erst jetzt die passende Hardware dazu kommt und weshalb, wen damals schon möglich, dies nicht weiter simulierbar ist.

Damals haben Leute wie du bestimmt auch behauptet, das man dies nicht simulieren könne und voilà. ^^

Das war einzig die Frage dahinter.
Wenn dich so etwas schon aufbraust, dann ignoriere es und gut ist das Ganze.
Orte wie ein Forum sind schließlich dazu da, sich auszutauschen und von anderen dazuzulernen. ;)
 
Bist du schon mal mit einer achterbahn gefahren? Und warst du schon mal in einem Rüttelschütteln Kino?
dann solltest du ja den Unterschied erkennen - mit der Simulation ist es UNMÖGLICH das gleiche Ergebnis zu erzielen.

Und so sieht es eben mit HDR10 aus:
Die bisherige simulation hat nur 8 bit Farbtiefe zur verfügung - egal welche tricksereien man anwendet, echte 10 bit haben nun einfach einen 4 mal größeren Kontrastraum.


Mir fällt es schwer zu verstehen wie manche Leute derartig Begriffstuzig sein können.

also majinvegeta20 ist echt nicht doof und fragte ja echt normal und es war auch ne schicke Unterhaltung und ich für mein teil könnte stunden lang über interessante Sachen reden!

man lernt nie aus es sei den man will nichts lernen ;)
 
Mir wollte einfach nur nicht in die Birne, warum nach all den Jahren erst jetzt etwas bei den Monitoren geschieht, wenn die "Software" quasi seit über 1 Jahrzehnt vorhanden ist. :)
 
Hi an alle.Ich habe eine anime Serie in 10 Bit mal angeschaut.Es konnte der Windows Media Player leider nicht wiedergeben aber der VLC Player schon.Aber wehe man möchte vorklicken dann hängt die ganze Folge für einige Sekunden.Mag seind das es Farbenvorteile gibt,man sollte aber auch die anderen Probleme lösen.Leider wird nicht alles gelöst.

Jetzt habe ich gedacht ich profitiere davon weil ich nun endlich mal höheren bit habe.Ich habe endlich mal ein 8 bit Bildschirm und nun sollte er in ein paar Jahren schon wieder out of school sein,das kann ich nicht glauben.Dann werde ich den verbesserten Farbraum also nie bemerken schade.Ich verstehe das 10 Bit so viel besser ist.Ich verkaufe bestimmt nicht meinen Tollen UHD Bildschirm.Bis der mal Kaputt geht ist sowas wie 10 Bit oder gar 12 bit eh schon längst kein Thema mehr.Aber moment ich zocke ja eh nur ältere Spiele ich würde also eh den Vorteil nicht sehen oder gar bemerken,wobei ich habe ein Spiel das HDR hat nämlich Serious sam 2 und das sieht trotz des Alters noch immer gut aus.Immer schön bunt wie in ner Traumwelt halt eben.So stelle ich mir ein abgedrehtes Spiel vor ^^
 
Weil es keinen TFT gab der das konnte.
In mindestens 12 Jahren könnte man schon annehmen, das da etwas schon hätte gehen können. Und wenn es bloß teilweise gewesen bzw. schrittweise passiert wäre.

Das es keinen Monitor gab ist mir zu plump. :)

Aber nu gut lassen wir das sein, bevor ich hier noch zerrissen werde. :D

Edit:
Könnte mir das mal jemand mit den 8, 10 und 12 Bit erklären?
Was ist wie damit genau gemeint. Ab wann geht dann HDR zu 100%? ;)
 
In mindestens 12 Jahren könnte man schon annehmen, das da etwas schon hätte gehen können. Und wenn es bloß teilweise gewesen bzw. schrittweise passiert wäre.

Das es keinen Monitor gab ist mir zu plump. :)

Aber nu gut lassen wir das sein, bevor ich hier noch zerrissen werde. :D

Edit:
Könnte mir das mal jemand mit den 8, 10 und 12 Bit erklären?
Was ist wie damit genau gemeint. Ab wann geht dann HDR zu 100%? ;)

also dazu gabs hier mal ein tered:

8bit vs 10bit Farbtiefe

und keine angst von mir wird keiner zerrissen ich finde es sehr unterhaltsam eine konstruktive Diskussion ist doch was schöne noch ein bier und schon ist es fast wie in der Kneipe ...ich sage selber ich wäre der ideale Kandidat für the big bang teorie :)

also hdr selber ist nicht nur wegen den 10 bit hdr

10 bit ist einfach nur der erweiterte Farbraum siehe hier das bild =

http://benqimage.blob.core.windows.net/us-img/423_5_resource_html.jpg

farben können einfach sanfter übergehen weil sie mehr Fassetten haben

https://pro.sony.com/bbsccms/assets...g/hdcamsr/camera/10-bitand12-bitprecision.jpg

hdr hat aber noch mehr es geht um Kontraste und wie hell ein tv gehen kann dieser wert wird nits genannt und ideal um sicher zu sein würde ich raten

dolby hdr zu nehmen denn da sind

12 bit und 1000nits als vorgabe

dann solltest du noch zu sehen das der tv native 100 herz besitzt
da ganz viele rumtricksen mit 50 herz !
ebenso geht es bei 8 bit und 10 bit zu viele sagen wir haben 10 bit rechnen die 8 bit aber nur hoch also keine nativen 10 bits...
 
Wie wäre es mit fehlender Unterstützung im Treiber, dass es am PC fast keinen interessiert hat, das nicht vorhanden sein von Direct LED backlight, zu schwache LEDs um 1000cd/m2 und mehr zu erreichen...
Dazu gab es eine Weiterentwicklung, wir sind von 6bit Panels mittlerweile bei 10bit und mehr Panels angelangt.
Dazu ist die Helligkeit gestiegen und es gibt vermehrt TVs mit direct LED.
Auch spielen mittlerweile viel mehr Leute als noch vor 10 Jahren und Konsolen bieten zum ersten Mal HDR an.
Wie du siehst ist teilweise was passiert, man kann nun mal nicht von heute auf morgen so viel machen.
 
Es ist ganz legitim zu fragen warum nach über 1 Jahrzehnt!!! erst jetzt die passende Hardware dazu kommt und weshalb, wen damals schon möglich, dies nicht weiter simulierbar ist.
Weil die Hersteller sich in der Regel immer auf eine bestimmte Technologie konzentrieren und diese dann nach und nach verbessern.
Das ist so als wenn du Fragen würdest, warum wird den jetzt erst mit grossen gemütlichen Passagierflugzeugen billig durch die Welt fliegen können wo wird doch schon vor über 100 Jahren eigentlich fliegen konnten.
Man brauch nun mal erst entsprechende Technik um etwas verbessern zu können.
Es ist ja nicht so das in dem Jahrzehnt nichts passiert wäre bis heute.
Die Auflösung liegt mittlerweile bei 4k und es wurden schon 8k Displays angekündigt, Fernseher mit OLED Displays sind bereits so dünn das man sie extra noch mit einer Glasscheibe verstärkt damit sie stabiler werden usw.
 
@The Fanatic Testers, JoM79 , Brainwaver
Dann anders...könnte man HDR so wie es eben jetzt mit den neuen Monitoren kommt, noch simulieren? ;)
 
In mindestens 12 Jahren könnte man schon annehmen, das da etwas schon hätte gehen können. Und wenn es bloß teilweise gewesen bzw. schrittweise passiert wäre.

Das es keinen Monitor gab ist mir zu plump. :)

Aber nu gut lassen wir das sein, bevor ich hier noch zerrissen werde. :D

Edit:
Könnte mir das mal jemand mit den 8, 10 und 12 Bit erklären?
Was ist wie damit genau gemeint. Ab wann geht dann HDR zu 100%? ;)
Eigentlich hast du Recht und ich verstehe auch nicht, warum das jetzt erst kommt. Die SDR Bildsignale, die auch noch bei HD eingestzt wurden basieren letztlich immer noch auf den alten Abstimmungen auf Röhren-Fernseher. Meiner Meinung nach hätte sich da früher was tun müssen. Aktiv wird an HDR aber tatsächlich erst seit ca. 2-3 Jahren gearbeitet. Klar werden TVs besser, aber da die Standards ja aufwärtskompatibel sind hätte das kein Problem darstellen dürfen.

Zu den Bit ... fangen wir mal ganz grundlegend an .
analog-digital-4-bit-sampling.png
In dem Bild siehst du ein rotes analoges Signal und ein blaues digitales Signal. Könnte zB ein Audiosignal sein. Das analoge Signal ist kontinuierlich über Zeit und Werte, das digitale Signal ist zeit- und wertdiskret. Es wird erzeugt indem man das analoge Signal in immer gleichen Zeitintervallen anschaut und überprüft welcher der (in diesem Fall 16) festgelegten digitalen Werte am nähesten an dem analogen Signal dran ist. Diesen Vorgang nennt man Quantisierung und genau das sind die Bits um die es hier geht. In dem oben gezeigten beispiel hätten wir also ein digitales Signal mit 4Bit (2^4=16) Quantisierung. Je mehr Bit ich hier investiere um so mehr Werte kann ich darstellen, und um so genauer kann ich letztlich mein analoges Signal abbilden. Bei Audio entspricht das der Lautstärke und ist bei CDs in der Regel auf 16Bit festgelegt. Bei Videosignalen wird damit die Intensität eines Farb-oder Helligkeitssignals beschrieben. Bei SDR Video habe ich 8Bit also 2^8=256 Helligkeitsabstufungen. Bei HDR sind es heute 10Bit(1024 Werte) oder 12Bit(2048 Werte). Damit und mit der sogenannten PQ Funktion bei HDR oder Gamma Funktion bei SDR, die mir sagen wie die entsprechenden Werte schlussendlich in Helligkeit umzusetzen sind, wird maßgeblich der Dynamikumfang meines Bildes bestimmt.

Ich hoffe ich konnte dir ein bisschen Erleuchtung verschaffen ;)
 
Zurück