AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an
Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T
Vorneweg: Ich habe selber nur UHD und GSYNC täglich vor mir stehen. (siehe Signatur)
1080p vs. 2160p/ FHD vs. UHD/ 2K vs. 4K: Der Unterschied bei der Schriftdarstellung (bzw. allgemein gesehen Vektorgrafiken) ist gigantisch, bei Photos & Videos (bzw. allgemein gesehen Rastergrafiken) ist er gering. Polygonbasierte 3D-Titel stellen daraus eine Mischung dar: Die Geometrie sind Vektorgrafiken, entsprechend profitieren sie auch riesig. AntiAliasing schlägt viel mehr durch, schon PostProcessingAntialiasing schlägt richtig gut durch. Die Texturen sind halt Rastergrafiken, sie würden also eher weniger profitieren. Achtung, würden! Denn in Spielen mit hohen Sichtweiten werden die Texturen im Umkehrschluss auf Entfernung halt nur noch mit ganz, ganz wenigen Pixeln dargestellt. Entsprechend kann auch da viel rausgekitzelt werden. Sogar in Spielen um die Jahrtausendwende kann man bei der Distanzdarstellung daher noch große Vorteile erkennen!
→ Ja, lohnt sich schon für jemanden, der nur durchschnittlich an hohen Texturauflösungen, LOD oder AA interessiert ist total.
G-SYNC (bzw. allgemeiner VRR): Nunja, das ist halt mehr ein Bugfix denn ein Feature. Sorgt halt dafür, dass sich alle FPS-Raten wirklich so anfühlen, wie man es EIGENTLICH (rein der Zahl nach) erwarten würde. Also so, dass z.B. 55 und 60 FPS nahezu ununterscheidbar sind. Und nicht nur das, auch 90 und 120 FPS werden darauf in nahezu jedem Titel kaum mehr zu unterscheiden sein. Das spart einem je nach Titel natürlich dann ordentlich Performance. Der Clou ist, dass man die auf CPU- und GPU-Seite spart und sich einfach weniger Gedanken um Frameratestabilität machen muss. Schon sehr entspannend...
HDR: HDR ist momentan das dezenteste von all diesen Features, was auch daran liegt, dass es ein wenig unspezifiziert ist. Je nach Monitor kann das ganz anders ausfallen. Im Falle vom Nvidia GSYNC HDR-Standard bedeutet das, dass der Monitor 10bit statt 8bit pro Farbkanal bieten muss. Statt 256 Stufen an z.B. Rot gibt es also 1024 Stufen. Die meisten User werden schon die 256 Stufen schlecht unterscheiden können, ABER das ist nicht alles. Die weiteren Stufen erhöhen nämlich nochmals die Durchschlagfähigkeit von Antialising. Logisch, schließlich werden dort ja Farbinformationen aus einzelnen Pixeln miteinander verrechnet. Gibt es mehr mögliche Farbinfos, die man am Ende darstellen kann, dann steigt die Qualität. (und ja, auch für den Betrachter, der die Farben bewusst eigentlich schon gar nicht mehr auseinander halten kann) GSYNC HDR schreibt außerdem noch einen höheren statischen Kontrast vor. Schwarz ist schwärzer, weiß weißer. Horror- und Weltall-Fans werden bei sowas ganz hibbelig, aber nein sagt dazu wohl kaum wer... (ist übrigens auch wieder toll für Schriftdarstellung)
Für die 10bit-Darstellung braucht es bei nahezu jedem Titel übrigens einen Patch, der höhere statische Kontrast kommt hingegen immer zum tragen. In nahezu jedem Fall sollte so ein Monitor aber auch in den Punkten Farbgenauigkeit, Farbraumabdeckung und so weiter ordentlich darstehen.
Was soll man unterm Strich bloß sagen? Ja, der Unterschied wird groß sein. Schon "nur" einer von den Aspekten alleine kann einen umhauen, wenn man ganz genau zur Zielgruppe gehört---ein Framedrophasser wird von VRR, ein Schriftenthusiast von UHD und ein Farbliebhaber von HDR entzückt sein. Wer alles drei so ein bisschen ist, wird sich freuen. Wer alles drei voll und ganz ist, wähnt sich vielleicht sogar für ein paar Augenblicke im Himmel auf Erden...
...und denkt dann im nächsten Moment über UHD II, mehr Herz, einen noch größeren Farbraum und Kontrast oder gar schon Lichtfelddisplays nach. Und schon zurück am Boden...