Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Nividia kündigte während seiner Präsentation auf der Computex 2017 eine neue Reihe von HDR-G-Sync-Monitoren an. Diese würden im Laufe der Computex in den Schauräumen der Messe ausgestellt werden. Genauere Angaben über die Hersteller oder über die Anzahl der Modelle machte er nicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Die sollen mal gleich mit die Spiele ansagen welche das tolle HDR Feature auch unterstützen.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Ich hoffe, dass bei dem Line Up endlich mal ein 34Zoll+ 21:9 Gaming Monitor dabei ist, bei dem man nicht die Monitorlotterie spielen muss. Mittlerweile habe ich 5 Modelle vom X34A und PG348Q zurück gehen lassen, weil jeder Monitor mindestens 1 Defekt hatte (und da schließe ich BLB und IPS Glow noch nicht mal mit ein)...
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T
Da kann ich nur von meinen 55" UHD TV Reden. Ja HDR ist schon toll.
Am PC gibt es im Moment halt kaum Spiele die das Unterstützen. Aber es wird sich hoffentlich durchsetzen. Und die Monitore werden hoffentlich auch schnell billiger.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T

4K Lohnt sich auf jeden Fall wobei du vermutlich nicht von 120 Hertz runter willst und das kann man gut verstehen. Generell wäre meiner Meinung ein idealer Display 4K HDR 120Hz+ IPS Panel, Auf Gsync oder Freesync kann man bei Potenter Hardware denke ich verzichten und HDR ist zwar bei Fotos richtig Geil aber zum zocken wirklich Überflüssig.
Generell was machst du am Meisten mit dem Monitor ist die Frage?
Ich bekomme beim Surfen in FullHD inzwischen Pixel Krebs wenn der Montor nicht unter 13 Zoll hat, bei 4k siehst du halt keinen Einzigen bei mehr als 50cm Bildabstand ;)
Der Unterschied zwischen FHD und UHD ist GEWALTIG
Zwischen 60hz und 120 leider auch :(
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Ich war schon vorher am gucken ob 60 oder 120/144 Hz nur jetzt kommen ja die 4k Monitore mit 120Hz. Darum werde ich noch warten. Bessere Preise und auswahl sind sehr willkommen.:ugly:
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T

Natives 4K HDR ist schon der Hammer.Der Mehrwert ist auf jeden Fall gegeben,für mich persönlich auch bei Spielen.Allerdings empfinden viele HDR als unangenehm und unnatürlich,so wie ich 3D.Das sollte man vorher antesten,also wie gehabt.
Gruss
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Mal so ne allgemeine Frage.
Lohnt es sich ? 4K mit HDR und G-Sync hört sich ja an wie n Traum.
Aber sieht man den unterschied so deutlich ?
Benutze momentan Benq XL2420T
Vorneweg: Ich habe selber nur UHD und GSYNC täglich vor mir stehen. (siehe Signatur)

1080p vs. 2160p/ FHD vs. UHD/ 2K vs. 4K: Der Unterschied bei der Schriftdarstellung (bzw. allgemein gesehen Vektorgrafiken) ist gigantisch, bei Photos & Videos (bzw. allgemein gesehen Rastergrafiken) ist er gering. Polygonbasierte 3D-Titel stellen daraus eine Mischung dar: Die Geometrie sind Vektorgrafiken, entsprechend profitieren sie auch riesig. AntiAliasing schlägt viel mehr durch, schon PostProcessingAntialiasing schlägt richtig gut durch. Die Texturen sind halt Rastergrafiken, sie würden also eher weniger profitieren. Achtung, würden! Denn in Spielen mit hohen Sichtweiten werden die Texturen im Umkehrschluss auf Entfernung halt nur noch mit ganz, ganz wenigen Pixeln dargestellt. Entsprechend kann auch da viel rausgekitzelt werden. Sogar in Spielen um die Jahrtausendwende kann man bei der Distanzdarstellung daher noch große Vorteile erkennen!
→ Ja, lohnt sich schon für jemanden, der nur durchschnittlich an hohen Texturauflösungen, LOD oder AA interessiert ist total.

G-SYNC (bzw. allgemeiner VRR): Nunja, das ist halt mehr ein Bugfix denn ein Feature. Sorgt halt dafür, dass sich alle FPS-Raten wirklich so anfühlen, wie man es EIGENTLICH (rein der Zahl nach) erwarten würde. Also so, dass z.B. 55 und 60 FPS nahezu ununterscheidbar sind. Und nicht nur das, auch 90 und 120 FPS werden darauf in nahezu jedem Titel kaum mehr zu unterscheiden sein. Das spart einem je nach Titel natürlich dann ordentlich Performance. Der Clou ist, dass man die auf CPU- und GPU-Seite spart und sich einfach weniger Gedanken um Frameratestabilität machen muss. Schon sehr entspannend...

HDR: HDR ist momentan das dezenteste von all diesen Features, was auch daran liegt, dass es ein wenig unspezifiziert ist. Je nach Monitor kann das ganz anders ausfallen. Im Falle vom Nvidia GSYNC HDR-Standard bedeutet das, dass der Monitor 10bit statt 8bit pro Farbkanal bieten muss. Statt 256 Stufen an z.B. Rot gibt es also 1024 Stufen. Die meisten User werden schon die 256 Stufen schlecht unterscheiden können, ABER das ist nicht alles. Die weiteren Stufen erhöhen nämlich nochmals die Durchschlagfähigkeit von Antialising. Logisch, schließlich werden dort ja Farbinformationen aus einzelnen Pixeln miteinander verrechnet. Gibt es mehr mögliche Farbinfos, die man am Ende darstellen kann, dann steigt die Qualität. (und ja, auch für den Betrachter, der die Farben bewusst eigentlich schon gar nicht mehr auseinander halten kann) GSYNC HDR schreibt außerdem noch einen höheren statischen Kontrast vor. Schwarz ist schwärzer, weiß weißer. Horror- und Weltall-Fans werden bei sowas ganz hibbelig, aber nein sagt dazu wohl kaum wer... (ist übrigens auch wieder toll für Schriftdarstellung)
Für die 10bit-Darstellung braucht es bei nahezu jedem Titel übrigens einen Patch, der höhere statische Kontrast kommt hingegen immer zum tragen. In nahezu jedem Fall sollte so ein Monitor aber auch in den Punkten Farbgenauigkeit, Farbraumabdeckung und so weiter ordentlich darstehen.

Was soll man unterm Strich bloß sagen? Ja, der Unterschied wird groß sein. Schon "nur" einer von den Aspekten alleine kann einen umhauen, wenn man ganz genau zur Zielgruppe gehört---ein Framedrophasser wird von VRR, ein Schriftenthusiast von UHD und ein Farbliebhaber von HDR entzückt sein. Wer alles drei so ein bisschen ist, wird sich freuen. Wer alles drei voll und ganz ist, wähnt sich vielleicht sogar für ein paar Augenblicke im Himmel auf Erden... :D:D:D

...und denkt dann im nächsten Moment über UHD II, mehr Herz, einen noch größeren Farbraum und Kontrast oder gar schon Lichtfelddisplays nach. Und schon zurück am Boden... :P
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Ich war schon vorher am gucken ob 60 oder 120/144 Hz nur jetzt kommen ja die 4k Monitore mit 120Hz. Darum werde ich noch warten. Bessere Preise und auswahl sind sehr willkommen.:ugly:

Nach der aktuellen Entwicklungsgeschwindigkeit wird das noch sehr sehr lange dauern.
Ich verwende seit zwei Monaten einen PG348Q und bin nach der heutigen Ankündigung ein wenig zusammen gezuckt und dachte noch Mist - bis ich den vermeintlichen Preis gesehen habe.
Das Komplett-Paket wird sich meiner Meinung nach noch lange im vierstelligen Bereich aufhalten, vielleicht gibt es aber das eine oder andere Modell das mit kleineren Abstrichen etwas günstiger zu haben sein wird.
Aber alle Technologien vereint inkl. Hochwertigem Panel - nicht unter 1000€ in absehbarer Zeit!

Zum Thema HDR bin ich vorsichtig euphorisch und gespannt.
Klingt jedenfalls sehr interessant,aber das was man bisher zu dem Thema lesen konnte lässt einige Zweifel aufkommen.
Zumal die Qualität auch ähnlich wie bei 3D extrem schwankt.
Nach Avatar sind meine Kumpels und ich alle 3D Fans und überzeugt von der Technik gewesen, danach kam nichts mehr vergleichbares und in spielen hat es mich eher gestört als etwas genutzt (Halbierung der Bildrate ist eigentlich ein No-Go,aber Technologie bedingt nicht anders zu lösen).

Und die paar Games die zudem eher zweifelhaften Mehrwert bieten, überzeugen mich nach aktuellem Stand überhaupt nicht.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Vorneweg: Ich habe selber nur UHD und GSYNC täglich vor mir stehen. (siehe Signatur)

Horror- und Weltall-Fans werden bei sowas ganz hibbelig, aber nein sagt dazu wohl kaum wer...

...und denkt dann im nächsten Moment über UHD II, mehr Herz, einen noch größeren Farbraum und Kontrast oder gar schon Lichtfelddisplays nach. Und schon zurück am Boden... :P

Da sich in den letzten Jahren mein Game Genre etwas geändert hat von nur Shooter auf Horror, Action Adventure, D3, BF und Overwatch,
bin ich echt stark am überlegen, ob ich nicht zu einem 60Hz 4K usw usw greifen sollte.
Der Preis ist m.M.n deutlich besser und wird wohl etwas fallen wenn die High Refresh teile kommen.
Zudem kommt noch dazu, das ich für mein Youtube Hobby auch mehr mit Photoshop und Premiere Pro arbeite und verschiedenste sachen ausprobiere.

4K als Downsampling ist manchmal auch schon echt Hübsch auf meinem XL2420T aber lange nicht so wie es sein sollte, glaube ich :D
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

4K Lohnt sich auf jeden Fall wobei du vermutlich nicht von 120 Hertz runter willst und das kann man gut verstehen. Generell wäre meiner Meinung ein idealer Display 4K HDR 120Hz+ IPS Panel, Auf Gsync oder Freesync kann man bei Potenter Hardware denke ich verzichten(...)
Falsch gedacht. Beziehungsweise nicht weit gedacht. Denn Hardware ist halt stets zu langsam für das, was man mit ihr anstellen könnte. :P Allein das Stichwort SSAA (oder die quasi-Synonyme wie ResolutionScale, Downsampling, DSR/VRS, ...) reichen dafür aus. Und außerdem: Hier klagt doch jeder zweite darüber, dass es keine Graka gibt, die Spiel XYZ in 4K mit 60 FPS packt. :D Genau, es gibt sie nicht...
(...)und HDR ist zwar bei Fotos richtig Geil aber zum zocken wirklich Überflüssig.(...)
Das HDR bei der Aufnahme ist nicht das gleiche wie HDR bei der Wiedergabe. Genau, wie HDR in älteren Spielen ja auch im Optionsmenu drinnen steht, dabei meint es auch nur die Synthese (sozusagen als Gegenstück zur Aufnahme der Photos) der Bilder, nicht aber die Wiedergabe. Schwieriges Thema... (und ich glaube, dass Computerbase oder PCGH mal einen schönen Übersichtsartikel dazu hatten)
(...)Ich bekomme beim Surfen in FullHD inzwischen Pixel Krebs wenn der Montor nicht unter 13 Zoll hat, bei 4k siehst du halt keinen Einzigen bei mehr als 50cm Bildabstand ;)
Der Unterschied zwischen FHD und UHD ist GEWALTIG (...)
Ja, defintiv. Mittlerweile ist ja im Netz schon sehr stark auf Vektorgrafiken umgestellt worden, (Smartphones sei dank) entsprechend ist das Surfen wirklich ziemlich, ziemlich brillant. Aber auch das Tippen von Texten, das Zeichnen von irgendwas, das Modellieren fürs Rendering und was auch sonst noch Leute wohl machen wird in ganz andere Spaßregionen gehoben.

Haken beim Surfen: Zu viel des Webs ist nach wie vor nur Responsiv in Richtung 9:16 (Standard-Smartphone Hochkant), nicht jedoch in Richtung 16:9. *wink an die PCGH-Webabteilung, worum man sich mal kümmern könnte, um sich von der Konkurrenz abzusetzen*
Die wenigen Seiten, die es sind, sind jedoch abermals eine Offenbarung.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

4K als Downsampling ist manchmal auch schon echt Hübsch auf meinem XL2420T aber lange nicht so wie es sein sollte, glaube ich :D

Downsampling glättet im Grunde nur das Bild, feinere Details sind jedoch der höheren Auflösung vorenthalten.
Vereinfacht: Ist wie wenn man z.B. einen Baum mit 80 statt 20 Punkten / Tupfern malen darf.
 
Zuletzt bearbeitet:
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Downsampling glättet im Grunde nur das Bild, feinere Details sind jedoch der höheren Auflösung vorenthalten.
Vereinfacht: Ist wie wenn man z.B. einen Baum mit 80 statt 20 Punkten / Tupfern malen darf.
Downsampling ist einfach gutes Antialiasing. (OGSSAA) Das enthüllt auch mehr Details, aber eben auf andere Art und Weise...
...man muss aber gar nicht versuchen es zu beschreiben, angesichts der Tatsache, dass die Redaktion doch dieses Special hat:
8K-Benchmarks und Bildvergleiche: Downsampling auf Radeon und Geforce mit GeDoSaTo-Tool
Die vier HalfLife-II-Bilder zeigen eigentlich alles auf. Jap, schon das 1080pDownsampling-Bild zeigt mehr Details als das 1080pNativ. Aber nichts im Vergleich zu dem, was auf 2160pNativ-Bild zu sehen ist. Und das 2160pDownsampling-Bild spielt natürlich abermals in einer anderen Liga.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Falsch gedacht. Beziehungsweise nicht weit gedacht. Denn Hardware ist halt stets zu langsam für das, was man mit ihr anstellen könnte. :P Allein das Stichwort SSAA (oder die quasi-Synonyme wie ResolutionScale, Downsampling, DSR/VRS, ...) reichen dafür aus. Und außerdem: Hier klagt doch jeder zweite darüber, dass es keine Graka gibt, die Spiel XYZ in 4K mit 60 FPS packt. :D Genau, es gibt sie nicht...
Naja in 4K hab ich in Bf 1 halt 60Fps immer ok einmal 55 :P warum das auf ner 980ti geht, ich seh den Unterschied der Kantenglättung nur am Gras und das ist mir wirklich juppe und wozu brauch ich 8K :LOL:

Den Unterschied zwischen HDR am Monitor und der Kamera kenn ich nicht umsonst hat mein Monitor 10bit okay 8+2 macht aber 10 ,da brauchst du andere nicht unwissend dazustellen:P wenn auch unbeabsichtigt oder nur subjektiv so von mir wahrgenommen ;)

An die Web Abteilung hätte ich ein anderes Anliegen :wenn ich probiere eure Artikel auf dem IPad zu lesen werde ich oft 2von3 mal zirka einfach so im selben Tab nach kurzer Zeit an gewisse Seiten weitergeleitet wo man ein iPhone 7 gratis bekommt ja ne ist klar oder z.b. Das im Anhang Mensch ich will die Artikel lesen nicht chinesisch
 

Anhänge

  • IMG_0143.PNG
    IMG_0143.PNG
    194,1 KB · Aufrufe: 108
Zuletzt bearbeitet:
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Naja in 4K hab ich in Bf 1 halt 60Fps immer ok einmal 55 :P warum das auf ner 980ti geht, ich seh den Unterschied der Kantenglättung nur am Gras und das ist mir wirklich juppe und wozu brauch ich 8K :LOL:

Den Unterschied zwischen HDR am Monitor und der Kamera kenn ich nicht umsonst hat mein Monitor 10bit okay 8+2 macht aber 10 ,da brauchst du andere nicht unwissend dazustellen:P wenn auch unbeabsichtigt oder nur subjektiv so von mir wahrgenommen ;)

An die Web Abteilung hätte ich ein anderes Anliegen :wenn ich probiere eure Artikel auf dem IPad zu lesen werde ich oft 2/3 mal zirka einfach so im selben Tab an gewisse Seiten weitergeleitet wo man ein iPhone 7 gratis bekommt ja ne ist klar oder z.b. Das im Anhang Mensch ich will die Artikel lesen nicht chinesisch
Das beginnt sich zu drehen, wenn du ResScale 200% auch in flüssig sehen würdest...
...außerdem, 60 FPS halt "nur". Es gibt dann eben auch wieder die, die dann noch den Unterschied zwischen 60 und 90 FPS (90hz kann man ja bei manchen Monitoren einstellen oder reinmodden) oder gar 60 und 120 FPS in BF1 ziemlich stark spüren würden. Denen kann dann VRR nur recht sein, denn somit müssen sie nicht genau die FPS immerzu konstant treffen, (was, wie gesagt, hardwaretechnisch heftig zu realisieren wäre) die sie gerne hätten, sondern haben einen Toleranzrahmen, in dem es sich noch genauso anfühlt. Und auch danach wird es nur okay und nicht gleich eine andere Welt.
Mir fällt es eigentlich schwer mir eine Gruppe an HighEnd-Gamern vorzustellen, denen VRR völlig egal sein könnte.

Das mit HDR war halt meine Standardreaktion auf einen Anklang von "HDR bei Photos ist doch cool", in neun von zehn Fällen meint dann das Gegenüber halt das, was ich skizziert habe...
...im verbleibenden Fall trifft es jemanden wie dich.
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Da sich in den letzten Jahren mein Game Genre etwas geändert hat von nur Shooter auf Horror, Action Adventure, D3, BF und Overwatch,
bin ich echt stark am überlegen, ob ich nicht zu einem 60Hz 4K usw usw greifen sollte.
Der Preis ist m.M.n deutlich besser und wird wohl etwas fallen wenn die High Refresh teile kommen.
Zudem kommt noch dazu, das ich für mein Youtube Hobby auch mehr mit Photoshop und Premiere Pro arbeite und verschiedenste sachen ausprobiere.

4K als Downsampling ist manchmal auch schon echt Hübsch auf meinem XL2420T aber lange nicht so wie es sein sollte, glaube ich :D
Also, ich habe schon von mehren gehört, die von FHD120 auf UHD60 gewechselt sind und den dann wieder zurückgegeben oder verkauft haben, um zu WQHD144 zu gehen. Wer einmal an die hohe Wiederholrate gewöhnt ist, kommt halt echt schlecht wieder zurück.

Das spräche gegen den Kauf eines UHD60. Was dafür spricht ist, dass du deine Graka weiternutzen kannst und er auch nach erscheinen der UHD144er wohl kaum stark im Preis einknicken wird. Wieso auch? Ist ja nicht so, als wäre das Preisgefüge durcheinander geworfen wurde, gab ja nur eine Erweiterung der technischen Möglichkeiten.

Meine Empfehlung: Hast du ordentlich Geld für PC-Aufrüstungen zur Seite gelegt oder kannst es ohne größeren Aufwand dafür freimachen oder anhäufen? Dann warte auf neue Grakas und UHD144er und gönn dir das als Kombi. Danach solltest du dann aber einige Jahre dabei bleiben, wenn du dich nicht völlig dekadent fühlen willst... :P
...ist das nicht der Fall? Dann warte halt noch länger oder beiß (übergangsweise) in den sauren WQHD144er-Apfel. :D;)
 
AW: Computex 2017: Nividia kündigt HDR-G-Sync-Monitore an

Auf Gsync würde ich niemals mehr verzichten wollen, das ist leider auch das Einzige worüber ich aus eigener Erfahrung mitreden kann. 4k und HDR durften meine Augen bis jetzt nur beim örtlichen MM oder Saturn sehen was ja leider nicht wirklich optimal ist. (Zu hell und wer macht sich schon die Mühe da mal was einzustellen!?)
Gsync ist jedenfalls für mich eine Offenbarung, vorbei die Zeiten in denen ich meine Spiele so einstellen musste, dass 60 FPS in den Stein gemeißelt sind. VSync auf nimmer Wiedersehen.
Und noch mehr: Ich kann die Grafik Settings sogar noch höher schrauben als vorher. Was interessieren mich die vielleicht wenigen Stellen in einem Spiel, wo die FPS in den 50er Bereich absacken? Gar nicht mehr weil ich sie nicht mehr wirklich bemerke. Sonst habe ich diese FPS Drops leider immer mit ruckeln und/oder tearing wahrgenommen, jetzt nicht mehr. Man entfesselt quasi seine Grafikkarte.

Einziger Nachteil ist wohl der, dass man seine Seele ein Stück weit an nVidia verkauft. (Und Gsync ist leider teuer) Hat man so einen Monitor kauft man sich ja keine AMD Karte mehr. (Das war doch keine Absicht @nVidia oder?^^)
Jedenfalls kommt mir nie wieder ein Monitor ohne Gsync ins Haus, umso mehr freue ich mich auf die Neuvorstellungen.
4k - HDR - 144Hz - IPS - Gsync?! Ein Träumchen... nur nicht für meine Finanzen. ;)
 
Zurück