Was leistet G-sync HDR? UHD-Monitore mit 144 Hz kommen

Da wird mein 34" UWQHD wohl noch ein paar Jahre halten müssen, denn über 2000 Ocken fürn Moni werd ich mit Sicherheit nicht hinlegen.
 
Hallo Manu,

ich hätte dazu auch eine Frage bei CB im Test meinten diese: "384 einzelne Zonen für die Hintergrundbeleuchtung sind schlicht nicht ausreichend, um ein fehlerfreies Bild zu liefern. So war in Destiny 2 in dunklen Szenen ein Halo-Effekt zu sehen, den man immer weiter vor sich her geschoben hat. "

hat dieser Halo Effekt Sie auch gestört? Weil wenn man schon rund 2500€ ausgibt sollte sowas nicht sein...

Es stört nicht wirklich und ist nur bedingt sichtbar, wenn etwa in Ladesequenzen weiße Elemente auf komplett(!) schwarzem Hintergrund vorhanden sind. Andernfalls muss man schon genau hinsehen. An sich hat jedes Local Dimming einen Halo-Effekt und es bräuchte so viel Zonen wie Pixel, um es zu vermeiden. Selbstleuchtende Pixel hat aber nur OLED, mit LCDs wird das nicht machbar sein. Es ist eben eine Kompromiss- bzw. Übergangstechnik.
 
Am Tv zapp ich die Werbung weg-und hier seh ich mir aus Versehen Werbung an-oder war Das ein redaktioneller Beitrag?
Gruß Yojinbo
 
Am Tv zapp ich die Werbung weg-und hier seh ich mir aus Versehen Werbung an-oder war Das ein redaktioneller Beitrag?
Gruß Yojinbo
Da gings um nVidia, also logischerweise Werbung.

Nur wenn es ein Video zu AMD Themen gewesen wäre, hätte es sich zweifelsfrei um einen komplett werbefreien "redaktionellen Beitrag" gehandelt ... mensch weiß doch jedes kleine Kind :P
 
Solang die LCD Technik als Grundlage dient, braucht man sich in Sachen Schwarzwert, Glows und Bleedings, usw keine all zu großen Hoffnungen zu machen. Da hilft auch kein HDR oder 10bit Panel, ja selbst ein FALD-Display schafft höchstens nur Verbesserungen (dann aber mit anderen Nachteilen). Man sollte also von vorherein alle möglichen Ansprüche runterschrauben und PR Versprechen ignorieren ;)

Aus dem Grund würd ich auch nie so viel Geld für son Monitor augeben. Es ist eben immer noch ein LCD! Erst wenn irgendwann OLED, (echtes) QLED oder eben was anderes den PC Markt aufwühlt, werd ich anfangen darüber nachzudenken.
Kann aber nochn ganzes Weilchen dauern. Oled ist fürn Monitorbetrieb immer noch zu anfällig, MicroLEDs noch seeehr viel Jahre von der Marktreife entfernt (lasst euch von der diesjährigen Vorstellung nicht in die Irre führen) und über echte QLEDs hört man auch sehr wenig...
 
Wir haben einen hohen Anspruch was die Displays angeht ......

Ahhhh jaaaaa.
Wenn die Ansprüche so hoch sind, weshalb haben dann die Asus PG348Q soviel Backlight Bleeding?
Selbst heute sind die Foren täglich voll damit. Es ist ein richtiges Glücksspiel einen zu erwischen der nur minimal bis gar nicht betroffen ist.

Das allein kann doch nicht nur auf das Format zurückzuführen sein.
Vor allem ist das teilweise echt heftig, selbst in hellen Szenen mehr als nur Sichtbar.

Soviel mal zu "hohen Ansprüchen".
Der Anspruch gilt wahrscheinlich nur den Euronen dem man dem Kunden abnehmen kann. :daumen2:
 
Zuletzt bearbeitet:
@Pixy:

Nein, die Erklärung ist viel einfacher.

Der genannte Monitor ist 2 Jahre alt und hat außer G-Sync und knappen 100Hz nichts mit den vorgestellten Monitoren oder dem Gsync-HDR Marketing Gerede zu tun.

Dabei wurde das im Video doch hinreichend erklärt. Eventuell sind gerade solche Probleme wie das genannte BLB Gründe solche marketinglastigen "Vorgaben" zu machen. Aus technischer Sicht, gerade in Verbindung mit HDR finde ich das nicht mal schlimm.

Was das letztendlich mit dem Monitormarkt macht und was das nachher kostet kann man sich leider denken.
Gleichzeitig muss jedem klar sein, dass größere Bildschirme mit mehr Pixeln und Ausstattung nie so günstig sein können wie aktuelle Panels in FullHD oder WQHD mit einem Bruchteil dieser Features.

Wie immer hat am Ende jeder so seine Bedürfnisse und Möglichkeiten, sowas kann teuer sein, muss aber nicht. :cool:
 
Zuletzt bearbeitet:
Mit der Frage gehören GSync und HDR zusammen hat man komplett falsch gefragt.

Die Frage die sich wirklich stellt kann man HDR, 144hz in UHD auch auf einer AMD darstellen lassen wenn man sich heute so einen überteuerten Monitor für die Zukunft kauft?
Ich habe zwar nicht vor so ein Model zu kaufen und würde auch NV kein Geld hinten rein stecken aber für die einten ist dies sicher eine interessante frage wie sehr dies an NV gekoppelt ist.

Es reicht finde ich wenn unsere Software (Windows oder Spiele) nie wieder uns gehören werden, nicht mehr über den Einsatz meiner Hardware bestimmen zu dürfen muss dann nicht auch kommen.
 
Es wurde ja von HDR 10 (+?!) gesprochen. Damit ist der Standard ja gegeben, UHD sollte gehen und 144Hz ist denkbar aber :ugly: , ne Spaß geht auf den ersten Blick eigentlich auch auf AMD.

Sinnvoll ist das aber sicher nicht mit ner AMD-Karte so einen Monitor aus diesem Nvidia-Line Up zu kaufen.
Ist doch denkbar, dass ähnliche Panels auch ohne G-Sync kommen, sicher später aber auch günstiger.
 
Bringt mich jetzt bitte nicht um, aber war 10 Bit bei Nvidia nicht so wieso nur für die Quadros?
 
Mit der Frage gehören GSync und HDR zusammen hat man komplett falsch gefragt.

Die Frage die sich wirklich stellt kann man HDR, 144hz in UHD auch auf einer AMD darstellen lassen wenn man sich heute so einen überteuerten Monitor für die Zukunft kauft?
Ich habe zwar nicht vor so ein Model zu kaufen und würde auch NV kein Geld hinten rein stecken aber für die einten ist dies sicher eine interessante frage wie sehr dies an NV gekoppelt ist.

Es reicht finde ich wenn unsere Software (Windows oder Spiele) nie wieder uns gehören werden, nicht mehr über den Einsatz meiner Hardware bestimmen zu dürfen muss dann nicht auch kommen.

Natürlich sollte das gehen, nur G-Sync klappt eben mit einer Amdkarte nicht, und bis Amd was auf dem Markt hat, was fordernde Spiele in Uhd mit 100+ Fps darstellen kann, vergehen wohl noch Jahre, und dann gibt es bessere und günstigere Monitore mit den Leistungsdaten.
 
Heute gehört die Krone NVidia und vieleicht auch morgen. Aber das spielt keine Rolle, erstens muss man nicht immer die Performanteste Karte mit dem schlechtesten Preisleistungsverhältnis haben und zweitens geht es hier um eine Peripherie die auch 10Jahre halten dürfte.
Deswegen finde ich es auch wichtiger das Eingabe und Ausgabegeräte die weiter benutzt werden über CPU/RAM/GPU von heute hinaus einen Top stand haben.
Ich möchte alles was möglich ist in einem heutigen Monitor nutzen können.

Und noch was zum hundertsten Mal. Ich habe jetzt schon einen 144hz Monitor und die machen auch bei 35FPS einen riesen Unterschied, man profitiert IMMMER davon!!
 
Zurück