News Neuer Standard: Erster Monitor mit DisplayPort 2.1 UHBR20

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Neuer Standard: Erster Monitor mit DisplayPort 2.1 UHBR20

Wenn es eine Sache auf der CES 2024 gegeben hat, dann waren dies neue OLED-Monitore. Auch Gigabyte kündigte neue Bildschirme an. Darunter eine echte Neuheit.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Neuer Standard: Erster Monitor mit DisplayPort 2.1 UHBR20
 
Ist DisplayPort 2.1 UHBR20 nur interessant für Leute die mehrere Monitore verwenden wollen, oder wofür wird der erhöhte Datendurchsatz benötigt? Welche Vorteile haben Monitore mit DP 2.x denn sonst noch?

Es gibt den Monitor ja auch ohne DP2.1 (AORUS FO32U2) und kostet derzeit gut 250€ weniger. 250€ nur für DP2.1 finde ich etwas überzogen.


Es wäre schön wenn ein 4K Oled auch mal Media-Sync unterstützen würde, damit die Filme, Serien und andere Streams nicht so ruckeln. Bei langen Kameraschwenks und Fahrten ist das echt nervig.
 
Ist DisplayPort 2.1 UHBR20 nur interessant für Leute die mehrere Monitore verwenden wollen, oder wofür wird der erhöhte Datendurchsatz benötigt? Welche Vorteile haben Monitore mit DP 2.x denn sonst noch?
Man braucht keine Kompression (DSC) für UHD144. Aber ob das ein Problem wäre, sei mal dahingestellt.
Es gibt den Monitor ja auch ohne DP2.1 (AORUS FO32U2) und kostet derzeit gut 250€ weniger. 250€ nur für DP2.1 finde ich etwas überzogen.
Liegt wohl daran, dass es nur wenige Modelle gibt. Wäre mir aber auch zu teuer.
 
UHD 144Hz 8 oder 10bit nimmst halt HDMI 2.1.
Guter Punkt. Ich bin quasi selber "betroffen". Mal sehen, angeblich war bei meinem Monitor auch ein HDMI-Kabel dabei.

Edit: Hat sich erledigt, die Grafikkarte hat nur einen HDMI-Ausgang und da hängt der Fernseher dran. Aber ich finde die Kompression auch nicht auffällig. Ich kann jedenfalls keinen Unterschied feststellen, wenn ich die Bildfrequenz auf 90 Hz senke, womit kein DSC mehr aktiv sein sollte.
 
Zuletzt bearbeitet:
DSC hat 1 grosses Problem... das die meisten allerdings wohl nicht betrifft.

DSC Monitore "belegen" 2 Steckplätze an einer GPU.

Sprich eine 4090, welche normalerweise zb. 3 Monitore über DP und 1 Monitor über hdmi bedienen kann. Kann mit DSC nur noch 2 Monitore ansteuern!

Wer also wie ich mehr als 2 Monitore nutzen möchte bekommt ein Problem!

Meine vorübergehenden Workaround ist, den dritten Monitor an die IGPU vom 13900k anzuschliessen.

Aber da wäre es tatsächlich geiler auf DSC verzichten zu können, damit ich wieder alle Monitore an die 4090 hängen könnte.

Rein Bildtechnisch, sehe ich mit DSC auch kein Unterschied
 
Von den Problemen bei DSC.
Naja, ist halt eine verlustbehaftete Kompression. Ich sehe auch keinen Unterschied, aber es gibt natürlich Leute, die zumindest behaupten, sie würden eine Verschlechterung der Bildqualität bemerken und deshalb ein Problem damit haben.
DSC Monitore "belegen" 2 Steckplätze an einer GPU.
Interessant. Scheint aber nicht immer so zu sein.
Aber da wäre es tatsächlich geiler auf DSC verzichten zu können, damit ich wieder alle Monitore an die 4090 hängen könnte.
Hast du mal probiert die Bildfrequenz, Auflösung und/oder Farbtiefe von den Monitoren so weit zu senken, dass kein DSC mehr erforderlich wäre? Das wäre ja dann eh die Wahl, die du treffen müsstest.
 
Interessant. Scheint aber nicht immer so zu sein.
Ich weis nicht wie es bei AMD aussieht. Aber zumindest bei nvidia ist das immer so...

Quelle:
Hier der ausschnitt daraus mit dem "kleingedruckten"
Screenshot_20240415_113533_Chrome.jpg


Hast du mal probiert die Bildfrequenz, Auflösung und/oder Farbtiefe von den Monitoren so weit zu senken, dass kein DSC mehr erforderlich wäre? Das wäre ja dann eh die Wahl, die du treffen müsstest.
bei meinem PG32ucdm lässt sich DSC im OSD deaktivieren.
gibt dann nur noch 60fps 10bit in 4K.

Dann geht es natürlich auch mit 3 oder 4 Monitoren.

Aber nee das ist keine alternative! Ich will schon die 240hz!
 
Ich weis nicht wie es bei AMD aussieht. Aber zumindest bei nvidia ist das immer so...

Quelle:
Ich hatte das hier gefunden:
https://nvidia.custhelp.com/app/answers/detail/a_id/5338/kw/DSC
Da steht halt, dass das so sein kann. Bei einem bestimmten Modell ist das sicher immer gleich, aber vielleicht hängt es auch vom Boarddesign ab.
Aber nee das ist keine alternative! Ich will schon die 240hz!
Ohne DSC reicht die Bandbreite dafür dann halt nicht, da wirst du dann einen Tod sterben müssen. Vielleicht kannst du die beiden weniger wichtigen Displays zusammenfassen und die ohne DSC und das Hauptdisplay mit DSC betreiben?
 
Ohne DSC reicht die Bandbreite dafür dann halt nicht, da wirst du dann einen Tod sterben müssen. Vielleicht kannst du die beiden weniger wichtigen Displays zusammenfassen und die ohne DSC und das Hauptdisplay mit DSC betreiben?
Ja.

Ich habe ja eine für mich erträgliche Lösung gefunden.

Die beiden Hauptmonitore mit DSC an die 4090... und der dritte "überwachungsmonitor" einfach an die IGPU.

Mir gings hier eher darum aufzuzeigen, dass DSC tatsächlich zum "Problem" werden kann!

UNd dass DP 2.1 eben doch wichtig ist für die Zukunft!

Weil es kursiert immer höufig die Meinung dass DSC ja keinen Nachteil hätte! Und das stimmt eben nicht.
 
Die beiden Hauptmonitore mit DSC an die 4090... und der dritte "überwachungsmonitor" einfach an die IGPU.
Ach so, du hast zwei Hauptmonitore.
UNd dass DP 2.1 eben doch wichtig ist für die Zukunft!
Wobei das für mich so klingt, als ob der Engpass vor der DSC liegt.
Weil es kursiert immer höufig die Meinung dass DSC ja keinen Nachteil hätte! Und das stimmt eben nicht.
Ist auf jeden Fall gut zu wissen. Das ist eine von diesen Eigenheiten, die einen gerne echt kalt erwischen und auch erst mal ziemlich blöd dastehen lassen.
 
Naja, ist halt eine verlustbehaftete Kompression. Ich sehe auch keinen Unterschied, aber es gibt natürlich Leute, die zumindest behaupten, sie würden eine Verschlechterung der Bildqualität bemerken und deshalb ein Problem damit haben.
naja wie immer.
144 Hz ist ~ruckelig, 4K => da geht noch mehr, MP3 ist nur Müll.....
Es gab schon immer / wird immer Leute geben die alles schlecht reden nur weil es was besseres gibt.
Einfach mal selber testen und ggf. damit leben das man eben nicht Supermann ist weil man keinen Unterschied merkt schaffen die wenigsten.



PS.
Ich bin Batman :P
 
Zurück