News Durchbruch bei Gamer-Displays: TCL zeigt Ultra HD mit 1.000 Hz

...und wie schließt man den an?

Das maximale was derzeit theoretisch geht wäre DP2.1, 4 Lanes mit DSC. Das kann 16K@60Hz oder 8K@240Hz oder 4K@480Hz.

Für 4K@1000Hz würden selbst zwei solcher Verbindungen nicht reichen. Vielleicht quetscht man da noch ein bisschen was im Toleranzbereich raus aber die einzige Chance die ich sehe überhaupt 4K mit 1000Hz zu betreiben wäre, den TFT intern als 2 Bildschirme anzusteuern/verkabeln von denen jeder 1920x2160@1000Hz über DP2.1 mit DSC läuft. :ugly:
 
Ja, Monitorintern (so hätte ich das verstanden) aber nicht nach außen...?
Es geht dabei eher um die Kodierung des Signals zwischen PC und Monitor wenn ich das richtig überflogen habe.
Die momentane Kodierung ist ja noch aus den 80/90ern (horizontale/vertikale Pixel, blankings.. syncbreite in horizontal und vertikal.. pixelclock.. zusätzliche Pixel in horizontal und vertikal ect..
halt was auch in der EDID steht.. damals noch für CRT Monitore entwickelt und dann für LCD/oleds übernommen)

Und so wie ich das verstanden habe gibt es da mittlerweile wohl auch neuere Protokolle (im Teststadium) die das effizienter können


Blödes Beispiel ich hab n Alienware DWF OLED.. der packt bei 165hz mit Standart Timings nur 8bit.. reduziere ich aber den blanking wert (die Wartezeit zum resetten der Kathodenrohre auf Grundposition.. bzw bevor die nächstn Zeilen geschrieben werden beim lcd) auf Minimum..
gehen auch ohne Probleme 165hz@10bit

DSC komprimiert diese Kodierung.. und wahrscheinlich haben die halt eine neuere und bessere Komprimierung als DSC genutzt..
Oder halt eine bessere Kodierung + DSC



Generell sehe ich hier Verbesserungspotential.. weil wie gesagt die momentane timingkodierung ist uralt.. beinhaltet Wartezeiten die mittlerweile unnötig sind und auch informationen für Bildbereiche die physisch gar nicht existieren.. für einen CRT aber wichtig waren
 
Zuletzt bearbeitet:
wir behalten mal kurz im Hinterkopf, dass wenn man daheim seinen PC per Kabel an das Internet anschließt, dann hat man in der Regel ein Gigabit an Daten über diese Leitung und je nachdem was der Internetanbieter kann wird es dann weniger.

Jetzt schließen wir einen 4k Monitor mit 60Hz und 10Bit HDR an, dann müssen 21 Gigabit an Daten pro Sekunde durch das HDMI Kabel rauschen. Das ist etwas, das man errechnen kann, das ist keine willkürliche Nummer. Das ist nicht von Hersteller zu Hersteller verschieden. Das ist das Gesetz des Tech-Omnissiah.

Da sind wir dann schon HDMI 2.1. Gut, da gehen maximal 48Gigabit drüber, aber jenseits von 120Hz wird es da schon knapp. Das ist bei 4k@144Hz TV/Monitoren die Realität: DSC Kompression ist keine Option, sondern ein Zwang. Schwamm drüber, bis jetzt können wir alles im Laden kaufen. Die GPU mit HDMI 2.1 und die Kabel dazu (vielleicht hier schon aufpassen was genau man bestellt).

Glücklicherweise kann DisplayPort 2.1a etwas mehr, da sind wir erst bei 80Gigabit an der Grenze. Gut für Gamer mit 4k und 224Hz auf dem Schirm. Ja, wir könnten HDR abschalten, mit 8 Bit pro Kanal statt 10 sinkt die Datenrate, aber warum wollten wir das?

Und nun zu 1000fps bei 4k HDR. Das sind lockere 350Gigabit pro Sekunde. Das kann kein HDMI und kein Displayport Kabel der Welt aktuell. Das kann auch keine DSC Komprimierung, weil auch die ist an Limit gebunden. Nur weil 20 Jahre später ist, hat sich die Mathematik nicht verändert wenn es um die maximale verlustfreie Komprimierbarkeit von zufälligen Signalen geht. Die ganze Wunderwelt der modernen Komprimierung ist immer verlustbehaftete Komprimierung, nicht verlustfreie wie wir sie zwischen GPU und TV wollen.

Natrülich sind bei Schaltzeiten von 1ms schon seit 20 Jahren Situationen denkbar, bei denen 1000fps denkbar sind, wenn der Antrib hinter dem Panel sowas kann. Wenn man Schaltzeiten von OLED mit 0,1ms bedenkt, dann wären sogar 10.000 fps pro Sekunde denkbar. Schön, wer damit auf der Messe angeben kann, aber praktisch ist das nicht und mehr als ein Aufmerksamkeits-Exot wird der 1000fps Monitor auch nicht sein.

Oder, und das glaub ich wirklich. Die nehmen eine 3D Demo bei der eine GPU 1000fps erreicht und pumpen die mit FullHD in das Display, denn das wären nur 75Gigabit pro Sekunde, das würde durch ein DisplayPort Kabel passen. Und wenn man die Leute das nur von hitner einem Absperrband ansehen lässt, fällt es am Ende wohl nichteinmal auf.
 
Ja ich weiß, .. aber an welchem Punkt bringen mehr Herz denn so wenig Mehrwert, dass eine Neuanschaffung zu sagen wir mal "teuren" Konditionen keinen wirklichen Sinn mehr ergibt?
100 Hz ? Wurde ja schon geklärt
1.000 Hz ?
10.000 Hz ?
Ich kann so etwas einfach nicht abschätzen.
Klar ist alles viel klarer, aber was vermag unser Augen denn bewegt noch wirklich umzusetzen? Fotos mit wenig Bewegungs-"Fragmenten" sind ja schön und gut, aber bis wohin kann unser Auge bewegte Inhalte differenziert bewerten?
Abgesehen davon: cool!
Und abgesehen Hiervon: Welche Gen wird denn wohl CP2077 mit Raytracing maxed out in UHD mit 1.000 FPS darstellen können? RTX 11090? Wäre so mein Tip. Aber wirklich keine Ahnung .. das ist alles zu weit weg von mir :ka:
 
Was wenn der Mini LED nach der Garantie kaput geht, dann sind n€ futsch.
Ich mache mir keine Gedanken um Burn-in und genieße lieber die Vorteile von OLED.
Da hast du natürlich recht, aber mit gehst es in erster Line um Brun-In ich habe halt Angst davor, dass, wenn ein Film endet und ich dabei eingeschlafen bin und der Monitor paar Stunden an bleibt -(Standbild) das macht mir Kopfschmerzen, bei einem LED hast du diese Probleme nicht.
Du schaust ihn dir nach gut zwei Jahren und 10 Monaten ganz genau an. Wenn du da spezielle Testbilder (ganzflächig eine Farbe oder weiß) nimmst, dann kannst du Dinge sehen, die dir im Alltag nicht im Ansatz auffallen würden. Wenn der Monitor da durchkommt, dann wird es wohl noch ein paar Jahre dauern, bis du da irgendwas im Alltag merkst, wenn du etwas feststellst, dann hast du ein neues Panel.

Aber die Frage stellt sich sowieso nicht, da die Monitore über deinem Budget liegen.
Stimmt auch wieder mal gucken, wie ich mich entscheiden werde, liegt nicht am Budget, sondern an meiner Angst ^^

Ich werde noch etwas recherchieren, zum Thema OLED sollte ich immer noch negativ gegen überstehen, dann wird es ein Display mit IPS, auf VA habe ich keine Lust, da mir dort das Ghosten auf den Keks geht.
 
Da hast du natürlich recht, aber mit gehst es in erster Line um Brun-In ich habe halt Angst davor, dass, wenn ein Film endet und ich dabei eingeschlafen bin und der Monitor paar Stunden an bleibt -(Standbild) das macht mir Kopfschmerzen, bei einem LED hast du diese Probleme nicht.

Stimmt auch wieder mal gucken, wie ich mich entscheiden werde, liegt nicht am Budget, sondern an meiner Angst ^^

Ich werde noch etwas recherchieren, zum Thema OLED sollte ich immer noch negativ gegen überstehen, dann wird es ein Display mit IPS, auf VA habe ich keine Lust, da mir dort das Ghosten auf den Keks geht.

mir gehts genau wie dir mit der Angst davor, weil ich würde den jeden tag 15 Stunden in etwa nutzen wollen und das 7 tage die woche. 50:50 desktop und gaming
und dann auch vor der RMA weil nach 1 Jahr tritt die Beweislastumkehr ein, da können die firmen alles behaupten um sich aus der Garantie zu winden.
im moment schaue ich auf diesen LG monitor hier der wohl in ein paar monaten auch nach europa kommen soll

Mein jetziger Monitor siehe Sig hat jetzt knapp 26.000 Stunden auf dem Buckel...und das Bild ist immernoch top wie am ersten Tag
 
wir behalten mal kurz im Hinterkopf, dass wenn man daheim seinen PC per Kabel an das Internet anschließt, dann hat man in der Regel ein Gigabit an Daten über diese Leitung und je nachdem was der Internetanbieter kann wird es dann weniger.

Jetzt schließen wir einen 4k Monitor mit 60Hz und 10Bit HDR an, dann müssen 21 Gigabit an Daten pro Sekunde durch das HDMI Kabel rauschen. Das ist etwas, das man errechnen kann, das ist keine willkürliche Nummer. Das ist nicht von Hersteller zu Hersteller verschieden. Das ist das Gesetz des Tech-Omnissiah.

Da sind wir dann schon HDMI 2.1. Gut, da gehen maximal 48Gigabit drüber, aber jenseits von 120Hz wird es da schon knapp. Das ist bei 4k@144Hz TV/Monitoren die Realität: DSC Kompression ist keine Option, sondern ein Zwang. Schwamm drüber, bis jetzt können wir alles im Laden kaufen. Die GPU mit HDMI 2.1 und die Kabel dazu (vielleicht hier schon aufpassen was genau man bestellt).

Glücklicherweise kann DisplayPort 2.1a etwas mehr, da sind wir erst bei 80Gigabit an der Grenze. Gut für Gamer mit 4k und 224Hz auf dem Schirm. Ja, wir könnten HDR abschalten, mit 8 Bit pro Kanal statt 10 sinkt die Datenrate, aber warum wollten wir das?

Und nun zu 1000fps bei 4k HDR. Das sind lockere 350Gigabit pro Sekunde. Das kann kein HDMI und kein Displayport Kabel der Welt aktuell. Das kann auch keine DSC Komprimierung, weil auch die ist an Limit gebunden. Nur weil 20 Jahre später ist, hat sich die Mathematik nicht verändert wenn es um die maximale verlustfreie Komprimierbarkeit von zufälligen Signalen geht. Die ganze Wunderwelt der modernen Komprimierung ist immer verlustbehaftete Komprimierung, nicht verlustfreie wie wir sie zwischen GPU und TV wollen.

Natrülich sind bei Schaltzeiten von 1ms schon seit 20 Jahren Situationen denkbar, bei denen 1000fps denkbar sind, wenn der Antrib hinter dem Panel sowas kann. Wenn man Schaltzeiten von OLED mit 0,1ms bedenkt, dann wären sogar 10.000 fps pro Sekunde denkbar. Schön, wer damit auf der Messe angeben kann, aber praktisch ist das nicht und mehr als ein Aufmerksamkeits-Exot wird der 1000fps Monitor auch nicht sein.

Oder, und das glaub ich wirklich. Die nehmen eine 3D Demo bei der eine GPU 1000fps erreicht und pumpen die mit FullHD in das Display, denn das wären nur 75Gigabit pro Sekunde, das würde durch ein DisplayPort Kabel passen. Und wenn man die Leute das nur von hitner einem Absperrband ansehen lässt, fällt es am Ende wohl nichteinmal auf.
Marketing ist der heilige Gral, Je mehr Superlative desto eher wird gekauft. Der Sinn ist erst mal zweitrangig. Machen dann die Medien mit ihren "Tests" mit, glauben die Leute an Alles.
 
Refresh Rate (Hz),Time per Frame (ms)
60 Hz, 16.67 ms
100 Hz, 10.00 ms
120 Hz, 8.33 ms
144 Hz, 6.94 ms
165 Hz, 6.06 ms
240 Hz, 4.17 ms
360 Hz, 2.78 ms
480 Hz, 2.08 ms
1000 Hz,1.00 ms

Gefühlt gibt es hier nicht mehr die größten Vorteile aus Zuwächsen der Refresh Rate jenseits von 240 Hz. Hatte 240 Hz auf einem Samsung 32 Zoll odyssey G7 mit VA und sehr sehr guten Pixel Response Rates, der sich nicht deutlich flüssiger als mein LG OLED mit 120 Hz anfühlt. Ja, jeder „empfindet“ das anders, aber ich behaupte mal, dass da viel Placebo dabei ist.
 
und dann auch vor der RMA weil nach 1 Jahr tritt die Beweislastumkehr ein, da können die firmen alles behaupten um sich aus der Garantie zu winden.
Bitte nicht Gewährleistung mit Garantie verwechseln.
Hatte 240 Hz auf einem Samsung 32 Zoll odyssey G7 mit VA und sehr sehr guten Pixel Response Rates, der sich nicht deutlich flüssiger als mein LG OLED mit 120 Hz anfühlt. Ja, jeder „empfindet“ das anders, aber ich behaupte mal, dass da viel Placebo dabei ist.
Weil du VA mit OLED vergleichst.
 
mir gehts genau wie dir mit der Angst davor, weil ich würde den jeden tag 15 Stunden in etwa nutzen wollen und das 7 tage die woche. 50:50 desktop und gaming
und dann auch vor der RMA weil nach 1 Jahr tritt die Beweislastumkehr ein, da können die firmen alles behaupten um sich aus der Garantie zu winden.
im moment schaue ich auf diesen LG monitor hier der wohl in ein paar monaten auch nach europa kommen soll

Mein jetziger Monitor siehe Sig hat jetzt knapp 26.000 Stunden auf dem Buckel...und das Bild ist immernoch top wie am ersten Tag
Gut, ich dachte, bin ganz alleine mit der Angst, ich kann dich vollkommen verstehen, wir reden hier immerhin von paar Hundert Euros. Ich bin auch als am gucken und machen bei mir stehen diese drei an der Tages Ordnung:

Samsung Odyssey OLED G8 G85SB, 34"​

LG UltraGear 34GN850P-B, 34"​

Lenovo Legion Y34wz-30, 34"​


Da ich meistens im Dunkeln spiele, mache ich mir Sorgen, was das Backlightbleeding angeht, bei dem LG Ultra Gear. Mal gucken, vielleicht kann man, was Versicherung technisch machen, extra eine abschließen beim Kauf, wenn ich mich denn für ein OLED Gerät entscheide.
Aktuell nutze ich ein Xiaomi 34 Zoller ist kein schlechtes Teil, nur möchte ich was schnelleres und halt anständiges HDR haben, ich weiß, bei dem LG kann ich das vergessen.

Den Samsung OLED und den Lenovo Mini-LED Display unterscheiden sich plus minus 200 Euro, ob ich das Risiko eingehe echt schwer, diese Entscheidung.
 
Gefühlt gibt es hier nicht mehr die größten Vorteile aus Zuwächsen der Refresh Rate jenseits von 240 Hz. Hatte 240 Hz auf einem Samsung 32 Zoll odyssey G7 mit VA und sehr sehr guten Pixel Response Rates, der sich nicht deutlich flüssiger als mein LG OLED mit 120 Hz anfühlt. Ja, jeder „empfindet“ das anders, aber ich behaupte mal, dass da viel Placebo dabei ist.
Ich hab den g7 hier neben einen Alienware DWF 165hz OLED stehen..
Der OLED ist bedeutend flüssiger und klarer als der G7.. und das trotz weniger Hz

Du Vergleichst 120hz OLED mit 240hz VA.. kein Wunder das du fast keine Unterschiede siehst..
Die realen Pixel Schaltzeiten (nicht nur GtG also gey to Grey) liegen bei dem LCD bei 6-8ms. (0.3ms beim OLED)

Ergo wird ab 120-140hz eh alles zugeschmiert...egal wie viel Hz du da drauf ballerst..

Das ist auch der Grund warum viele Menschen meinen ab 144hz+ kaum noch bzw keine Unterschiede mehr zu sehen..
a hast du natürlich recht, aber mit gehst es in erster Line um Brun-In ich habe halt Angst davor, dass, wenn ein Film endet und ich dabei eingeschlafen bin und der Monitor paar Stunden an bleibt -(Standbild) das macht mir Kopfschmerzen, bei einem LED hast du diese Probleme nicht.
Standby Timer auf 3min in Windows reicht..bin auch schon n paar Mal vor dem Ding eingepennt.

Und ich verstecke keine Icons oder Taskleiste und hab Hintergrund Bilder..
Monitor seit Nov22 und hab keinerlei burnin
 
Standby Timer auf 3min in Windows reicht..bin auch schon n paar Mal vor dem Ding eingepennt.

Und ich verstecke keine Icons oder Taskleiste und hab Hintergrund Bilder..
Monitor seit Nov22 und hab keinerlei burnin
Ja, es wird sehr wahrscheinlich auf einen OLED hinauslaufen, und wenn es sein muss, schließe ich einfach eine Police ab. Ohne kaufe ich mir so ein Monitor nicht, aber danke für die Info, ich werde es auch so machen wie du.
 
Ja, es wird sehr wahrscheinlich auf einen OLED hinauslaufen, und wenn es sein muss, schließe ich einfach eine Police ab. Ohne kaufe ich mir so ein Monitor nicht, aber danke für die Info, ich werde es auch so machen wie du.
Wenn's ultrawide sein soll empfehl ich dir den Alienware dwf..(hat auch burnin Garantie)
der Samsung hat zuviele QS Probleme und Software Macken

Wichtig ist nur das man n Recht aggressiven Standby Timer hat (wie gesagt 2-3min)
Und alle paar Stunden ihn seinen Pixel refresh machen lässt..

Was bei mir durch den aggressiven Standby timer so ziemlich automatisch passiert.. geh eh alle Nase lang rauchen oder mach Pause und ess was ect pp
 
also, ich hab ein Oled mit 240 Hz und betreibe den auf 120 Hz. Irgendwie strengen die 240 Hz meine Auge an. Ich empfinde das als sehr unangenehm auf Dauer mit den 240 Hz.
und jetzt 1000 Hz....
 
Bitte nicht Gewährleistung mit Garantie verwechseln.

Weil du VA mit OLED vergleichst.
Mir sind die Unterschiede bewusst. Ich habe ja extra die Response Time erwähnt. Das ist der Hauptgrund, wieso OLEDs flüssiger wirken. Ich habe das bei meiner vorherigen Nachricht berücksichtigt.
Ich hab den g7 hier neben einen Alienware DWF 165hz OLED stehen..
Der OLED ist bedeutend flüssiger und klarer als der G7.. und das trotz weniger Hz
Ich habe die Pixel Response time natürlich berücksichtigt bei meinem Vergleich, sonst hätte ich sie noch explizit berücksichtigt bei meinem vorherigen Kommentar. Und selbst bei einer 120 Hz vs 240 Hz Vergleich auf dem selben Monitor erkennt man die niedrigere refresh time nur wenn man konzentriert danach sucht. Während sie von 60 z auf 120 Hz sehr offensichtlich ist. Und die Klarheit habe ich einfach nicht angesprochen.

Letztlich sehen wir also, dass die 1000 Hz nicht so ausschlaggebend sind, wie man allgemein vermuten könnte. Das war und bleibt der Kern meiner Aussage.
 
An der Bildfrequenz und der Reaktionszeit kann man auf jeden Fall noch etwas arbeiten. Aber größere, höher auflösende Displays über 8K brauchen wir glaube ich nicht mehr.
Schade, dass man nicht schon vorher mehr daran gearbeitet hat, die Darstellung verzögerungsfreier zu gestalten.
 
frequenz ist mittelmässig wichtig, klar ist es gut das mehr als hundert normal sind, aber ich persönlich finde die größe und qualität der punkte auch nicht unwichtig. deshalb habe ich mich auch für einen super ultra wide entschieden und kann mir garnicht mehr vorstellen in 16:9 oder 21:9 zu arbeiten. die freuqunez ist mir so unwichtig das ich ehrlich gesagt garnicht weiss ob mein monitor 120 oder 144 hz hat, eins von beidem ist es aber ^^.

//EDIT:
ändert sich vieleicht noch wenn ich nächstes jahr eine ordentliche graka kaufe und ich das auch mal real ereichen kann :-P
 
Zurück