Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Moderne Monitore haben meist unter 10ms Inputlag, oft sogar nur 2-3ms.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Moderne Monitore haben meist unter 10ms Inputlag, oft sogar nur 2-3ms.

Auch LCD Monitore haben immer mindestens 1/Bildfrequenz Lag. Bei 144Hz also 7ms.

Auch bei LCD Monitoren werden die Bilddaten sequentiell, von oben nach unten zeilenweise und von links nach rechts pro Zeile übertragen. Ganz genau wie bei klassischen CRT Monitoren, die damit parallel ihren Elektronenstrahl angesteuert haben.
 
Zuletzt bearbeitet von einem Moderator:
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Ich rede vom reinen Inputlag, also die Elektronik, nicht die gesamte Latenz inklusive Reaktionszeit der Pixel und Bildwiederholrate.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Ich rede vom reinen Inputlag, also die Elektronik, nicht die gesamte Latenz inklusive Reaktionszeit der Pixel und Bildwiederholrate.

Gehört aber zusammen und ist auch nur das, was sich messen lässt. Wenn man also den Input-Lag misst, ist auch immer die Aufbauzeit des Bildes mit dabei.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Das kommt drauf an, wie du es misst und wo.
Das gibt dann immer grosse Unterschiede.
Was heisst, dass die Verzögerung oben und unten sehr stark unterschiedlich sein kann.
Dazu kommen dann noch die unterschiedlichen Paneltypen und was angezeigt wird.
Im Endeffekt ist die Verzögerung der Elektronik ganz was anderes, als die Reaktionszeit des Panels.
Das Ganze wirkt sich auch komplett anders aus.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Wer mit abgeschaltetem Sync misst misst Mist - nämlich zwei oder mehr Bruchstücke eines Bildes.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Das gilt auch für sync.
Der Bildaufbau bleibt ja gleich.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Nein. Nicht wenn Du den Lag vom Eingabegerät bis zur Reaktion auf dem Schirm misst.
Das ist jetzt spannend. Ich hätte erwartet, dass der Bildaufbau immer gleich lange dauert, eben die erwähnten 7Ms bei 144Hz. Verlangsamt G-sync oder beschleunigt es?
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

GSync hat keinen Einfluss auf den Bildaufbau selbst und auch kaum Einfluss auf den Lag (um die 1 ms, wenn man den Tests glauben darf).

Der Unterschied ist, dass man:

- Ohne Sync beim Lagtest einen Unterschied in der Reaktionszeit hat, je nachdem an welcher vertikalen Position am Schirm man misst - und der optimale Punkt, an dem Lag am kleinsten ist, ist auch nicht fest sondern wandert.
- Mit festem VSync ist der Lag ohnehin durch den Sync immer mindestens 1/60tel (oder eben Bildfrequenz) ist.
- Bei GSync/Freesync ist der Lag unabhängig von der Framerate aber auch immer genau durch die Bildfrequenz festgelegt. Auch durch GSync wird das Bild ja nicht schneller übertragen. Bei einem 144Hz Modus also eben auch immer 1/144tel, aber eben auch wenn das Spiel "nur" 60 fps macht. Dann reduziert sich die Aufbauzeit von 1/60tel auf 1/144tel. Bei einem Spiel das von sich aus 144 fps macht, ändert sich am Lag nichts.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Nein. Nicht wenn Du den Lag vom Eingabegerät bis zur Reaktion auf dem Schirm misst.
Ja und genau da ist die Verzögerung oben geringer als unten auf dem Bildschirm.
Das ist nunmal so, wenn man den Bildaufbau mit einbezieht.
Wenn dann noch die Reaktionszeit dazu kommt, kommt es auch immer auf den dargestellten Inhalt und den Paneltyp.
Gerade VA schwankt da gerne zwischen ~3-40ms.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Ich habe meinen iiyama Vision Master Pro 512 auf einem Beton-Zaumpfosten gesehen, ich musste den da runter heben und auf den Gepäckträger meines Fahrrads laden. Dann festhalten mit einer Hand und mit der anderen den Lenker halten und das Fahrrad schieben. Hinterher war ich auch fertig.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Mich würde auch mal interessieren, ob bei solchen Vergleichen CRT vs LCD bislang immer in der SELBEN Bildrate verglichen wurde (zB 60 Hz).
Und wie sich hier die schnellsten LCDs mit 240Hz gegenüber den schnellsten CRTs schlagen.

Weiß nicht, obs überhaupt jemals einen CRT gab, der mehr als 120 Hz in brauchbaren Auflösungen (IMO mindestens 1280*1024) darstellen konnte... aber da LCDs das können, wäre hier der Vergleich interessant mit dem was maximal geht.

Auch Freesync/Gsync sollte man berücksichtigen, finde ich.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Einige Sonys können meines Wissens 1600*1200 mit mehr als 100Hz.
60Hz auf beiden Monitoren ist aber schlecht, da hier der CRT zu stark flimmert. Man müsste das dann im Spiel limitieren und den CRT z.B. mit 120Hz laufen lassen.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Im Artikel steht ja, man hat hier einen Röhrenmonitor mit 120Hz laufen lassen... und man sagt dann, es fühle sich besser an als auf modernen LCDs.
Aber was denn für welche? Hat man da auch 240Hz-Monitore mit Freesync etc. verglichen?
So einen Test sollte man mal nachholen.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Hatte den Sony F520
Hatte damit primär in 1600*1200 @ 85Hz gezockt. Ging aber beides noch höher.
...und das um das Jahr 2000.

Würde gerne wissen wie das Bild mit nem modernen Anschluss ala HDMI / DP aussehen würde.

Vermutlich besser als die meisten Leute in Erinnerung haben. Das wurde zu Zeiten der analogen Signale leider gerne vergessen: Neben dem Monitor selbst hatten auch Ausgang der Grafikkarte und vor allem auch das Kabel dazwischen einen Einfluss die Bildqualität. Mein letzter Iiayama-CRT hatte via BNC ein schärferes Bild als der nachfolgende LCD via D-SUB. Und nur unwesentlich schlechter als der LCD via DVI in nativer Auflösung. (In nicht-nativer lag der CRT natürlich immer meilenweit vorn.) Und nein, das lag nicht daran, dass ein 800-Euro-20-Zoll-Ultrasharp Mitte der 0er Jahre ein qualitativ schlechtes Gerät war. ;-)


das Gewicht spielt doch gar keine Rolle ?! Sobald das Ding irgendwo steht, steht es. meinen LCD Monitor hier hab ich die letzten Jahre nur wegen Umzügen bewegt. Allein die bauliche Tiefe könnte stören. Aber selbst da kann man (wie früher auch) einfach mit dem Schreibtisch etwas weiter von der Wand weg und gut ist.

Mein Schreibtisch hing 4 cm durch als ich den 19 Zoll CRT ausgemustert habe. Eine Bildröhre mit der Diagonale heutiger Monitore könnte leicht bei 60-80 kg landen. Da bräuchte man schon angepasste Möbel (endlich mal ein echter Grund für spezielle "Gaming Desks") – und eben eine Spedition für die Lieferung sowie mindestens einen, je nach Körperkraft aber auch mal zwei oder drei Helfer für jeden Transport.


CRTs haben keine Pixel und somit auch keine Pixeldichte ...

CRTs mit Lochmaske haben Pixel und selbst mit Streifenmaske immer noch Spalten, also eine native horizontale Auflösung. Deswegen kann auch für jede Röhre ein Pixelabstand angegeben werden, dessen Kehrwert die Pixeldichte ist. Im Falle des Sony aus dem Artikel 0,23 mm oder rund 110 dpi, wenn ich mich nicht verrechnet habe. Das war für die damalige Zeit aber sehr viel und auch aufgrund der Flimmerproblematik wurden die Geräte nie mit dieser "nativen" Auflösung betrieben. Einen Schärfevorteil hätte sich ohnehin nicht ergeben, da die Geometrieausrichtung wesentlich unpräziser war – einen CRT mit 1.920 Spalten mit FHD anzusteuern kann genausogut ein Bild mit 1.919 interpolierten Pixeln und zwei halben am Rand ergeben, wie eine 1:1 Darstellung.

Aber: Die Umwandlung des digitalen Pixelsignals in einen Anlog auf den Bildausschnitt ausgerichteten und analog auf die Bildpunktgröße aufgezogenen Elektronenstrahls gefolgt von der Rasteriesierung durch eine Lochmaske stellt quasi den Optimalfall einer Interpolation mit optimal gewichteter Integration aller vorliegenden Bildinformationen an jeder beliebigen Stelle im (Sub-)Pixelraster dar. Man konnte es sich also einfach erlauben, mit einem interpolierten Bild zu arbeiten, für das man heute zahlreiche Rechenzyklen und damit nicht nur Leistung, sondern auch Latenz in Kauf nehmen müsste.


Der Schwarzwert von OLED ist besser, der von einem FALD LCD ebenfalls.
Beim Betrachtungswinkel sind IPS und OLED jetzt auch nicht so schlecht.
Wenn man nur die native Auflösung nutzt, kann einem die Flexibilität egal sein.
Reaktionszeit brauchen wir nicht drüber reden, da kommt so schnell nicht dran.
Bleiben beim CRT noch die erbärmliche maximale Helligkeit und das man mindestens 60Hz, aber besser noch 100Hz braucht.

Hast du schon mal HDR ausprobiert?
Geht ja mit CRT überhaupt nicht.
CRT ist tot und das ist auch gut so.

HDR mit sehr hoher Leuchtstärke geht mit CRT kaum, das stimmt. Aber z.B. mit OLED noch viel schlechter. Die letzte CRT-Monitorgeneration warb aber sogar mit deutlich höheren Maximalhelligkeit als damalige LCDs, der Schwarzwert und somit das Kontrastverhältnis sind ohnehin deutlich besser und als rein analoges Gerät kann ein CRT Farbverläufe mit der höchsten Feinheit wiedergeben, die die Grafikkarte eben anliefert. 10 Bit auf 8 Bit geditherd? Jeder CRT kann nativ 14 Bit. Oder auch 140 Bit, ist dem egal. In einem verdunkelten Raum ist eine Wiedergabe mit hohem Dynamikumfang also auf einem CRT (zwecks Leuchtstärke: Einem guten) sogar leichter und besser als via LCD.


Mich würde auch mal interessieren, ob bei solchen Vergleichen CRT vs LCD bislang immer in der SELBEN Bildrate verglichen wurde (zB 60 Hz).
Und wie sich hier die schnellsten LCDs mit 240Hz gegenüber den schnellsten CRTs schlagen.

Weiß nicht, obs überhaupt jemals einen CRT gab, der mehr als 120 Hz in brauchbaren Auflösungen (IMO mindestens 1280*1024) darstellen konnte... aber da LCDs das können, wäre hier der Vergleich interessant mit dem was maximal geht.

Auch Freesync/Gsync sollte man berücksichtigen, finde ich.

Der im Artikel verwendete Sony hat eine Zeilenfrequenz von 121 kHz, das würde bei 1.024 Zeilen knapp für 120 Hz reichen. Das ist auch mit das Maximum, an das ich mich erinnern konnte – die 22-/23-/24-Zoll-Flaggschiffe waren in der Regel für 1.600 × 1.200 bei 100 Hz ausgelegt und mehr Zeilen oder mehr Bilder sind für CRTs eine technische Herausforderung.

Mehr Spalten übrigens nicht: Es gibt/gab einige Freaks, die CRT-Beamer (keine Maske -> keine native horizontale Auflösung) mit 3.500-4.000 Pixeln pro Zeile befeuert haben. Erfordert halt einen Grafikkartentreiber, der rechteckige Pixelraster erlaubt, wenn man ein brauchbares Bildformat erhalten möchte.
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

HDR geht also mit OLED noch viel schlechter, sehr interessant.
OLED hat einen besseren Schwarzwert und eine bessere Helligkeit als CRT, wie soll HDR da schlechter sein?
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Einen besseren Schwarzwert als 0 und eine höhere Dauer-helligkeit als iirc 300 cd in der letzten CRT-Generation ohne Einbrennprobleme und mit einem nativen 14-Bit-Panel? Das ist in der Tat interessant, wo du so einen OLED-Monitor/CRT-Killer gesehen hast. Was ich so sehe sind Fernseher, deren Laufzeit-/Garantie-/Verbrauchs-Versprechen oft bei unter 150 cd ermittelt wurden und die 10 Bit via 12 Bit LUT ansteuern. Ich sag nicht, dass das Gesamtpaket nichts taugt, aber solange man nur allgemein "HDR" und nicht irgendwelche bestimmten Standards für den Wohnzimmereinsatz als Messlatte anlegt, muss ein guter CRT den Vergleich nicht verlieren. Was ziemlich erstaunlich ist, wenn man bedenkt, dass nie ein CRT für HDR konstruiert/optimiert wurde. Wieviel HDR-Potenzial steckt denn in einem 20 Jahre äh 10 Jahre alten OLED-Design so?
 
AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein

Dann kenne ich andere CRT als du, die hatten gerade mal 100cd/m² und was ich finden konnte, war ein Schwarzwert von 0,001cd/m².
Selbst bei 0 wäre Gleichstand und der OLED wäre heller mit ~700cd/m².
Warum sollte ich ein OLED aus der Anfangszeit mit einem CRT der letzten Generation vergleichen.
Dann müsstest du auch einen CRT nehmen, der 10 Jahre nach dem ersten CRT Design kam.
Das wäre dann ein S/W Gerät.
Mal sehen wie lange OLED weiter entwickelt wird und wo das nach 40-50 Jahren Entwicklung auf dem Markt stehen würde.
 
Zurück