AW: Moderne Spiele am Röhrenmonitor: Selbst teure 144-Hz-Monitore sollen schlechter sein
Hatte den Sony F520
Hatte damit primär in 1600*1200 @ 85Hz gezockt. Ging aber beides noch höher.
...und das um das Jahr 2000.
Würde gerne wissen wie das Bild mit nem modernen Anschluss ala HDMI / DP aussehen würde.
Vermutlich besser als die meisten Leute in Erinnerung haben. Das wurde zu Zeiten der analogen Signale leider gerne vergessen: Neben dem Monitor selbst hatten auch Ausgang der Grafikkarte und vor allem auch das Kabel dazwischen einen Einfluss die Bildqualität. Mein letzter Iiayama-CRT hatte via BNC ein schärferes Bild als der nachfolgende LCD via D-SUB. Und nur unwesentlich schlechter als der LCD via DVI in nativer Auflösung. (In nicht-nativer lag der CRT natürlich immer meilenweit vorn.) Und nein, das lag nicht daran, dass ein 800-Euro-20-Zoll-Ultrasharp Mitte der 0er Jahre ein qualitativ schlechtes Gerät war.
das Gewicht spielt doch gar keine Rolle ?! Sobald das Ding irgendwo steht, steht es. meinen LCD Monitor hier hab ich die letzten Jahre nur wegen Umzügen bewegt. Allein die bauliche Tiefe könnte stören. Aber selbst da kann man (wie früher auch) einfach mit dem Schreibtisch etwas weiter von der Wand weg und gut ist.
Mein Schreibtisch hing 4 cm durch als ich den 19 Zoll CRT ausgemustert habe. Eine Bildröhre mit der Diagonale heutiger Monitore könnte leicht bei 60-80 kg landen. Da bräuchte man schon angepasste Möbel (endlich mal ein echter Grund für spezielle "Gaming Desks") – und eben eine Spedition für die Lieferung sowie mindestens einen, je nach Körperkraft aber auch mal zwei oder drei Helfer für jeden Transport.
CRTs haben keine Pixel und somit auch keine Pixeldichte ...
CRTs mit Lochmaske haben Pixel und selbst mit Streifenmaske immer noch Spalten, also eine native horizontale Auflösung. Deswegen kann auch für jede Röhre ein Pixelabstand angegeben werden, dessen Kehrwert die Pixeldichte ist. Im Falle des Sony aus dem Artikel 0,23 mm oder rund 110 dpi, wenn ich mich nicht verrechnet habe. Das war für die damalige Zeit aber sehr viel und auch aufgrund der Flimmerproblematik wurden die Geräte nie mit dieser "nativen" Auflösung betrieben. Einen Schärfevorteil hätte sich ohnehin nicht ergeben, da die Geometrieausrichtung wesentlich unpräziser war – einen CRT mit 1.920 Spalten mit FHD anzusteuern kann genausogut ein Bild mit 1.919 interpolierten Pixeln und zwei halben am Rand ergeben, wie eine 1:1 Darstellung.
Aber: Die Umwandlung des digitalen Pixelsignals in einen Anlog auf den Bildausschnitt ausgerichteten und analog auf die Bildpunktgröße aufgezogenen Elektronenstrahls gefolgt von der Rasteriesierung durch eine Lochmaske stellt quasi den Optimalfall einer Interpolation mit optimal gewichteter Integration aller vorliegenden Bildinformationen an jeder beliebigen Stelle im (Sub-)Pixelraster dar. Man konnte es sich also einfach erlauben, mit einem interpolierten Bild zu arbeiten, für das man heute zahlreiche Rechenzyklen und damit nicht nur Leistung, sondern auch Latenz in Kauf nehmen müsste.
Der Schwarzwert von OLED ist besser, der von einem FALD LCD ebenfalls.
Beim Betrachtungswinkel sind IPS und OLED jetzt auch nicht so schlecht.
Wenn man nur die native Auflösung nutzt, kann einem die Flexibilität egal sein.
Reaktionszeit brauchen wir nicht drüber reden, da kommt so schnell nicht dran.
Bleiben beim CRT noch die erbärmliche maximale Helligkeit und das man mindestens 60Hz, aber besser noch 100Hz braucht.
Hast du schon mal HDR ausprobiert?
Geht ja mit CRT überhaupt nicht.
CRT ist tot und das ist auch gut so.
HDR mit sehr hoher Leuchtstärke geht mit CRT kaum, das stimmt. Aber z.B. mit OLED noch viel schlechter. Die letzte CRT-Monitorgeneration warb aber sogar mit deutlich höheren Maximalhelligkeit als damalige LCDs, der Schwarzwert und somit das Kontrastverhältnis sind ohnehin deutlich besser und als rein analoges Gerät kann ein CRT Farbverläufe mit der höchsten Feinheit wiedergeben, die die Grafikkarte eben anliefert. 10 Bit auf 8 Bit geditherd? Jeder CRT kann nativ 14 Bit. Oder auch 140 Bit, ist dem egal. In einem verdunkelten Raum ist eine Wiedergabe mit hohem Dynamikumfang also auf einem CRT (zwecks Leuchtstärke: Einem guten) sogar leichter und besser als via LCD.
Mich würde auch mal interessieren, ob bei solchen Vergleichen CRT vs LCD bislang immer in der SELBEN Bildrate verglichen wurde (zB 60 Hz).
Und wie sich hier die schnellsten LCDs mit 240Hz gegenüber den schnellsten CRTs schlagen.
Weiß nicht, obs überhaupt jemals einen CRT gab, der mehr als 120 Hz in brauchbaren Auflösungen (IMO mindestens 1280*1024) darstellen konnte... aber da LCDs das können, wäre hier der Vergleich interessant mit dem was maximal geht.
Auch Freesync/Gsync sollte man berücksichtigen, finde ich.
Der im Artikel verwendete Sony hat eine Zeilenfrequenz von 121 kHz, das würde bei 1.024 Zeilen knapp für 120 Hz reichen. Das ist auch mit das Maximum, an das ich mich erinnern konnte – die 22-/23-/24-Zoll-Flaggschiffe waren in der Regel für 1.600 × 1.200 bei 100 Hz ausgelegt und mehr Zeilen oder mehr Bilder sind für CRTs eine technische Herausforderung.
Mehr Spalten übrigens nicht: Es gibt/gab einige Freaks, die CRT-Beamer (keine Maske -> keine native horizontale Auflösung) mit 3.500-4.000 Pixeln pro Zeile befeuert haben. Erfordert halt einen Grafikkartentreiber, der rechteckige Pixelraster erlaubt, wenn man ein brauchbares Bildformat erhalten möchte.