Monitor-Pixeldichte: Wo ist die Schmerzgrenze?

1.920 × 1.200 (WUXGA) ist für Retro-Gaming nicht optimal. 1.600 × 1.200 haben Spiele erst sehr spät unterstüzt. Bereits kurze Zeit später haben sich freie Auflösungen durchgesetzt. Ich glaube Unreal Tournament und AoE 1 mit Add-On wären Beispiel für Titel, die diese Auflösung bieten, aber keine (aus Sicht dieser Zeit) "krummen" Auflösungen können. Bei der vergleichsweise lange beliebten XGA (1.024 × 768) gewinnt man aber keinen Blumentopf und während SVGA (800 × 600) gut aussieht, hat bei VGA (640 × 480) wieder ein krummes Verhältnis. Solange WUXGA eine angemessen Auflösung für zeitgenössische Spiele war, war es ein guter Kompromiss aus viel Platz (2× Din A4 passt gut, bei FHD oft nur mit eingeschränkter Lesbarkeit), guter Darstellung und 4:3 Kompatibilität bei den UXGA-Titeln. Aber heute wird man mit 16:10 überall diskriminert, was das FOV angeht, hat mit WUXGA auch keine wirklich hohe Auflösung und die Retro-Kompatibilität ist bei 1440p eben nicht schlechter, die Fehler bei unvermeidbarer Skalierung dort entsprechend kleiner. Nicht ohne Grund möchte ich meinen WUXGA endlich in Rente schicken. :-)

Doch, weil das, was Du als scharf empfindest, keine Bildinformation ist (ganz im Gegenteil) sondern die Pixelkante.

Für das Auge, das versucht das Bild zu fokussieren, ist das gut - weil dem Auge ist es egal, ob es sich auf Pixelkanten oder eine im Bild abgebildete Kante als "Scharf" fokussiert.

Bei einer nativen 1:1 Wiedergabe ist das ein und dasselbe. Das gilt auch für dein Ausdruck-Beispiel: Solltest du wieder erwarten einen Drucker haben, der rechteckige, scharf abgegrenzte Pixel zu Papier bringt (also keinen Laser und schon gar keinen Tintenstrahler) und ein natives Raster von circa 180dpi hat (Nadeldrucker sind auch raus), dann sollte ein scharfer 1:1-FHD-Ausdruck ungefähr eine Din-A4-Seite füllen. Aber auch nur dann. In der Realität ist eine Skalierung bei Ausdrucken unvermeidbar, ein ausfransen in der Papiermaserung ebenso, die Druckpräzision begrenzt und das Motiv an der Seite, nicht am Pixelraster ausgerichtet. Unter solchen Bedingungen sind mehr Pixel von Vorteil, um Artefakte zu verkleinern.

Aber wenn man die Möglichkeit einer 1:1-Darstellung hat, was mit gezielt erstellten Grafiken im PC-Bereich automatisch der Fall ist, ist diese überlegen: Mach dir Paint auf, leg eine willkürliche Bildgröße fest und mal dir ein Raster aus 1 Pixel breiten schwarzen Linien mit 1 Pixel breiten weißen Zwischenräumen. Jetzt stelle die Windows-Skalierung auf 125%. Obwohl die Zeichenfläche mit gleicher digitaler Größe jetzt sogar 25 Prozent mehr Pixel für die physische Ausgabe nutzen kann, dürfte von deinem sauberen Raster nur ein grauer Schmier übrig sein. Bei 150 Prozent/50 Prozent mehr Pixeln kriegst du gegebenenfalls stattdessen ein Raster mit wechselnder Abständen oder mit sich wiederholenden, zusätzlichen grauen Bereichen (je nach Interpolationsart) und erst bei 200 Prozent, wofür du doppelt so viele Pixel wie ursprünglich nötig (ver)brauchst, ist wieder erkennbar, was ursprünglich dargestellt werden sollte. Aber selbst wenn du jetzt die doppelte Betrachtungsentfernung einnimmst, die Pixel also mir der gleichen Winkelauflösung wie zu Anfang bei nativer Darstellung betrachtest, wird dir der Grauschleier um die eigentlich/ursprünglich scharf abgegrenzten schwarzen Linien auffallen.
 
Zuletzt bearbeitet:
Bei einer nativen 1:1 Wiedergabe ist das ein und dasselbe.

Aber nein. Was ist denn das Bild? Das Bild ist nicht das was Du gerastert auf dem Schirm siehst, sondern (speziell bei einem 3D-berechneten Bild) ist das, was die Geometrie und die Texturen (in angenommen unendlicher Auflösung) wiedergeben, wenn man kein Pixelraster hätte. Also quasi das, was eine unendliche Auflösung bieten würde.

Das ist das eigentliche Bild, das man versucht zu erzeugen und sich ihm möglichst gut anzunähern. In dem Moment, wo Du es auf einem Bildschirm in eine Pixelmaske "renderst", hast Du aber nur noch eine quantifizierte Darstellung des Bildes, eben mit Fehlern (dadurch dass es ein Pixelraster gibt). Von dieser Darstellung zu sprechen, das wäre "das Bild" ist geradezu absurd. Ganz ehrlich.

Was Du meinst sind Verluste durch Interpolation. Aber genau deswegen habe ich mein Posting geschrieben: Die angenommenen Verluste durch Interpolation sind immer nur EINGEBILDET, weil der Verlust der empfundenen Schärfe nicht durch ein Verlust an Details oder Informationsgehalt entsteht (das wäre dann ein tatsächlicher Schärfeverlust) sondern dadurch, dass man auf einmal keine klaren "Pixelkanten" mehr hat, an denen sich das Auge festhalten kann und die es deswegen als "Schärfe" empfindet.

Bei einem hochskalieren (egal ob beim Print oder auf dem Monitor) wird man deswegen eher selten das Ausgangsmaterial lediglich "hochmultiplizieren". Dadurch hat man zwar dann wieder scharfe Kanten, aber gerade bei einem Ausdruck sieht das extrem hässlich aus. Deswegen "interpoliert" man, lässt also die Pixel ineinander übergehen. Das sieht zwar je nach verwendetem Algorithmus mehr oder weniger unscharf aus (eben aus dem o.g. Grund), der gesamte Bildeindruck ist aber normalerweise besser. Nur wenn man Wert auf den "Retro-Effekt" legt, speziell bei Pixel-Games, will man auch den entsprechenden Pixel-Look wieder rekonstruieren. Objektiv besser wird das Bild dadurch aber nicht!
 
Bitte noch einmal nachlesen: Ich spreche ausdrücklich von nativer 1:1 Wiedergabe und sogar gezielt 2D-Inhalte an, die unter Informationsverlust interpoliert werden müss(t)en. Du springt zu einer mehr oder minder unendlichen Ausgangsauflösung, wie sie nur bei noch zu rendernden Bildern und Vektorgrafiken gegeben sein kann, bei denen dann natürlich nichts interpoliert wird. Das sind zwei paar Schuhe, dein Beispiel ist außerhalb von Spielen aber eher die Ausnahme denn die Regel.

Ungeachtet dessen ist auch die Interpolation eines aus unendlicher Vorlage gerenderten Bildes verlustbehaftet. Insbesondere um ungerade Faktoren interpolierte Rastergrafiken, gleich welchen Ursprungs, verschmieren auch zwischen dem neuen Pixelraster stehende Details, die zuvor klar sichtbar waren. Umgekehrt können Details der unendlichen Vorlage, die in der ursprünglichen Rasterisierung durchs (Pixel-)Raster gefallen sind, aber nicht hinzukommen, der Gesamtinformationsgehalt sinkt also durch (ungerade) Interpolation.

Ob man unabhängig hiervon die Schärfe einer Rasterung des Unendlichen als störendes Artefakt wahrnimmt, ist Geschmacksfrage. Die aktuelle Popularität von nachschärfenden Post-Effekten und das komplette Verschwinden von Blur-Effekten zeigt, dass dein "matschiger" Geschmack eine ziemliche Ausnahme darstellt, "Crispness" ist in. Technisch betrachtet ist eine verwaschene Interpolation dabei genausowenig eine "bessere" Wiedergabe wie eine nachgeschärfte Fassung, "gut" ist nur das native Original. Das gilt objektiv auch dann, wenn das Original pixelig war und der Betrachtet subjektiv der Meinung ist, man hätte dieses Motiv nicht pixelig wiedergeben sollen. Man "verbessert" auch keinen späten Monet mit einem Farbfilter, der die wegen Augenkrankheit verfälschte Farbwahl des Künstlers kompensiert. So etwas kann nur subjektiv "mehr gefallen". (Vergl. die ewig und drei Tage währende HiFi-Diskussion über Wiedergaben mit "mehr Klang", "Wärme", etc.. Ich habe auch von ausgeleierter MC digitalisierte Titel im Regal, weil der dumpfe Klang meiner Meinung nach perfekt zum Song passt. Aber ich würde nie beanspruchen, dass das Ergebnis eine gute Aufnahme darstellt.)
 
Ich würde dann eher in Richtung 1920x1200 gehen. 1600x1200, das "4k von früher", passt da wunderbar mit schwarzen Balken rein, alte Dos-Spiele in 320x240 (=16:10 Auflösung) sollten auch wunderbar gehen und die meisten VGA-Spiele dürften auch SVGA, also 800x600, unterstützen.

Unabhängig davon: Ich finde es auch weiterhin schade, dass man 4:3 für die 16:9 Sehschlitze aufgegeben hat. Ich hab in der Retro- und Bastelecke einen mit 1600x1200 und bin immer wieder aufs neue von dem Seitenverhältnis begeistert. Andererseits sieht es ja leider auch bei 16:10 Monitore jenseits der 1920x1200 sehr mau aus. Kann man nur hoffen, dass es sich die nächsten Jahre wieder bessert, nachdem 16:10 im Laptop-Bereich wieder stark im kommen ist, neben 3:2.
Apropos 3:2: Da stand ich schon öfters vor Laptops in diesem Format und war angenehm überrascht davon. Nah am alten 4:3. Jetzt fehlen nur noch Monitore in diesem Format, z.B. in 2160x1440. me gusta
Du hast nicht unrecht. 16:9 ist unästhetisch und das meiste das wir nutzen würde in einem anderen Seitenverhältmis besser aussehen.
Erfunden wegen den Spielfilmfreaks. Gebracht hat es leider hohe Kosten in der Filmbranche, die natürlich der Verbraucher bezahlt. Für TV auch ungünstig.
Ich könnte auch eher 3:4 gebrauchen als 16:9. Kommt viell. wieder, wie so vieles.
 
Bei meinem Sitzabstand von ~80cm empfinde ich ~110 ppi als ideal. Also wie beim häufig vertretenen 27" 1440p. In meinem Fall eben 40" 2160p. So komme ich ohne Skalierung in Windows aus und mache damit das Meiste aus der vorhandenen Bildfläche.
 
16:9 und 21:9 sowie diverse ähnliche Formate haben, im Gegenteil, der Filmbranche einiges an Geld eingespart. Wortwörtlich am laufenden Meter, wenn auf einmal 50 Prozent mehr Bilder auf die Rolle passten. Nachdem im PC-Bereich mittlerweile auch 32:9 und 32:10 aufgetaucht sind, würde ich aber so schnell mit keiner Abkehr mehr rechnen. Die ergonomische Maximalhöhe auf einem Schreibtisch ist begrenzt, weil die Monitorunterkante ohne große Umbauten nicht unterhalb der Tastatur liegen kann und die meisten Leute nicht den Kopf in den Nacken legen wollen, um die Oberkante zu sehen. Nach Links und rechts ist dagegen noch viel Luft und für Unterhaltungsinhalte, die mittlerweile das wichtigste Zugpferd sind ("Gaming"-Monitore verkaufen sich wie geschnitten Brot), gibt es aufgrund der weit verbreiteten Ego- oder 3rd-Person-Perspektiven auch genug in diesem Format darzustellen. Office wiederum arbeitet seit Jahren mit zwei oder drei Monitoren nebeneinander, aber nur sehr selten mit mehreren übereinander oder im Pivotmodus, auch da also keine Nachfrage nach höheren Formaten.

Für Strategie- und Wisim-Spieler natürlich ärgerlich, aber seitdem da kaum noch etwas mit einer vertikal weitreichenden Ansicht veröffentlicht wird, ist es mir privat ehrlich gesagt egal. Ab 1.200 Zeilen ist man vertikal ausreichend, ab 1.440 Zeilen gut bedient. Nur die "low profile"-Screens mit × 1.050 oder gar × 786 und 16:9/10 fand ich reichlich abartig. Nichtsdestotrotz hatten auch solche Spieler irgendwann einen taktischen Vorteil gegenüber mächtigen 1.600 × 1.200, die links und rechts radikal beschnitten wurden.
 
Abwarten. Wie vorhin schonmal geschrieben, kommt im Notebooksegment 16:10 wieder und 3:2 fängt gerade an zu rollen. Das dürfte über kurz oder lang nicht auch ohne Auswirkung auf normale Monitore bleiben.
Im Zweifel kommen die gleichen Werbeprofis an, die den Leuten erst eingeredet haben, das 5:4 und 4:3 ja sowas von gestern und nur 16:10 das Maß der Dinge ist, dann das 16:10 ja sowas von gestern und nur 16:9 das einzige Wahre ist, .... :-D


Kommt viell. wieder, wie so vieles.
Ich hoffe auf Trinitron. :love:
 
Zuletzt bearbeitet:
16:9 und 21:9 sowie diverse ähnliche Formate haben, im Gegenteil, der Filmbranche einiges an Geld eingespart. Wortwörtlich am laufenden Meter, wenn auf einmal 50 Prozent mehr Bilder auf die Rolle passten. Nachdem im PC-Bereich mittlerweile auch 32:9 und 32:10 aufgetaucht sind, würde ich aber so schnell mit keiner Abkehr mehr rechnen. Die ergonomische Maximalhöhe auf einem Schreibtisch ist begrenzt, weil die Monitorunterkante ohne große Umbauten nicht unterhalb der Tastatur liegen kann und die meisten Leute nicht den Kopf in den Nacken legen wollen, um die Oberkante zu sehen. Nach Links und rechts ist dagegen noch viel Luft und für Unterhaltungsinhalte, die mittlerweile das wichtigste Zugpferd sind ("Gaming"-Monitore verkaufen sich wie geschnitten Brot), gibt es aufgrund der weit verbreiteten Ego- oder 3rd-Person-Perspektiven auch genug in diesem Format darzustellen. Office wiederum arbeitet seit Jahren mit zwei oder drei Monitoren nebeneinander, aber nur sehr selten mit mehreren übereinander oder im Pivotmodus, auch da also keine Nachfrage nach höheren Formaten.

Für Strategie- und Wisim-Spieler natürlich ärgerlich, aber seitdem da kaum noch etwas mit einer vertikal weitreichenden Ansicht veröffentlicht wird, ist es mir privat ehrlich gesagt egal. Ab 1.200 Zeilen ist man vertikal ausreichend, ab 1.440 Zeilen gut bedient. Nur die "low profile"-Screens mit × 1.050 oder gar × 786 und 16:9/10 fand ich reichlich abartig. Nichtsdestotrotz hatten auch solche Spieler irgendwann einen taktischen Vorteil gegenüber mächtigen 1.600 × 1.200, die links und rechts radikal beschnitten wurden.
Nur auf dem Filmmaterial. Erforderte aber horrend teure Optiken und im Kino entsprechende Linsen. Das teure waren die Kulissen, die mehr Breite beanspruchten und meist waren dazu noch die Objekte Hochkant. Nur bei manchen Szenen bzw Filem war es ein Vorteil. Der Effekt war fürs Kino bestimmt.
Bei Kameraschwenks waren sofort Dinge im Bild die man nicht haben wollte, auch die Beleuchtung wurde teurer.
Ein Mensch - hochkant. Nur durch starke Verkleinerung aufs Bild zu bekommen. Daher wurden mehr Brustbilder eingesetzt. Boden, Person, Himmel eigentlich kaum möglich. Nur mit Verkleinerung der Objekte und viel störendem Rand, der aber auch erstellt und bezahlt werden mußte. Ein Schwenk in dieser Position kaum noch möglich. Daher ist Breitwand+ auf bestimmte Stoffe begrenzt.
Um die Schärfe zu halten wurde das "Breitbild" verzerrt und füllte übrigens wieder das gleiche Format auf dem Film wie vorher Normalbild. Du meinst die wenig eingesetzte Schrittverkürzung um "Breitformate" näher zusammenzulegen. Durch die Nachbearbeitung entfällt der Kostenvorteil.
Emmerich hatte dies vor bei seinem ersten Film, es gab nur keine Kamera die das konnte.
 
Bitte noch einmal nachlesen: Ich spreche ausdrücklich von nativer 1:1 Wiedergabe und sogar gezielt 2D-Inhalte an, die unter Informationsverlust interpoliert werden müss(t)en. Du springt zu einer mehr oder minder unendlichen Ausgangsauflösung, wie sie nur bei noch zu rendernden Bildern und Vektorgrafiken gegeben sein kann, bei denen dann natürlich nichts interpoliert wird. Das sind zwei paar Schuhe, dein Beispiel ist außerhalb von Spielen aber eher die Ausnahme denn die Regel.

Sorry, Torsten, aber das beginnt zu nerven. Der Ursprung der Diskussion war die Darstellung von Filmen (HD vs UHD), niemand hat jemals von Retro oder 2D Material gesprochen.

Dann ging es darum, ob mein 4k Monitor eventuell HD Material (immer noch Filme!) schlecht "interpolieren" würde und das der Grund sei, warum mir UHD Material auf meinem Monitor so viel besser gefallen würde, als HD Material.

Dem habe ich widersprochen und das mit einer Erklärung beschrieben, was zu einer möglichst korrekten Darstellung von Video-Bildmaterial gehört, und dass Integer-Interpolation dafür eben keinerlei Vorteil bringt.

Und jetzt kommst Du mit 2D-Material und Retro-Zeugs von um die Ecke, bei dem man Integer-Skalierung vorzieht. Davon war nie die Rede, bevor Du es selbst ins Spiel gebracht hast!

Und auch, wenn ich Dir Recht gebe, dass bei Pixel-Grafik der Pixel-Look inkl. der "gefühlten" Schärfe dazu gehört (habe ich ja auch mehrfach geschrieben), ändert das nichts daran, dass dabei nur die *Darstellung der Pixel des 2D-Materials* scharf ist, nicht aber die Abbildung des eigentlich repräsentierten Bildinhalts. Der ist - naturgemäß - bei Pixelgrafik immer extrem unscharf, im Sinne von "geringer Informationsdichte", aka Auflösung. Was aber ok und gewollt ist (wenn ich mir Dein junges Avatar-Bild ansehe, gehe ich mal als gegeben davon aus, dass ich mit deutlich mehr Low-Res Pixel Grafik konfrontiert worden bin als Du in Deinem jungen Leben jemals gesehen hast).

So und jetzt EoD. Es ist echt anstrengend mit Dir zu diskutieren, und das fällt mir nicht zum ersten Mal auf.
 
Zuletzt bearbeitet von einem Moderator:
Abwarten. Wie vorhin schonmal geschrieben, kommt im Notebooksegment 16:10 wieder und 3:2 fängt gerade an zu rollen. Das dürfte über kurz oder lang nicht auch ohne Auswirkung auf normale Monitore bleiben.
Im Zweifel kommen die gleichen Werbeprofis an, die den Leuten erst eingeredet haben, das 5:4 und 4:3 ja sowas von gestern und nur 16:10 das Maß der Dinge ist, dann das 16:10 ja sowas von gestern und nur 16:9 das einzige Wahre ist, .... :-D



Ich hoffe auf Trinitron. :love:
Sagen wir mal so, der Kunde möchte neue Probleme haben über die er sich dann aufregen kann. So ist er wenigstens beschäftigt. Er redet von Qualität und Sinn und Logik,hat keine Ahnung was das ist.
Folge, wir haben Formate ohne Ende. Der eine forografiert so, der andere anders. Speicherformate auch gerne viele und noch dies und das.
Und dann sitzt er da, wieso hat dies nun schwarze Streifen, wieso ist das nicht auf Papier zu drucken, wieso verzerrt usw. Also jede Menge Müll und wir haben damit natürlich wenig zu tun. Frage mal nach Details beim Nutzer, dann kommt: Eigentlich müßte....vielleicht.....probier mal.......keine Ahnung........ging mal.......neu gekauft, aber.......
Ein Trauerspiel diese Branche und der Nutzer. Und dann regen sich welche wegen Umwelt oder Preisen auf. Kann man nicht ernst nehmen.
Kaufen Kabel die im Einkauf 1,90 kosten und im Laden 22,70. Sie merken nichts.
Haben bei Datenschutz keine Bedenken und realisieren nicht, daß sie wegen der Berechenbarkeit diesen Schrott kaufen. "Ich entscheide was ich kaufe oder denke", lach. Das war noch nie so ein Lacher wie heute.
 
Tolles Thema, warum arbeitet ihr nicht heraus von/bis zu welcher Pixeldichte es sinnvoll ist für den Durchschnittsbetrachter?!?
Ich als Durchschnittsbetrachter mit abgenutzer Sehstärke wegen schon längerem Augengebrauchs tendiere zu 105ppi.


Ansonsten, 30 cm Abstand? :wow: Das ist aber ganz schön... wenig.^^
Das ist auf Dauer Augenquälerei, aber wenn man noch sehr jung ist geht das sicher. Meine Tochter 6Jahre kann Dinge Objekte Bilder aus 10cm Entfernung noch scharf sehen, aber probier das wenn man einige Jahrzehnte älter ist ... Und nach 40 Jahren täglichen Monitor-Schauens sehen die meisten wohl nichts mehr scharf bei 30cm Abstand. Irgendwann nach vierzig musste ich, weil die Arme zu kurz wurden zum Optiker...

Das mit dem Abstand ist generell so ein Ding, ich wunder mich da bei vielen liebevoll eingerichten Gamerecken (fette Mods im PC, geile Beleuchtung, stimmungsvolles Ambiente etc.), die man ja dann auch hier bei der PCGH in den Galarien sieht, wie nah die Leute da vor ihren riesigen Bildschirmen sitzen, oft mehrere davon.
Wahrscheinlich zu wenig Platz für einen tieferen Tisch und noch ausgestattet mit jugendlicher Sehkraft. Zweiteres ändert sich später von allein.

Abwarten. Wie vorhin schonmal geschrieben, kommt im Notebooksegment 16:10 wieder und 3:2 fängt gerade an zu rollen. Das dürfte über kurz oder lang nicht auch ohne Auswirkung auf normale Monitore bleiben.
Bei winzige Notebookmonitoren ist es auch nützlicher mehr Höhe zu haben. Doch ist der Monitor größer erreicht man mit 1200 oder 1440 Zeilen ein ergonomisches Optimum und alles was man mehr haben kann braucht man nur in zusätzlicher Breite.

Notebook-Zwerge (12 - 15 Zoll) haben aber grundsätzlich ein zu kleines Bild. Das Optimum in der Breite ist wegen der Kleinheit des Bildes unbedeutend. Weshalb bei den kleinen Röhrenmonitoren von früher die im Verhältnis größere Höhe eindeutig einen Sinn hatte. - Wenn 16:10 bei Notebooks wieder kommt, liegte es daran DinA4 Inhalte (Hochformat) übersichtlicher darstellen zu können mit weniger Scrollen nach unten. Auf großen PC-Monitoren mit 1200 oder 1440 Zeilen muss man für DINA4 Inhalte aber gar nicht scrollen.

Weshalb am Desktop die Tendenz zu mehr Breite bleiben wird.
 
Zuletzt bearbeitet:
Alleine bist Du damit sicher nicht. Aber ich teile die Ansicht keinesfalls.
FHD reicht schlicht nicht mehr. Über WQHD können wir reden (bei 27"). Aber FHD ist schlicht keine Alternative mehr.

Ich persönlich habe kein Problem mit 60Hz. Den Unterschied zwischen 60 und 90 Hz kann ich gerade noch erahnen, darüber sehe ich persönlich null Unterschied. Außerhalb von ESport (wo die Ansprüche ganz andere sind) ist jede Framerate überhalb von 100Hz viel mehr gefühltes Schlangenöl. Wer dafür Auflösung opfert obwohl er sonst durchaus auf Optik wert legt (also nicht nur den kompetitiven Aspekt bei Shootern im Sinn hat) ist m.E. auf dem völlig falschen Dampfer.

Ok, zugegeben ich wollte erst 1440p schreiben, das FHD war auch nur als extremer Kontrast zu 4K gedacht, damit nicht jemand kommt und sagt:" mimimi, 4K hat nicht so viel mehr Pixel als 1440p".
Ich habe selber einen 4K@60hz mit Freesync und einen 1440p@144hz ebenfalls mit Freesync. Während die Bildqualität auf beiden etwa gleich ist, reichen mir beim Daddeln die minimal mehr Details des 4K Monitors nicht aus um mich von den 144hz zu verabschieden.

Und das Refreshrate immer ein heikles Thema ist bei einigen ist mir natürlich klar. Für mich fühlt sich der Unterschied von 60hz->144hz an wie der Unterschied zwischen 30hz->60hz, sogar noch etwas krasser. Es gibt mir einfach ein besseres Immersionsgefühl, ich denke weniger das ich auf einen Monitor starre als direkt das Bild im Kopf zu haben, weil es sich eben natürlicher, weicher anfühlt.
Für Filme nehme ich natürlich den 4K Monitor, solange das Bildmaterial nicht mit mehr frames aufgenommen wurde - was eigentlich nie der Fall ist.

Erwähnenswert ist vielleicht noch das Thema bei Laptops. Habe kürzlich mit einem bekannten ein Laptop gesucht und wir haben uns letztlich auf 2 Modelle festgelegt die identisch waren bis auf das Panel. 15 Zoll Gerät mit 4K 60hz TN vs. 144hz FullHD IPS. Da auf dem Gerät auch gespielt werden soll und die Hardware jetzt nicht der absolute Overkill war habe ich dazu geraten beide auszuprobieren und sich dann für einen zu entscheiden. Letztlich wurde es das 144hz Model, bei einem User der zuvor nur 60hz genutzt hatte. Sein Entscheidungsgrund war, dass es sich "natürlicher und angenehmer" anfühlt.
Sicher Refreshrate ist ein subjektives Thema, aber ich habe bisher noch niemanden getroffen der nicht den Unterschied zwischen 144hz und 60hz genau ausmachen konnte.
 
Zuletzt bearbeitet:
ich bin mit meinen beiden WQHD 27 zoll monitoren sehr zufrieden. mein ziel sind immer minimum 85-90fps bei so hoher bildqualität wie möglich ohne das meine graka lüfter in einen helicopter modus wechseln. ich habe bis vor kurzem ewigkeiten lost ark gespielt. alleine dafür hätte ich gerne einen 21:9 monitor gehabt. das wäre aber auch das einzige was als bonus bei meinen monitoren noch oben drauf könnte.
 
Die Pixeldichte ist viel mehr ein Resultat, welches sich aus der Wahl der richtigen Monitor-Größe und dessen Auflösung ergibt. Dies macht auch eine Pixeldichte-Empfehlung überflüssig, denn jeder Mensch hat eine andere Schmerzgrenze. Was wir nur empfehlen können, ist, diese eigene Schmerzgrenze herauszufinden.
:what: Was?Wenn das überflüssig ist, wozu dann die News?! :ugly:

MfG
 
Ich verwende UHD auf 24 Zoll seit 2016, man brauch nur noch gutes TAA dann passt alles ;) nur die Bildunschärfe in Bewegung ist furchtbar, das macht mein Plasma (2005) besser.
Was aber eher an der Monitortechnologie oder dem Rendering liegt, als an der Auflösung

PS: Spiele seit 2010 auf einem 27 Zoll FHD, von dem ich ca 1 Meter entfernt sitze. Das mit den großen Pixeln ist kein großes Problem, weil ich es nie "schärfer" gewohnt war und ein Kind der 90er bin. Wenn die FPS nicht 144 sind und die Auflösung nicht 4K ist das ok. Das ändert sich natürlich mit der Gewohnheit, weshalb ich möglichst spät umsteigen werde, denn hab ich mic heinmal an hohe Auflösungen gewöhnt, will ich das natürlich immer ;-)

Mein nächster Monitor soll einer zum Arbeiten, Spielen und FIlmschauen werden. Also wahrscheinlich 1x 34 Zoll (derzeit stehen 2 Stück 27er nebeneinander)
 
Zuletzt bearbeitet:
Zurück