G4mest3r
Software-Overclocker(in)
"Sehe" ich ziemlich anders.Da denkst du falsch, die Grenze liegt sehr, sehr viel höher
Wenn du mir nicht glaubst und zu den Leuten gehörst, deren Badewanne oder Waschbecken weiß ist und du das ganze auch noch putzt, damit es nicht gelb aussieht, dann kannst du den Test machen. Nimm ein Haar und platziere es im Waschbecken oder der Badewanne. Das Haar ist weniger breit, als ein 8K Pixel, in einem 31,5" Monitor. Besonders wenn es ein dunkles Haar ist, wird dir auffallen, wie gut man es sieht. Nun geh zurück, bis das Haar nicht mehr zu erkennen ist. Du wirst etliche Meter zurückgehen müssen, wenn du gut sehen kannst wohl 5m oder mehr. Denk dran, das Haar ist weniger breit, als der 8K Pixel.
Bei solchen Problemfällen ist das Auge extrem empfindlich.
Dummerweise gehört der Treppenstufeneffekt zu genau diesen Problemfällen. Der wird dir auch noch bei 16K ins Auge stechen, wenn du normal sehen kannst, wenn auch nicht so extrem.
AA wird man immer benötigen, bzw. es wird immer Sinn ergeben.
(achso, für Richtigdenker: "nein, ich glaube Dir nicht")
1.) sprechen wir nicht von einem 40" Weißbild mit einem schwarzen Einzelpixel (extremer schwarz-weiss Kontrast), sondern von komplett farbigen Szenen. Solche extremen Grenzwertbetrachtungen, wie du sie beschreibst hast du so gut wie nie in Film und Computer-Spiel. Zudem meist auch noch bewegt und nicht statisch.
Mach das doch mal mit nem braunen Haar auf grünem Grund - und selbst das wäre noch krass, weil Du solche Einzelszenen sehr selten im statischen Bild hast.
2.) Bei ähnlich farbigen angrenzenden Pixeln ist die Pixelgröße weniger das Problem sondern der feine Abstand unter den Pixeln der diese als voneiniander getrennt wahrnehmen lässt. Dadrauf hat man früher schon bei Lochmasken geachtet.
3.) Rechne mir das mal bitte vor. Es kommt schließlich nicht von ungefähr, dass 8k als Milestone und Grenzwert in der TV-Technologie angesehen werden (fast schon als Heiliger Gral - und hier verwende ich ausnahmsweise mal die Bezeichnung)
Dein Auge verfügt über Rezeptoren auf der Netzhaut, die die Lichtimpulse als Nervensignale ans Hirn leiten, wo das Signal verarbeitet und interpretiert wird. Diese Photorezeptoren ("Stäbchen" gennannt) haben eine gewisse Größe und Dichte - je nach Art. Im primären farbigen Sehfeld gröber aber dafür farbsensibel und fokusiertes Sehen, im periphären Sichtfeld dichter, aber dafür nur noch Graustufen und nicht fokusiertes Sehen.
"Das Auflösungsvermögen des Auges ist ein Maß für die Fähigkeit des Auges, räumlich und zeitlich benachbarte Reize zu trennen. Das räumliche Auflösungsvermögen ist über den Winkelabstand Δϕ definiert, den zwei Objektpunkte bezüglich der Pupillenmitte voneinander haben müssen, um zwei getrennte Lichtempfindungen hervorzurufen"
- also zwei Objekte überhaupt noch voieinander unterscheiden zu können.
"Es wird begrenzt durch die Beugung des Lichtes am Pupillenrand und die endliche Größe der Zapfen und deren Abstand in der Netzhaut (Beugung). Mit Δϕ = 1,22 · λ/d folgt bei Tageslicht mit einem Pupillendurchmesser d = 3 mm und einer Wellenlänge von λ = 550 nm eine Auflösungsgrenze von Δϕ = 48 ″ (zum Faktor 1,22 Beugung). Aufgrund seines Aufbaus sieht das menschliche Auge zwei Punkte nur dann getrennt, wenn sie unter einem Winkel von Δϕ > 1 erscheinen (bei einem Abstand von 25 cm müßten die beiden Punkte mindestens 0,04 mm voneinander entfernt sein)"
[Quelle: Lexikon der Physik, Spektrum Verlag]
Bin ich mal frech und skaliere das mal: also bei einem Sitzabstand von ~1m vom Monitor, wäre das dann ein Punktabstand von 0,16mm. Richtig? Richtig ...
Nehmen wir meine angesprochenes Optimum von Blickabstand = Monitorgröße wäre das 1m (~39,4 inch) Bilddiagonale.
Ich nehme mal 16:9 ... wäre also Horizonal ~87,2 cm (= 100cm / (16^2+9^2)^1/2 * 16).
Nun noch 8k Pixel (Horizontal bei 8k UHD 16:9, gelle? Oder nehmen wir mal extra für Dich die 7680 ), also 87,2 cm / 7680 = 0,01 cm je Pixel (oder in mm ~ 0,11mm je pixel).
Du kannst also ganz nah an den Monitor ranrutschen. Auch für einen Sitzabstand von 60cm zum Monitor bist du bei gleichbleibender Monitorgröße von oben (eigentlich müsstest Du ja nach meinem Ideal jetzt auch die Bildiagonale auf 60cm schrumpfen) immer noch "ganz nah dran", also 0,096mm Auflösungsvermögen vs. 0,11mm Pixelabstand.
Selbst auf 10cm Nähe wirst du keine Pixel mehr direkt nebeneinander unterscheiden können. Ich gehe aber mal davon aus, dass Du auf 10cm eh Probleme bekommst ab einem gewissen Alter, noch zu fokusieren (= scharf zu sehen)
Beinflusst auch stark die Wahrnehmung des von Dir angebrachten Treppenstufeneffekts.
Und Nein, AA wird man nicht "immer" benötigen. Auswirkungen deuten sich bereits heute an, indem Reviewer subjektiv berichten, dass bei 4k Aliasing garnicht mehr so stark stört, bzw. man garkein so hohes AA mehr braucht.
(Ähnlicher Effekt bei Screentearing, auf andere Weise: bei 500Hz ist das garnicht mehr so schlimm )
Lupe? Wieso denn jetzt Lupe?!Der Punkt ist, dass man mit DLSS oder FSR und einer höheren Auflösung immer bessere Ergebnisse erreichen kann und auch noch mehr Leistung hat.
Nehmen wir einfach mal 32K nativ auf einem 31,5" Monitor. Statt nativ in 32K berechnet man das Bild in 20K und skaliert es dann auf 64K hoch und gibt es auf einem 64K Monitor aus. Das Ergebnis sieht, mit der Lupe, wesentlich besser aus und man hat auch noch mehr Leistung. Deshalb wird man mit Upscaling immer besser fahren, solange hochauflösendere Monitore zur Verfügung stehen.
Die ganze Argumentation mit Deiner Upscaling "Bildverbesserung" gilt außerdem immer nur für Rasterisierung.
Ich vermute mal, dass wenn du bei 20k und 32k ankommst, Du solch riesige Füllmengen an Bilddaten hast, dass irgendwann Raster zu unperformant wird und man tatsächlich auf Vektor und Raycasting usw. umschwenkt. Methoden, die jetzt noch zu kompliziert und aufwendig sind, spielen dann plötzlich ihre Stärken in der Skalierbarkeit aus.
Die Vektor-Diskussion läuft schon länger bei Schrift; weg von Raster-fonts, hin zu Vektro-fonts.
Weiß ja nicht, was Du so auf deinem Monitor den lieben langen Tag guckst, aber bei mir sind das keine schwarzen Schamhaare auf einer großen weißen Fläche (zumindest nicht über längere Zeiträume).
Aber die kannst Du Dir ja dann per DLSS schön-skalieren lassen (das kriegt die KI vermutlich auch noch ohne viel Ratefehler hin ... wobei, vielleicht "wundert" die sich, warum jemand einzelne Haare auf so ner großen Weißfläche anstarren wollen sollte und fängt an Wolkenmuster und Fell zu interpretieren)
Aber gut, dass Du richtig denkst...
Zuletzt bearbeitet: