Virtual Reality: Neue Details zum 18-Megapixel-OLED-Display von Google und LG

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Virtual Reality: Neue Details zum 18-Megapixel-OLED-Display von Google und LG

Im Vorfeld der derzeit laufenden SID Display Week haben Forscher von Google und LG in einem wissenschaftlichen Papier ihr im März erstmals in Aussicht gestelltes OLED-Display mit 18 Megapixeln und einer Bildschirmdiagonale von 4,3 Zoll näher beleuchtet, das besonders für mobile VR- und AR-Standalone-Geräte mit weitem Sichtfeld geeignet sein soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Virtual Reality: Neue Details zum 18-Megapixel-OLED-Display von Google und LG
 
Pixel Pitch: 11,6 / 17,6
Vor nichtmal 10 Jahren waren das typische Pixel Größen von High End DSLR-Sensoren (interpolierende Bayer Matrix wohlgemerkt!) und heute lösen wir Displays damit auf.

Nur um mal zu verdeutlichen, wie filigran das ist...
 
Ich kann mich auch hier nur wiederholen:
Eine höhere Auflösung klingt auf dem Papier natürlich immer gut und ist auch sicherlich besser. Allerdings ist es nicht der Faktor, der meiner Meinung nach den größten Einfluss auf die Bildqualität hätte. Aber es lässt sich besser vermarkten, den jeder versteht, dass größere Zahl = besser als kleinere Zahl.

An den aktuellen VR-Brillen stört mich am meisten, dass das Bild nur scharf ist, wenn man exakt gerade aus blickt. Am Rand des Sichtfeldes ist das Bild so stark verschwommen als ob man stark kurzsichtig wäre.

Es reisst mich jedesmal raus, wenn ich nichts erkennen kann und den Kopf mit drehen muss, wenn ich etwas anschauen will. Das macht schnellere Spiele auch total unangenehm weil man die klobige Brille mit dem Kopf drehen muss anstatt nur kurz mit den Augen rüber zu blicken. Im Auto dreht ihr ja auch nicht jedesmal den Kopf um das Gesicht exakt in Richtung Spiegel zu halten um etwas erkennen zu können.

Man kann auch nicht wirklich vor oder auf die eigenen Füße schauen. Die Brille muss dazu exakt parallel zum Boden ausgerichtet sein um scharf zu blicken. Man kann nichts erkennen wenn man nur den Kopf senkt. Mann muss sich schon nach vorne bücken und die Brille teilweise sogar mit den Händen etwas runter drücken um auf den Boden zu blicken. Die Bewegung ist nicht die selbe wie man es normalerweise macht, halt nicht natürlich.

In der Brille ist ein flacher Bildschirm und konvekse Linsen, wir haben also ein ähnliches Problem wie im Kino. Lösung: curved displays?

Selbst mit Eye-Tracking, was soll das bringen wenn das Bild an den Rändern nicht scharf ist?
 
Ich kann mich auch hier nur wiederholen:


Selbst mit Eye-Tracking, was soll das bringen wenn das Bild an den Rändern nicht scharf ist?

Ich habe nicht das Gefühl, dass Du das wissenschaftliche Papier gelesen hast um ehrlich zu sein.

Erstens wird darin darauf eingegangen, dass das Entwickeln von Optics/Linsen ein noch zu großen Teilen ungelöstes Problem darstellt; zweitens wird aber auch darauf verwiesen, und Oculus haben ihren Prototypen ja gerade erst auf der F8 gezeigt, dass die Kombination mit eye-tracking sogenannte varifokale Lösungen ermöglicht. Wenn man sich also mal mit dem Thema Lichtbrechung in der Linse und daher mit der Notwendigkeit von Distorsionsprofilen beschäftigt wird schnell klar, dass eye-tracking die Anpassung dieses Profil 'on-the-fly' ermöglicht. Damit wäre der gesamt FoV 'lupenrein'. Wenn der Bildschirm dann auch 'weiß', wohin der Nutzer gerade sieht, dann wird a) nur dieser Bereich vollaufgelöst berechnet (Sparen von GPU Leistung), b) die notwendige Bandbreite zur Datenübertragung (Stichwort wireless) drastisch reduziert und c) das Auge des Nutzers kann auf komplett variable Tiefen fokussieren.
 
Die Unschärfe am Bildrand heutiger VR-Headsets sind keine (reinen) Software-Effekte, sondern tatsächlich den Optiken geschuldet. Eye Tracking wird dieses Problem also nicht alleine lösen.

Noch eine Anmerkung zu den Google-Aussagen: 60 ppd müssten einem 24-Zoll-Full-HD-Bildschirm in 90 cm Entfernung. Das ist nicht mehr störend pixelig, aber zumindest meine Augen können beispielsweise Treppenartefakte an konstrastreichen Kanten auch noch aus der doppelten Entfernung auflösen und für eine artefaktfreie Wiedergabe von Bewegungen müssten Displays mit der doppelten Augenauflösung das Ziel sein. Vom Holodeck ist also auch die neue Technik noch ein gutes Stück entfernt.
 
Die Unschärfe am Bildrand heutiger VR-Headsets sind keine (reinen) Software-Effekte, sondern tatsächlich den Optiken geschuldet. Eye Tracking wird dieses Problem also nicht alleine lösen.

'Heutiger VR-Headsets' ist denke ich nicht differenziert genug. Auf Fresnel-Linsen trifft das auf jeden Fall zu, diese mitigieren aber vor allem die derzeitige Praxis, dass sowohl Rift als auch Vive als auch die WMR HMDs pro Unit in der Kombination mit der jeweiligen Linse per Distorsion-Profil fix auf den sweetspot eingestellt werden. Fresnel war zum Zeitpunkt der Entwicklung der ersten Generation einfach der beste Kompromiss unter Betrachtung der gesamten optischen Pipeline, vor allem in Bezug auf pupil swim und chromatic aberration. Alan Yates und andere haben das erst vor Kurzem wieder bestätigt.

Ich habe sowohl bei meiner OG Vive als auch bei meiner VivePro die Fresnel Linsen mit denen der GearVR 2017 ausgetauscht, und, das bestmögliche Distorsionsprofil vorausgesetzt, der sweetspot ist riesig und so gut wie 'lupenrein' über einen Großteil des FoV.
 
Ich habe nicht das Gefühl, dass Du das wissenschaftliche Papier gelesen hast um ehrlich zu sein.

Erstens wird darin darauf eingegangen, dass das Entwickeln von Optics/Linsen ein noch zu großen Teilen ungelöstes Problem darstellt; zweitens wird aber auch darauf verwiesen, und Oculus haben ihren Prototypen ja gerade erst auf der F8 gezeigt, dass die Kombination mit eye-tracking sogenannte varifokale Lösungen ermöglicht. Wenn man sich also mal mit dem Thema Lichtbrechung in der Linse und daher mit der Notwendigkeit von Distorsionsprofilen beschäftigt wird schnell klar, dass eye-tracking die Anpassung dieses Profil 'on-the-fly' ermöglicht. Damit wäre der gesamt FoV 'lupenrein'. Wenn der Bildschirm dann auch 'weiß', wohin der Nutzer gerade sieht, dann wird a) nur dieser Bereich vollaufgelöst berechnet (Sparen von GPU Leistung), b) die notwendige Bandbreite zur Datenübertragung (Stichwort wireless) drastisch reduziert und c) das Auge des Nutzers kann auf komplett variable Tiefen fokussieren.

Stimmt, ich habe nur den PCGH Artikel gelesen. Werde mal reinschauen.

Edit:
Oculus File Patent for Curved Display – VRFocus
Von sowas habe ich geredet.
 
Zuletzt bearbeitet:
Zurück