Varjo VR-1: VR-Headset kombiniert zwei Displays und kostet 6.000 US-Dollar

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Varjo VR-1: VR-Headset kombiniert zwei Displays und kostet 6.000 US-Dollar

Bei der Varjo VR-1 handelt es sich um ein VR-Headset, das für 6.000 US-Dollar eine besonders hohe Auflösung bietet: Ein zweites Display wird über einen Spiegel in die Mitte des Sichtfelds projiziert, wodurch dieser Bereich sehr scharf dargestellt werden kann. Das Headset richtet sich ausschließlich an professionelle Anwender, was angesichts des Preises kaum verwunderlich ist.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Varjo VR-1: VR-Headset kombiniert zwei Displays und kostet 6.000 US-Dollar
 
Ich hoffe, dass hier jetzt nicht wieder hauptsächlich undifferenziert über den sehr hohen Preis gemeckert wird - das Teil ist, wie im Artikel richtig beschrieben, nicht für den B2C Markt bestimmt.

Was im Artikel etwas untergeht ist, dass die angegebenen beiden Displays natürlich pro Auge verbaut sind, sprich insgesamt sind es derer 4.

Der tatsächliche Coup wird sein, wenn und falls Varjo es schafft, die beiden Spiegel, die die Fokus Displays projizieren, schneller als die Sakkaden Bewegungen des Auges auszurichten.

Das Endergebnis wäre eine sehr hohe Darstellungsdichte zu jedem Zeitpunkt der Betrachtung und kombiniert mit z.B. VRR bzw eye-tracked foveated rendering ein disruptiver Durchbruch hin zur Verringerung von Rechenaufwand bei gleichzeitiger Erhöhung der Darstellungsqualität.

Wenn man sich das z.B. in Kombination mit den Möglichkeiten mobiler VR HMDs vorstellt, wird so langsam aber sicher ein wirklicher Schuh daraus.

Es bleibt spannend :daumen:
 
"Schneller als Sakkaden" wäre für mechanisch bewegte Spiegel eine große Herausforderung. Beim Sprung zwischen zwei bereits zuvor anivisierten Punkten kann das Auge laut Wiki Spitzengeschwindigkeiten von 900 °/s erreichen. Selbst bei wenigen Zentimetern Abstand zwischen Auge und Spiegel entspricht das mehreren Stundenkilometern. Und der Spiegel muss diese Geschwindigkeit binnen weniger Millisekunden erreichen und anschließend wieder auf 0 abbremsen, ohne nachzuschwingen. Berücksichtigt man noch die Latenz des Eyetrackings, werden ähnliche Leistungen wie von Schreib-Leseköpfen in 15k Festplatten gefordert, nur dass die nicht mehrere cm² Spiegelfläche mitschleppen und sich nur in einer Achse bewegen. Eine Spiegelmechanik im Headset müsste dagegen auf den Schwenkmechanismus für die X-Achse bei Rotationen um die Y-Achse mitschwenken (oder umgekehrt), dürfte dabei aber weder die Vibrationen noch die Geräusche einer Festplatte produzieren. Da dürfte es leichter und günstiger sein, das hochauflösende Display zu vergrößern.
 
"Schneller als Sakkaden" wäre für mechanisch bewegte Spiegel eine große Herausforderung. Beim Sprung zwischen zwei bereits zuvor anivisierten Punkten kann das Auge laut Wiki Spitzengeschwindigkeiten von 900 °/s erreichen. Selbst bei wenigen Zentimetern Abstand zwischen Auge und Spiegel entspricht das mehreren Stundenkilometern. Und der Spiegel muss diese Geschwindigkeit binnen weniger Millisekunden erreichen und anschließend wieder auf 0 abbremsen, ohne nachzuschwingen. Berücksichtigt man noch die Latenz des Eyetrackings, werden ähnliche Leistungen wie von Schreib-Leseköpfen in 15k Festplatten gefordert, nur dass die nicht mehrere cm² Spiegelfläche mitschleppen und sich nur in einer Achse bewegen. Eine Spiegelmechanik im Headset müsste dagegen auf den Schwenkmechanismus für die X-Achse bei Rotationen um die Y-Achse mitschwenken (oder umgekehrt), dürfte dabei aber weder die Vibrationen noch die Geräusche einer Festplatte produzieren. Da dürfte es leichter und günstiger sein, das hochauflösende Display zu vergrößern.

Absolut richtig, und deshalb ist genau diese Aufgabenstellung auch die größte Hürde, die Varjo nehmen muss, wenn ihre Überlegungen dazu sich irgendwann in einem tatsächlichen Produkt zeigen sollen.

Ich gehe fest davon aus, dass die erste Generation von HMDs mit eye-tracking vor allem eins liefern - Daten über das Verhalten der Sakkaden Bewegung in direkter Korrelation zum angezeigten Inhalt. Eine genügend große Menge dieser Daten kann, rein theoretisch, durchaus dafür verwendet werden, die Latenzen der gesamten Pipeline durch Versuche der Vorhersage zu reduzieren, und auch da gilt, je mehr Daten trainiert werden können, desto zuverlässiger wird diese Vorhersage für eine immer größere Nutzeranzahl.

Es ist ohne Frage deutlich günstiger auf Seiten der Hersteller schlichtweg Displays zu verwenden, die eine immer höhere ppd liefern; das geht aber voll zu lasten des Computing-Budgets in der Anwendung; erste Schritte sind mit Sicherheit eye-tracking sowie FFR, dann eye-tracked FR und parallel dazu die Entwicklung spezialisierter Aktuatoren. Diese Aktuatoren sind im Übrigen nicht nur für z.B. die 'latenzfreien' Spiegelbewegungen notwendig, sondern ebenso für tiefen-variable Bildschirmbewegungen selbst, wie von Oculus als 'varifocal display' Technologie vorgestellt. Zwar sind die Bewegungen dort um Magnituden langsamer, leise und in die gesamte Darstellungspipeline eingebunden müssen sie aber trotzdem werden.
 
Man muss high-ppd ja nicht mit flächendeckend hoher Auflösung kombinieren und einen variablen Fokus kann man bei zunehmend größeren Blickwinkeln auch nur noch schwer über Linsensysteme realisieren. Da würde ich persönlich auf kollimierte Optimiken und simulierte Tiefenunschärfe via Eyetracking rechnen. Also ein prinzipiell unabhängig von der Fokussierung immer und überall scharfes Display, dass aber partiell unscharfe Bilder anzeigt um das natürliche Sehen zu immitieren. Das ist aber ein aufwendiger und vergleichsweise wenig zur Immersion beitragender Effekt – zumindest ich würde dem Thema keine hohe Priorität einräumen. Erstmal brauchen wir deutlich höhere Auflösungen und da bleibt noch abzuwarten, ob die Anwender eine permanente Eye-Tracking-Überwachung über die Server des Betreibers überhaupt akzeptieren.
 
Zurück