• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

VR-Headset: Creal mit neuem Lichtfeld-Display und stufenlosem Fokus

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu VR-Headset: Creal mit neuem Lichtfeld-Display und stufenlosem Fokus

Das Schweizer Start-up Creal hat im Rahmen der Technik-Messe CES zwei Prototypen vorgestellt. Hierbei handelt es sich um ein AR- und ein VR-Headset mit Lichtfeld-Displays sowie stufenlosem Fokus.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: VR-Headset: Creal mit neuem Lichtfeld-Display und stufenlosem Fokus
 

PCGH_Torsten

Redaktion
Teammitglied
30°? Naja, man muss für jeden Fortschritt dankbar sein:
Nach mehreren Jahren Teasing verraten sie zwar immer noch nicht, wie das Display funktionieren soll, aber zumindest dass es für VR bis auf weiteres unbrauchbar ist. :-)
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
Ich kann mir vorstellen, dass solche Überschriften und Vorschaubilder unwissende Einsteiger eher abschrecken als sie in VR zu locken. Kein Wunder, dass man die Vorurteile nie los wird, wenn man so etwas liest und sieht.

Ein riesieger Klotz vor dem Kopf, miserable Auflösung, Sichtfeld des Grauens und angeblich soll das mehr "Probleme" lösen als es verursacht. Also ich finde VR in seiner aktuellen Form absolut zufriedenstellend und ich vermisse hier keine neuartige Displaytechnik. Forschung ist natürlich immer gut, aber so wie sich das liest, wird das entweder bald eingestampft oder es dauert noch 10 Jahre bis das wirklich mal für Consumer umgesetzt wird.

Erstmal brauchen wir jetzt deutlich flottere Grafikkarten (Nvidia Ampere geht hier in die richtige Richtung), dann muss die Auflösung extrem rauf (4K pro Auge) und jetzt muss das nur noch günstiger werden, damit es endlich mal im Mainstream ankommt. Seit der Quest und Quest2 sieht man ja, dass es überwiegend eine Frage des Preises ist. Valve Index, alles schön und gut, aber zu teuer für den Mainstream und letztendlich nix für Leute mit einer GTX1080/RTX2070 oder vergleichbaren Karten.

Es gab immer schon Leute, die nur am meckern waren oder für die VR einfach nichts ist, aber für diejenigen wird sich wohl auch nichts verändern, nur weil man Lichtfeld-Displays und einen stufenlosen Fokus einbaut. Deren Anspruch ist es gefühlt eher, dass ne VR-Brille genau so groß wird wie eine herkömmliche Brille. :ugly: Da müssen wir echt nicht hin aktuell. Einfach den Fokus auf das wesentliche legen und für die treue Kundschaft optimieren, die VR bereits zu schätzen weiß. Die Meckerer können gern draußen bleiben, man kann nicht jeden erreichen.
 

Nosi

Software-Overclocker(in)
Die CES war aus VR Sicht eher entäuschend. Bin gespannt wann wir was von HTC zu sehen kriegen dieses Jahr
 

twack3r

Software-Overclocker(in)
So ganz richtig ist der Artikel ja nicht. Der Vergence/Accomodation Konflikt betrifft nicht 'manche Nutzer', sondern schlichtweg jeden der versucht, Objekte sehr nah vor das eigene Sichtfeld zu bringen und dann feststellt, dass die Augen darauf mangels Informationen nicht scharf stellen können.

Oculus hatte dazu vor einigen Jahren (!) bevor das race to the bottom begann einen Prototypen gezeigt, der varifocalen Fokus durch das Stacking mehre Displays ermöglichte.

Lightfield Technologie wird sowohl bei Capture als auch beim Display in den nächsten Jahren immer interessanter werden, ist aber a) noch extrem weit weg von der technischen Machbarkeit und b) bei weitem nicht die einzige Lösung für varifocalen Fokus.

Als absolut nächster Schritt muss jetzt sowieso erst einmal zuverlässiges und günstiges Eye-tracking kommen um VRSS und DFR sinnvoll nutzen zu können. Es macht schlichtweg keinen Sinn 100% der Fläche extrem hochauflösender Panels berechnen zu müssen, wenn der vom menschlichen Auge maximal aufgelöste Fokusbereich signifikant kleiner als das technische FOV ist. Nur dann ist ungleich zu z.B. herkömmlichen Monitoren eine Entkoppelung der benötigten GPU Rechenleistung und Entwicklung maximaler Panel Auflösungen erreichbar.
 

yingtao

Software-Overclocker(in)
Ich kann mir vorstellen, dass solche Überschriften und Vorschaubilder unwissende Einsteiger eher abschrecken als sie in VR zu locken. Kein Wunder, dass man die Vorurteile nie los wird, wenn man so etwas liest und sieht.

Ein riesieger Klotz vor dem Kopf, miserable Auflösung, Sichtfeld des Grauens und angeblich soll das mehr "Probleme" lösen als es verursacht. Also ich finde VR in seiner aktuellen Form absolut zufriedenstellend und ich vermisse hier keine neuartige Displaytechnik. Forschung ist natürlich immer gut, aber so wie sich das liest, wird das entweder bald eingestampft oder es dauert noch 10 Jahre bis das wirklich mal für Consumer umgesetzt wird.

...

Vor ich meine ca. 10 Jahren hatte Nvidia mal einen ersten Prototypen eine Lightfield Displays gezeigt. Der Vorteil ist das man über die Augen das Bild scharf stellt. Bei aktuellen VR Brillen ist immer nur die Mitte des Displays im Fokus und man muss sein Sichtfeld drehen um einen anderen Bereich scharf zu stellen. Beim Lightfield Display kann man wie in der Realität mit seinen Augen entscheiden welchen Bereich man im Fokus haben will. Es gibt zwar ähnliche Ansätze mit Eyetracking, nur wird dort in 2 Dimensionen der Fokus verschoben, also von der Mitte zum Rand usw. und nicht in der Tiefe, also ob der Vordergrund oder Hintergrund im Fokus sein soll.

Bis das wirklich Marktreif für Konsumenten ist dauert es sicherlich noch 10 Jahre oder mehr, aber es ist schon beeindrucken wie weit die Technik in den letzten Jahren gekommen ist. Der Prototyp von Nvidia hatte damals eine Auflösung irgendwo um die 320x320 Pixel gehabt und der aktuelle Prototyp ist schon bei 1000x1000 Pixel.
 

tsuska

Schraubenverwechsler(in)
Das ist im Artikel unklar. Der Gesamt-FoV beträgt 100 °. Die 30 ° gelten nur für das hochauflösende Lichtfeld. Es ist so etwas wie Varjo bei Steroiden. In der Tat beträgt sogar der AR der CREAL 55 °. Sie finden die in Patenten veröffentlichte und beispielsweise auf lightfield-forum.com analysierte Funktion. Ich hoffe das macht den Fortschritt etwas positiver :-). (google translate) Tomas von CREAL
 

PCGH_Torsten

Redaktion
Teammitglied
So ganz richtig ist der Artikel ja nicht. Der Vergence/Accomodation Konflikt betrifft nicht 'manche Nutzer', sondern schlichtweg jeden der versucht, Objekte sehr nah vor das eigene Sichtfeld zu bringen und dann feststellt, dass die Augen darauf mangels Informationen nicht scharf stellen können.

Oculus hatte dazu vor einigen Jahren (!) bevor das race to the bottom begann einen Prototypen gezeigt, der varifocalen Fokus durch das Stacking mehre Displays ermöglichte.

Lightfield Technologie wird sowohl bei Capture als auch beim Display in den nächsten Jahren immer interessanter werden, ist aber a) noch extrem weit weg von der technischen Machbarkeit und b) bei weitem nicht die einzige Lösung für varifocalen Fokus.

Als absolut nächster Schritt muss jetzt sowieso erst einmal zuverlässiges und günstiges Eye-tracking kommen um VRSS und DFR sinnvoll nutzen zu können. Es macht schlichtweg keinen Sinn 100% der Fläche extrem hochauflösender Panels berechnen zu müssen, wenn der vom menschlichen Auge maximal aufgelöste Fokusbereich signifikant kleiner als das technische FOV ist. Nur dann ist ungleich zu z.B. herkömmlichen Monitoren eine Entkoppelung der benötigten GPU Rechenleistung und Entwicklung maximaler Panel Auflösungen erreichbar.

Variable Foveated Rendering scheitert derzeit nicht am Eye Tracking. Das ist verglichen zum Rest günstig und auch halbwegs zuverlässig möglich. Das größte Problem wäre noch, auf so kurze Entfernung das Blickziel ohne Kalibrierung nach jedem Aufsetzen zu ermitteln. Aber uns fehlt eben gerade die Ausgabeauflösung, um überhaupt eine Steigerung der Bildqualität auf diesem Wege zu erreichen. Was nützt einem Eye Tracking, wenn man die hohe Pixeldichte nur durch Einspiegelung eines zweiten Displays im Zentrum erreicht, also an keiner anderen Stelle ausgeben kann? Zudem müsste man, um einer Saccade folgen zu können, auch die Framerate deutlich steigern. Foveated Rendering zahlt sich also erst ab einer gewissen Auflösung überhaupt aus – wenn man nur 75 Prozent Rechenleistung pro Bild einsparen kann, aber viermal mehr Bilder pro Sekunde liefern muss, lohnt sich der Aufwand nicht.

Stacking mehrerer Displays (naja – zwei) nutzt übrigens Magic Leap. Die Wirkung ist ... nicht wirklich beeindruckend. Um auf diese Wege Tiefenwahrnehmung durch Accomodation zu erreichen, bräuchte man hunderte Displayebenen, damit man im Prinzip Voxel statt Pixel ausgeben kann. Das halte ich nur als Brückentechnologie für relevant.


Vor ich meine ca. 10 Jahren hatte Nvidia mal einen ersten Prototypen eine Lightfield Displays gezeigt. Der Vorteil ist das man über die Augen das Bild scharf stellt. Bei aktuellen VR Brillen ist immer nur die Mitte des Displays im Fokus und man muss sein Sichtfeld drehen um einen anderen Bereich scharf zu stellen. Beim Lightfield Display kann man wie in der Realität mit seinen Augen entscheiden welchen Bereich man im Fokus haben will. Es gibt zwar ähnliche Ansätze mit Eyetracking, nur wird dort in 2 Dimensionen der Fokus verschoben, also von der Mitte zum Rand usw. und nicht in der Tiefe, also ob der Vordergrund oder Hintergrund im Fokus sein soll.

Bis das wirklich Marktreif für Konsumenten ist dauert es sicherlich noch 10 Jahre oder mehr, aber es ist schon beeindrucken wie weit die Technik in den letzten Jahren gekommen ist. Der Prototyp von Nvidia hatte damals eine Auflösung irgendwo um die 320x320 Pixel gehabt und der aktuelle Prototyp ist schon bei 1000x1000 Pixel.

Die Rand-Unschärfe vieler Headsets ist eine Schwäche des Linsensystems und hat nichts mit Akomodation zu tun. Aktuelle VR-Brillen bieten physisch eine festgelegte Tiefenschärfe (bei der Vive gefühlt 3-5 m, bei der Rift näher Richtung unendlich) und innerhalb dieser eine unbegrenzte virtuelle Tiefenschärfe. Das heißt mit dem Auge auf reale 4 m fokussiert kann man alle virtuellen Objekte unabhängig von der logischen Entfernung scharf sehen – oder eben gar keins, wenn man abseits des Sweet Spots der Optik das Display allgemein nur unscharf sieht. Displays, die echte Lichtfelder erzeugen können, stellen dagegen jedes Objekt physisch in der Entfernung scharf dar, die logisch angemessen wäre. Wenn man mit in auf 4 m Entfernung fokussierten Augen in so ein Display guckt, dann ist auch ein geradeaus, 30 cm vor der eigenen Nase befindliches Objekt unscharf. Aber es kann nur durch Akomodation im Auge scharf gestellt werden, ohne dass sich der Displayinhalt ändert.
Nvidias SIGGRAPH 2013 Demo hatte übrigens ein HD-Display, die effektive Auflösung in der Widergabe betrug aber nur 146 x 78, weil ein Lichtfeld eben pro wahrnehmbaren Bildpunkt eine ganze Menge regulierbarer Lichtquellen braucht. Ich glaube heute gibt es 2K-OLEDs in vergleichbarer Größe, man könnte also mit vergleichbarer Optik 438 × 234 effektive Pixel erreichen, sofern man die Tiefenauflösung nicht ebenfalls erhöht, was aber sinnvoll wäre. Wenn uns kein besseres Prinzip einfällt, haben wir Ende des Jahrzehnts vielleicht VGA-Niveau erreicht. :-)
 
Zuletzt bearbeitet:

twack3r

Software-Overclocker(in)
Variable Foveated Rendering scheitert derzeit nicht am Eye Tracking. Das ist verglichen zum recht günstig und auch halbwegs zuverlässig möglich. Das größte Problem wäre noch, auf so kurze Entfernung das Blickziel ohne Kalibrierung nach jedem Aufsetzen zu ermitteln. Aber uns fehlt eben gerade die Ausgabeauflösung, um überhaupt eine Steigerung der Bildqualität auf diesem Wege zu erreichen. Was nützt einem Eye Tracking, wenn man die hohe Pixeldichte nur durch Einspiegelung eines zweiten Displays im Zentrum erreicht, also an keiner anderen Stelle ausgeben kann? Zudem müsste man, um einer Saccade folgen zu können, auch die Framerate deutlich steigern. Foveated Rendering zahlt sich also erst ab einer gewissen Auflösung überhaupt aus – wenn man nur 75 Prozent Rechenleistung pro Bild einsparen kann, aber viermal mehr Bilder pro Sekunde liefern muss, lohnt sich der Aufwand nicht.
Bis auf Tobii, die wirklich unverhältnismäßig teuer sind, habe ich noch keine third-party Eye Tracking Lösung gesehen, die sowohl auf hw- als auch auf sw-Seite überzeugt. Die Kalibrierung zum Start und und die prediction der nächsten eye pose nach Sakkaden-Wechel oder Liedschlag ist afaik kein Thema mehr und ist als gelöst zu betrachten.

Bei der mangelnden Ausgabeauflösung bin ich nicht ganz bei Dir. Mit Sicherheit stehen Auflösung, Bildwiederholrate und vor allem FOV und qua Linsentechnik vor allem nicht durch ebendiese geminderter FOV dabei im Vordergrund. XTal und StarVR sind in der Lage mit proprietärem Eye tracking, sowie proprietären Linsen und Panels ein sehr hohes (160-220 Grad), verzerrungsfreies FOV durch dynamische Anpassung der geometrischen Projektion zu erreichen; FOV ist damit gelöst. Meine 8KX hat zwei 4K Displays die technisch mit je 120hz laufen können, durch die Anbindung über DP1.4 unter Zuhilfenahme von DSC aber nur mit 75hz 'gefüttert' werden können. Da auch diese Brille, richtig kalibriert, ein sehr hohes, klares FOV mit sehr hoher PPD anbieten kann, wäre sie ein Paradebeispiel dafür, wie DFR und im Zweifel VRSS bei gleichbleibendem Compute-Budget in Verbindung mit hochwertigem eye-tracking eine signifikante Erhöhung der Bildqualität sowie unter Umständen auch erhöhte Bildwederholrate möglich machen könnten. Bei geringerem FOV und anderweitig gleichbleibenden Parametern wäre die value proposition durch DFR deutlich unattraktiver, wenn nicht gänzlich uninteressant.

Ein ideales Beispiel dafür ist die Reverb G2, die nach PPD sogar leicht vor der 8KX rangiert, mangels (sehr) kleinem FOV jedoch deutlich weniger von dynamischer Auflösungsanpassung profitieren würde.
 

PCGH_Torsten

Redaktion
Teammitglied
Ich weiß nicht, was die professionellen Lösungen von Tobii kosten, aber den Gaming-Ableger gibt es für 230 Euro. Das ist, verglichen mit Pimax + Knuckles + Lighthouse 2 + 3090, nun wirklich kein großer Aufpreis mehr. Eine integrierte Form sollte sich eigentlich deutlich günstiger umsetzen lassen, da sie nur einen kleinen Bereich unter kontrollierten Bedingungen erfassen muss.

Bezüglich der Auflösung und Bildwiederholrate gehst du in die richtige Richtung, aber meiner Meinung nach reicht das aus Sicht eines Spielers noch nicht. Bei den 1st Gen Headsets war die Bildqualität noch so mies, dass sie im Zentrum selbst bei bewusster Konzentration auf anderes stören könnte und weitere Absenkungen auch abseits des Fokuspunktes negativ aufgefallen wären. Mittlerweile haben wir eine ausreichend hohe Auflösung erreicht, dass es im Zentrum gerade so reicht um nicht unbewusst zu stören und wir könnten am Rand ein bisschen (!) einsparen, ohne dass es sofort wahrnehmbar wäre. Das gilt aber nur solange, wie man auf einem Punkt guckt und das machen Spieler (im Gegensatz zu zum Beispiel Architekten) eher selten.

Somit kann man nur die Bereiche vereinfacht rendern, die für das Auge innerhalb der Zeit unerreichbar sind, die das System braucht um eine Augenbewegung zu erkennen, ihren Zielpunkt vorherzusagen (das ist naturgemäß wohl erst nach der Hälfte der Bewegung gut abschätzbar), dieses veränderte Bild rendern zu lassen, an das Headset zu übertragen und beim nächsten Sync auszugeben. Da das Auge bereits während der Bewegung nach fokussiert und Fokussierungsversuche auf unscharfe Bilder die Augen sehr belasten, müsste man eigentlich sogar eine mehrfache Anpassung während der Bewegung anstrebeben.

Heutige Headsets sind aber nur dazu ausgelegt, vergleichbares für eine Kopfbewegung zu leisten, die vielfach langsamer als eine Augenbewegung ist. Das heißt einen von Frame zu Frame für das Auge nicht erreichbaren Bereich gibt es bei Index oder Reverb gar nicht. Und bei den Ultra-Wide-FOV-Headsets nur deswegen, weil wir den Randbereich normalerweise nie aktiv fokussieren, sondern lieber den Kopf drehen – aber dafür braucht man kein dynamisches foveated rendering, da reicht statisches. Für dvr würde ich mal schätzen, dass der ganze Anpassungsporzess maximal 10 ms dauern dürfte und davon vielleicht 5 ms für das Rendering blieben. Das heißt die Einstiegshürde liegt bei 200 Fps auf der CPU, 200 Fps auf der GPU, 200 Hz bei der Übertragung an das Display und 200 Hz bei 5 ms Reaktionszeit im Display. Die CPU schafft das vermutlich knapp, wenn der Spielinhalt nicht zu komplex ist, die GPU nur bei stark reduzierter durchschnittlicher Qualität, womit trotz dfr keine Reserven für Bildverbesserungen drin wären und die Ausgabegeräte erfüllen diese Anforderungen überhaupt noch nicht.

Zur Lösung von letzterem fehlt nur ein vernünftiger Controller, der HDMI2.1 mit OLED kombiniert – vielleicht sehen wir das in der nächsten Generation, wenn sich vfr anbietet, aber im Moment geht der Trend eher in eine andere Richtung. Aber im Bereich GPU sehe ich den break even erst erreicht, wenn wir Richtung 4K je Auge gehen. Erst wenn man in diesen Leistungsregionen ist, kann man durch eine Qualitätsabsenkung (auf heutiges Niveau) auch so viel Leistung einsparen, dass trotz gestiegener Fps-Anforderung durch dfr unterm Strich noch ein Netto-Vorteil bleibt, den man zum Beispiel in hübscheren Content investieren kann.
 
Zuletzt bearbeitet:
Oben Unten