Ist recht easy zu verstehen:
1. alle bisher eingesetzten optischen Systeme haben trade offs zwischen Größe des Sweetspots (der Bereich in dem alles klar erscheint), darstellbarem FOV, Herstellungskosten, Gewicht, Ergonomie und schließlich Aufwand der notwendigen geometrischen Korrektur. AUf Sicht werden die Sweetspots immer größer bis hin zu 100% klar im Ganzen FOV, dazu müssen aber auch Entwicklungen im Bereich der Panele stattfinden (curved, zylindrisch, irgendwann mal Lightfield mit adaptivem Fokus)
2. Auf Basis dieser Limitationen können manche engines schon jetzt auf unterstützen GPUs Mehrleistung generieren, in dem nur der Bereich des sweetspots mit voller (Engine-) Auflösung berechnet und danach Richtung Peripherie sukzessive immer gröber dargestellt wird (foveated rendering). Das klappt zusammen mit multi-res shading wirklich gut und liefert 'gratis' Leistung.
3. Wenn wir weitgehend klare Lensen haben und dazu sehr hoch aufgelöste Panels, werden Eye-Tracker unsere Pupillen filmen um festzustellen, auf welche Bereich wir fokussieren. Nur dieser wird dann 'full res' berechnet, wir merken aber nichts davon und bekommen 'volle Auflösung' zu einem Bruchteil der notwendigen Leistung wäre das gesamte Panel voll berechnet (eye-tracked foveated rendering)
4. Wenn die Technik dann irgendwann adaptive Membranlensen oder gar lightfields benutzt, dann kann diese Lösung nicht nur Mehrleitsung generieren, sondern durch Berechnung des Fokalpunkts auf Basis der Konvergenz unserer Pupillen auch adaptiven Fokus darstellen. Endstufe erreicht