Ich weiß nicht, was die professionellen Lösungen von Tobii kosten, aber den Gaming-Ableger gibt es für 230 Euro. Das ist, verglichen mit Pimax + Knuckles + Lighthouse 2 + 3090, nun wirklich kein großer Aufpreis mehr. Eine integrierte Form sollte sich eigentlich deutlich günstiger umsetzen lassen, da sie nur einen kleinen Bereich unter kontrollierten Bedingungen erfassen muss.
Bezüglich der Auflösung und Bildwiederholrate gehst du in die richtige Richtung, aber meiner Meinung nach reicht das aus Sicht eines Spielers noch nicht. Bei den 1st Gen Headsets war die Bildqualität noch so mies, dass sie im Zentrum selbst bei bewusster Konzentration auf anderes stören könnte und weitere Absenkungen auch abseits des Fokuspunktes negativ aufgefallen wären. Mittlerweile haben wir eine ausreichend hohe Auflösung erreicht, dass es im Zentrum gerade so reicht um nicht unbewusst zu stören und wir könnten am Rand ein bisschen (!) einsparen, ohne dass es sofort wahrnehmbar wäre. Das gilt aber nur solange, wie man auf einem Punkt guckt und das machen Spieler (im Gegensatz zu zum Beispiel Architekten) eher selten.
Somit kann man nur die Bereiche vereinfacht rendern, die für das Auge innerhalb der Zeit unerreichbar sind, die das System braucht um eine Augenbewegung zu erkennen, ihren Zielpunkt vorherzusagen (das ist naturgemäß wohl erst nach der Hälfte der Bewegung gut abschätzbar), dieses veränderte Bild rendern zu lassen, an das Headset zu übertragen und beim nächsten Sync auszugeben. Da das Auge bereits während der Bewegung nach fokussiert und Fokussierungsversuche auf unscharfe Bilder die Augen sehr belasten, müsste man eigentlich sogar eine mehrfache Anpassung während der Bewegung anstrebeben.
Heutige Headsets sind aber nur dazu ausgelegt, vergleichbares für eine Kopfbewegung zu leisten, die vielfach langsamer als eine Augenbewegung ist. Das heißt einen von Frame zu Frame für das Auge nicht erreichbaren Bereich gibt es bei Index oder Reverb gar nicht. Und bei den Ultra-Wide-FOV-Headsets nur deswegen, weil wir den Randbereich normalerweise nie aktiv fokussieren, sondern lieber den Kopf drehen – aber dafür braucht man kein dynamisches foveated rendering, da reicht statisches. Für dvr würde ich mal schätzen, dass der ganze Anpassungsporzess maximal 10 ms dauern dürfte und davon vielleicht 5 ms für das Rendering blieben. Das heißt die Einstiegshürde liegt bei 200 Fps auf der CPU, 200 Fps auf der GPU, 200 Hz bei der Übertragung an das Display und 200 Hz bei 5 ms Reaktionszeit im Display. Die CPU schafft das vermutlich knapp, wenn der Spielinhalt nicht zu komplex ist, die GPU nur bei stark reduzierter durchschnittlicher Qualität, womit trotz dfr keine Reserven für Bildverbesserungen drin wären und die Ausgabegeräte erfüllen diese Anforderungen überhaupt noch nicht.
Zur Lösung von letzterem fehlt nur ein vernünftiger Controller, der HDMI2.1 mit OLED kombiniert – vielleicht sehen wir das in der nächsten Generation, wenn sich vfr anbietet, aber im Moment geht der Trend eher in eine andere Richtung. Aber im Bereich GPU sehe ich den break even erst erreicht, wenn wir Richtung 4K je Auge gehen. Erst wenn man in diesen Leistungsregionen ist, kann man durch eine Qualitätsabsenkung (auf heutiges Niveau) auch so viel Leistung einsparen, dass trotz gestiegener Fps-Anforderung durch dfr unterm Strich noch ein Netto-Vorteil bleibt, den man zum Beispiel in hübscheren Content investieren kann.