眼部控制并不是一项“新技术”,在VR交互中已经崭露头角。眼部控制在VR交互中发挥的作用就像PC与鼠标的关系,可以帮助用户进行选择、切换等操作。想要体验眼部控制,用户首先需要拥有Tobii的眼部追踪器4C(据悉未来还将支持Tobii旗下的Dynavox PCEye Mini, PCEyePlus, EyeMobile Plus以及I系列产品)。然后下载和更新Tobii的Core眼球追踪热点修复补丁2.10.11.6458,并进行偏好设置。全新的Tobii Eye Tracker HIDClass驱动可以通过Windows Update方式找到,并且会自动安装。完成驱动安装后,确保Tobii眼球追踪器和PC保持连接,然后在设置 > Ease of Access > Other Options > Eye control中开启眼球追踪功能。完成所有准备工作后就可以体验眼部控制了。屏幕上会显示“控制面板”,便于用户进行模式切换:鼠标、键盘、语音播报以及复位等。 通过目前的演示来看,眼部控制的交互还是与层级性,毕竟要考虑到鼠标左右键等诸多功能。在用户通过眼部控制选择一个应用后,界面会弹出一个“二级选择菜单”,包括移动、左/右键、双击等。而这并不是只存在于科幻电影当中的情节,例如,利用眼睛盯着桌面上 Chrome 的图标就能打开浏览器;盯着屏幕键盘就能代替键盘打字。
它主要是通过设备发出红外光来确定用户眼睛的位置,然后利用两个传感器拍摄每秒 30 帧的图像,由于整个过程会捕捉到用户的视网膜和角膜,所以系统通过这些数据可以构建用户眼睛的实时 3D 模型,并通过三维空间跟踪眼球的焦点,最终实现了眼球控制。
目前在微软只是将这个花哨的操控方式定位为一个辅助功能,旨在帮助那些患有神经肌肉疾病的用户(比如渐冻症患者或其它残疾人),在没办法使用鼠标和键盘的情况下,通过眼睛来使用电脑。尽管目前我们不知道这种眼球控制技术会不会得到广泛的应用,但从现阶段 Tobii 在游戏、VR 等方面的布局来看,他们要做的似乎并非只是让更多的残疾人能用上电脑,而是希望利用眼球控制打造一种更直接、更自然的交互方式。
微软的眼球控制看上去还是很酷的,但真正要玩起来,恐怕还有很长一段路要走,除了微软自己阵营的应用外,第三方工具和游戏的支持才是其能否推广的关键。