首页|行业资讯|企业名录|周边产品|数字城市|增强现实|工业仿真|解决方案|虚拟医疗|行业仿真|图形处理|军事战场
资讯首页
行业资讯 >> 专业文献>>正文
眼动交互的实时线性算法构造和实现
2014年12月30日    评论:    分享:
    来源:第三维度
    作者:程成, 杜菁菁, 蓝飞翔
    单位:北京理工大学计算机科学技术学院
          智能信息技术北京市重点实验室

    摘要: 眼动跟踪技术作为一种新兴的交互手段, 具有自然、高效和易于意图理解等优点. 我们设计实现了一个桌面眼动跟踪系统作为虚拟装配系统的一个通道, 通过摄像机实时采集视频并经过实时的图像处理判断用户对虚拟环境中对象的注视焦点. 系统利用了瞳孔-角膜反射向量法理论, 设计和实现了一个高效的实时眼动跟踪算法, 即线性逼近预测算法. 实验证明这一方法很好的解决了眼动通道的实时性问题。

    1 引言

    Dalhousie 大学的 Ritchie Argue 等人在 2004 年利用基于广泛使用的瞳孔-角膜反射向量法, 并采用普通设备设计了一个眼动跟踪系统, 只是仅计算了注视点位置,没有讨论实时眼动问题。

    现今的眼动跟踪技术正在将图像处理技术和各种实时技术相结合来解决实时的难题. Nevada 大学的 Zhiwei Zhu 在进行实时图像处理时采用椭圆拟合算法然后再利用几何特征进行排除并用支持向量机来进行瞳孔确认, 这一复杂过程使得准确度得到保证但实时性大减;德国的 Frank Wallhoff 等人,利用人工神经网络建立了瞳孔识别模型用于实时图像处理, 但他们的复杂和不稳定的实时眼部检测算法对系统的鲁棒性造成了很大的影响,带来了大量数据处理和噪声干扰等问题. 同时, NTT 公司实验室实现了一个眼动系统, 由视线跟踪和眼睛定位系统组成, 由两台计算机分别进行计算。

    这在很大程度上缓解了实时处理操作. 视线跟踪系统如果能够采用实时预测的优化就会更加高效. 常用的预测运动目标位置的方法有线性预测法、统计预测法 和卡尔曼滤波器预测。

    西北工业大学的郑江滨等人提出了利用扩展的 Kalman 滤波器和目标加速度位移方程[8] 来预测下一时刻目标位置, 收到了良好效果. 但对于眼动这一搜索范围小、实时性与精度要求高的特殊系统, 这些方法并不适合, 我们提出了一种改进的实时线性预测算法。

    2 基本原理和系统设计

    本系统利用瞳孔-角膜反射向量法来实现瞳孔位置到屏幕注视点的映射. 首先, 通过提取出眼球图像内的瞳孔及角膜对红外光的反光点位置. 接着, 根据观察者头部位置对映射函数进行标定. 最后, 把瞳孔-反光点向量代入映射函数求出注视点位置. 系统设计模块主要包括照明系统和摄像系统. 照明系统选择 850 纳米的红外光源照射人的眼睛, 来达到检测瞳孔的目的. 摄像系统我们选用松下 NV-GS158GK 作为实验用摄像机. 整个光电路部分由红外滤光片、红外光源、监视器、摄像机和一些调节机构组成. 眼动捕捉中的光路如图1所示; 

图1 眼动捕捉中的光路

    图 2是由上述硬件设备组成的眼动跟踪原型系统。


图2 眼动跟踪原型系统

    系统实现原理如图3 所示. 视频捕捉负责从摄像机中读取视频信息并按系统设定间隔抓取一帧图像, 实时算法从实时图像中计算出瞳孔-反光点向量, 通过系统标定针对头部位置进行映射函数参数的标定, 通过匹配在屏幕中反映出观察者注视点位置。


图3 眼动跟踪系统实现原理

    3 眼动实时图像处理算法

    本文提出了一种基于线性预测的快速眼动检测与跟踪的实时算法. 它利用线性预测的目标运动估计算法,根据前若干帧中所获取的目标点位置来预测当前帧中的目标点位置, 这样可以充分利用前面图像处理的结果, 减少处理数据量, 缩短处理的时间, 且能够在一定程度上减少场景中其它物体对跟踪的影响在眼动跟踪系统中, 我们每从视频中抓取一张视频图像就会调用一次实时算法, 因此, 跟踪的结果准确性与实时性是由这一关键算法决定的. 在本设计中, 采用最佳线性逼近预测算法来估计下一帧图像中瞳孔出现的位置, 并以这个位置为中心确定一个搜索范围, 在这个范围内采用瞳孔-反光点的检测算法来检测瞳孔中心位置。

    设原函数f ( t) 在N 个顺序时刻的测量值 f ( ti) ( i= 1, 2, 3, , N) , 且 f ( t) 可以用:



    作为最佳线性逼近,上式可写为:



    测量值与逼近值之间的误差为:



    对 N 点估计的误差平方和为:



    最佳逼近即是使上式取最小值. 经最小二乘法计算后可得:


    其中: 

    由以上线性逼近可以很方便地得到预测器表达式. 如用三阶预测器, 即用过去三帧的位置去预测下一帧的位置问题. 按上述表示方法有 t1= 1, t2= 2, t 3= 3及 f ( t1) = f ( k- 2) , f ( t2)= f ( k- 1) , f ( t3) = f ( k ) . 对于k+ 1 帧而言, 相当于 t= 4 的情况, 故求取 k+ 1 帧的位置为:



    将上述 t 1~ t 3 及 f ( t 1) ~ f ( t 3) 的值代入式( 5) 可求得 a0, a1 的值, 代入式( 6) 可求得:

 
    
    其中 f ( k) 、f ( k- 1) 、f ( k- 2) 为第 k+ 1 帧, 即当前帧的前三帧瞳孔中心坐标实际测量值, f ( k+ 1) 为当前帧的坐标预测值. 这样, 可以利用前三帧获取的瞳孔中心位置信息来估计下一帧, 即当前帧的瞳孔中心坐标。

    系统中利用红外光的照射, 使得虹膜与瞳孔的边缘处像素的灰度值差异较明显, 然后利用基于高斯、金字塔分解的数字图像滤波算法对图像进行去噪处理,最后通过检测瞳孔的轮廓, 使用椭圆拟合算法获取瞳孔中心. 根据所获取的瞳孔中心, 在一个限定范围的区域内提取出值最大的像素块, 该像素块的平均坐标即作为角膜反光点的坐标。

    图 4 所示为利用算法检测到的瞳孔中心和角膜反光点坐标, 图 4 显示的是线性逼近预测算法在检测到瞳孔后, 预测的反光点检测范围。


图 4                            图 5


    根据以上实时算法的两个过程, 我们改进和实现了一个完整的实时算法, 具体算法流程为( 假设搜索范
围为: Pk + 1= K, K 是常数) :

    (1) 从视频序列中抓取当前帧的一张瞳孔图像, 然后根据之前三帧图像中获取的瞳孔中心位置信息, 利用式( 7) , 估算出当前帧中瞳孔中心位置范围; 若之前不够三帧图像 就以设定好的参数值来作为已获取的瞳孔中心位置信息;

    (2) 由公式得出当前帧估算的瞳孔位置信息, 即确定搜索范围f ( k+ 1) + Pk+ 1;

    (3) 在这一范围内检测瞳孔, 成功则进入( 4) , 否则将这一范围扩大 K 继续搜索, 成功则进入( 4) , 否则提示查找失败, 放弃当前帧的检测, 转( 1) ;

    (4) 获取当前帧中瞳孔中心位置 Pk+ 1;

    (5) 在搜索范围 Pk+ 1+ M( M 为搜寻反光点时确定的范围) 内提取反光点 Gk+ 1, 成功则完成这一帧图像的瞳孔、反光点检测, 转( 1) ; 否则将范围扩大 M 继续搜索,成功转( 1) , 否则, 放弃当前帧图像开始下一帧图像的实时算法检测。

    实验表明, 该算法减少了需要处理的图像区域面积, 计算量相比处理整幅人眼图像来说要少得多, 能够满足系统的实时性的要求, 且在一定程度上又能排除其他干扰物对眼动跟踪的影响, 从而保证匹配的可靠性。

    4 眼动系统实验和结论

    本设计使用的显示屏是 17 英寸液晶显示屏, 摄像机置于屏幕的正下方, 红外发光仪置于显示器的正上方,这样正好可以照射人脸. 同时, 本设计使用的计算机配置为 Intel 的奔腾 4, CPU 频率为 3. 0GHz, 512MB 内存. 摄像机的视频分辨率为 720* 576 像素, 帧率 15Hz.由于映射函数的参数对于系统的精度具有很大的影响, 因此需要验证系统标定过程中标定点个数对于系统精度的影响. 因此, 本实验分别设计了多种样式的标定点, 包括 4 个、5 个、9 个以及 13 个. 其形状和位置如下表:

表1 标定点位置和数目表


    实验中在屏幕上按上表 1 标记 9 个点. 用户眼睛依次从左上角第 1 个点开始盯视每个点 1~ 3 秒钟, 直至第 9 个点为止. 然后, 根据这 9 个点的坐标值, 计算出映射函数的参数, 进而可以根据人眼瞳孔-角膜反光点向量计算出人眼注视点的位置.系统跟踪结果显示如图7所示。


图7 系统跟踪结果显示

    图7 中, 9 个圆点是系统的标定点, 9 个菱形标识系统对它们的匹配结果; 4 个小方格是预先在屏幕上标注了的点, 4 个小叉是对它们的匹配结果. 可以看出, 对 9 个标定点的匹配结果较之中间 4 个点更为精确. 对于这样的结果可以解释为: 当人的眼睛盯视屏幕中央时, 瞳孔中心的位置和角膜反光点的位置十分接近. 事实上, 在用户注视中间这 4 个点时, 瞳孔中心和角膜反光点的位置相差不到 5 个像素, 因此, 即使是一个较小的计算误差也会导致相当大的匹配误差。

    在不同视频频率条件下, 作者设计了两个不同的测试过程, 来评测眼动跟踪系统精度所受到的影响. 让实验者在进行完系统标定过程后, 坐在原来的位置不动, 再对他进行眼动跟踪, 记录下该实验者对屏幕上以4  4 格式标注的点进行跟踪的结果数据. 它们的平均精度如表2 所示:

表 2 平均精度实验结果表


    图像处理过程中会出现两种情况: 一是利用实时图像处理算法成功获取人眼图像的感兴趣区域( ROI) ,那么只需要对这一区域进行图像处理, 从而大大减少了图像处理的数据; 另一个是获取 ROI 失败的情况, 例如, 用户在眨眼的情况下, 则需要对整幅图片进行处理来获取瞳孔. 实验结果如下表 3 所示:

表3 成功或失败获取感兴趣区域情况下图像处理所用时间


    从表 3 可以看出, 对于成功获取 ROI 的一帧图片来说, 即线性预测算法成功时, 处理时间比不使用该预测算法少了很多. 在分辨率高的情况下, 处理时间的增幅要比在分辨率低的情况下要大. 该算法成功的发挥了作用, 并且预测范围的确定还降低了噪声的干扰.

    本系统采用瞳孔-角膜反射向量法, 获得眼睛的注视信息并显示在屏幕上. 在实时图像的处理上采用线性逼近眼动预测算法, 一定程度上减少了不必要的图像处理内容, 并且避免了一些噪声的干扰, 实现了一种可行高效的眼动跟踪方法. 目前系统在跟踪精度、头部运动等方面还需要解决若干实际问题. 同时, 我们正在把眼动加入现有的虚拟装配原型系统中进行实验, 在后面的装配中实现通过眼动获取用户意图, 实现包括眼动和双手的多通道虚拟环境装配系统。

    参考文献:

    [1] Ritchie Argue, Matthew Boardman, Jonathan Doyle, GlennHickey. Building a Low-Co st to Track Eye Movement [EB/OL] . http: / / serv1. ist. psu. edu: 8080/ viewdoc/summary?doi= 10. 1. 1. 92. 2962, 2004.

    [2] Zhiwei Zhu, Kikuo Fujimura, Qiang Ji. Rea-l time detection and tracking under various light conditions[J] . Computer Vision and Image Understanding , 2002, 98( 1) : 79- 85.

    [3] Frank Wallhoff, Markus Ablabmeier, Gerhard Rigo ll. Multimodal face detection, head orientation and eye gaze tracking [A] . International Conference on Multisensor Fusion and Integration for Intelligent Systems[C ] . Heidelberg, Germany:2006. 13- 18.

    [4] Takehiko Ohno, Naoki Mukawa. A free- head, simple calibration,gaze tracking systemthat enables gaze- based interactio [A] . Proceedings of the 2004 Symposium on Eye Tracking Research & Applications[C] . San Antonio, Texas: ACM Press,2004. 115- 122.

    [5] Manjula A Iyer, Morgan M Harris, et al. A performance comparison of piecewise linear estimation methods[A] . Proceedings of the 2008 Spring Simulation Multiconference [C ] , Ottawa,Canada: ACM Press, 2008. 273- 278.

    [6] Boyd J E, Meloche J, et al. Statistical tracking in video traffic surveillance[A] . The Proceeding s of the 17th IEEE International Conference on Computer Vision [C ] . Kerkyra, Greece:IEEE, 1999. 163- 168.

    [7] Haritaoglu I, Harwood D, et al. Active outdo or surveillance [A] . Proceedings International Conference on Image Analysis and Processing [C] . NW Washington, DC USA: IEEE Computer So ciety , 1999. 1096.

    [8] 郑江滨等. 视频监视中的运动目标跟踪算法[J] . 系统工程与电子技术, 2007, 29( 11) : 1991- 1993.

    作者简介:

    程成 男,E-mail: guoguocheng@ vip. sina. com

    1966 年 11 月出生于辽宁营口. 2003 年博士毕业于中科院软件所, 现为北京理工大学计算机学院副教授. 从事人机交互技术研究.

    杜菁菁 男,  E-mail: tadalon@ 126. com

    1984 年 2 月出生于河南焦作.2007年硕士就读于北京理工大学计算机学院,现为北京理工大学计算机学院硕士研究生. 从事图像处理技术研究.

    蓝飞翔 男,E-mail: fxlan99@ gmail. com

    1984 年 9 月出生于江西高安.北京理工大学计算机学院硕士研究生. 从事图像处理技术研究.

标签:眼动
上一篇:[组图]Oculus Rift DK2版本拆解 可维修分9分
下一篇:3D头戴式显示器Glyph测评:电池续航能力是短板
网友评论:眼动交互的实时线性算法构造和实现
评论
留名: 验证码:
您可能还需要关注一下内容:
·眼动交互的实时线性算法构造和实现
·微软眼动控制键盘专利 谷歌眼镜的完美搭档
·SMI眼部跟踪系统开始支持 Oculus Rift
·神奇眼镜通过观测生理反应判断客户兴趣
·美推出zSpace平板电脑,支持3D立体和眼动作跟踪
·虚拟商城让VR与包装设计产业的完美融合
·眼动实验中的操作和数据统计
·眼动仪与视线跟踪技术综述
·最新虚拟商城系统 可捕捉分析用户习惯
·I4Control瞳孔追踪眼控系统
☏ 推荐产品

Ladybug5全景
商家:力方国际

ProJet®
商家:力方国际

ProJet®
商家:视科创新

Premium1.5
商家:视科创新

巴可HDX主动立体投
商家:德浩科视

巴可HDF-W26投
商家:德浩科视

巴可30000流明2
商家:德浩科视

巴可4万流明2K投影
商家:德浩科视
☞ 外设导航
☏ 企业名录
【广州】中科院广州电子技术有限公司
【北京】第二空间(北京)科技有限公司
【北京】幻维世界(北京)网络科技有限公司
【厦门】厦门惠拓动漫科技有限公司
【厦门】厦门幻眼信息科技有限公司
【深圳】深圳南方百捷文化传播有限公司
【北京】北京思源科安信息技术有限公司
【上海】上海殊未信息科技有限公司
【北京】北京赢康科技开发有限公司
【武汉】武汉科码软件有限公司
友情链接 关于本站 咨询策划 行业推广 广告服务 免责声明 网站建设 联系我们 融资计划
北京第三维度科技有限公司 版权所有 京ICP备09001338
2008-2016 Beijing The third dimension Inc. All Rights Reserved.
Tel:010-57255801 Mob:13371637112(24小时)
Email:d3dweb@163.com  QQ:496466882
扫一扫 第三维度
官方微信号