发明名称 基于运动相关性的瞳孔位置滤波方法
摘要 一种基于运动相关性的瞳孔位置滤波方法,包括人脸检测部分,人眼检测部分以及瞳孔位置检测部分三个流程;其中人脸检测部分包括(1)采集每帧视频图像并提取候选区域;(2)基于候选区域的人脸检测;人眼检测位置检测:在检测出人脸的区域内,进行人眼检测;随后进行瞳孔位置检测;瞳孔位置检测部分包括(1)基于模板匹配的宏块跟踪;(2)基于候选区域的瞳孔检测;(3)基于运动相关性的瞳孔位置滤波;将基于模板匹配的运动估计和瞳孔定位算法相结合,实时计算两组数据的相关性,当两者相关性较好时,瞳孔检测准确,将其值作为输出值输出。以得到当前的瞳孔检测准确值作为输出值输出。可有效地克服随机干扰,提高系统的准确性和鲁棒性。
申请公布号 CN103810472B 申请公布日期 2017.02.08
申请号 CN201310627291.2 申请日期 2013.11.29
申请人 南京大学 发明人 王元庆;张羽
分类号 G06K9/00(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 南京瑞弘专利商标事务所(普通合伙) 32249 代理人 陈建和
主权项 一种基于运动相关性的瞳孔位置滤波方法,其特征在于,包括人脸检测部分,人眼检测部分以及瞳孔位置检测部分三个流程;其中人脸检测部分包括(1)采集每帧视频图像并提取候选区域;(2)基于候选区域的人脸检测;人眼检测位置检测:在检测出人脸的区域内,进行人眼检测;随后进行瞳孔位置检测;瞳孔位置检测部分包括1)基于模板匹配的宏块跟踪;2)基于候选区域的瞳孔检测;3)基于运动相关性的瞳孔位置滤波;将基于模板匹配的运动估计和位置定位算法相结合,实时计算两组数据的相关性;用当前帧模板匹配值的横、纵坐标减去上一帧模板匹配值的横、纵坐标,得到当前帧与上一帧之间的运动偏移量,用该偏移量与上一帧准确检测的瞳孔坐标相加,得到当前的瞳孔检测准确值作为输出值输出;1)基于模板匹配的宏块跟踪:在已经检测出人脸的范围内,选择一定区域作为模板匹配的初始化区域,将此时的模板中心位置存入内存中,在后续的每一帧人脸区域中,利用一定的搜索策略,寻找与初始化模板匹配程度最高的区域,并将区域的中心位置存入内存,以得到模板匹配值序列;2)基于候选区域的瞳孔检测:在已经检测出人眼的区域内进行瞳孔检测,并将每帧视频中检测出的人眼瞳孔位置坐标放入相应的内存区域中,以得到瞳孔检测值序列;3)基于运动相关性的瞳孔位置滤波:3‑1)对于已经存入内存区的模板匹配值序列和瞳孔检测值序列,对于每帧数据,考查两者之间的相关性是否变差,相关性变差的判定方法如下:(x‑u)<sup>2</sup>+(y‑v)<sup>2</sup>>γ   (1)其中:x、y是当前瞳孔检测值的横、纵坐标,u、v是当前模板匹配值的横、纵坐标,γ是阈值;上式表示,如果与当前瞳孔检测值与模板匹配值坐标位置相关的距离函数小于阈值,则认为此时瞳孔检测准确,并将瞳孔检测值作为最终的输出值输出;如果与当前的瞳孔检测值与模板匹配值坐标位置相关的距离函数大于阈值,则认为两者相关性降低,此时瞳孔检测受到干扰,检测不准;3‑2)如果出现相关性降低,瞳孔检测受到干扰,需要进行下面的滤波处理,其滤波方法如下:<maths num="0001"><math><![CDATA[<mrow><mtable><mtr><mtd><mrow><msub><mi>x</mi><mi>t</mi></msub><mo>=</mo><msub><mi>x</mi><mrow><mi>t</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>+</mo><msub><mi>u</mi><mi>t</mi></msub><mo>-</mo><msub><mi>u</mi><mrow><mi>t</mi><mo>-</mo><mn>1</mn></mrow></msub></mrow></mtd></mtr><mtr><mtd><mrow><msub><mi>y</mi><mi>t</mi></msub><mo>=</mo><msub><mi>y</mi><mrow><mi>t</mi><mo>-</mo><mn>1</mn></mrow></msub><mo>+</mo><msub><mi>v</mi><mi>t</mi></msub><mo>-</mo><msub><mi>v</mi><mrow><mi>t</mi><mo>-</mo><mn>1</mn></mrow></msub></mrow></mtd></mtr></mtable><mo>.</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>2</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0001125998980000011.GIF" wi="1390" he="127" /></maths>其中:x<sub>t‑1</sub>、y<sub>t‑1</sub>是上一帧瞳孔检测值的横、纵坐标,u<sub>t</sub>‑u<sub>t‑1</sub>、v<sub>t</sub>‑v<sub>t‑1</sub>是当前帧模板匹配值的横、纵坐标减去上一帧模板匹配值的横、纵坐标,即当前帧与上一帧之间的运动偏移量,用该偏移量与上一帧准确检测的瞳孔坐标相加,得到当前的瞳孔检测准确值作为输出值输出。
地址 210093 江苏省南京市鼓楼区汉口路22号