发明名称 半侧空间忽略计算机辅助诊疗系统的左右视觉分界线定位方法
摘要 本发明属于计算机辅助认知康复领域,具体涉及一种半侧空间忽略计算机辅助诊疗系统的左右视觉分界线定位方法。本发明包括:预处理;人脸检测;边缘检测;内眼角定位;判定视觉分界线位置。与使用虚拟现实技术方法相比较,本发明借助普通摄像头就可集成到通用的计算机辅助系统中,无需额外设备,适合医院和家庭使用。与通过人工检测视觉分界线与屏幕对齐方法相比较,本发明能够自动、实时地定位被测者视觉分界线位置,给出方向提示,可以在测试过程中始终保持被测者视觉分界线处于合理范围内。本发明使用设备简单,算法实现容易,易于集成到现有系统中,也可用于其他需要定位被测者头部位置的场合,应用范围广泛。
申请公布号 CN104318265A 申请公布日期 2015.01.28
申请号 CN201410546127.3 申请日期 2014.10.16
申请人 哈尔滨工程大学 发明人 栾宽;李金;刘景隆;肖少清;孙小越
分类号 G06K9/66(2006.01)I;G06T7/00(2006.01)I 主分类号 G06K9/66(2006.01)I
代理机构 代理人
主权项 半侧空间忽略计算机辅助诊疗系统的左右视觉分界线定位方法,其特征在于:(1)预处理(1.1)读入一幅摄像头图像;(1.2)将彩色图像转换为灰度图像,各个像素的RGB三个分量通过计算对应的灰度值Gray=R*0.299+G*0.587+B*0.114(2)人脸检测(2.1)选择一个训练样本集来生成一个人脸检测器,训练样本集使用MITEx人脸数据库,从数据库的图片中提取出Haar特征,依据Adaboost算法从特征中筛选出有效的人脸特征,得到人脸检测器;(2.2)使用人脸检测器对步骤(1)中的图片进行检测:将一个20*20的窗口在图片上遍历,并且对每一个窗口中的图像进行特征检测以判断是否为人脸,将图片按比例缩小,对缩小后的图片重复遍历过程,直到图片缩放到了预先设定的大小后停止,将检测到的结果在原始图片中表示出来,结束整个人脸检测的过程;(3)边缘检测为提取内眼角,利用SUSAN算子先对人脸检测区域进行边缘分割,在步骤(2)中检测出的人脸区域内使用SUSAN算子检测图像中的边缘,选取半径r做成一个圆形模板,计算模板内中心像素(x<sub>c</sub>,y<sub>c</sub>)的灰度值I(x<sub>c</sub>,y<sub>c</sub>)和其它像素(x,y)的灰度值I(x,y)的差<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mi>c</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mi>if</mi><mo>|</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>-</mo><mi>I</mi><mrow><mo>(</mo><msub><mi>x</mi><mi>c</mi></msub><mo>,</mo><msub><mi>y</mi><mi>c</mi></msub><mo>)</mo></mrow><mo>&le;</mo><mi>t</mi><mo>|</mo></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>otherwise</mi></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>]]></math><img file="FDA0000587635140000011.GIF" wi="814" he="158" /></maths>如果差值小于预定阈值t,则像素(x,y)的结果值c(x,y)设为1,否则为0,圆形区域内所有结果值为1的像素点构成的区域称为USAN,当模板在图像中每个位置遍历,如果模板位于背景内部或目标内部,USAN的面积能达到最大值;如果模板位于目标边缘,USAN的面积近似为最大值的一半,即圆形模板内只有一半的点的灰度值与中心点灰度值相同,选取半径r和阈值t,将图像中USAN的面积为一半的点检索出来就得到该图像的所有边缘;(4)内眼角定位对步骤(3)得到的边缘图像进一步使用Harris算法进行角点检测,获得图像中内眼角的位置:生成一个矩形模板,使该模板在图像中遍历,然后通过模板在原图像的基础上生成一个2×2的结构矩阵M,<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><mi>M</mi><mo>=</mo><mi>G</mi><mrow><mo>(</mo><mi>&sigma;</mi><mo>)</mo></mrow><mo>&CircleTimes;</mo><mfenced open='[' close=']'><mtable><mtr><mtd><msubsup><mi>I</mi><mi>x</mi><mn>2</mn></msubsup></mtd><mtd><msub><mi>I</mi><mi>x</mi></msub><msub><mi>I</mi><mi>y</mi></msub></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>x</mi></msub><msub><mi>I</mi><mi>y</mi></msub></mtd><mtd><msubsup><mi>I</mi><mi>y</mi><mn>2</mn></msubsup></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0000587635140000012.GIF" wi="539" he="199" /></maths>其中I<sub>x</sub>指的是图像中2×2矩阵内像素点在X轴方向上的差分,I<sub>y</sub>指的是图像中2×2矩阵内像素点在Y轴方向上的差分<maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mi>G</mi><mrow><mo>(</mo><mi>&sigma;</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mrow><mn>2</mn><mi>&pi;</mi><msup><mi>&sigma;</mi><mn>2</mn></msup></mrow></mfrac><mi>exp</mi><mo>[</mo><mo>-</mo><mfrac><mrow><msup><mi>x</mi><mn>2</mn></msup><mo>+</mo><msup><mi>y</mi><mn>2</mn></msup></mrow><mrow><mn>2</mn><msup><mi>&sigma;</mi><mn>2</mn></msup></mrow></mfrac><mo>]</mo></mrow>]]></math><img file="FDA0000587635140000021.GIF" wi="608" he="162" /></maths>用I表示图像的像素红、黄、蓝三个分量,即I={R,G,B},对这个模板求矩阵的特征值,建立度量函数R,R=detM‑k(traceM)<sup>2</sup>其中detM为矩阵M的行列式,traceM为矩阵M的迹,得到了特征矩阵的R后,如果R值大于预定阈值th且为局部极大值,则检测到的点即为角点,被检测出的角点通常会有4个,即双眼内外眼角,而识别出的面部区域内,内眼角通常会位于图像中左右近似对称分布,且距离最短的两个角点位置;(5)判定视觉分界线位置将人脸图像的两内眼角间的中垂线作为视觉分界线中垂线将与图像的上下边缘相交,M1、M2两点间虚线表示图像中间线,M1<sub>L</sub>、M2<sub>L</sub>间虚线和M1<sub>R</sub>、M2<sub>R</sub>间虚线分别表示中间区域左右边界,如果内眼角中垂线的上下交点均位于该区域内,则认为当前的视觉分界线与屏幕中间对齐,其它情况被认为没有对齐。
地址 150001 黑龙江省哈尔滨市南岗区南通大街145号哈尔滨工程大学科技处知识产权办公室