发明名称 一种自动获取取款人面部立体信息的自动取款机成像方法
摘要 本发明提出一种适用于ATM自动取款机的、自动获取取款人面部立体信息的成像方法。本发明首先通过两维人脸图像的检测、获取图像的清晰度判别、再进一步通过配准和集成多幅人脸深度图进行三维人脸表面物理成像。其步骤包括:进行取款人两维图像获取;人脸图像清晰度判别;三维实时成像;去噪滤波、稀疏ICP配准、局部邻域的非线性饱和插值算法、获得三维人脸表面物理成像数据。采用本发明,只需要用户在ATM取款机前,即可快速实时生成所需的三维实时人脸物理表面数据,极大地降低以往用传统结构光扫描设备进行三维人脸建模的成本,避免了激光采集设备对眼睛的伤害和无法获得人眼等重要信息的缺陷,也同时避免了用二维图像进行三维人脸建模带来的误差,以较低的成本实现了立体人脸实时物理成像。
申请公布号 CN105989591A 申请公布日期 2016.10.05
申请号 CN201510072560.2 申请日期 2015.02.11
申请人 詹曙;赵京晶;强辉 发明人 詹曙;赵京晶;强辉
分类号 G06T7/00(2006.01)I;G07F19/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 代理人
主权项 一种实时自动获取取款人面部立体信息的自动取款机成像方法,其特征在于,该方法包括如下所述步骤:(1)两维人脸检测:选取Haar方向特征和局部二进制模式(LBP)特征相结合的复合特征来描述人脸的微观结构;局部二进制模式(LBP)特征反映图像纹理特征,通过局部二进制模式(LBP)计算得到图像的纹理特征图,而Haar方向特征反映图像的方向性特征,对得到的纹理特征图进行Harr特征计算,可得到图像的纹理方向性,以此来描述人脸图像,得到人脸图像细节特征;。(2)清晰度比对:对于经过上述检测获取的两维人脸图像,通过直方图均衡化处理后,与数据库中的图像模板进行清晰度的对比,如果满足人脸五官特征分布以及相应的直方图规定化的分布,则获取的人脸图像满足清晰度要求,对于满足要求的图像,将不进行三维图像获取;(3)三维成像:对于清晰度达不到要求的人像,将自动启动自动取款机的三维成像装置,在原有自动取款机摄像机的位置附近安装kinect体感装置,当取款人的位置位于所述体感装置正前方时,该体感装置在时间τ内,获取一张原始的深度图D<sub>τ</sub>,D<sub>τ</sub>由一组像素(u,v)组成,每个像素深度值为D<sub>τ</sub>(u,v);然后采用自适应的分水岭分割算法结合稀疏算法对上述获取的深度图D<sub>τ</sub>进行进一步分割和配准,得到分割后的深度数据D″<sub>τ</sub>(u,v),来获得精确的三维人脸表面信息,其中分割后的深度数据D″<sub>τ</sub>(u,v)由下式(1)来表示:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><msup><mi>D</mi><mrow><mo>&prime;</mo><mo>&prime;</mo></mrow></msup><mi>&tau;</mi></msub><mrow><mo>(</mo><mi>u</mi><mo>,</mo><mi>v</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><msubsup><mi>D</mi><mi>&tau;</mi><mo>&prime;</mo></msubsup><mrow><mo>(</mo><mi>u</mi><mo>,</mo><mi>v</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi></mtd><mtd><mi>&sigma;</mi><msup><mrow><mo>(</mo><mi>u</mi><mo>,</mo><mi>v</mi><mo>)</mo></mrow><mn>2</mn></msup><mo>&le;</mo><mi>&sigma;</mi><msup><mi>max</mi><mn>2</mn></msup></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd></mtd><mtd><mi>otherwise</mi></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000670776560000011.GIF" wi="2003" he="170" /></maths>公式(1)中,D′<sub>τ</sub>(u,v)为原始深度数据,D″<sub>τ</sub>(u,v)为分割后的深度数据,σ为判别函数;(4)立体人脸物理数据的获得:对所获取的多幅深度图进行配准,将深度图进行反投影形成三维点云,然后计算所述三维点云每一个顶点的表面法向量,通过反投影产生了一个顶点向量V<sub>τ</sub>,由公式(2)表示:V<sub>τ</sub>(u,v)=D″<sub>τ</sub>(u,v)K<sup>‑1</sup>[u,v,‑1]<sup>T</sup>    (2)公式(2)中,K<sup>‑1</sup>[u,v,‑1]<sup>T</sup>是所述体感装置的一个固有参数,用来确定所述顶点的坐标值,D″<sub>τ</sub>(u,v)为分割后的深度数据,V<sub>τ</sub>(u,v)是顶点(u,v)的顶点向量,每个顶点的法向量可由相邻顶点的顶点向量进行向量乘计算:N<sub>τ</sub>(u,v)=[V<sub>τ</sub>(u+1,v)‑V<sub>τ</sub>(u,v)]×[V<sub>τ</sub>(u,v+1)‑V<sub>τ</sub>(u,v)]    (3)公式(3)中,N<sub>τ</sub>(u,v)是顶点(u,v)的法向量,V<sub>τ</sub>(u,v+1),V<sub>τ</sub>(u+1,v)是顶点(u,v)的邻近点的顶点向量,对于需要校准的一些顶点向量,确定一个刚体变换矩阵<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msub><mi>T</mi><mrow><mi>g</mi><mo>,</mo><mi>&tau;</mi></mrow></msub><mo>=</mo><mfenced open='[' close=']'><mtable><mtr><mtd><msub><mi>R</mi><mrow><mi>g</mi><mo>,</mo><mi>&tau;</mi></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>g</mi><mo>,</mo><mi>&tau;</mi></mrow></msub></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>I</mi></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>]]></math><img file="FDA0000670776560000021.GIF" wi="381" he="133" /></maths>该刚体变换矩阵中:R表示旋转矩阵,t表示平移矩阵,I表示单位阵;将顶点和法向量转换到一个全局坐标空间中去,经kd‑tree加速结构对所述刚体变换矩阵进行求解,然后对于局部邻域的向量,采用非线性饱和插值算法进行插值,从而获得高精度的立体人脸物理数据。
地址 230009 安徽省合肥市包河区屯溪路193号合肥工业大学计算机与信息学院