发明名称 一种人脸特征提取方法
摘要 本发明公开了一种将Kinect相机提供的人体姿态分析数据和深度数据融合到Depth-AAM算法中,形成基于2.5维图像的人脸特征提取方法,1)采用主成份分析方法训练Depth-AAM算法的表观模型;2)基于训练完成的Depth-AAM算法的表观模型进行人脸特征提取。
申请公布号 CN102880866A 申请公布日期 2013.01.16
申请号 CN201210376751.4 申请日期 2012.09.29
申请人 宁波大学 发明人 赵杰煜;金秋
分类号 G06K9/00(2006.01)I;G06K9/46(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 宁波市鄞州甬致专利代理事务所(普通合伙) 33228 代理人 章松伟
主权项 1.一种人脸特征提取方法,其特征在于,包括以下步骤,1)采用主成份分析方法训练Depth-AAM算法的表观模型:①利用Kinect相机采集训练用人脸图像的纹理图像和深度图像,将深度图像从0~65535像素范围压缩到0~255像素范围,代入四通道图像的α通道,再与纹理图像合并为RGBD四通道图像,并对其进行手工标定若干个轮廓点;②定义人脸形状为组成网格的v个顶点坐标s=(x<sub>1</sub>,y<sub>1</sub>,...,x<sub>v</sub>,y<sub>v</sub>)<sup>T</sup>;顶点构成的形状向量用主成份分析方法建立二维线性模型,形状向量被表示成基本形状s<sub>0</sub>加上m个形状向量s<sub>i</sub>的线性组合<img file="FDA00002215071200011.GIF" wi="308" he="113" />p=(p<sub>1</sub>,...,p<sub>m</sub>)<sup>T</sup>是形状矩阵的特征值向量,s<sub>0</sub>为人脸图像的标准姿态,s<sub>i</sub>是特征值p<sub>i</sub>对应的特征向量;③将s<sub>0</sub>,RGBD四通道图像I<sub>i</sub>和其对应的手工标记s<sub>i</sub><sup>*</sup>用分块仿射变换转换到标准姿态下的RGBD四通道人脸图像,即s<sub>0与</sub>s<sub>i</sub>'的三角网格一一对应,分块仿射变换表达式为x'=a<sub>1</sub>x+a<sub>2</sub>y+a<sub>3</sub>和y'=b<sub>1</sub>x+b<sub>2</sub>y+b<sub>3</sub>,(x,y)为s<sub>0</sub>上一个坐标,(x′,y′)为s<sub>i</sub>′上与(x,y)对应的坐标,a<sub>1</sub>与b<sub>2</sub>为X方向和Y方向的缩放尺度,a<sub>2</sub>和b<sub>1</sub>为旋转尺度,a<sub>3</sub>和b<sub>3</sub>为X方向和Y方向的平移大小,采用待定系数法求出对应的参数(a<sub>1</sub>,a<sub>2</sub>,a<sub>3</sub>,b<sub>1</sub>,b<sub>2</sub>,b<sub>3</sub>);④将所有训练人脸图像经过第③步变换,得到其在标准姿态下的人脸图像I<sub>i</sub>′,并采用主成份分析方法<img file="FDA00002215071200012.GIF" wi="549" he="113" />这里λ<sub>i</sub>是第i个表观向量的参数,表观参数向量λ={λ<sub>1</sub>,λ<sub>2</sub>,...,λ<sub>n</sub>}是输入图像对应于该AAM模型表观参数的特征值,以表示输入图像的全部信息,第i个表观向量A<sub>i</sub>(x)对应于表观参数向量中第i大的特征值;通过①②③④步训练得到各表观特征的特征值即完成Depth-AAM算法的表观模型的训练;2)基于训练完成的Depth-AAM算法的表观模型进行人脸特征提取:⑤Kinect相机根据人体深度图像,采用Kinect winsdk的API分割出人体图像,并得到头部节点位置坐标、头部节点转动方向θ及其置信度Conf<sub>θ</sub>,根据人体深度图像,将人体区域置白,人体之外的区域置黑,从头部节点位置不断向上下左右同时扩大搜索范围,当上左右都达到黑色边界时,停止下边界的搜索,并确定人脸的最大区域,其左上角顶点坐标记为(x<sub>headLU</sub>,y<sub>headLU</sub>),区域长度和宽度记为(length<sub>head</sub>,width<sub>head</sub>);⑥全局形状参数q定义为<maths num="0001"><![CDATA[<math><mrow><mi>N</mi><mrow><mo>(</mo><mi>x</mi><mo>;</mo><mi>q</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='[' close=']'><mtable><mtr><mtd><mn>1</mn><mo>+</mo><mi>a</mi></mtd><mtd><mo>-</mo><mi>b</mi></mtd></mtr><mtr><mtd><mi>b</mi></mtd><mtd><mn>1</mn><mo>+</mo><mi>a</mi></mtd></mtr></mtable></mfenced><mfenced open='[' close=']'><mtable><mtr><mtd><mi>x</mi></mtd></mtr><mtr><mtd><mi>y</mi></mtd></mtr></mtable></mfenced><mo>+</mo><mfenced open='[' close=']'><mtable><mtr><mtd><msub><mi>t</mi><mi>x</mi></msub></mtd></mtr><mtr><mtd><msub><mi>t</mi><mi>y</mi></msub></mtd></mtr></mtable></mfenced><mo>,</mo></mrow></math>]]></maths>参数(a,b)表示为a=kcosθ-和b=ksinθ,(t<sub>x</sub>,t<sub>y</sub>)为X方向和Y方向的平移,为了书写方便,(a,b,t<sub>x</sub>,t<sub>y</sub>)记为(q<sub>1</sub>,q<sub>2</sub>,q<sub>3</sub>,q<sub>4</sub>)即为全局形状参数q;⑦Depth-AAM算法拟合的目标函数为输入图像与表观合成图像差的绝对值<img file="FDA00002215071200022.GIF" wi="971" he="134" />第一次的Depth-AAM拟合使用转动方向θ初始化q<sub>1</sub>、q<sub>2</sub>,使用⑤中得到的人脸位置信息初始化q<sub>3</sub>、q<sub>4</sub>,求解p和q使图像能量差最小时获得的所述轮廓点的坐标值以及表观参数向量即完成人脸特征提取,具体为,对参数p和q求导,求得参数p和q的变化量Δp和Δq,迭代求取最小的图像能量差,<maths num="0002"><![CDATA[<math><mrow><mi>&Delta;q</mi><mo>=</mo><msup><mi>H</mi><mrow><mo>-</mo><mn>1</mn></mrow></msup><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mi>n</mi></munderover><mi>S</mi><msub><mi>D</mi><mi>i</mi></msub><mo>[</mo><mi>I</mi><mrow><mo>(</mo><mi>N</mi><mrow><mo>(</mo><mi>W</mi><mrow><mo>(</mo><mi>x</mi><mo>;</mo><mi>p</mi><mo>)</mo></mrow><mo>;</mo><mi>q</mi><mo>)</mo></mrow><mo>)</mo></mrow><mo>-</mo><msub><mi>A</mi><mn>0</mn></msub><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>]</mo><mo>,</mo></mrow></math>]]></maths>i的范围为i=1,...,4,<maths num="0003"><![CDATA[<math><mrow><mi>&Delta;p</mi><mo>=</mo><msup><mi>H</mi><mrow><mo>-</mo><mn>1</mn></mrow></msup><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mi>n</mi></munderover><msub><mi>SD</mi><mrow><mi>j</mi><mo>+</mo><mn>4</mn></mrow></msub><mo>[</mo><mi>I</mi><mrow><mo>(</mo><mi>N</mi><mrow><mo>(</mo><mi>W</mi><mrow><mo>(</mo><mi>x</mi><mo>;</mo><mi>p</mi><mo>)</mo></mrow><mo>;</mo><mi>q</mi><mo>)</mo></mrow><mo>)</mo></mrow><mo>-</mo><msub><mi>A</mi><mn>0</mn></msub><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>]</mo><mo>,</mo></mrow></math>]]></maths>j的范围为j=1.,..,,其中<img file="FDA00002215071200025.GIF" wi="1052" he="148" />k的范围为k=1,...,4,<img file="FDA00002215071200026.GIF" wi="1029" he="148" />l的范围为l=1,...,68,H为Hessian矩阵,<maths num="0004"><![CDATA[<math><mrow><mi>H</mi><mo>=</mo><munder><mi>&Sigma;</mi><mrow><mi>x</mi><mo>&Element;</mo><msub><mi>S</mi><mn>0</mn></msub></mrow></munder><msup><mrow><mo>[</mo><msub><mi>SD</mi><mi>k</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>]</mo></mrow><mi>T</mi></msup><mo>[</mo><msub><mi>SD</mi><mi>k</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>]</mo><mo>.</mo></mrow></math>]]></maths>
地址 315211 浙江省宁波市江北区风华路818号