发明名称 一种鲁棒的人脸表情识别方法
摘要 本发明一种鲁棒的人脸表情识别方法:通过鲁棒主成分分析对人脸图像进行重构,并对原始人脸图像与重构后的人脸图像的差值图像进行显著性分析,检测出遮挡区域,然后根据对遮挡区域的图像进行重构以去除遮挡,最后对去除遮挡后的人脸图像进行表情分类,获得表情识别结果。本发明对各种脸部遮挡情况都有较好的去除遮挡能力,对于提高遮挡情况下的人脸表情识别率有重要意义,是一种可行的鲁棒的人脸表情识别方法。
申请公布号 CN101369310A 申请公布日期 2009.02.18
申请号 CN200810223211.6 申请日期 2008.09.27
申请人 北京航空航天大学 发明人 毛峡;薛雨丽
分类号 G06K9/00(2006.01) 主分类号 G06K9/00(2006.01)
代理机构 北京慧泉知识产权代理有限公司 代理人 王顺荣;唐爱华
主权项 1.一种鲁棒的人脸表情识别方法,其特征在于,该识别方法步骤如下:步骤1:将N个不含遮挡的L类人脸表情图像归一化为数据矩阵Ci∈Rm×n (i=1…M),作为训练样本,采用沙皮尔即Schapire提出的多分类AdaBoost方法训练人脸表情分类器;步骤2:将M个包括含遮挡和不含遮挡的L类人脸表情图像归一化为数据矩阵Ai∈Rm×n(i=1…M),作为训练样本,令s=m×n,将Ai展开为一维列数据向量di∈Rs×1(i=1…M),构成输入矩阵D=[d1d2…dM]∈Rs×M,采用费南多即Fernando提出的鲁棒主成分分析即Robust Principle Component Analysis,RPCA方法,得到鲁棒均值向量μ∈Rs×1和鲁棒本征向量B∈Rs×k,k<M;步骤3:将待识别的人脸表情图像归一化数据矩阵P∈Rm×n;步骤4:将P展开为一维列数据向量d∈Rs×1,如式(1)计算向量d的重构向量drec∈Rs×1,并将其变形为数据矩阵P′∈Rm×n;drec=μ+BBT(d-μ) 式(1)步骤5:计算重构后的人脸图像矩阵P′与将待识别表情的人脸图像矩阵P的差值图像矩阵E∈Rm×n,如式(2)所示;E=|P′-P| 式(2)步骤6:设扫描窗口R高为h(1≤h<m),宽为w(1≤w<n),窗口的左上角坐标为(x1,y1)(0≤x1<n,0≤y1<m),对h、w、x1、y1进行遍历,并满足约束条件如式(3)所示;对差值图像的扫描窗口R进行显著性检测,如式(4)所示,得到显著值HE,R;0≤x1+w≤n且0≤y1+h≤m且2*w*h<m*n 式(3)<math> <mrow> <msub> <mi>H</mi> <mrow> <mi>E</mi> <mo>,</mo> <mi>R</mi> </mrow> </msub> <mo>=</mo> <mo>-</mo> <munder> <mi>&Sigma;</mi> <mi>i</mi> </munder> <msub> <mi>P</mi> <mrow> <mi>E</mi> <mo>,</mo> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <msub> <mi>log</mi> <mn>2</mn> </msub> <msub> <mi>P</mi> <mrow> <mi>E</mi> <mo>,</mo> <mi>R</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow></math> 式(4)其中PE,R(ei)指差值图像矩阵E在扫描窗口R取值为ei(0≤ei≤255)的概率;步骤7:对所有扫描窗口R的显著值HE,R取最大显著值Hmax=max{HE,R},并判定遮挡区域,如式(5)所示,若显著值Hmax大于预设定的阈值H0,与Hmax相关的区域被判定为遮挡区域,否则判定为不存在遮挡区域; 式(5)步骤8:对人脸表情图像矩阵P的遮挡区域进行重构,如式(6)所示;若Rocclusion不为空,跳转到步骤4;若Rocclusion为空,继续执行步骤9;<math> <mrow> <mi>P</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mfenced open='{' close='' separators=','> <mtable> <mtr> <mtd> <mi>P</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mtd> <mtd> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&NotElement;</mo> <msub> <mi>R</mi> <mi>occlusion</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mi>P</mi> <mo>&prime;</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mtd> <mtd> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&Element;</mo> <msub> <mi>R</mi> <mi>occlusion</mi> </msub> </mtd> </mtr> </mtable> </mfenced> </mrow> </mrow></math> 式(6)步骤9:将人脸表情图像矩阵P作为步骤1训练所得人脸表情分类器的输入,得到人脸表情识别结果。
地址 100191北京市海淀区学院路37号北航电子信息工程学院