发明名称 一种具有噪声鲁棒性的人脸表情识别方法
摘要 本发明公开了一种具有噪声鲁棒性的人脸表情识别方法,包括对预处理滤波的改进和特征提取算子的改进,其中基于相对亮度差调节因子的各向异性扩散滤波模型,弥补原始各向异性扩散滤波方法在滤除噪声的同时也平滑掉细节的不足,区分面部噪声和弱细节表情信息,保证表情图像信息的完整性,同时,采用改进HOG算子提取表情特征,降低特征向量维度,减少冗余信息的干扰,缩短算法运行时间,提高分类精度和对噪声的鲁棒性,具有良好的应用前景。
申请公布号 CN104331683A 申请公布日期 2015.02.04
申请号 CN201410555406.6 申请日期 2014.10.17
申请人 南京工程学院 发明人 童莹;焦良葆;曹雪虹
分类号 G06K9/00(2006.01)I;G06K9/40(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 南京纵横知识产权代理有限公司 32224 代理人 董建林
主权项 一种具有噪声鲁棒性的人脸表情识别方法,包括以下步骤,步骤(A)图像预处理;步骤(B)人脸检测与区域分割;步骤(C)人脸表情特征提取;步骤(D)人脸表情特征分类,其特征在于:步骤(A)图像预处理,基于相对亮度差调节因子的各向异性扩散滤波方法,利用噪声和弱小细节的亮度差不同,结合梯度模值,修正扩散系数,使其能正确区分噪声和弱小细节信息,包括以下步骤,(A1)根据公式(1),计算以像素点(x,y)为中心3×3邻域的像素均值f<sub>m</sub>(x,y,t),<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><mi>f</mi><mi>m</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mn>9</mn></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mn>3</mn></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mn>3</mn></munderover><mi>f</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>2</mn><mo>+</mo><mi>i</mi><mo>,</mo><mi>y</mi><mo>-</mo><mn>2</mn><mo>+</mo><mi>j</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000588356740000011.GIF" wi="1441" he="273" /></maths>其中,t为滤波次数;(A2)比较f(x,y,t)和f<sub>m</sub>(x,y,t)大小,其中,f(x,y,t)为像素点(x,y)的梯度值,若f(x,y,t)&gt;f<sub>m</sub>(x,y,t),则取以像素点(x,y)为中心的3×3邻域内所有灰度值小于f<sub>m</sub>(x,y,t)的像素均值作为像素点(x,y)处的背景值I<sub>m</sub>(x,y,t);若f(x,y,t)&lt;f<sub>m</sub>(x,y,t),则取以像素点(x,y)为中心的3×3邻域内所有灰度值大于f<sub>m</sub>(x,y,t)的像素均值作为(x,y)处的背景值I<sub>m</sub>(x,y,t);若f(x,y,t)=f<sub>m</sub>(x,y,t),则取f<sub>m</sub>(x,y,t)作为(x,y)处的背景值I<sub>m</sub>(x,y,t);(A3)根据公式(2),计算图像的亮度差ΔI(x,y,t)ΔI(x,y,t)=f(x,y,t)‑I<sub>m</sub>(x,y,t)          (2)(A4)列出各向异性扩散滤波改进后的扩散系数方程,如公式(3)所示,<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><mi>c</mi><mrow><mo>(</mo><mo>|</mo><mo>|</mo><mo>&dtri;</mo><mi>f</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>|</mo><mo>|</mo><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mrow><mn>1</mn><mo>+</mo><msup><mrow><mo>(</mo><mfrac><mrow><mo>|</mo><mo>|</mo><mo>&dtri;</mo><mi>f</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow><mo>|</mo><mo>|</mo><mo>+</mo><mi>M</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>,</mo><mi>t</mi><mo>)</mo></mrow></mrow><mi>K</mi></mfrac><mo>)</mo></mrow><mn>2</mn></msup></mrow></mfrac><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0000588356740000021.GIF" wi="1517" he="277" /></maths>其中,||▽f(x,y,t)||为梯度模值,M(x,y,t)为调节因子,K为梯度阈值,取M(x,y,t)=α·ΔI(x,y,t),α为可调系数,ΔI(x,y,t)为亮度差;(A5)利用改进后的扩散系数方程有效区分边缘、背景、弱小细节和噪声;步骤(C)人脸表情特征提取,采用改进的HOG算子对步骤(B)人脸检测与区域分割后的图像数据提取表情特征,包括以下步骤,(C1)根据改进的HOG算子,计算图像每个像素点的梯度幅值和方向,捕获表情轮廓信息,弱化光照的干扰;(C2)将检测窗口划分成大小相同的单元格;(C3)统计每个单元格的梯度方向直方图;(C4)将相邻的单元格组合成无重叠的块,统计整个块的梯度方向直方图特征,并对每个块内的直方图进行归一化;(C5)连接所有块的梯度方向直方图,得到表示整个表情图像的HOG特征。
地址 211167 江苏省南京市江宁科学园弘景大道1号