发明名称 一种小样本人脸识别方法
摘要 本发明一种小样本人脸识别方法,涉及应用电子设备进行人脸识别的方法,是一种利用单层多尺度卷积神经网络结构进行多特征融合和分类的人脸识别方法,步骤是:人脸图像预处理;人脸图像多特征图的提取:包括提取一层DWT低频子带图、提取Sobel边缘特征图和提取LBP纹理特征图;利用单层多尺度卷积神经网络结构进行多特征融合;用Softmax分类器预测分类结果,实现人脸识别。本发明克服了现有技术在解决小样本人脸识别问题中,受分类方法的限制,分类识别率不高的缺陷。
申请公布号 CN106529447A 申请公布日期 2017.03.22
申请号 CN201610957103.6 申请日期 2016.11.03
申请人 河北工业大学 发明人 刘依;阎刚;师硕;毛永波;刘帅;郭团团;李伟强;杨飞飞;葛瑞雪;刘双岭
分类号 G06K9/00(2006.01)I;G06K9/62(2006.01)I;G06N3/02(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 天津翰林知识产权代理事务所(普通合伙) 12210 代理人 胡安朋
主权项 一种小样本人脸识别方法,其特征在于:是一种利用单层多尺度卷积神经网络结构进行多特征融合和分类的人脸识别方法,具体步骤如下:第一步,人脸图像预处理:对从计算机USB接口采集的人脸图像首先由RGB空间转化到灰度空间,得到灰度图像I<sub>gray</sub>,采用的公式(1)如下:I<sub>gray</sub>=0.299R+0.587G+0.114B    (1),其中R、G、B分别是RGB图像的红色、绿色和蓝色通道,然后对得到的灰度图像I<sub>gray</sub>进行尺寸归一化到N×N个像素并为该人脸图像设置类别标签f,得到尺寸归一化灰度图像I和类别标签f;第二步,人脸图像多特征图的提取:(2.1)提取一层DWT低频子带图:将上述第一步得到的尺寸归一化灰度图像I经过一层DWT算法变换,分解为4个大小为原来尺寸1/4的子带图,即大小为N/2×N/2像素,分别为DWT低频子带图LL、水平高频子带图LH、垂直高频子带图HL和对角高频子带图HH,提取其中的一层DWT低频子带图I<sub>LL</sub>;(2.2)提取Sobel边缘特征图:对上述第一步得到的尺寸归一化灰度图像I中每一个像素点I(x,y)通过Sobel边缘算法的Sobel梯度算子来提取梯度信息S(x,y),即以该图像像素点(x,y)为中心计算其3×3邻域的x方向偏导数S<sub>x</sub>和y方向的偏导数S<sub>y</sub>,如以下公式(2)、(3):<maths num="0001"><math><![CDATA[<mrow><mtable><mtr><mtd><mrow><msub><mi>S</mi><mi>x</mi></msub><mo>=</mo><mo>{</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>+</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>}</mo><mo>-</mo></mrow></mtd></mtr><mtr><mtd><mrow><mo>{</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>+</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>}</mo></mrow></mtd></mtr></mtable><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>2</mn><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0001141745020000011.GIF" wi="1374" he="135" /></maths><maths num="0002"><math><![CDATA[<mrow><mtable><mtr><mtd><mrow><msub><mi>S</mi><mi>y</mi></msub><mo>=</mo><mo>{</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>}</mo><mo>-</mo></mrow></mtd></mtr><mtr><mtd><mrow><mo>{</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>+</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mn>2</mn><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>+</mo><mi>I</mi><mrow><mo>(</mo><mi>x</mi><mo>-</mo><mn>1</mn><mo>,</mo><mi>y</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>}</mo></mrow></mtd></mtr></mtable><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>3</mn><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0001141745020000012.GIF" wi="1373" he="143" /></maths>得到梯度S(x,y)为:<maths num="0003"><math><![CDATA[<mrow><mi>S</mi><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>=</mo><msqrt><mrow><msubsup><mi>S</mi><mi>x</mi><mn>2</mn></msubsup><mo>+</mo><msubsup><mi>S</mi><mi>y</mi><mn>2</mn></msubsup></mrow></msqrt><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>4</mn><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0001141745020000013.GIF" wi="1126" he="95" /></maths>根据上述公式(4)求出尺寸归一化灰度图像I的每个像素的梯度值,得到梯度特征图,将得到的特征图进行2×2的平均采样,提取得Sobel边缘特征图I<sub>Sobel</sub>,其大小为N/2×N/2像素;(2.3)提取LBP纹理特征图:对上述第一步得到的尺寸归一化灰度图像I利用LBP算法提取纹理特征图,将尺寸归一化灰度图像I中每一个像素点(x,y)置于3×3窗口W的中心w<sub>c</sub>,并以该中心像素为阈值,将相邻的8个像素w<sub>i</sub>(i=1,…,8)的灰度值与其进行比较,若邻域像素值大于中心像素值,则该邻域像素点的位置被标记为1,否则为0,3×3邻域内的8个点经比较可产生8位二进制数码,采用公式(5)转换为十进制数得到该窗口W的中心w<sub>c</sub>像素点的LBP值:<maths num="0004"><math><![CDATA[<mrow><mi>L</mi><mi>B</mi><mi>P</mi><mrow><mo>(</mo><msub><mi>w</mi><mi>c</mi></msub><mo>)</mo></mrow><mo>=</mo><munderover><mo>&Sigma;</mo><mrow><mi>i</mi><mo>=</mo><mn>0</mn></mrow><mrow><mi>P</mi><mo>-</mo><mn>1</mn></mrow></munderover><msup><mn>2</mn><mi>i</mi></msup><mi>sgn</mi><mrow><mo>(</mo><msub><mi>w</mi><mi>i</mi></msub><mo>-</mo><msub><mi>w</mi><mi>c</mi></msub><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>5</mn><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0001141745020000021.GIF" wi="1171" he="131" /></maths>其中,窗口<img file="FDA0001141745020000022.GIF" wi="420" he="223" />P=8,sgn为符号函数,定义如下:<maths num="0005"><math><![CDATA[<mrow><mi>sgn</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>1</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>i</mi><mi>f</mi><mi> </mi><mi>x</mi><mo>&gt;</mo><mn>0</mn></mrow></mtd></mtr><mtr><mtd><mrow><mn>0</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>e</mi><mi>l</mi><mi>s</mi><mi>e</mi></mrow></mtd></mtr></mtable></mfenced><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>6</mn><mo>)</mo></mrow><mo>,</mo></mrow>]]></math><img file="FDA0001141745020000023.GIF" wi="1165" he="151" /></maths>遍历尺寸归一化灰度图像I的各个像素点,得到LBP特征图,为了保证在维度上与上述(2.1)步DWT低频子带图LL相同,将得到的LBP特征图进行2×2的平均采样,提取得LBP纹理特征图I<sub>LBP</sub>,其大小为N/2×N/2像素;第三步,利用单层多尺度卷积神经网络结构进行多特征融合:将上述第二步中提取的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图输入到单层多尺度卷积神经网络结构中进行训练,该结构包含一个输入层、采样层I和采样层II两个采样层、一个多尺度卷积层以及全连接层I和全连接层II两个全连接层;(3.1)向输入层输入第二步中提取的大小为N/2×N/2像素的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图与人脸图像的类别标签f;(3.2)采样层I连接输入层,采样层I采用2×2的Max采样方式,用采样层I采样上述(3.1)步中的大小为N/2×N/2像素的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图后得到大小为N/4×N/4像素的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图;(3.3)在采样层I后为多尺度卷积层,该层采用四种不同尺度卷积核,分别为2×2、3×3、4×4和5×5,每种尺度包含30种不同参数的卷积核,经卷积后,每种尺度卷积核则对应得到30个不同特征图,共得到120个特征图,将上述(3.2)步得到的大小为N/4×N/4像素的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图的采样结果作为多尺度卷积层的输入,令l<sup>j</sup>与u<sup>i</sup>分别表示第j幅输出特征图与第i幅输入特征图,k<sup>ij</sup>为第i个输入特征图与第j个输出特征图的卷积核,b<sup>j</sup>为第j个输出特征图的偏置,则卷积操作可表示为l<sup>j</sup>=max(0,b<sup>j</sup>+∑<sub>i</sub>k<sup>ij</sup>*u<sup>i</sup>)    (7),(3.4)在多尺度卷积层后为采样层II,经(3.3)步卷积后的特征图通过采样层II进行降维,采样层II采用3×3的Max采样方式,上述(3.3)步得到的120个特征图经过采样层II后被串联成一个特征向量;(3.5)在采样层II后为全连接层,将上述(3.3)步采样层II所串联成的一个特征向量输入全连接层I和全连接层II两个相邻的全连接层,假设分类问题有C个类别,全连接层I的神经元个数设置为4×C,全连接层II的神经元个数设置为2×C,由此全连接层同时实现对特征图的有效降维,经过全连接层得到的的特征向量标记为e;至此完成利用单层多尺度卷积神经网络结构进行的多特征融合;第四步,用Softmax分类器预测分类结果,实现人脸识别:(4.1)将经过上述(3.5)步得到的全连接层的特征向量e输入至C维的Softmax分类器,根据输入的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>三个特征图所对应的类别标签f对Softmax分类器进行有监督的反向传播算法训练,得到Softmax分类器映射关系R=g(e),其中R为类别输出,g(﹒)为Softmax分类器建立的从输入到输出的映射;(4.2)特征图依次经过上述第三步的各层后,计算误差函数,然后利用梯度下降法计算最小化误差,从而获得最优的网络权值与偏置,得到最终训练好的单层多尺度卷积神经网络模型;(4.3)在人脸识别过程中,按照上述第一步和第二步方法处理待识别的人脸图像,然后将第二步中提取的DWT低频子带图I<sub>LL</sub>、Sobel边缘特征图I<sub>Sobel</sub>和LBP纹理特征图I<sub>LBP</sub>输入上述训练好的单层多尺度卷积神经网络模型中,进行多特征融合,再利用Softmax分类器预测分类结果,实现人脸识别。
地址 300130 天津市红桥区丁字沽光荣道8号河北工业大学东院330#
您可能感兴趣的专利