发明名称 一种目标人体识别方法
摘要 本发明公开了一种目标人体识别方法,首先通过对两个包含同一人体对象的图像序列进行分割处理,获得每帧图像中的人体对象区域,然后根据两个图像序列中的每帧图像中的人体对象区域,分别计算两个图像序列的空间颜色特征相似度和局部特征相似度,再利用颜色特征相似度和局部特征相似度训练SVM分类器,最后利用SVM分类器对待识别的两个图像序列进行目标人体识别,由于本发明方法充分利用空间颜色特征和局部特征来识别目标人体,因此能够有效提高识别率,且本发明方法的计算复杂度较低。
申请公布号 CN102663411B 申请公布日期 2014.06.11
申请号 CN201210050622.6 申请日期 2012.02.29
申请人 宁波大学 发明人 郭立君;张荣;胡一嗔;肖波
分类号 G06K9/62(2006.01)I;G06T7/00(2006.01)I 主分类号 G06K9/62(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 1.一种目标人体识别方法,其特征在于包括以下步骤:①从非重叠的多摄像系统中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同;②对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域;③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为<img file="FDA0000465653330000011.GIF" wi="233" he="91" />将每帧图像中的人体对象区域的G颜色通道的颜色均值记为<img file="FDA0000465653330000012.GIF" wi="232" he="93" />将每帧图像中的人体对象区域的B颜色通道的颜色均值记为<img file="FDA0000465653330000013.GIF" wi="229" he="91" />③-2、对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为<img file="FDA00004656533300000112.GIF" wi="71" he="67" />将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为<img file="FDA00004656533300000113.GIF" wi="74" he="63" />将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为<img file="FDA00004656533300000114.GIF" wi="73" he="64" />,其中,N&gt;1;③-3、采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到<img file="FDA0000465653330000014.GIF" wi="144" he="70" />和<img file="FDA0000465653330000015.GIF" wi="46" he="66" />对应的归一化处理后的颜色均值,分别记为<img file="FDA0000465653330000016.GIF" wi="160" he="67" />和<img file="FDA0000465653330000017.GIF" wi="90" he="68" /><img file="FDA0000465653330000018.GIF" wi="329" he="147" /><img file="FDA0000465653330000019.GIF" wi="338" he="147" /><img file="FDA00004656533300000110.GIF" wi="318" he="148" />然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值<img file="FDA00004656533300000111.GIF" wi="291" he="68" />形成的一个长度为3×N的向量作为该帧图像的空间颜色特征;③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,将关系矩阵W中第i行第j列的元素记为W<sub>ij</sub>,<img file="FDA0000465653330000021.GIF" wi="520" he="205" />其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(x<sub>i</sub>,x<sub>j</sub>)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,<img file="FDA0000465653330000022.GIF" wi="579" he="160" />x<sub>ik</sub>表示空间颜色特征x<sub>i</sub>的第k个分量,x<sub>jk</sub>表示空间颜色特征x<sub>j</sub>的第k个分量,<maths num="0001"><![CDATA[<math><mrow><mi>&sigma;</mi><mo>=</mo><mfrac><mn>1</mn><msup><mrow><mo>(</mo><mn>2</mn><mi>m</mi><mo>)</mo></mrow><mn>2</mn></msup></mfrac><munderover><mi>&Sigma;</mi><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mrow><mn>2</mn><mi>m</mi></mrow></munderover><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mrow><mn>2</mn><mi>m</mi></mrow></munderover><mtext>d</mtext><mrow><mo>(</mo><msub><mi>x</mi><mi>i</mi></msub><mo>,</mo><msub><mi>x</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>;</mo></mrow></math>]]></maths>③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为P<sub>ij</sub>,P<sub>ij</sub>=W<sub>ij</sub>/D<sub>ii</sub>,其中,<img file="FDA0000465653330000024.GIF" wi="270" he="146" />然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值;③-6、对规范化谱矩阵P的2m个特征值进行排序,选择按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量分别记为<img file="FDA0000465653330000025.GIF" wi="54" he="58" />和<img file="FDA0000465653330000026.GIF" wi="85" he="59" />b、将由<img file="FDA0000465653330000027.GIF" wi="48" he="59" />和<img file="FDA0000465653330000028.GIF" wi="50" he="59" />中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由<img file="FDA0000465653330000029.GIF" wi="57" he="59" />和<img file="FDA00004656533300000210.GIF" wi="54" he="59" />中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述;③-7、根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,<img file="FDA00004656533300000211.GIF" wi="613" he="190" />其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,S<sub>t</sub>表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,M<sub>t</sub>表示S<sub>t</sub>中的所有坐标位置的均值,<img file="FDA00004656533300000212.GIF" wi="346" he="144" />N<sub>t</sub>表示S<sub>t</sub>中所包含的坐标位置的个数;④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:④-1、采用尺度不变特征转换方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x<sub>1</sub>,x<sub>2</sub>,...,x<sub>u</sub>,...,x<sub>m</sub>},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y<sub>1</sub>,y<sub>2</sub>,...,y<sub>v</sub>,...,y<sub>m</sub>},其中,x<sub>1</sub>表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x<sub>2</sub>表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,x<sub>u</sub>表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,x<sub>m</sub>表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y<sub>1</sub>表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y<sub>2</sub>表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,y<sub>v</sub>表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,y<sub>m</sub>表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m;④-2、将两个图像序列中各自所有图像中的人体对象区域的局部特征集合各自归并为一个新的局部特征集合,分别记为<img file="FDA0000465653330000031.GIF" wi="58" he="76" />和<img file="FDA0000465653330000032.GIF" wi="82" he="78" /><maths num="0002"><![CDATA[<math><mrow><mover><mi>X</mi><mo>~</mo></mover><mo>=</mo><mo>{</mo><msub><mi>x</mi><mn>1</mn></msub><mo>&cup;</mo><msub><mi>x</mi><mn>2</mn></msub><mo>&cup;</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>&cup;</mo><msub><mi>x</mi><mi>u</mi></msub><mo>&cup;</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>&cup;</mo><msub><mi>x</mi><mi>m</mi></msub><mo>}</mo><mo>,</mo></mrow></math>]]></maths><maths num="0003"><![CDATA[<math><mrow><mover><mi>Y</mi><mo>~</mo></mover><mo>=</mo><mo>{</mo><msub><mi>y</mi><mn>1</mn></msub><mo>&cup;</mo><msub><mi>y</mi><mn>2</mn></msub><mo>&cup;</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>&cup;</mo><msub><mi>y</mi><mi>v</mi></msub><mo>&cup;</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>&cup;</mo><msub><mi>y</mi><mi>m</mi></msub><mo>}</mo><mo>;</mo></mrow></math>]]></maths>④-3、对<img file="FDA0000465653330000035.GIF" wi="42" he="75" />和<img file="FDA0000465653330000036.GIF" wi="40" he="75" />分别进行L+1级尺度直方图生成,得到<img file="FDA0000465653330000037.GIF" wi="56" he="75" />对应的L+1级尺度下的尺度直方图集合和<img file="FDA0000465653330000038.GIF" wi="42" he="75" />对应的L+1级尺度下的尺度直方图集合,分别记为<img file="FDA0000465653330000039.GIF" wi="148" he="89" />和<img file="FDA00004656533300000310.GIF" wi="359" he="89" /><maths num="0004"><![CDATA[<math><mrow><mi>&psi;</mi><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>=</mo><mo>[</mo><msub><mi>H</mi><mn>0</mn></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><msub><mi>H</mi><mn>1</mn></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>H</mi><mi>q</mi></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>H</mi><mi>L</mi></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>]</mo><mo>,</mo></mrow></math>]]></maths><maths num="0005"><![CDATA[<math><mrow><mi>&psi;</mi><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>=</mo><mo>[</mo><msub><mi>H</mi><mn>0</mn></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><msub><mi>H</mi><mn>1</mn></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>H</mi><mi>q</mi></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msub><mi>H</mi><mi>L</mi></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>]</mo><mo>,</mo></mrow></math>]]></maths>其中,0≤q≤L,<img file="FDA00004656533300000313.GIF" wi="176" he="91" />表示<img file="FDA00004656533300000314.GIF" wi="54" he="76" />在第0级尺度下的尺度直方图,<img file="FDA00004656533300000315.GIF" wi="174" he="92" />表示<img file="FDA00004656533300000316.GIF" wi="52" he="76" />在第1级尺度下的尺度直方图,<img file="FDA00004656533300000317.GIF" wi="172" he="98" />表示<img file="FDA00004656533300000318.GIF" wi="66" he="75" />在第q级尺度下的尺度直方图,<img file="FDA00004656533300000319.GIF" wi="179" he="90" />表示<img file="FDA00004656533300000320.GIF" wi="54" he="74" />在第L级尺度下的尺度直方图,<img file="FDA0000465653330000041.GIF" wi="162" he="91" />表示<img file="FDA0000465653330000042.GIF" wi="44" he="76" />在第0级尺度下的尺度直方图,<img file="FDA0000465653330000043.GIF" wi="156" he="91" />表示<img file="FDA0000465653330000044.GIF" wi="38" he="76" />在第1级尺度下的尺度直方图,<img file="FDA0000465653330000045.GIF" wi="162" he="98" />表示<img file="FDA0000465653330000046.GIF" wi="45" he="75" />在第q级尺度下的尺度直方图,<img file="FDA0000465653330000047.GIF" wi="165" he="90" />表示<img file="FDA0000465653330000048.GIF" wi="46" he="76" />在第L级尺度下的尺度直方图,<img file="FDA0000465653330000049.GIF" wi="173" he="97" />和<img file="FDA00004656533300000410.GIF" wi="160" he="97" />的柱体宽度均为2<sup>q</sup>,<img file="FDA00004656533300000411.GIF" wi="177" he="97" />和<img file="FDA00004656533300000412.GIF" wi="161" he="97" />的柱体的个数均为<img file="FDA00004656533300000413.GIF" wi="440" he="180" />d表示<img file="FDA00004656533300000414.GIF" wi="62" he="74" />或<img file="FDA00004656533300000415.GIF" wi="50" he="76" />中的各个局部特征集合中的每个局部特征的维度,<img file="FDA00004656533300000416.GIF" wi="62" he="76" />或<img file="FDA00004656533300000417.GIF" wi="48" he="76" />中的各个局部特征集合中的每个局部特征的维度一致,D表示包含<img file="FDA00004656533300000418.GIF" wi="61" he="76" />或<img file="FDA00004656533300000419.GIF" wi="48" he="76" />中的所有局部特征集合的球体的直径;④-4、对<img file="FDA00004656533300000420.GIF" wi="53" he="75" />和<img file="FDA00004656533300000421.GIF" wi="50" he="75" />在各级相同尺度下的尺度直方图进行相似度匹配,得到<img file="FDA00004656533300000422.GIF" wi="55" he="75" />和<img file="FDA00004656533300000423.GIF" wi="47" he="75" />在各级相同尺度下的尺度直方图的相似度,对于<img file="FDA00004656533300000424.GIF" wi="56" he="76" />和<img file="FDA00004656533300000425.GIF" wi="48" he="76" />在第q级尺度下的尺度直方图的相似度,将其记为I<sub>q</sub>,<img file="FDA00004656533300000426.GIF" wi="792" he="161" />其中,min()为取最小值函数,<img file="FDA00004656533300000427.GIF" wi="220" he="98" />表示<img file="FDA00004656533300000428.GIF" wi="172" he="98" />的第s个柱体的数值,<img file="FDA00004656533300000429.GIF" wi="207" he="98" />表示<img file="FDA00004656533300000430.GIF" wi="166" he="98" />的第s个柱体的数值;④-5、分别计算<img file="FDA00004656533300000431.GIF" wi="62" he="75" />和<img file="FDA00004656533300000432.GIF" wi="48" he="75" />在前后两级尺度下的尺度直方图的相似度的差值,然后根据<img file="FDA00004656533300000433.GIF" wi="62" he="75" />和<img file="FDA00004656533300000434.GIF" wi="50" he="75" />在前后两级尺度下的尺度直方图的相似度的差值、<img file="FDA00004656533300000435.GIF" wi="145" he="88" />和<img file="FDA00004656533300000436.GIF" wi="161" he="88" />计算两个图像序列的局部特征相似度,记为K<sub>Δ</sub>,<img file="FDA00004656533300000437.GIF" wi="366" he="166" />其中,ω<sub>q</sub>为权值,ω<sub>q</sub>=2<sup>-q</sup>,N<sub>q</sub>表示<img file="FDA00004656533300000438.GIF" wi="62" he="75" />和<img file="FDA00004656533300000439.GIF" wi="52" he="75" />在第q级尺度下的尺度直方图的相似度I<sub>q</sub>与<img file="FDA00004656533300000440.GIF" wi="61" he="75" />和<img file="FDA00004656533300000441.GIF" wi="47" he="75" />在第q-1级尺度下的尺度直方图的相似度I<sub>q-1</sub>的差值,<maths num="0006"><![CDATA[<math><mrow><msub><mi>N</mi><mi>q</mi></msub><mo>=</mo><mrow><mo>(</mo><msub><mi>H</mi><mi>q</mi></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><msub><mi>H</mi><mi>q</mi></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>)</mo></mrow><mo>-</mo><mrow><mo>(</mo><msub><mi>H</mi><mrow><mi>q</mi><mo>-</mo><mn>1</mn></mrow></msub><mrow><mo>(</mo><mover><mi>X</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>,</mo><msub><mi>H</mi><mrow><mi>q</mi><mo>-</mo><mn>1</mn></mrow></msub><mrow><mo>(</mo><mover><mi>Y</mi><mo>~</mo></mover><mo>)</mo></mrow><mo>)</mo></mrow><mo>;</mo></mrow></math>]]></maths>⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度K<sub>Δ</sub>,并将每个图像序列对对应的J和K<sub>Δ</sub>的组合(J,K<sub>Δ</sub>)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,K<sub>Δ</sub>)作为正样本;⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度K<sub>Δ</sub>,并将每个图像序列对对应的J和K<sub>Δ</sub>的组合(J,K<sub>Δ</sub>)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,K<sub>Δ</sub>)作为负样本;⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,训练得到的SVM分类器为二维平面上的一条分界线;⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x<sup>*</sup>,y<sup>*</sup>),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x<sup>*</sup>,y<sup>*</sup>)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x<sup>*</sup>,y<sup>*</sup>)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
地址 315211 浙江省宁波市江北区风华路818号