发明名称 基于空间嵌入式极限学机的人体运动跟踪方法
摘要 本发明公开了一种基于空间嵌入式极限学机的人体运动跟踪方法,主要解决现有技术跟踪误差较大的问题。其实现步骤是:(1)预处理训练视频和测试视频,得到训练样本和测样本;(2)使用描述子提取训练样本和测试样本的图像特征矩阵,用训练样本的特征矩阵和人体运动姿态矩阵组成联合矩阵;(3)根据联合矩阵在随机特征空间的投影和人体运动姿态矩阵计算输出权重;(4)根据输出权重求出测试样本的姿态估计矩阵;(5)将测试样本的姿态估计矩阵与人体运动姿态矩阵的差值作为最终的人体跟踪误差。本发明能够有效减小跟踪误差,可用于运动捕获、人机交互及视频监控等。
申请公布号 CN103810724A 申请公布日期 2014.05.21
申请号 CN201410078909.9 申请日期 2014.03.06
申请人 西安电子科技大学 发明人 韩红;史媛媛;甘露;曹赛;洪汉梯;陈建;李楠;刘三军;郭玉言
分类号 G06T7/20(2006.01)I;G06K9/66(2006.01)I 主分类号 G06T7/20(2006.01)I
代理机构 陕西电子工业专利中心 61205 代理人 王品华;朱红星
主权项 1.一种基于空间嵌入式极限学习机的人体运动跟踪方法,包括如下步骤:(1)将人体运动跟踪数据库中的训练视频和测试视频进行预处理:(1a)将数据库中的训练视频和测试视频均转换为连续的单幅序列图,将所有的单幅序列图像中的人体运动部分作为图像的目标区域,并用矩形框体将目标区域手动标记出来,并将标记出的图像区域的大小统一转换为64×192的比例像素;(1b)将转换后的图像分别作为训练样本和测试样本,其中训练样本中的人体运动姿态用姿态矩阵Y表示;(2)利用图像特征描述子分别提取训练样本的特征和测试样本的特征,得到训练样本的特征矩阵:<img file="FDA0000473433530000011.GIF" wi="513" he="86" />和测试样本的特征矩阵:<img file="FDA0000473433530000012.GIF" wi="540" he="90" />其中,x<sub>p</sub>表示第p个训练样本的特征向量,p=1,2,...,N,N是训练样本的个数;s<sub>q</sub>表示第q个测试样本的特征向量,q=1,2,...,M,M为测试样本的个数;上标T表示转置运算;;(3)将训练样本的特征矩阵X和人体姿态矩阵Y用一个联合矩阵C表示,即<img file="FDA0000473433530000013.GIF" wi="712" he="88" />c<sub>p</sub>表示第p个训练样本的联合向量;(4)利用随机特征映射法将联合矩阵C投影到随机特征空间η中,得到投影矩阵:Φ(C)=[Φ(c<sub>1</sub>)<sup>T</sup>,Φ(c<sub>2</sub>)<sup>T</sup>,...,Φ(c<sub>p</sub>)<sup>T</sup>,...,Φ(c<sub>N</sub>)<sup>T</sup>]<sup>T</sup>,其中Φ(c<sub>p</sub>)表示联合向量c<sub>p</sub>在随机特征空间η中的投影向量;(5)根据投影矩阵Φ(C)计算输出权重:<img file="FDA0000473433530000014.GIF" wi="296" he="77" />其中<img file="FDA0000473433530000015.GIF" wi="132" he="78" />表示投影矩阵Φ(C)的伪逆矩阵,上标<img file="FDA0000473433530000016.GIF" wi="30" he="67" />表示矩阵的伪逆运算;(6)根据输出权重β求出测试样本的姿态估计矩阵T<sup>*</sup>:(6a)利用现有的优化方法,计算第q个测试样本s<sub>q</sub>的初始姿态估计向量<img file="FDA0000473433530000017.GIF" wi="72" he="92" />(6b)设定容许迭代误差ε=0.001、最大迭代次数I=60,对第q个测试样本的初始姿态估计向量<img file="FDA0000473433530000018.GIF" wi="48" he="92" />根据输出权重β进行迭代,直至迭代前后的变化值小于设定容许迭代误差ε或当前迭代次数大于设定的最大迭代次数I时,迭代停止,得到第q个测试样本的最终姿态估计向量<img file="FDA0000473433530000019.GIF" wi="73" he="90" />(6c)重复步骤(6b)得到每一个测试样本的最终姿态估计向量<img file="FDA0000473433530000021.GIF" wi="373" he="87" />从而得到整个测试视频的姿态估计矩阵:<maths num="0001"><![CDATA[<math><mrow><msup><mi>T</mi><mo>*</mo></msup><mo>=</mo><msup><mrow><mo>[</mo><msup><mrow><mo>(</mo><msubsup><mi>t</mi><mn>1</mn><mo>*</mo></msubsup><mo>)</mo></mrow><mi>T</mi></msup><mo>,</mo><msup><mrow><mo>(</mo><msubsup><mi>t</mi><mn>2</mn><mo>*</mo></msubsup><mo>)</mo></mrow><mi>T</mi></msup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msup><mrow><mo>(</mo><msubsup><mi>t</mi><mi>q</mi><mo>*</mo></msubsup><mo>)</mo></mrow><mi>T</mi></msup><mo>,</mo><mo>.</mo><mo>.</mo><mo>.</mo><mo>,</mo><msup><mrow><mo>(</mo><msubsup><mi>t</mi><mi>M</mi><mo>*</mo></msubsup><mo>)</mo></mrow><mi>T</mi></msup><mo>]</mo></mrow><mi>T</mi></msup><mo>;</mo></mrow></math>]]></maths>(7)将得到的测试视频的姿态估计矩阵T*与人体运动姿态矩阵Y比较,其差值δ=|T<sup>*</sup>-Y|作为人体跟踪误差。
地址 710071 陕西省西安市太白南路2号