发明名称 基于极小化上界误差的视觉跟踪方法
摘要 本发明是基于极小化上界误差的视觉跟踪方法,利用跟踪器估计目标在当前帧中的区域,所述目标区域包括目标位置与目标大小;以估计的目标区域为参照提取样本;对提取的样本抽取两类不同性质的视觉特征;利用抽取的各样本两类不同性质的视觉特征在线进行协同提升学,并对跟踪器进行更新,在线协同提升学中,利用两个并行的提升算法同时对两类不同性质的视觉特征进行选择,并在各级视觉特征选择中利用协同学进行相互约束,在选择最佳的视觉特征提升跟踪器性能的同时利用协同学配置最佳的样本属性。跟踪器在线学不需要输入样本的标注信息,在跟踪结果不完全准确的情况下也不会带来累计误差,从而保证了跟踪器的稳定性与可靠性。
申请公布号 CN102054170B 申请公布日期 2013.07.31
申请号 CN201110021981.4 申请日期 2011.01.19
申请人 中国科学院自动化研究所 发明人 卢汉清;王金桥;刘荣
分类号 G06K9/00(2006.01)I;G06K9/62(2006.01)I;G06T7/20(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 中科专利商标代理有限责任公司 11021 代理人 梁爱荣
主权项 基于极小化上界误差的视觉跟踪方法,其特征在于,实现所述方法的步骤包括如下:步骤S1:利用跟踪器估计目标在当前帧中的区域,所述目标在当前帧中的区域包括目标位置与目标大小;步骤S2:以估计的目标在当前帧中的区域为参照提取样本;步骤S3:对提取的样本抽取两类不同性质的视觉特征;步骤S4:利用抽取的各样本两类不同性质的视觉特征在线进行协同提升学习,并对跟踪器进行更新,在线协同提升学习中,利用两个并行的提升算法同时对两类不同性质的视觉特征进行选择,并在各级视觉特征选择中利用协同学习进行相互约束,在选择最佳的视觉特征提升跟踪器性能的同时利用协同学习配置最佳的样本属性;在线协同提升学习满足误差上界极小化要求,具体如下:目标跟踪器在有监督的条件下其误差上界为: <mrow> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <mo>|</mo> <mo>{</mo> <mi>i</mi> <mo>:</mo> <mi>sign</mi> <mrow> <mo>(</mo> <mi>F</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>&NotEqual;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>}</mo> <mo>|</mo> <mo>&le;</mo> <mfrac> <mn>1</mn> <mi>J</mi> </mfrac> <munderover> <mi>&Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>J</mi> </munderover> <mrow> <mo>(</mo> <munderover> <mi>&Pi;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>T</mi> </munderover> <msub> <mi>Z</mi> <mrow> <mi>t</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow>式中 <mrow> <msub> <mi>Z</mi> <mi>t</mi> </msub> <mo>=</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>D</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <msub> <mi>&alpha;</mi> <mi>t</mi> </msub> <msub> <mi>h</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mrow>其中F(x)表示最终的目标分类器,x为样本,Dt(i)为第t次提升选择时的样本权重,取值为一个大于0的浮点数,yi为样本属性,取值为+1或是‑1分别代表样本属性是目标或是背景,αt为第t个弱分类器的权重,ht为第t个弱分类器,j为视角,n为总样本数,i≤n,J为视角的总数,J=2,Zt为第t次提升后的总样本加权,Zt,j为第j个视角在第t次提升后的总样本加权。
地址 100190 北京市海淀区中关村东路95号