发明名称 基于时空结构上下文关系在线学的目标跟踪方法
摘要 本发明公开了一种基于时空结构上下文关系在线学的目标跟踪方法,用于对视频中出现的目标图像进行跟踪,该方法包括如下步骤:建立目标跟踪的时间结构上下文模型和空间结构上下文模型;在该视频帧中对目标可能出现的区域进行采样,得到采样图像;将所述采样图像输入所述时间结构上下文模型和空间结构上下文模型中,得到该采样图像中的各采样点为目标所在区域的时间概率结果和空间概率结果;将所述空间概率结果和时间概率进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果。本发明能够在事先不了解目标任何信息,不了解目标所在场景的任何信息条件下,通过对目标表象特征的自动在线学,准确的将目标的位置定位出来。
申请公布号 CN102999766B 申请公布日期 2016.05.18
申请号 CN201210359621.X 申请日期 2012.09.24
申请人 中国科学院自动化研究所 发明人 李子青;文珑银;雷震;易东
分类号 G06K9/66(2006.01)I 主分类号 G06K9/66(2006.01)I
代理机构 中科专利商标代理有限责任公司 11021 代理人 宋焰琴
主权项 一种目标跟踪方法,用于对视频中出现的目标图像进行跟踪,其特征在于,包括如下步骤:建立目标跟踪的时间结构上下文模型和空间结构上下文模型,所述时间结构上下文模型为<img file="FDA0000941746920000011.GIF" wi="1142" he="151" />其中U(Z<sub>t</sub>)是该时间结构上下文模型中的候选目标概率所对应的能量函数,Z<sub>t</sub>为目标在时刻t的状态信息,O<sub>t</sub>为目标在时刻t的观测值,O<sub>1:t</sub>为目标从时刻1到时刻t之间的所有观测值,重建误差ε(O<sub>t</sub>),q为子空间建立时的压缩维度,σ<sub>t</sub>表示压缩维度过程中的能量损失量,G<sub>i,t</sub>表示将目标观察量投影到的隐空间中间变量,结构Ω<sub>t</sub>=(μ<sub>t</sub>,V<sub>t</sub>,Λ<sub>t</sub>,n<sub>t</sub>)中分别表示在时刻t的样本均值、特征向量、特征向量值以及子空间样本数量,λ<sub>i,t</sub>为时刻t的特征值,d为样本特征维度;在视频帧中对目标可能出现的区域进行采样,得到采样图像;将所述采样图像输入所述时间结构上下文模型和空间结构上下文模型中,得到该采样图像中的各采样点为目标所在区域的时间概率结果和空间概率结果;将所述空间概率结果和时间概率结果进行融合,得到各采样点属于目标区域的后验概率,将所述后验概率的最大值所对应的采样点作为目标跟踪的最终结果。
地址 100190 北京市海淀区中关村东路95号