发明名称 |
基于深度卷积神经网络特征融合的目标跟踪方法及系统 |
摘要 |
本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。 |
申请公布号 |
CN106056628A |
申请公布日期 |
2016.10.26 |
申请号 |
CN201610371378.1 |
申请日期 |
2016.05.30 |
申请人 |
中国科学院计算技术研究所 |
发明人 |
秦磊;齐元凯;张盛平;姚鸿勋;黄庆明;林钟禹;杨明轩 |
分类号 |
G06T7/20(2006.01)I |
主分类号 |
G06T7/20(2006.01)I |
代理机构 |
北京律诚同业知识产权代理有限公司 11006 |
代理人 |
祁建国;梁挥 |
主权项 |
一种基于深度卷积神经网络特征融合的目标跟踪方法,其特征在于,包括:步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。 |
地址 |
100190 北京市海淀区中关村科学院南路6号 |