发明名称 一种融合上下文探测的弱结构感知视觉目标跟踪方法
摘要 本发明公开了一种融合上下文探测的弱结构感知视觉目标跟踪方法。初始化时通过感知目标与周围环境各部件的弱结构关系建立模型。模型维护对应于目标和周围的两个部件集合,利用特征点及特征描述符表达部件外观。在跟踪过程中,将部件集与运动模型结合,生成潜在目标中心,然后通过对潜在目标中心的聚类,剔除噪声获得精确目标位置,并更新目标尺寸。在弱结构跟踪框架下,为了增强部件位置的预测,引入自底向上和自顶向下两种方式对目标上下文进行探测。自底向上探测通过估计像素级的局部运动,为各部件提供一致的跟踪信息。自顶向下探测则通过构建超像素核模型,在个体层面学目标和背景的差异,为目标定位和模型更新提供指导信息。
申请公布号 CN106203423A 申请公布日期 2016.12.07
申请号 CN201610489627.7 申请日期 2016.06.26
申请人 广东外语外贸大学 发明人 吴贺丰;刘畅;朱恒政;刘宁
分类号 G06K9/32(2006.01)I 主分类号 G06K9/32(2006.01)I
代理机构 代理人
主权项 一种融合上下文探测的弱结构感知视觉目标跟踪方法,其特征在于,所述方法包括以下步骤:步骤A,初始化跟踪目标,构建跟踪框架的外观模型。步骤B,构建相对目标中心的运动模型。步骤C,读取下一帧图像。步骤D,在本帧中利用自底向上的上下文探测对特征点进行搜寻,并将候选特征点与前一帧的特征点匹配,以得到特征点在本帧图像的新位置。步骤E,对特征点的运动状态进行估计,获知每个特征点的运动状态。步骤F,根据运动状态估测潜在目标中心位置,得到一组潜在目标中心点集合,通过聚类对目标进行定位。步骤G,更新目标的宽度和高度。步骤H,利用自顶向下的上下文探测检测遮挡并更新模型。重复执行步骤C至步骤H,直至处理完所有图像序列。
地址 510006 广东省广州市番禺区广州大学城广东外语外贸大学信息学院