发明名称 基于在线机器学的视觉人手跟踪方法及系统
摘要 本发明涉及一种基于在线机器学的视觉人手跟踪方法及系统,系统包括:跟踪器、检测器和在线机器学。跟踪方法为:本发明通过在线学将基于分类器的检测和基于运动连续性的跟踪结合起来,以实现对现实应用场景鲁棒的人手跟踪。通过利用层级分类器(检测器)对搜索区域内的像素点进行分类,得到对目标的保守但稳定的估计;利用结合鸟群算法的光流法跟踪器对目标进行适应性较强但不太稳定的估计;利用在线学机制将二者结合得到的跟踪结果,并且根据时间空间约束产生新的样本来在线更新层级的分类器,从而实现跟踪器和检测器的互补,来获得更加鲁棒的跟踪结果。本发明增强了对光照变化和快速运动的鲁棒性。
申请公布号 CN103426008B 申请公布日期 2017.04.05
申请号 CN201310385425.4 申请日期 2013.08.29
申请人 北京大学深圳研究生院 发明人 刘宏;刘星;王灿
分类号 G06K9/66(2006.01)I 主分类号 G06K9/66(2006.01)I
代理机构 北京君尚知识产权代理事务所(普通合伙) 11200 代理人 余长江
主权项 一种基于在线机器学习的视觉人手跟踪方法,其步骤为:1)对视觉数据输入图像,提取得到图像特征并检测初始人手目标位置得到正负样本,对所述正负样本进行训练得到初始化的分类器;同时在所述分类器中增加肤色约束;2)对后续采集的视觉数据输入图像,选取待跟踪物体的特征点,使用基于鸟群算法的光流跟踪法跟踪所述特征点确定搜索窗口,得到物体跟踪器,其中,按照如下方法跟踪所述特征点:2‑1)输入物体目标位置以及搜索窗口,并通过栅格法随机产生特征点集;2‑2)通过LK光流法跟踪器跟踪选取的特征点,得到跟踪成功特征点集以及跟踪失败特征点集,从特征点集中剔除掉跟踪失败的特征点;2‑3)判断跟踪特征点的偏离,判断是否补充特征点,并根据肤色检测机制,在跟踪目标中选取肤色点补充到特征点集中;2‑4)将满足约束的特征点加入到特征点集中,继续进行跟踪;2‑5)通过跟踪成功的特征点集对目标窗口以及中心位置进行估计,输出跟踪目标窗口以及中心位置;3)所述物体跟踪器在搜索窗口中对物体的特征点进行跟踪,根据特征点集估计物体位置得到目标跟踪物体的置信度,所述分类器对置信度不可靠的物体进行检测,输出更新后的物体目标中心和窗口;4)根据物体目标中心和窗口在所述分类器中通过时间、空间、肤色约束条件产生正负样本训练集,重新训练在线机器学习的分类器,更新分类器的参数,用于下一帧的跟踪。
地址 518055 广东省深圳市南山区西丽深圳大学城北京大学校区