发明名称 一种基于超像素的协同跟踪算法和系统
摘要 本发明涉及一种基于超像素的协同跟踪算法和系统。本发明提供的方法将结合全局判断和局部判断来确定候选图像内是否包含有目标区域,因此能解决目标区域被遮挡的跟踪问题,同时,通过引入更新策略,使得该方法可以适应目标区域在跟踪过程中各种外观变化,其准确性、适用性大大提高。
申请公布号 CN105654505A 申请公布日期 2016.06.08
申请号 CN201510971312.1 申请日期 2015.12.18
申请人 中山大学;广州智海纵横信息科技有限公司;广州中大南沙科技创新产业园有限公司 发明人 纪庆革;袁大龙;韩非凡;杜景洪;印鉴
分类号 G06T7/20(2006.01)I 主分类号 G06T7/20(2006.01)I
代理机构 广州粤高专利商标代理有限公司 44102 代理人 林丽明
主权项 一种基于超像素分割的协同跟踪算法,用于解决单摄像头单目标的跟踪问题,其特征在于:包括以下步骤:一、训练阶段S1.构建全局判别模型,所述全局判别模型用于提取目标区域的Haar_Like特征,然后根据提取的Haar_Like特征构建全局分类器GC,并确定全局分类器GC的参数;S2.使用基于重叠滑动窗口的分片方法对目标区域进行分片,获得N个子区域,然后分别构建N个全局判别模型,所述N个局部判别模型用于对N个子区域分别提取Haar_Like特征,然后根据提取Haar_Like特征分别构建局部分类器,并确定局部分类器的参数;S3.构建适应生成模型,并确认适应生成模型的模型参数,其具体步骤如下:对目标区域进行超像素分割,并分别提取每个超像素的特征向量,然后使用K‑means算法对目标区域的所有超像素进行聚类,从而确定适应生成模型的模型参数;二、跟踪阶段S4.将候选图像p<sub>i</sub>输入至全局判别模型,全局判别模型对候选图像p<sub>i</sub>的Haar_Like特征进行提取,然后使用全局分类器GC对候选图像p<sub>i</sub>的Haar_Like特征进行分类,GC(p<sub>i</sub>)表示候选图像p<sub>i</sub>的分类结果;S5.使用步骤S2的方法将候选图像p<sub>i</sub>划分N个子区域,然后使N个局部判别模型对N个子区域分别提取Haar_Like特征,然后使用N个局部分类器分别对N个子区域的Haar_Like特征进行分类,LC<sub>j</sub>(p<sub>i</sub>)表示第j个局部分类器对子区域的分类结果;S6.结合全局分类模型、局部分类模型的分类结果,对候选图像是否包含目标区域进行判断:<img file="FDA0000883436350000011.GIF" wi="1086" he="157" />thr<sub>GC</sub>、thr<sub>LC</sub>分别表示全局分类、局部分类的两个阈值,当y(p<sub>i</sub>)=1时,表示候选图像p<sub>i</sub>包含有目标区域;S7.将所有的候选图像进行步骤S4~S6的操作从而判断其内是否包含有目标区域,然后将所有判定其内包含有目标区域的候选图像输入至适应生成模型;S8.对于每一张候选图像,适应生成模型对其进行超像素分割,然后提取每个超像素的特征向量,然后使用K‑means算法对所有超像素的特征向量进行聚类,并计算候选图像的聚类置信度;然后选取置信度最高的候选图像作为跟踪结果进行输出,输出数据包括当前跟踪结果的置信度conf<sub>T</sub>与目标区域的匹配面积area<sub>T</sub>,其中<img file="FDA0000883436350000021.GIF" wi="575" he="71" />其中A<sub>i</sub>为每个超像素的面积,N表示候选图像片中包含超像素的个数,<img file="FDA0000883436350000022.GIF" wi="935" he="238" />其中g′<sub>i</sub>表示候选图像片包含的超像素,k′<sub>i</sub>表示超像素所属聚类,S′<sub>i</sub>表示超像素所属聚类的距离,<img file="FDA0000883436350000023.GIF" wi="156" he="87" />表示每个聚类的目标/背景置信度,R′<sub>j</sub>表示聚类半径,conf′<sub>i</sub>表示g′<sub>i</sub>的置信度,L<sub>i</sub>表示候选图像片中每个超像素与所属聚类中的模板超像数间的最小空间距离,a<sub>s</sub>是控制空间距离权重的权重因子,a<sub>s</sub>∈(0,1),<img file="FDA0000883436350000024.GIF" wi="341" he="102" />表示g′<sub>i</sub>与所属聚类的模板超像素<img file="FDA0000883436350000025.GIF" wi="111" he="103" />在目标区域中的空间距离;<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><msub><mi>conf</mi><mrow><mi>c</mi><mi>l</mi><mi>s</mi></mrow></msub><mo>=</mo><mfrac><msub><mi>A</mi><mrow><mi>t</mi><mi>arg</mi><mi>e</mi><mi>t</mi></mrow></msub><mrow><msub><mi>A</mi><mrow><mi>t</mi><mi>arg</mi><mi>e</mi><mi>t</mi></mrow></msub><mo>+</mo><msub><mi>A</mi><mrow><mi>b</mi><mi>a</mi><mi>c</mi><mi>k</mi><mi>g</mi><mi>o</mi><mi>u</mi><mi>n</mi><mi>d</mi></mrow></msub></mrow></mfrac><mo>,</mo></mrow>]]></math><img file="FDA0000883436350000026.GIF" wi="597" he="110" /></maths>其中A<sub>target</sub>表示每个聚类中所有类成员属于目标区域的像素点个数的和,A<sub>background</sub>表示背景区域的像素点个数的和;其中<maths num="0002" id="cmaths0002"><math><![CDATA[<mrow><msub><mi>area</mi><mi>T</mi></msub><mo>=</mo><mfrac><mrow><msubsup><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></msubsup><mi>F</mi><mrow><mo>(</mo><msub><mi>g</mi><mi>j</mi></msub><mo>)</mo></mrow></mrow><mi>A</mi></mfrac><mo>,</mo></mrow>]]></math><img file="FDA0000883436350000027.GIF" wi="383" he="118" /></maths><maths num="0003" id="cmaths0003"><math><![CDATA[<mrow><mi>F</mi><mrow><mo>(</mo><msub><mi>g</mi><mi>j</mi></msub><mo>)</mo></mrow><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><msubsup><mi>A</mi><mi>j</mi><mo>&prime;</mo></msubsup><msubsup><mi>A</mi><mi>j</mi><mo>&prime;</mo></msubsup><mo>&le;</mo><msubsup><mi>A</mi><mrow><mi>t</mi><mi>arg</mi><mi>e</mi><mi>t</mi></mrow><mi>j</mi></msubsup></mrow></mtd></mtr><mtr><mtd><mrow><msubsup><mi>A</mi><mrow><mi>t</mi><mi>arg</mi><mi>e</mi><mi>t</mi></mrow><mi>j</mi></msubsup><msubsup><mi>A</mi><mi>j</mi><mo>&prime;</mo></msubsup><mo>&gt;</mo><msubsup><mi>A</mi><mrow><mi>t</mi><mi>arg</mi><mi>e</mi><mi>t</mi></mrow><mi>j</mi></msubsup></mrow></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0000883436350000028.GIF" wi="606" he="175" /></maths>A′<sub>j</sub>表示当前跟踪结果中每个超像素的像素点个数,<img file="FDA0000883436350000029.GIF" wi="167" he="93" />表示每个超像素聚类包含的目标区域像素点个数,M表示超像素的总数;三、检测阶段S9.构建模板库生成模型,并使模板库生成模型在当前帧内检测目标区域,返回检测结果的置信度conf<sub>D</sub>,然后根据适应生成模型和模板库生成模型的输出结果估计目标区域的当前位置:1)当area<sub>T</sub>≥thr<sub>PL</sub>且conf<sub>T</sub>≥thr<sub>TH</sub>时其中thr<sub>TH</sub>、thr<sub>PL</sub>分别表示置信度阈值和匹配面积阈值,此时适应生成模型的跟踪结果具有较高的置信度和匹配面积,适应生成模型正常工作而且适应了目标区域外观,所以把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据area<sub>T</sub>、conf<sub>T</sub>对全局分类器GC、局部分类器、适应生成模型的参数进行更新;2)当area<sub>T</sub><thr<sub>PL</sub>且conf<sub>T</sub>≥thr<sub>TH</sub>时此时适应生成模型的跟踪结果的匹配面积较低,但跟踪结果的置信度仍然高于阈值,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据area<sub>T</sub>、conf<sub>T</sub>对全局分类器GC、局部分类器、适应生成模型的参数进行更新;3)当area<sub>T</sub>≥thr<sub>PL</sub>且conf<sub>T</sub><thr<sub>TH</sub>时此时适应生成模型的跟踪结果具有较低的置信度,但具有较高的匹配面积,所以仍把适应生成模型的输出结果作为目标位置输出;然后按照更新策略根据area<sub>T</sub>、conf<sub>T</sub>对全局分类器GC、局部分类器、适应生成模型的参数进行更新;4)当area<sub>T</sub><thr<sub>PL</sub>,conf<sub>T</sub>≥thr<sub>TH</sub>且conf<sub>D</sub>≥thr<sub>DH</sub>时thr<sub>DH</sub>表示检测结果置信度的阈值,此时适应生成模型的跟踪结果的置信度和匹配面积都低于预设的阈值,而模板库生成模型检测到一个置信度较高的目标位置,则把模板库生成模型的检测结果当作目标位置输出,然后对全局分类器GC、局部分类器、适应生成模型进行重初始化。
地址 510275 广东省广州市海珠区新港西路135号