发明名称 一种基于多级检测的行人检测与跟踪方法
摘要 一种基于多级处理的行人检测与跟踪方法,包括如下步骤:1)提取背景帧并预处理;2)提取前景区域并用矩形框标注,用当前帧与背景图像帧进行差分,提取出前景信息并进行二值化处理,用外轮廓标记每一个连通的前景区域,对每一个轮廓区域画出最小外接矩形,记录所有矩形的尺寸信息,将差分图像灰度值与阈值T对比,大于T的部分即确定为运动对象部分,否则为背景部分;3)利用行人的外形特征对目标区域进行初步的判断;4)对于判定为似目标区域的矩形区域Rn个数进行统计,并先采用基于HOG特征的行人检测算法排除非目标区域,然后采用光流法对剩余的目标区域进行跟踪。本发明计算速度较快、实时性良好、实用性较强。
申请公布号 CN104239865B 申请公布日期 2017.04.12
申请号 CN201410471167.6 申请日期 2014.09.16
申请人 宁波熵联信息技术有限公司 发明人 张标标;王亚沛;李仁旺;宋海龙;吴斌;陈跃鸣;杜克林
分类号 G06K9/00(2006.01)I 主分类号 G06K9/00(2006.01)I
代理机构 杭州斯可睿专利事务所有限公司 33241 代理人 王利强
主权项 一种基于多级处理的行人检测与跟踪方法,其特征在于:所述检测与跟踪方法包括如下步骤:1)提取背景帧并预处理,将输入的第一帧视频作为初始化背景图像帧,并对输入的每一帧原始图像帧进行图像预处理,对于不同尺寸的视频要进行归一化处理;2)提取前景区域并用矩形框标注,用当前帧与背景图像帧进行差分,提取出前景信息并进行二值化处理,用外轮廓标记每一个连通的前景区域,对每一个轮廓区域画出最小外接矩形,记录所有矩形的尺寸信息,矩形区域用R<sub>n</sub>表示,其尺寸信息包括长度H<sub>n</sub>、宽度W<sub>n</sub>、角度为λ<sub>n</sub>;前景提取公式:Δd<sub>t</sub>(x,y)=|I<sub>t</sub>(x,y)‑B<sub>t</sub>(x,y)|其中Δd<sub>t</sub>(x,y)、I<sub>t</sub>(x,y)、B<sub>t</sub>(x,y)分别表示t时刻的差分图像、当前帧图像、背景图像在(x,y)处的灰度值,将差分图像灰度值d<sub>t</sub>(x,y)与阈值T对比,大于T的部分即确定为运动对象部分,否则为背景部分;<maths num="0001"><math><![CDATA[<mrow><msub><mi>d</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>0</mn><mo>,</mo></mrow></mtd><mtd><mrow><msub><mi>d</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>&lt;</mo><mi>T</mi></mrow></mtd></mtr><mtr><mtd><mrow><mn>1</mn><mo>,</mo></mrow></mtd><mtd><mrow><msub><mi>d</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>x</mi><mo>,</mo><mi>y</mi><mo>)</mo></mrow><mo>&GreaterEqual;</mo><mi>T</mi></mrow></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0001217128500000011.GIF" wi="739" he="174" /></maths>3)目标区域的初步判定,利用行人的外形特征对目标区域进行初步的判断,包括设置矩形长轴与短轴长度比例的阀值L<sub>1</sub>、L<sub>2</sub>,长轴与地面夹角的阀值A,对于在阀值范围内的矩形区域划初步分为似目标区域,其他矩形区域划分为非目标区域丢弃;<maths num="0002"><math><![CDATA[<mrow><msub><mi>R</mi><mi>n</mi></msub><mo>=</mo><mfenced open = "{" close = ""><mtable><mtr><mtd><mrow><mn>1</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>i</mi><mi>f</mi><mi> </mi><msub><mi>L</mi><mn>1</mn></msub><mo>&lt;</mo><mfrac><msub><mi>H</mi><mi>n</mi></msub><msub><mi>W</mi><mi>n</mi></msub></mfrac><mo>&lt;</mo><msub><mi>L</mi><mn>2</mn></msub><msub><mi>and&lambda;</mi><mi>n</mi></msub><mo>&lt;</mo><mi>A</mi></mrow></mtd></mtr><mtr><mtd><mrow><mn>0</mn><mo>,</mo></mrow></mtd><mtd><mrow><mi>o</mi><mi>t</mi><mi>h</mi><mi>e</mi><mi>r</mi><mi>w</mi><mi>i</mi><mi>s</mi><mi>e</mi></mrow></mtd></mtr></mtable></mfenced></mrow>]]></math><img file="FDA0001217128500000012.GIF" wi="1025" he="251" /></maths>其中L<sub>1</sub>、L<sub>2</sub>、A为设定值,R<sub>n</sub>表示是否为目标区域,1表示为目标区域,0表示非目标区域;4)目标区域的最终判定,对于判定为似目标区域的矩形区域R<sub>n</sub>个数进行统计,并先采用基于HOG特征的行人检测算法排除非目标区域,然后采用光流法对剩余的目标区域进行跟踪;采用改进的Lucas‑Kanade算法进行光流估计,设上一帧为F<sub>n</sub>,当前帧为F<sub>n+1</sub>,上一帧中含有X个目标区域,当前帧中含有Y个目标区域,分别以这些区域的矩形框为边界将目标区域转换成目标图像帧,分别为F<sub>n</sub>={F<sub>n,1</sub>,F<sub>n,2</sub>,…F<sub>n,X</sub>}和F<sub>n+1</sub>={F<sub>n+1,1</sub>,F<sub>n+1,2</sub>,…F<sub>n+1,Y</sub>},根据矩形框大小计算出中心点分别为C<sub>n</sub>={C<sub>n,1</sub>,C<sub>n,2</sub>,…C<sub>n,X</sub>}和C<sub>n+1</sub>={C<sub>n+1,1</sub>,C<sub>n+1,2</sub>…C<sub>n+1,Y</sub>},然后以C<sub>n</sub>中的点集作为光流特征点集,分别对C<sub>n+1</sub>中的目标位置点集进行光流金字塔计算,最终从C<sub>n+1</sub>中找出与C<sub>n</sub>中各点相对应的特征点进行匹配,匹配成功后映射到F<sub>n+1</sub>对应位置并以F<sub>n+1</sub>中目标区域的中心点集为光流特征点集对下一帧进行匹配,如此迭代下去;利用Lucas‑Kanade算法进行跟踪的流程如下:4.1)初始化需要跟踪的特征点,本文中即为C<sub>n</sub>;4.2)计算两帧的光流金字塔,根据两帧之间的光流来计算初始化特征点所对应的目标点,即需要跟踪的点;4.3)显示特征点和运动轨迹,把输入输出点进行互换,上一帧与目前帧互换以及上一帧与当前帧金字塔互换,进行下一次跟踪;其中,光流金字塔的计算采用OpenCV提供的函数cvCalcOpticalFlowPyrLK()实现。
地址 315824 浙江省宁波市北仑区新碶明州西路479号1幢2号-11