发明名称 一种基于视频结构化描述的多摄像机目标跟踪方法
摘要 本发明公开了一种基于视频结构化描述的多摄像机目标跟踪方法,其包括视频结构化描述功能和多摄像间目标接力跟踪功能,用于对场景中的感兴趣目标进行跟踪,并对该目标的特征进行结构化描述;采用高斯混合模型从视频场景中提取目标轮廓;通过Blob连通区域分析获取完整的目标轮廓并获取目标位置与大小;计算目标的色彩直方图;根据目标在两帧中的位置特征,实现目标在场景中的跟踪;当目标出现在另一摄像机场景中时,将其坐标信息与色彩信息与文件中信息进行对比,若符合条件,则进行接力跟踪。本发明使用多摄像机有利于解决遮挡问题、场景混乱、光照突变等情况下的目标跟踪问题。
申请公布号 CN102568003B 申请公布日期 2015.04.08
申请号 CN201110433267.6 申请日期 2011.12.21
申请人 北京航空航天大学深圳研究院 发明人 李超;陈帆;郭信谊;李昂
分类号 G06T7/20(2006.01)I 主分类号 G06T7/20(2006.01)I
代理机构 北京科迪生专利代理有限责任公司 11251 代理人 李新华;成金玉
主权项 一种基于视频结构化描述的多摄像机目标跟踪方法,该跟踪方法包括:视频结构化描述功能和多摄像间目标接力跟踪功能;其特征在于:将视频场景中的感兴趣目标进行结构化描述,即采用视频结构化描述技术将场景中感兴趣目标进行特征提取,并将特征与结构化文本进行表述,并实现多摄像机之间的目标跟踪,其步骤如下:(1)前景目标提取:包括对场景中敏感区域进行高斯混合模型处理,检测目标区域;(2)获取完整目标轮廓:包括采用Blob分析方法获取目标轮廓,根据轮廓之间的位置关系,将属于同一目标的轮廓进行合并,并计算目标颜色直方图特征;(3)目标结构化描述:将目标的坐标特征与颜色直方图特征数值化,并采用可扩展标记语言(XML)进行描述;(4)场景中的目标跟踪:根据目标在单摄像机场景中的位置信息,计算两帧之间目标的位置关系,判断是否为同一物体,并进行跟踪;记录目标在场景中的运动轨迹;(5)多摄像机间目标跟踪:对场景中新出现的目标计算颜色直方图信息,将其与系统已有XML文件颜色直方图信息进行对比,若属于同一物体,则实现多摄像之间的接力跟踪;所述的视频结构化描述功能,即利用图像处理技术,对摄像头传来的图像数据进行前景目标提取,将前景运动目标从场景中分离;通过Blob分析,获取完整的目标轮廓及在场景中的坐标;计算目标轮廓的颜色直方图;将目标的坐标信息与颜色直方图信息用标准的结构化文本语言进行描述,该文本语言为计算机可理解语言;所述的目标结构化描述,即将提取的目标坐标信息与颜色直方图信息用可扩展标记语言进行描述;所述多摄像机之间的目标跟踪,即将出现在另一场景中目标进行图像处理,提取其颜色直方图特征与坐标信息,并转化为结构化文本信息;将它与原有的结构化文本信息进行对比,若判断为同一物体,则进行继续跟踪;所述的前景目标提取,即采用高斯混合模型方法,将前景目标从场景中分离;所述的Blob分析方法,指通过对分离出得前景目标进行连通区域计算,分析出完整的目标轮廓;同时对复杂环境中,造成的目标不同部分分离的情况进行处理,并确定目标的所处视频帧位置;设目标A的坐标为(Ax<sub>1</sub>,Ay<sub>1</sub>,Bx<sub>1</sub>,By<sub>1</sub>,Cx<sub>1</sub>,Cy<sub>1</sub>,Dx<sub>1</sub>,Dy<sub>1</sub>),目标B(Ax<sub>2</sub>,Ay<sub>2</sub>,Bx<sub>2</sub>,By<sub>2</sub>,Cx<sub>2</sub>,Cy<sub>2</sub>,Dx<sub>2</sub>,Dy<sub>2</sub>),若Dy<sub>1</sub>‑Dy<sub>2</sub>≤T<sub>c</sub>,其中T<sub>c</sub>为设置阈值,则将目标A与目标B合并;得到新的Blob块的坐标为(Ax<sub>max</sub>,Ay<sub>min</sub>,Bx<sub>max</sub>,By<sub>max</sub>,Cx<sub>min</sub>,Cy<sub>min</sub>,Dx<sub>min</sub>,Dy<sub>max</sub>),如果一个目标的Blob连通区域有两个以上,方法以此类推;通过这个步骤人体目标将被完整的提取,同时也避免了由于噪声点干扰导致一个物体被分割为多个物体的问题;所述的场景中的目标跟踪,是指通过判断两帧中目标的位置关系来实现跟踪;假设在第n帧,目标矩形的中心点坐标为(x<sub>n</sub>,y<sub>n</sub>),第n+1帧,目标矩形的中心点坐标为(x<sub>n+1</sub>,y<sub>n+1</sub>);如满足以下条件则判断为同一物体,继续跟踪,其中t,q为阈值:<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mfenced open='{' close=''><mtable><mtr><mtd><mo>|</mo><msub><mi>y</mi><mrow><mi>n</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>-</mo><msub><mi>y</mi><mi>n</mi></msub><mo>|</mo><mo>&le;</mo><mi>t</mi></mtd></mtr><mtr><mtd><mo>|</mo><msub><mi>x</mi><mrow><mi>n</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>-</mo><msub><mi>x</mi><mi>n</mi></msub><mo>|</mo><mo>&le;</mo><mi>q</mi></mtd></mtr></mtable></mfenced><mo>;</mo></mrow>]]></math><img file="FDA0000657339370000021.GIF" wi="328" he="186" /></maths>由于单摄像机视野域有限,而多摄像可监控大范围场景,该跟踪方法使用多摄像机有利于解决遮挡问题、场景混乱、光照突变情况下的目标跟踪问题;其中,视频结构化描述功能的处理步骤如下:步骤2‑1,进行图像预处理,进行平滑、去噪与目标增强操作,突出目标特征;步骤2‑2,对图像进行高斯混合模型处理,经过该高斯混合模型处理后,将得到场景中前景目标的完整形态,在二值化图像中,前景目标为1即白色,背景为0为黑色;步骤2‑3,对高斯混合模型处理后的前景目标进行形态学处理,进行腐蚀和膨胀操作,去除大部分噪声点,同时对目标物体内的空洞进行填充;步骤2‑4,对目标进行Blob分析,得出前景目标连通区域的位置信息和大小信息;步骤2‑5,判断不同连通区域的位置关系,若符合条件则判断为同一物体进行合并,若不属于同一物体,则分别编号;步骤2‑6,记录目标的坐标位置;步骤2‑7,计算目标的颜色直方图信息;步骤2‑8,将颜色直方图信息与坐标位置信息进行结构化描述,即将数据用XML方式进行描述;步骤2‑9,若为最后一帧,则跳至2‑10,若不是最后一帧则跳至步骤2‑1;步骤2‑10,该工作流程结束;其中,在多摄像机间目标跟踪功能中,即当场景中出现新目标时,提取该目标的相关信息,将该信息与已有的视频结构化数据进行对比,若满足条件,则继续跟踪,具体步骤如下:步骤3‑1,提取目标颜色直方图信息;步骤3‑2,将颜色直方图信息与视频结构化数据对比;步骤3‑3,若满足条件,则跳至步骤3‑4,否则跳至3‑5;步骤3‑4,对目标继续跟踪;步骤3‑5,该工作流程结束。
地址 518057 广东省深圳市南山区高新技术南区虚拟大学园A501室