发明名称 一种机载视频压缩与目标跟踪联合实现方法
摘要 本发明公开了一种机载视频压缩和目标跟踪联合实现方法,该方法利用现有的视频压缩算法,从视频压缩算法中提取中间数据,同时通过计算飞机及云台各项参数得到的全局运动矢量补偿所得数据,得到相对运动矢量。之后对相对运动矢量进行分析计算,找到相对运动矢量权值较大的像素块,确定像素块的位置和形状,进而检测出运动目标所处的图像区域,实现无人机对所获取地面图像中运动目标的实时跟踪。本发明所述的跟踪方法可以在压缩图像的同时实现运动目标跟踪,具有很好的实时性和可靠性,在同时检测多目标时不会出现误检和漏检。并且节省硬件资源,实现简单。
申请公布号 CN101511022B 申请公布日期 2010.07.07
申请号 CN200910080382.2 申请日期 2009.03.20
申请人 北京航空航天大学 发明人 丁文锐;姜哲;杨桦;韦志棉
分类号 H04N7/26(2006.01)I;G06T7/20(2006.01)I 主分类号 H04N7/26(2006.01)I
代理机构 北京永创新实专利事务所 11121 代理人 周长琪
主权项 1.一种机载视频压缩和目标跟踪联合实现方法,其特征在于包括如下步骤:第一步,从视频压缩算法的运动参数估计部分提取中间数据,组成多元集H:<img file="FA20189768200910080382201C00011.GIF" wi="397" he="100" />从机载设备上提取飞行和云台运动参数,组成多元集P:<img file="FA20189768200910080382201C00012.GIF" wi="1039" he="83" />其中<img file="FA20189768200910080382201C00013.GIF" wi="65" he="78" />为像素块运动矢量,p(x,y)为像素块位置,S为像素块形状表示数;V<sub>uav</sub>,H<sub>uav</sub>为飞机的飞行速度与高度;α<sub>uav</sub>,β<sub>uav</sub>为飞机的方位角与俯仰角;V<sub>cam</sub>为云台相对与飞机运动的速度;γ<sub>cam</sub>,λ<sub>cam</sub>为摄像机的转动角与俯仰角;<img file="FA20189768200910080382201C00014.GIF" wi="54" he="39" />为摄像机视场角;I(w,h)为所获视频流的每帧图像的宽和高;fr为视频流的帧率;所述的中间数据包括像素块的运动矢量,位置和形状信息,其中运动矢量满足最小准则关系提取;第二步,通过提取的第一步中的多元集P,计算出全局运动矢量<img file="FA20189768200910080382201C00015.GIF" wi="86" he="83" />对从压缩算法中运动参数估计部分提取的像素块运动矢量<img file="FA20189768200910080382201C00016.GIF" wi="69" he="85" />进行运动补偿,得到相对运动矢量<img file="FA20189768200910080382201C00017.GIF" wi="58" he="59" /><img file="FA20189768200910080382201C00018.GIF" wi="263" he="61" />将像素块编号得到组成集合C,<img file="FA20189768200910080382201C00019.GIF" wi="466" he="75" />所述的对从压缩算法中运动参数估计部分提取的像素块运动矢量<img file="FA20189768200910080382201C000110.GIF" wi="64" he="54" />进行运动补偿,得到相对运动矢量<img file="FA20189768200910080382201C000111.GIF" wi="57" he="73" />具体方法如下:所述的全局运动矢量<img file="FA20189768200910080382201C000112.GIF" wi="78" he="73" />运动矢量<img file="FA20189768200910080382201C000113.GIF" wi="30" he="51" />的通过以下公式计算:根据第一步中的多元组合P:<img file="FA20189768200910080382201C000114.GIF" wi="959" he="106" />得到:侦察区域<img file="FA20189768200910080382201C000115.GIF" wi="1158" he="117" />两连续帧间背景位移为                   l=V<sub>uav</sub>/fr                (2)沿地面参照物水平分量为                 l<sub>h</sub>=l×cosα<sub>uav</sub>           (3)垂直分量                               l<sub>v</sub>=l×sinα<sub>uav</sub>           (4)所获全局运动矢量<img file="FA20189768200910080382201C000116.GIF" wi="57" he="79" />为:水平方向                               i<sub>0</sub>=l<sub>h</sub>/S<sub>c</sub>×w              (5)垂直方向                               j<sub>0</sub>=l<sub>v</sub>/S<sub>c</sub>×w              (6)全局运动矢量<img file="FA20189768200910080382201C000117.GIF" wi="1150" he="87" />相对运动矢量<img file="FA20189768200910080382201C000118.GIF" wi="31" he="57" />为:<img file="FA20189768200910080382201C000119.GIF" wi="1252" he="94" />所述的编号由三部分构成,第一部分为像素块对应的相对运动矢量<img file="FA20189768200910080382201C000120.GIF" wi="119" he="71" />第二部分为像素块的位置信息——像素块坐标p<sub>n</sub>(x,y),第三部分为像素块的形状表示数S<sub>n</sub>,提取的像素块编号组成集合C,集合C为<img file="FA20189768200910080382201C000121.GIF" wi="402" he="101" />n表示当前像素块为第n个像素块;第三步,通过矢量分析判断提取包括运动目标的像素块编号集合C′;设定一个门限值T,计算当前像素块的相对运动矢量的权值大小M(n),n表示当前像素块为第n个像素块,将M(n)与门限值T比较:若M(n)>T,则记录第n个像素块对应的编号及运动矢量,得到一个编号集合C′,集合C′为集合C的一个子集,然后读取下一个像素块;若M(n)<T,则不记录相应的像素块信息,直接读取下一个像素块进行判断;第四步,判断编号在集合C′中的各个像素块间的关系,确定运动目标位置、轮廓及运动状态,实现实时获取和跟踪运动目标,具体如下:(a)根据编号的第二部分位置信息,如果两像素块不相邻,则按照一个像素块的编号和运动矢量来计算像素块的边缘及中心位置,并记录相应像素块的编号;(b)如果两像素块相邻,则继续比较两个像素块的运动矢量;(c)如果相对运动矢量相近,则按像素块联合块计算像素边缘及中心位置,并记录下相应联合块的编号,联合块的编号取其中一个像素块的编号;(d)如果运动矢量不相近,则分别记录两个像素块的边缘及中心位置,并记录相应像素块的编号。
地址 100083 北京市海淀区学院路37号