发明名称 一种视频场景行为拼接方法
摘要 本发明是一种视频场景行为拼接方法,实现视频场景拼接和不同视频中运动物体的行为拼接,包括:首先,在图像配准的基础上,网格划分视频图像,形成图像块结点集合和图像块标签集合,利用图像块聚类算法,为每个图像块结点生成图像块标签类代表候选集,分别构建并求解图像块结点的二维和三维马尔科夫随机场,生成静态和动态背景;然后,在运动物体轨迹提取的基础上,通过计算不同视频运动物体之间的轨迹相似性和位置相似性,给出运动物体行为的可拼接性,在时间和空间上对齐视频;最后,利用泊松融合算法,融合全景动态背景视频和运动,生成行为拼接后的视频场景。
申请公布号 CN102426705A 申请公布日期 2012.04.25
申请号 CN201110301205.X 申请日期 2011.09.30
申请人 北京航空航天大学 发明人 陈小武;赵沁平;陈召东;李鑫
分类号 G06T7/20(2006.01)I;G06K9/46(2006.01)I 主分类号 G06T7/20(2006.01)I
代理机构 北京科迪生专利代理有限责任公司 11251 代理人 许玉明;顾炜
主权项 一种视频场景行为拼接方法,其特征在于包含以下步骤:(1)在输入视频序列中提取局部特征;(2)在同一输入视频的不同帧中,使用基于k‑d树的近似最近邻搜索算法在欧式空间中寻找每个特征向量的最近邻和次近邻,当特征向量到最近邻与次近邻距离之比小于某阈值时认为二者匹配,完成局部特征的匹配;(3)根据每个输入视频的局部特征的匹配结果,把输入视频的所有帧配准到同一坐标系;(4)网格划分输入视频图像,形成图像块结点集合和图像块标签集合,采用单链接聚类算法对位置相同的标签进行聚类,聚类采用的距离计算公式为在颜色空间上图像块之间逐像素相减的距离平方和;(5)利用二维马尔科夫随机过程表示将输入视频的全景背景图像生成过程,并利用置信度传播方法为每个图像块结点选择图像块标签;(6)利用三维马尔科夫随机场表示输入视频的动态背景视频的生成,并利用置信度传播方法为每个图像块结点选择图像块标签;(7)根据生成的输入视频全景静态背景图像,提取出视频中的运动物体,计算出每帧图像中运动物体的位置,计算每一帧视频图像中运动物体的速度,定义运动物体的轨迹;在此基础之上提取出每个输入视频中运动物体的轨迹,并利用轨迹相似性和位置相似性计算多个输入视频中运动物体的行为的可拼接性;(8)用户在输入视频中指定一个为参考视频;在运动物体行为的可拼接性的基础上,根据参考视频的全景动态背景视频,以及提取出的运动物体,利用泊松融合方法,融合全景动态背景视频和运动物体,生成行为拼接后的视频场景。
地址 100191 北京市海淀区学院路37号