发明名称 一种视频去抖动方法及装置
摘要 本发明实施例公开了一种视频去抖动方法及装置。一种视频去抖动方法,包括:对目标视频码流文件进行场景分割,获得至少一个码流分段;针对第i个码流分段中第j个视频帧,在该视频帧的边缘区域内确定满足预设要求的编码单元块,将该编码单元块覆盖的区域确定为背景特征区域;获取背景特征区域中各基本单元块相对于前一视频帧的运动矢量,根据预设的相机运动矢量确定规则,确定出一个视频帧的相机运动矢量;计算第i个码流分段中所有视频帧的相机运动矢量的均值,判断该均值是否小于ε_mv,根据判断结果采取对应的处理步骤。本发明可以根据码流信息,用振动模型模拟相机的抖动,进而采用对应的处理策略去除视频画面的抖动,以提高视频画面质量。
申请公布号 CN104469086A 申请公布日期 2015.03.25
申请号 CN201410799113.2 申请日期 2014.12.19
申请人 北京奇艺世纪科技有限公司 发明人 贺坚强
分类号 H04N5/21(2006.01)I;H04N5/14(2006.01)I 主分类号 H04N5/21(2006.01)I
代理机构 北京柏杉松知识产权代理事务所(普通合伙) 11413 代理人 马敬;项京
主权项 一种视频去抖动方法,其特征在于,所述方法包括:提取目标视频码流文件的码流信息,根据提取到的码流信息对所述目标视频码流文件进行场景分割,获得至少一个码流分段;针对第i个码流分段中的第j个视频帧f<sub>(i,j)</sub>,在该视频帧的边缘区域内,确定满足预设要求的编码单元块,并将该编码单元块覆盖的区域确定为背景特征区域A<sub>(i,j)</sub>;获取背景特征区域A<sub>(i,j)</sub>中各基本单元块相对于视频帧f<sub>(i,j‑1)</sub>的运动矢量,根据预设的相机运动矢量确定规则,从所获取的运动矢量中确定出:与视频帧f<sub>(i,j)</sub>相对应的相机运动矢量c_mv<sub>ij</sub>;计算第i个码流分段中所有视频帧的相机运动矢量的均值c_mvg<sub>i</sub>,判断|c_mvg<sub>i</sub>|是否小于ε_mv;如果|c_mvg<sub>i</sub>|小于ε_mv,判断|s_mvg<sub>i</sub>|是否小于α*ε_mv,如果是执行步骤R1,否则执行步骤R2;如果|c_mvg<sub>i</sub>|不小于ε_mv,判断|s_mvg<sub>i</sub>|是否小于β*|c_mvg<sub>i</sub>|,如果是执行步骤R1,否则执行步骤R2;其中,每个码流分段描述的视频内容画面为一个场景,每个码流分段中包含至少一个视频帧;i=1,……,N;j=1,……,M<sub>i</sub>;N为码流分段的总数,M<sub>i</sub>为第i个码流分段中包含的视频帧的总数;所述边缘区域的宽度为:W*1/w,高度为:H*1/h,所述预设要求为:编码单元块的尺寸值不小于预设的尺寸阈值,W为视频帧的宽度值,H为视频帧的高度值,w为预设的宽度量化参数,h为预设的高度量化参数;ε_mv为预设的第一阈值,α为预设的第一量化参数,β为预设的第二量化参数,<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mi>s</mi><mo>_</mo><msub><mi>mvg</mi><mi>i</mi></msub><mo>=</mo><mo>[</mo><munderover><mi>&Sigma;</mi><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mrow><mi>j</mi><mo>=</mo><msub><mi>M</mi><mi>i</mi></msub></mrow></munderover><mrow><mo>(</mo><mi>c</mi><mo>_</mo><msub><mi>mv</mi><mi>ij</mi></msub><mo>-</mo><mi>c</mi><mo>_</mo><msub><mi>mvg</mi><mi>i</mi></msub><mo>)</mo></mrow><mo>]</mo><mo>/</mo><msub><mi>M</mi><mi>i</mi></msub><mo>;</mo></mrow>]]></math><img file="FDA0000638180650000011.GIF" wi="844" he="141" /></maths>所述步骤R1为:对第i个码流分段中的各视频帧进行抖动矢量整体运动补偿,得到去除抖动后的图像;其中,抖动矢量为c_mv<sub>ij</sub>‑c_mvg<sub>i</sub>;所述步骤R2为:对视频帧f<sub>(i,j)</sub>进行全局相机运动c_mvg<sub>i</sub>补偿,得到第一虚拟相机拍摄的图像帧f<sub>(i,j)补</sub>,对图像帧f<sub>(i,j)补</sub>使用立体匹配技术,得到第二虚拟相机拍摄的图像帧f<sub>(i,j)补对</sub>,第一、二虚拟相机拍摄的图像构成一对立体图像;根据场景图像深度值和基于深度图的绘制技术,将两个虚拟相机采集的图像映射到原始相机的位置,得到去抖后的图像;其中,第一虚拟相机与第二虚拟相机之间的距离为B,两个虚拟相机的焦距均为f,场景图像深度值z=(B*f)/d,d为使用搜索匹配块技术从视频帧中获得的块级视差。
地址 100080 北京市海淀区北一街2号鸿城拓展大厦10、11层