发明名称 一种基于中心凹恰可觉察失真模型的深度视频编码方法
摘要 本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩色视频和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。
申请公布号 CN102724525A 申请公布日期 2012.10.10
申请号 CN201210180891.4 申请日期 2012.06.01
申请人 宁波大学 发明人 蒋刚毅;朱亚培;王晓东;郁梅;朱高锋;邵枫;彭宗举
分类号 H04N13/00(2006.01)I;H04N15/00(2006.01)I 主分类号 H04N13/00(2006.01)I
代理机构 宁波奥圣专利代理事务所(普通合伙) 33226 代理人 周珏
主权项 1.一种基于中心凹恰可觉察失真模型的深度视频编码方法,其特征在于包括以下步骤:①将待编码的深度视频的左视点视频记为D<sub>L</sub>(m,n,k),将与待编码的深度视频的左视点视频D<sub>L</sub>(m,n,k)对应的彩色视频的左视点视频记为C<sub>L</sub>(m,n,k),将待编码的深度视频的右视点视频记为D<sub>R</sub>(m,n,k),将与待编码的深度视频的右视点视频D<sub>R</sub>(m,n,k)对应的彩色视频的右视点视频记为C<sub>R</sub>(m,n,k),其中,m表示D<sub>L</sub>(m,n,k)中的深度视频帧、C<sub>L</sub>(m,n,k)中的彩色视频帧、D<sub>R</sub>(m,n,k)中的深度视频帧和C<sub>R</sub>(m,n,k)中的彩色视频帧的水平分辨率,n表示D<sub>L</sub>(m,n,k)中的深度视频帧、C<sub>L</sub>(m,n,k)中的彩色视频帧、D<sub>R</sub>(m,n,k)中的深度视频帧和C<sub>R</sub>(m,n,k)中的彩色视频帧的垂直分辨率,m×n表示D<sub>L</sub>(m,n,k)中的深度视频帧、C<sub>L</sub>(m,n,k)中的彩色视频帧、D<sub>R</sub>(m,n,k)中的深度视频帧和C<sub>R</sub>(m,n,k)中的彩色视频帧的分辨率,k表示D<sub>L</sub>(m,n,k)中包含的深度视频帧、C<sub>L</sub>(m,n,k)中包含的彩色视频帧、D<sub>R</sub>(m,n,k)中包含的深度视频帧和C<sub>R</sub>(m,n,k)中包含的彩色视频帧的帧数;②在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,采用D<sub>L</sub>(m,n,k)的初始编码量化参数<img file="FDA00001714612500011.GIF" wi="89" he="57" />对D<sub>L</sub>(m,n,k)进行编码,采用C<sub>L</sub>(m,n,k)的初始编码量化参数<img file="FDA00001714612500012.GIF" wi="87" he="58" />对C<sub>L</sub>(m,n,k)进行编码,采用D<sub>R</sub>(m,n,k)的初始编码量化参数<img file="FDA00001714612500013.GIF" wi="91" he="58" />对D<sub>R</sub>(m,n,k)进行编码,采用C<sub>R</sub>(m,n,k)的初始编码量化参数<img file="FDA00001714612500014.GIF" wi="88" he="58" />对C<sub>R</sub>(m,n,k)进行编码;然后对D<sub>L</sub>(m,n,k)、C<sub>L</sub>(m,n,k)、D<sub>R</sub>(m,n,k)和C<sub>R</sub>(m,n,k)经编码后的视频进行中间虚拟视点绘制,得到绘制后的中间虚拟视点视频,记为V(m,n,k),其中,V(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,V(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;③计算V(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,得到全局恰可觉察失真的中间虚拟视点视频,记为G<sub>JND</sub>(m,n,k),其中,G<sub>JND</sub>(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,G<sub>JND</sub>(m,n,k)中包含的中间虚拟视点视频的帧数为k;④根据G<sub>JND</sub>(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的全局恰可觉察失真,定量得到G<sub>JND</sub>(m,n,k)的几何偏移的中间虚拟视点视频,记为ΔP(m,n,k),其中,ΔP(m,n,k)中的中间虚拟视点视频帧的分辨率为m×n,ΔP(m,n,k)中包含的中间虚拟视点视频帧的帧数为k;⑤根据ΔP(m,n,k)中的每帧中间虚拟视点视频帧中的每个像素的几何偏移,定性得到D<sub>L</sub>(m,n,k)的最大可容忍失真视频,记为ΔD<sub>L</sub>(m,n,k),其中,ΔD<sub>L</sub>(m,n,k)中的最大可容忍失真视频帧的分辨率为m×n,ΔD<sub>L</sub>(m,n,k)中包含的最大可容忍失真视频帧的帧数为k;⑥首先根据ΔD<sub>L</sub>(m,n,k)将D<sub>L</sub>(m,n,k)中的所有深度视频帧的宏块分成四类,并分别确定四类宏块的可增加编码量化参数的具体值,然后确定D<sub>R</sub>(m,n,k)中的所有深度视频帧中的所有宏块和C<sub>R</sub>(m,n,k)中的所有彩色视频帧中的所有宏块的可增加编码量化参数的具体值,再在多视点视频编码校验模型JMVC上,利用HBP预测编码结构,对D<sub>L</sub>(m,n,k)和C<sub>L</sub>(m,n,k)以及D<sub>R</sub>(m,n,k)和C<sub>R</sub>(m,n,k)进行编码。
地址 315211 浙江省宁波市江北区风华路818号
您可能感兴趣的专利