发明名称 一种二维自由视点视频的深度图编码失真预测方法
摘要 本发明公开了一种二维自由视点视频的深度图编码失真预测方法,包括如下步骤:A1:输入两个以上视点立体视频的纹理图与深度图的序列,视点位置呈一维均匀分布;A2:利用当前待编码视点及其相邻视点的纹理图和深度图,采用视点合成算法,合成当前待编码视点与第一相邻视点的第一中间视点的纹理图,并合成当前待编码视点与第二相邻视点的第二中间视点的纹理图;A3:利用A2的合成结果,记录各像素点的合成特征,并生成失真预测权重;A4:根据A3中的合成特征和失真预测权重,采用编码像素失真预测模型,经过系列计算得总失真。本发明能提高二维自由视点视频的深度图编码失真预测的准确性,避免深度图编码过程中反复执行合成算法,降低了计算复杂度。
申请公布号 CN104754359A 申请公布日期 2015.07.01
申请号 CN201510039515.7 申请日期 2015.01.26
申请人 清华大学深圳研究生院 发明人 金欣;李晨阳;戴琼海
分类号 H04N19/597(2014.01)I;H04N19/147(2014.01)I 主分类号 H04N19/597(2014.01)I
代理机构 深圳新创友知识产权代理有限公司 44223 代理人 刘莉
主权项 一种二维自由视点视频的深度图编码失真预测方法,其特征在于,包括如下步骤:A1:输入两个以上视点立体视频的纹理图与深度图的序列,视点位置呈一维均匀分布;A2:利用当前待编码视点及其相邻视点的纹理图和深度图,采用视点合成算法,合成当前待编码视点与第一相邻视点的第一中间视点(H1和/或H2)的纹理图,并合成当前待编码视点与第二相邻视点的第二中间视点(V1和/或V2)的纹理图;所述第一相邻视点在所述视点位置的分布方向上与所述当前待编码视点相邻,所述第二相邻视点在垂直于所述视点位置的分布方向的方向上与所述当前待编码视点相邻;A3:利用步骤A2中的第一中间视点的纹理图以及第二中间视点的纹理图,记录当前待编码视点的深度图中的各像素点的合成特征(K<sub>H1</sub>和/或K<sub>H2</sub>,以及K<sub>V1</sub>和/或K<sub>V2</sub>),并生成相应的失真预测权重(W<sub>H1</sub>和/或W<sub>H2</sub>,以及W<sub>V1</sub>和/或W<sub>V2</sub>);A4:根据步骤A3中的所述当前待编码视点的深度图中的各像素点的合成特征(K<sub>H1</sub>和/或K<sub>H2</sub>,以及K<sub>V1</sub>和/或K<sub>V2</sub>)和相应的失真预测权重(W<sub>H1</sub>和/或W<sub>H2</sub>,以及W<sub>V1</sub>和/或W<sub>V2</sub>),分别采用各像素点的编码像素失真预测模型,分别计算得到所述当前待编码视点的深度图的编码块中的各像素点的失真,并在不同的方向上分别求和得到所述编码块中的各像素点失真造成的在所述视点位置的分布方向上的第一合成失真和(D<sub>H1</sub>和/或D<sub>H2</sub>)及在垂直于所述视点位置的分布方向的方向上的第二合成失真和(D<sub>V1</sub>和/或D<sub>V2</sub>),将所述第一合成失真和(D<sub>H1</sub>和/或D<sub>H2</sub>)和第二合成失真和(D<sub>V1</sub>和/或D<sub>V2</sub>)求平均获得所述编码块中的各像素点造成的二维自由视点视频失真估计值,并对各个所述二维自由视点视频失真估计值求和,输出所述当前待编码视点的深度图的编码块的总失真。
地址 518055 广东省深圳市南山区西丽大学城清华校区