发明名称 基于图像旋转的深度图像编码方法
摘要 本发明公开了一种基于图像旋转的深度图像编码方法。它包括如下步骤:1)根据左视点到右视点的旋转矩阵,把左视点深度图像旋转到右视点,得到预测图像;2)归一化右视点深度图像和预测图像之间的差值,得到差值图像;3)运用视频编码技术,采用量化参数对差值图像进行编码。本发明与直接编码右视点深度图像相比,编码差值图像所需要的码率更小。本发明充分利用了左视点深度图像和右视点深度图像之间的相关性,提高了压缩效率。
申请公布号 CN101365142B 申请公布日期 2011.07.20
申请号 CN200810161597.2 申请日期 2008.09.23
申请人 浙江大学 发明人 许士芳;雷杰;刘济林
分类号 H04N13/00(2006.01)I;H04N7/32(2006.01)I;G06T7/00(2006.01)I 主分类号 H04N13/00(2006.01)I
代理机构 杭州求是专利事务所有限公司 33200 代理人 张法高
主权项 一种基于图像旋转的深度图像编码方法,其特征在于包括如下步骤:1)根据左视点到右视点的旋转矩阵,把左视点深度图像旋转到右视点,得到预测图像;2)归一化右视点深度图像和预测图像之间的差值,得到差值图像;3)运用视频编码技术,采用量化参数对差值图像进行编码;所述的根据左视点到右视点的旋转矩阵,把左视点深度图像旋转到右视点,得到预测图像步骤:a)把预测图像中每个象素点的亮度值设置为0;b)根据下列式子,计算从左视点到右视点的旋转矩阵:L_to_R_PP=L_A×L_E×R_E‑1×R_A‑1;其中,L_A和L_E分别是左视点相机的内参和外参,R_A和R_E分别是右视点相机的内参和外参,R_E‑1和R_A‑1分别是R_E和R_A的逆,L_to_R_PP是从左视点到右视点的旋转矩阵;c)根据下列式子,计算左视点深度图像中每个象素的深度值:L_Zc(x,y)=(255×MaxZ×MinZ)/(D_L(x,y,)×(MaxZ‑MinZ)+255×MinZ);其中,D_L(x,y)是左视点深度图像中图像坐标(x,y)处象素点的亮度值,MinZ和MaxZ分别是该深度图像所能表示的最大深度和最小深度,L_Zc(x,y)是左视点深度图像中图像坐标(x,y)处象素点的深度值;如果深度图像中象素点的亮度为0,表示该象素点距离世界坐标系中原点的距离为MaxZ;如果深度图像中象素点的亮度为255,表示该象素点距离世界坐标系中原点的距离为MinZ;d)根据下列式子,计算左视点深度图像中每个象素点旋转到右视点后的图像坐标,得到从左视点到右视点的横坐标映射函数和纵坐标映射函数: <mrow> <mfenced open='[' close=']'> <mtable> <mtr> <mtd> <mi>L</mi> <mo>_</mo> <mi>to</mi> <mo>_</mo> <mi>R</mi> <mo>_</mo> <mi>Xc</mi> </mtd> </mtr> <mtr> <mtd> <mi>L</mi> <mo>_</mo> <mi>to</mi> <mo>_</mo> <mi>R</mi> <mo>_</mo> <mi>Yc</mi> </mtd> </mtr> <mtr> <mtd> <mi>L</mi> <mo>_</mo> <mi>to</mi> <mo>_</mo> <mi>R</mi> <mo>_</mo> <mi>Zc</mi> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mi>L</mi> <mo>_</mo> <mi>to</mi> <mo>_</mo> <mi>R</mi> <mo>_</mo> <mi>PP</mi> <mo>&times;</mo> <mfenced open='[' close=']'> <mtable> <mtr> <mtd> <mi>x</mi> <mo>&times;</mo> <mi>L</mi> <mo>_</mo> <mi>Zc</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>y</mi> <mo>&times;</mo> <mi>L</mi> <mo>_</mo> <mi>Zc</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mi>L</mi> <mo>_</mo> <mi>Zc</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>L_to_R_x(x,y)=clipX(L_to_R_Xc/L_to_R_Zc);L_to_R_y(x,y)=clipY(L_to_R_Yc/L_to_R_Zc);clipX(x)=min(Width‑1,max(0,x));clipY(y)=min(Hight‑1,max(0,y));其中,x和y分别是左视点深度图像中当前象素点的横坐标和纵坐标,clipX(x)和clipY(y)分别是x方向和y方向的修剪函数,Width和Hight分别为深度图像的宽度和高度,L_to_R_PP是从左视点到右视点的旋转矩阵,L_to_R_x(x,y)和L_to_R_y(x,y)分别是从左视点到右视点的横坐标映射函数和纵坐标映射函数;e)根据下列式子,计算预测图像:D_Rot(L_to_R_x(x,y),L_to_R_y(x,y))=D_L(x,y); <mrow> <mi>D</mi> <mo>_</mo> <mi>R</mi> <mo>_</mo> <mi>L</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mo>-</mo> <mn>1</mn> </mrow> <mn>1</mn> </msubsup> <mrow> <mo>(</mo> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mo>-</mo> <mn>1</mn> </mrow> <mn>1</mn> </msubsup> <mi>D</mi> <mo>_</mo> <mi>Rot</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>+</mo> <mi>i</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mn>9</mn> <mo>;</mo> </mrow>其中,D_L是左视点深度图像,D_L(x,y)是左视点深度图像中图像坐标(x,y)处象素点的亮度值,L_to_R_x(x,y)和L_to_R_y(x,y)分别是从左视点到右视点的横坐标映射函数和纵坐标映射函数,D_Rot是旋转图像,D_Rot(x,y)是旋转图像中图像坐标(x,y)处象素点的亮度值,D_R_L是预测图像,D_R_L(x,y)是预测图像中图像坐标(x,y)处象素点的亮度值。
地址 310027 浙江省杭州市浙大路38号