发明名称 一种基于深度图的全搜索视点预测方法
摘要 本发明公开了一种基于深度图的全搜索视点预测方法。本发明首先,根据初始视点绘制生成当前视点v<sub>0</sub>下的深度图<img file="DDA0000707241170000011.GIF" wi="95" he="78" />然后移动当前视点v<sub>0</sub>设定的距离r得到参考视点v<sub>i</sub>,绘制生成参考视点深度图<img file="DDA0000707241170000012.GIF" wi="91" he="78" />并设置标志数组data[]用以标志当前视点下各个像素能否在参考视点下获取,通过统计标志数组中未标记部分大小,检查是否满足指定的空洞阈值,如果不满足,增大移动距离r,继续移动初始参考视点,直到其空洞大小满足指定阈值。最后,根据全搜索得到最大参考视点v<sub>r</sub>,绘制渲染此视点下的深度图和颜色图,并连同初始视点下的深度图和颜色图传输给客户端。本发明在搜索的过程中,不进行颜色图的绘制,大大降低了绘制时间,从而实现快速精确的参考视点预测。
申请公布号 CN104767987B 申请公布日期 2017.04.12
申请号 CN201510057151.5 申请日期 2015.02.04
申请人 浙江工商大学 发明人 王勋;杨柏林;王玉峰;韩建伟;金剑秋
分类号 H04N13/00(2006.01)I 主分类号 H04N13/00(2006.01)I
代理机构 浙江杭州金通专利事务所有限公司 33100 代理人 王佳健
主权项 一种基于深度图的全搜索视点预测方法,其特征在于:步骤1.根据初始视点绘制生成当前视点v<sub>0</sub>下的深度图<img file="FDA0001176076370000011.GIF" wi="99" he="62" />这里定义v<sub>i</sub>为搜索到的最终参考视点,C<sub>v</sub>,D<sub>v</sub>分别为在视点v处获得的彩色图和深度图,<img file="FDA0001176076370000012.GIF" wi="117" he="47" />为将视点v下的图像虚拟合成到视点v<sub>i</sub>后的结果,v<sub>i</sub>为视点v<sub>0</sub>按照设定移动方式M移动r个单位方向向量后的参考视点,MAX<sub>m</sub>为搜索视点时初始视点移动的最大距离v<sub>i</sub>=v<sub>0</sub>+r*M,0&lt;r&lt;MAX<sub>m</sub>      公式(1)步骤2.移动当前视点v<sub>0</sub>距离r得到参考视点v<sub>i</sub>,绘制生成参考视点v<sub>i</sub>下的深度图<img file="FDA0001176076370000013.GIF" wi="98" he="62" />并设置标志数组data[]用以标志目标视点下各个像素能否在参考视点下获取;此时,初始的视点v<sub>0</sub>和之后生成的新视点v<sub>i</sub>作为参考视点,根据各参考视点深度图,将参考视点各像素虚拟合成到参考视点之间的目标视点下,如果参考视点像素代表的空间点在目标视点范围内,则将指定位置处的标志数组设定为已经标记;接着,统计标志数组中未标记部分大小,检查是否满足指定的空洞阈值,如果满足,则此时视点v<sub>i</sub>即为搜索到的最终参考视点,否则,继续增加移动距离r,直到找出最大的移动距离r<sub>max</sub>;步骤3.根据全搜索得到最大移动距离r<sub>max</sub>,获得最终参考视点v<sub>i</sub>,v<sub>i</sub>=v<sub>0</sub>+r<sub>max</sub>,绘制渲染此视点下的深度图和颜色图,并连同初始视点v<sub>0</sub>下的深度图和颜色图传输给客户端。
地址 310018 浙江省杭州市下沙高教园区学正街18号