主权项 |
一种基于深度图的全搜索视点预测方法,其特征在于:步骤1.根据初始视点绘制生成当前视点v<sub>0</sub>下的深度图<img file="FDA0001176076370000011.GIF" wi="99" he="62" />这里定义v<sub>i</sub>为搜索到的最终参考视点,C<sub>v</sub>,D<sub>v</sub>分别为在视点v处获得的彩色图和深度图,<img file="FDA0001176076370000012.GIF" wi="117" he="47" />为将视点v下的图像虚拟合成到视点v<sub>i</sub>后的结果,v<sub>i</sub>为视点v<sub>0</sub>按照设定移动方式M移动r个单位方向向量后的参考视点,MAX<sub>m</sub>为搜索视点时初始视点移动的最大距离v<sub>i</sub>=v<sub>0</sub>+r*M,0<r<MAX<sub>m</sub> 公式(1)步骤2.移动当前视点v<sub>0</sub>距离r得到参考视点v<sub>i</sub>,绘制生成参考视点v<sub>i</sub>下的深度图<img file="FDA0001176076370000013.GIF" wi="98" he="62" />并设置标志数组data[]用以标志目标视点下各个像素能否在参考视点下获取;此时,初始的视点v<sub>0</sub>和之后生成的新视点v<sub>i</sub>作为参考视点,根据各参考视点深度图,将参考视点各像素虚拟合成到参考视点之间的目标视点下,如果参考视点像素代表的空间点在目标视点范围内,则将指定位置处的标志数组设定为已经标记;接着,统计标志数组中未标记部分大小,检查是否满足指定的空洞阈值,如果满足,则此时视点v<sub>i</sub>即为搜索到的最终参考视点,否则,继续增加移动距离r,直到找出最大的移动距离r<sub>max</sub>;步骤3.根据全搜索得到最大移动距离r<sub>max</sub>,获得最终参考视点v<sub>i</sub>,v<sub>i</sub>=v<sub>0</sub>+r<sub>max</sub>,绘制渲染此视点下的深度图和颜色图,并连同初始视点v<sub>0</sub>下的深度图和颜色图传输给客户端。 |