发明名称 一种空间相关的全景数据恢复方法
摘要 一种空间相关的全景压缩数据恢复方法,其步骤如下:(1)获取预测图像相对于参考图像的相机外参数,包括相机的旋转矩阵R和平移量T;(2)完成步骤(1)后,由参考图像和相应的深度信息恢复参考图像的场景点;(3)完成步骤(2)后,根据预测图像保存的场景点增量信息,获取相对于参考图像新增加的场景点;(4)根据步骤(1)获取的相机外参数,利用步骤(2)和(3)计算出的场景点信息生成预测图像相应的全景图像。本发明利用全景数据之间的空间相关性,恢复预测图像相应的全景图像。
申请公布号 CN101547363B 申请公布日期 2011.03.23
申请号 CN200910081462.X 申请日期 2009.04.03
申请人 北京航空航天大学 发明人 周忠;吴威;牛犇;陈珂;李艳丽;赵沁平
分类号 H04N7/26(2006.01)I;H04N7/36(2006.01)I;G06T7/20(2006.01)I 主分类号 H04N7/26(2006.01)I
代理机构 北京科迪生专利代理有限责任公司 11251 代理人 成金玉;卢纪
主权项 一种空间相关的全景压缩数据恢复方法,其特征在于步骤如下:(1)获取预测图像相对于参考图像的相机外参数,包括相机的旋转矩阵R和平移量T;(2)完成步骤(1)后,由参考图像和相应的深度信息恢复参考图像的场景点;(3)完成步骤(2)后,根据预测图像保存的场景点增量信息,获取预测图像相对于参考图像新增加的场景点;(4)根据步骤(1)获取的相机外参数,利用步骤(2)和步骤(3)得到的场景点信息生成预测图像相应的全景图像;所述步骤(4)中,利用相机外参数和场景点信息生成预测图像相应的全景图像的方法为:首先判断遮挡关系并确定需要投影的场景点,接着将选择的场景点坐标转换至预测图像坐标系下,最后对选择的场景点进行投影,生成全景图像;所述判断遮挡关系并确定需要投影的场景点的方法为:如果没有遮挡,则确定该点需要投影;如果有遮挡,则只确定距离预测图像中心最近的场景点需要投影;所述的将选择的场景点坐标转换至预测图像坐标系下的方法为:利用以下公式将需要投影的场景点由参考图像坐标系下坐标X1转换为预测图像坐标系下坐标X2:                         X2=R(X1‑T)其中,R和T分别为预测图像相对于参考图像的相机外参数的旋转矩阵和平移量。
地址 100083 北京市海淀区学院路37号