发明名称 基于景象匹配/视觉里程的惯性组合导航方法
摘要 本发明涉及一种基于景象匹配/视觉里程的惯性组合导航方法,根据视觉里程原理,计算无人机航拍实时图像序列的单应矩阵,通过累积连续两帧实时图之间的相对位移,递推计算出无人机的当前位置;由于视觉里程导航随时间的增加会产生累积误差,因而引入基于FREAK特征的景象匹配算法进行辅助修正,景象匹配具有定位精度高、自主性强、抗电磁干扰等优点,在适配区可以进行高精度定位,有效补偿视觉里程导航长时间工作产生的累积误差;建立惯性导航系统的误差模型以及视觉数据的量测模型,通过卡尔曼滤波得出最优估计结果,并对惯性导航系统进行校正。本发明有效改善了导航精度,有助于提高无人机自主飞行能力。
申请公布号 CN103954283A 申请公布日期 2014.07.30
申请号 CN201410128459.X 申请日期 2014.04.01
申请人 西北工业大学 发明人 赵春晖;王荣志;张天武;潘泉;马鑫
分类号 G01C21/16(2006.01)I;G01C21/00(2006.01)I 主分类号 G01C21/16(2006.01)I
代理机构 西北工业大学专利中心 61204 代理人 王鲜凯
主权项 一种基于景象匹配/视觉里程的惯性组合导航方法,其特征在于步骤如下:步骤1:在无人机飞行过程中,机载下视摄像机实时获取地面图像a;步骤2:利用图像a与前一帧图像a′,确定无人机的视觉里程,步骤如下:A、使用Harris角点检测算法分别在连续两帧实时图a与a′中提取特征点;B、在图像a中以(x,y)<sup>T</sup>为中心的方形区域中搜索与图像a′中的每个特征点(x,y)T具有最高邻域互相关的匹配点;同时,在图像a′中以(x,y)<sup>T</sup>为中心的方形区域中搜索与图像a中的每个特征点(x,y)<sup>T</sup>具有最高邻域互相关的匹配点;C、运用RANSAC鲁棒估计方法得到最大的一致点集和单应矩阵H的估计,过程为首先随机抽取4组匹配点对组成一个随机样本,并计算单应矩阵H;然后对步骤B中的每个匹配点对,计算距离dis;再设定阈值t,若dis&lt;t,则此匹配点对为内点,否则剔除,并统计内点数目;重复上述过程k次,选择H;D、由划定为内点的所有匹配点对具有最大内点数的H重新估计,使用重新获得的H计算出图像a′中与图像a中每个特征点(x,y)<sup>T</sup>相对应的点(x<sub>1</sub>,y<sub>1</sub>)<sup>T</sup>。并使用步骤B中方法分别在图像a中以(x,y)<sup>T</sup>为中心的方形区域中搜索与图像a′中的每个特征点(x<sub>1</sub>,y<sub>1</sub>)<sup>T</sup>具有最高邻域互相关的匹配点;同时,在图像a′中以(x<sub>1</sub>,y<sub>1</sub>)<sup>T</sup>为中心的方形区域中搜索与图像a中的每个特征点(x,y)<sup>T</sup>具有最高邻域互相关的匹配点;E、重复步骤B到步骤D,直到匹配点对的数目稳定为止;步骤3:当无人机进入适配区时,根据惯性导航系统对无人机进行粗定位,在机载存储设备中找到与粗定位结果对应的基准图b,并与实时图a进行景象匹配,确定无人机的位置;步骤4:在适配区中利用步骤3得到的无人机位置校正视觉里程产生的误差,得到无人机较精确地位置;步骤5:利用惯性导航系统给出无人机当前的位置和姿态;步骤6:使用惯性导航系统的误差方程作为组合导航系统的状态方程,导航坐标系选择为东北天坐标系,将步骤4中得出位置与步骤5中得出位置的差值作为量测。用卡尔曼滤波器估计出惯性系统的漂移误差,并使用该漂移误差校正惯性导航系统,得到融合后的导航参数。
地址 710072 陕西省西安市友谊西路127号