发明名称 一种动态环境中的视觉定位方法
摘要 本发明公开了一种可以在动态环境中实现精确定位的立体视觉定位方法。通过双目摄像机实时采集环境图像。通过特征提取算法提取图像中的特征点。对双目摄像机前后两个时刻采集的四幅图像进行立体匹配。利用双视几何原理恢复特征点三维信息。以回环匹配的方式提高匹配准确度。使用场流法剔除位于动态物体上的特征点。考虑可能引起误差的因素并通过计算协方差矩阵改善场流法效果。使用高斯牛顿迭代的方法由特征点位置信息求得机器人运动参数。使用RANSIC算法进一步提高视觉定位准确度。整个过程不断迭代,实现对机器人姿态和位置的实时计算。
申请公布号 CN103150728A 申请公布日期 2013.06.12
申请号 CN201310067475.8 申请日期 2013.03.04
申请人 北京邮电大学 发明人 贾庆轩;叶平;王轩;孙汉旭;张天石;窦仁银
分类号 G06T7/00(2006.01)I 主分类号 G06T7/00(2006.01)I
代理机构 代理人
主权项 一种可以在复杂动态场景中应用的视觉定位方法,其特征在于,包括以下步骤: 步骤一:对双目摄像机进行标定。 步骤二:开启相机,进行左右图像的连续采集。 步骤三:如果图像是第一帧,sobel算子提取图像中的特征点位置,并利用SIFT描述符进行描述,在左右图像之间进行特正匹配,得到特征点对应关系。如果图像不是第一帧,则在前后两个时刻共四幅图像间进行特征匹配,匹配通过回环检测的方式提高准确度。 步骤四:通过双视几何的原理计算特征像素点对应的三维空间位置,使用场流法对特征点进行筛选,考虑计算场流过程中可能引入的误差,通过计算每个点对应的马氏距离,将离群度大于一定阈值的点从特征点集中删除。 步骤五:使用RANSIC算法进行迭代,每次迭代时利用求得的姿态R和位置T计算满足该变换的特征点数目,求取包含局内点最多一组结果,并利用该组中所有局内点求解更准确的R和T。 步骤六:将步骤五求得的结果进行累乘,得到机器人在当前时刻相对于初始时刻的位姿变换矩阵。
地址 100876 北京市海淀区西土城路10号