发明名称 基于视觉的移动机器人定位方法
摘要 本发明公开了一种基于视觉的移动机器人定位方法,包括1)在机器人工作环境中的任意三个位置上分别设置三个地标;2)对测量出的每个方向角数据统计其方差σ2,得到测量角度呈现的分布特性;3)统计分析得到测量角度的后验概率分布p(Zij|αij)服从以上分布;4)由两个地标Li和Lj的坐标,以及随机变量Zij生成圆弧簇;5)以半径Rij表示圆弧簇的概率值,获得概率图M1和M2;6)将M1和M2进行融合,得到一个概率分布图Mt;7)寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置。本发明对基于三角定位系统的移动机器人的自定位精度具有一定提高。在定位精确度上本发明方法比原始方法平均提高21.9%。当机器人处于“三角定位困难区域”时,机器人的定位精度有显著提高。
申请公布号 CN102359783B 申请公布日期 2013.08.07
申请号 CN201110207544.1 申请日期 2011.07.22
申请人 北京大学 发明人 刘宏;段英杰
分类号 G01C21/00(2006.01)I 主分类号 G01C21/00(2006.01)I
代理机构 北京君尚知识产权代理事务所(普通合伙) 11200 代理人 余长江
主权项 一种基于视觉的移动机器人定位方法,包括如下步骤:1)在机器人工作环境中的任意三个位置上分别设置三个地标;2)多次测量机器人相对地标的方向角,对测量出的每个方向角数据进行统计分析,拟合出其所服从高斯分布模型的方差参数;3)从高斯分布模型引出方向角的后验概率分布;4)由地标的坐标和方向角的后验概率分布生成圆弧簇概率图M1和M2;5)融合圆弧簇概率图M1和M2,得到一个概率分布图Mt;6)寻找概率分布图Mt中具有最大权值的坐标位置作为机器人的位置。
地址 100871 北京市海淀区颐和园路5号