发明名称 基于多信息融合的仿人型机器人作业场景重构方法
摘要 本发明构建的仿人型机器人作业场景是一种结合操作者控制命令和反馈信息的实时视频图像。场景中能够实时显示作业现场的仿人型机器人模型及其作业环境模型。场景能够接收仿人型机器人作业现场的位置信息及机器人运行中的传感信息。使用以上信息驱动仿人型机器人模型及其环境模型运动以显示实时视频图像。同时场景根据操作者发出的命令进行预测仿真,生成理想情况下的仿人型机器人运行数据及各个模型的位置数据。在实时反馈信息缺失或者无法获取时,使用预测仿真所生成的数据来驱动模型。操作者可以任意改变视角,实现全视角的观察。
申请公布号 CN100389013C 申请公布日期 2008.05.21
申请号 CN200510059915.0 申请日期 2005.04.01
申请人 北京理工大学 发明人 黄强;张雷;卢月品;高峻峣;李敏
分类号 B25J19/00(2006.01) 主分类号 B25J19/00(2006.01)
代理机构 北京理工大学专利中心 代理人 付雷杰
主权项 1.一种基于多信息融合的仿人型机器人遥操作作业场景重构方法,能够使操作者监视真实机器人的实际运行情况,其特征在于:实时视频图像中显示仿人型机器人及其作业场所中的环境模型;机器人本身的传感器实时测量机器人各关节角数据,机器人作业现场的环境检测传感器获取到机器人及其作业目标的位置数据,使用以上数据来驱动模型显示实时视频图像,能够真实的表达机器人的运行状态和作业现场中机器人及其环境的位置关系;操作者能够任意改变视角以观察模型的细节;场景还能够接收操作者发出的命令,进行解释,生成预测数据,在现场实时数据暂时缺失的情况下,使用预测数据驱动场景中的模型运动,当重新获取到反馈数据后,切换到由真实数据驱动模型的三维虚拟场景。
地址 100081北京市海淀区中关村南大街5号
您可能感兴趣的专利