发明名称 |
一种基于视频图像的非接触式智能输入方法及装置 |
摘要 |
本发明公开了一种基于视频图像的交互式智能输入方法,该方法使设备可以实现用户非接触式操作,通过采集用户双手的运动路径,速度及加速度等信息,实现实体键盘的输入功能,并将采集到的信息以字符流的格式输出,供上层软件调用实现定制化应用。该方法还可以根据用户双手运动范围的变化,实现虚拟键盘操作范围的动态调整。用户双手在图像采集设备工作区域内时,显示设备上会显示虚拟键盘及虚拟用户手指的相对位置,用户可以通过手指的敲击动作,实现显示设备上虚拟键盘的相应按键操作。考虑到兼容各种用户敲击键盘动作的惯,设备提供虚拟键盘输入的监督功能,根据用户撤销及确认动作的频率来纠正各种非键盘输入动作带来的准确性偏差。此方法特征在于用户输入不需任何辅助定位区域及辅助定位物体,在图像采集设备工作区域内任意空间均可实现。因此本发明具有成本低、适用性广、智能交互的特点。本发明还提供了一种基于该方法的实现装置。 |
申请公布号 |
CN103105930A |
申请公布日期 |
2013.05.15 |
申请号 |
CN201310016705.8 |
申请日期 |
2013.01.16 |
申请人 |
中国科学院自动化研究所 |
发明人 |
王东琳;杜学亮;郭若杉;林啸;蒿杰;倪素萍;张森;林忱 |
分类号 |
G06F3/01(2006.01)I |
主分类号 |
G06F3/01(2006.01)I |
代理机构 |
中科专利商标代理有限责任公司 11021 |
代理人 |
宋焰琴 |
主权项 |
一种基于视频图像的非接触式智能输入方法,其包括:步骤1、采集视频图像,并进行手的检测和手的建模;步骤2、根据所采集的视频图像识别用户双手的活动区域,以确定有效输入区域,并在有效输入区域内确定虚拟键盘的空间坐标;步骤3、根据所采集的视频图像以及手的模型识别手指的敲击动作;步骤4、根据所述敲击动作的位置以及虚拟键盘的空间坐标,确定用户的输入文本。 |
地址 |
100190 北京市海淀区中关村东路95号 |