发明名称 一种基于立体视觉的3D虚拟触控人机交互方法
摘要 本发明涉及人机交互技术领域,具体涉及一种基于立体视觉的3D虚拟触控人机交互方法,包括摄像头标定、图像采集、图像处理、体征三维定位、坐标匹配、执行指令以及3D图像显示的步骤。与现有技术相比,本发明在3D显示终端上实现了非接触式的人机交互,通过指尖定位获取用户在虚拟屏幕上触控的位置,能够准确地得到用户的输入指令,提高了人机交互的灵活性和准确度。
申请公布号 CN104714646A 申请公布日期 2015.06.17
申请号 CN201510137142.7 申请日期 2015.03.25
申请人 中山大学 发明人 周建英;王嘉辉;朱洁霞;梁伟棠;周延桂;范杭;梁浩文;林岱昆
分类号 G06F3/01(2006.01)I;G06F3/0346(2013.01)I;G06T7/00(2006.01)I 主分类号 G06F3/01(2006.01)I
代理机构 广州粤高专利商标代理有限公司 44102 代理人 林丽明
主权项 一种基于立体视觉的3D虚拟触控人机交互方法,其特征在于,包括以下步骤:步骤一:对两台摄像机进行标定;步骤二:图像采集,两个摄像机同步采集包含人手的图像,图像数据通过数据线或无线等方式传送到处理终端;步骤三:图像处理,对摄像机1和摄像机2拍摄的图像进行畸变矫正和平滑处理,然后经过图像分割之后,提取指尖的轮廓.指尖轮廓由一系列点组成,根据手指与摄像机的相对位置关系,求出所需体征在两幅图像中的像素坐标;步骤四:体征三维定位,根据虚拟屏幕、摄像机1和摄像机2的位置关系,推导出所需体征三维坐标的表达式,把所需体征在两幅图像中的像素坐标和相关的参数代入表达式,得出所需体征的空间坐标;步骤五:坐标匹配,利用左眼或右眼图像在3D显示终端屏幕平面内坐标、双眼图像视差、用户瞳距和观看距离计算出人机交互界面影像的点的空间坐标,根据所需体征的空间坐标和人机交互界面影像的点的空间坐标确定用户点击的按钮;步骤六:执行指令,根据用户输入的指令执行相对应的操作;步骤七:3D图像显示,在3D显示终端上显示3D图像。
地址 510275 广东省广州市海珠区新港西路135号