发明名称 一种基于视觉关注模型的手势交互方法
摘要 本发明的一种基于视觉关注模型的手势交互方法,首次研究手势交互界面中用户视觉关注的分布规律。首先,通过使用眼动仪完成对人眼视线变化过程准确追踪;其次,对眼动仪输出的数据进行分析,揭示了视觉关注的一般规律,并建立了操作者的视觉关注模型;再次,利用5次高斯公式对这个模型进行描述。最后,将视觉关注模型用于手势跟踪算法设计。本发明的有益效果是:该模型在小部分区域保持较强,显著改善手势交互的效率,提高了速度,精度也得到提到。真实模拟了人类在一定区域仔细观察的视觉特征。
申请公布号 CN104090663A 申请公布日期 2014.10.08
申请号 CN201410334996.X 申请日期 2014.07.14
申请人 济南大学 发明人 冯志全;何娜娜
分类号 G06F3/01(2006.01)I 主分类号 G06F3/01(2006.01)I
代理机构 济南泉城专利商标事务所 37218 代理人 肖健
主权项 一种基于视觉关注模型的手势交互方法,其特征在于,包括以下步骤:步骤1,利用眼动仪对实验者进行人机交互实验,采集并记录人机交互过程中实验者的视线位置信息、注视时间信息,并根据该信息分析计算得出视觉关注强度P;步骤2,通过对不同人群进行基于眼动仪的人机交互实验,得出实验统计数据,制作以实验者手到物体的距离为横轴,以实验者视觉关注度P为纵轴的视觉关注拟合效果图,并建立视觉关注模型,该视觉关注模型通过5次高斯模型M来表示;步骤3,基于步骤2中的视觉关注模型,采用计算机构造虚拟实验场景,并在虚拟实验场景内搭建三维手势人机交互平台,将视觉关注模型应用到该人机交互的虚拟实验场景中;首先在虚拟实验场景中计算出三维手到当前选中物体的初始距离,并推导出该初始距离与视觉关注拟合效果图中横轴上实验者手到物体的最远距离之间的映射关系式;然后计算实验场景中每帧对应的三维手到当前选中物体距离,利用映射关系式得出相应的视觉关注模型距离参数,并带入视觉关注模型的5次高斯模型M中,计算得出相应的视觉关注强度P;最后根据视觉关注强度P选择执行手势跟踪的粒子滤波方法或者动画方法。
地址 250022 山东省济南市市中区南辛庄西路336号