发明名称 基于HTML5和增强现实技术的互联网眼镜实时试戴方法及系统
摘要 本发明涉及一种基于HTML5和增强现实技术的互联网眼镜实时试戴方法,根据人脸识别+HTML5 +视频流+眼镜绘制的思想,HTML5前台展示模块中,通过摄像机获取的视频流,用JavaScript预处理后进行人脸扫描,并进入图像识别与增强现实模块进行相关判断与处理,接着调用后台服务器模块获取用户试戴的眼镜模型,确定眼镜位置后进行试戴,最后视频流合并输出到HTML5前台展示模块。在点击预览后,图片缓存预览模块会截取视频当前帧进行缓存并预览,点击分享后,进入上传与分享模块中处理。本发明克服了flash插件的平台依赖,速度更快,更加易用。
申请公布号 CN106384388A 申请公布日期 2017.02.08
申请号 CN201610831992.1 申请日期 2016.09.20
申请人 福州大学 发明人 陈国栋;杨志伟;刘波;高聪;兰敏超
分类号 G06T19/00(2011.01)I;G06T7/50(2017.01)I;G06K9/00(2006.01)I;G06Q30/06(2012.01)I 主分类号 G06T19/00(2011.01)I
代理机构 福州元创专利商标代理有限公司 35100 代理人 蔡学俊
主权项 一种基于HTML5和增强现实技术的互联网眼镜实时试戴方法,其特征在于:包括以下步骤:步骤S1:采集人脸数据,获得人脸数据集;步骤S2:将步骤S1获得的人脸数据集用于训练人脸机器学习模型得到人脸训练库,所述人脸训练库的数据包括人脸的宽度、人脸的高度,人脸的数量,特征点位置坐标、图像分类器;步骤S3:摄像头获取视频流,从JavaScript函数获取HTML5的摄像头视频流,并将视频流以URL的方式导入HTML5页面的节点中;步骤S4:扫描步骤S3的视频流,对用户的头像进行预处理,弱化光照、背景的干扰,根据特征点位置提取算法计算出人眼的位置;用灰度投影法、曲面匹配法将摄像头获取的人脸数据与步骤S1中的人脸数据集进行原型比对判断,若存在相似的原型,则将计算出的人眼位置存储标记为眼睛的正确位置,并记录眼睛的深度值;步骤S5:从图片服务器中加载用户选择的眼镜模型,根据人脸大小、角度、眼睛的深度值及特征点位置对眼镜模型进行缩放、旋转用以适应人脸、眼睛的大小与位置;将人脸与眼镜模型的视频流合并后输出;步骤S6:摄像头实时获取视频流,判断人脸的移动是否超过预设的阈值,如果是,则返回步骤S4。
地址 350002 福建省福州市鼓楼区工业路523号