发明名称 |
基于眼球追踪技术的视频交互方法 |
摘要 |
本发明涉及一种基于眼球追踪技术的视频交互方法,主要包括:A1、播放到预设有外挂标签的视频画面时,通过摄像头实时采集观众的眼球图像;A2、从采集到的眼球图像中提取出瞳孔当前的空间坐标,并映射到视频界面的二维坐标上,以确定瞳孔在视频界面上的落点;所述视频界面的坐标的中心点、原点分别与观众瞳孔中心的空间坐标、内眼角的空间坐标对应;A3、瞳孔的落点在对应的外挂标签上停留达到预设时间后,解析出并播放该外挂标签对应的视频文件。本发明可使普通视频成为交互式视频,并且可便捷地实现视频与观众的交互,提高了用户体验。 |
申请公布号 |
CN106020461A |
申请公布日期 |
2016.10.12 |
申请号 |
CN201610322512.9 |
申请日期 |
2016.05.13 |
申请人 |
陈盛胜 |
发明人 |
陈盛胜 |
分类号 |
G06F3/01(2006.01)I;H04N5/45(2011.01)I;H04N21/431(2011.01)I;H04N21/81(2011.01)I |
主分类号 |
G06F3/01(2006.01)I |
代理机构 |
北京市盈科律师事务所 11344 |
代理人 |
江锦利 |
主权项 |
一种基于眼球追踪技术的视频交互方法,其特征在于,包括以下步骤:A1、播放到预设有外挂标签的视频画面时,通过摄像头实时采集观众的眼球图像;A2、从采集到的眼球图像中提取出瞳孔当前的空间坐标,并映射到视频界面的二维坐标上,以确定瞳孔在视频界面上的落点;所述视频界面的坐标的中心点、原点分别与观众瞳孔中心的空间坐标、内眼角的空间坐标对应;A3、瞳孔的落点在对应的外挂标签上停留达到预设时间后,解析出并播放该外挂标签对应的视频文件。 |
地址 |
510000 广东省广州市黄埔区茅岗村坑头东直街4巷1号 |