发明名称 |
一种基于Kinect体感设备的多视点自由立体交互系统 |
摘要 |
本发明提出一种基于Kinect体感设备的多视点自由立体交互系统。该系统包括Kinect体感设备、计算机和多视点自由立体显示器。该系统将多视点自由立体显示技术、虚拟现实技术和体感技术相结合,利用Kinect体感设备实时获取人体骨骼数据,由多帧平滑处理后的骨骼数据判断用户做出的特定的肢体动作,将肢体动作转化为与3D虚拟场景交互的控制响应命令,基于GPU实时渲染更新后的3D虚拟场景并生成合成图像,并输出至多视点自由立体显示器上实时显示,用户无需佩戴助视设备即可观看到可交互的立体画面。 |
申请公布号 |
CN103440677A |
申请公布日期 |
2013.12.11 |
申请号 |
CN201310323324.4 |
申请日期 |
2013.07.30 |
申请人 |
四川大学 |
发明人 |
王琼华;李述利;张杰;刘军;邓欢 |
分类号 |
G06T15/00(2011.01)I;G06T1/20(2006.01)I;G06F3/01(2006.01)I |
主分类号 |
G06T15/00(2011.01)I |
代理机构 |
|
代理人 |
|
主权项 |
一种基于Kinect体感设备的多视点自由立体交互系统,其特征在于,该系统包括Kinect体感设备、计算机和多视点自由立体显示器;所述Kinect体感设备用于获取用户的骨骼信息,并将所述骨骼信息传送至计算机;所述计算机用于根据所述Kinect体感设备反馈的骨骼信息判断用户做出的肢体动作,并转换为与3D虚拟场景交互的控制响应命令,计算机的显卡核心GPU(图形处理器)用于实时渲染3D虚拟场景而得到多幅视差图像,并利用GPU并行处理数据的能力快速生成合成图像;所述多视点自由立体显示器用于显示生成的合成图像,使用户观看到3D虚拟场景的立体画面。 |
地址 |
610065 四川省成都市武侯区一环路南一段24号 |