发明名称 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
摘要 本发明公开了一种虚拟人脸表情编辑方法,包括离线过程和在线过程,离线过程包括:步骤1,利用人脸正面照片生成用户的虚拟三维人脸模型;步骤2,对运动捕捉数据进行解耦,分离姿态与表情;步骤3,构建人脸子空间关联模型;在线过程包括步骤:步骤4,对从单摄像头中捕捉到的视频图像进行视频分析,使用主动外观模型跟踪头部的三维空间位置与朝向以及视频中的主要面部特征,自动地将这些特征转换为两个部分的控制参数;步骤5,将噪声大分辨率低的表情控制参数用解耦后的运动捕捉数据进行动态数据滤波,滤波后的信号输入人脸子空间关联模型中,计算得到全局表情,最后通过将全局表情赋予离线过程生成的虚拟三维人脸,实现虚拟人脸的表情编辑。
申请公布号 CN103473801B 申请公布日期 2016.09.14
申请号 CN201310451508.9 申请日期 2013.09.27
申请人 中国科学院自动化研究所 发明人 吴怀宇;潘春洪;王舒旸;沙金正
分类号 G06T13/40(2011.01)I;G06T17/00(2006.01)I;G06T7/00(2006.01)I;G06F17/50(2006.01)I 主分类号 G06T13/40(2011.01)I
代理机构 中科专利商标代理有限责任公司 11021 代理人 宋焰琴
主权项 一种虚拟人脸表情编辑方法,该方法包括离线过程和在线过程,其中,离线过程包括:步骤1,利用人脸正面照片生成用户的虚拟三维人脸模型;步骤2,对运动捕捉数据进行解耦,分离姿态与表情;步骤3,构建人脸子空间关联模型,以此实现由局部特征控制全局表情;在线过程的输入包括用户在摄像头前的表情视频、离线处理得到的虚拟人脸三维模型、解耦的运动捕捉数据和人脸子空间关联模型,在线过程包括步骤:步骤4,对从单摄像头中捕捉到的表情视频进行视频分析,使用主动外观模型跟踪头部的刚体运动以及视频中的面部特征点,然后从跟踪得到的特征点中提取表情控制参数,得到两个部分的控制参数,即表情控制参数和三维头部姿态参数;步骤5,将表情控制参数用解耦后的运动捕捉数据进行动态数据滤波,滤波后的信号输入人脸子空间关联模型中,计算得到全局表情,最后通过将全局表情赋予离线过程生成的虚拟三维人脸,实现虚拟人脸的表情编辑;步骤5进一步包括:利用离线过程解耦的运动捕捉数据对视频表情参数进行滤波,滤波包括如下步骤:首先将噪声信号在一个固定的时间间隔W内划分为片段,令<img file="FDA0001045758930000011.GIF" wi="60" he="71" />表示输入控制参数的片段,从运动捕捉数据中找出K个最接近的片段,K的取值取决于给定运动捕捉数据库和视频中提取的控制参数的属性,计算K个片段的主成分,令前M个最大的特征向量U<sub>1</sub>,...,U<sub>M</sub>为过滤基,M的取值保证99%的原始数据变化,将<img file="FDA0001045758930000012.GIF" wi="60" he="71" />投影到U<sub>1</sub>,...,U<sub>M</sub>张成的局部线性空间,重建控制参数。
地址 100190 北京市海淀区中关村东路95号