发明名称 | 一种视频驱动的人脸动画生成方法 | ||
摘要 | 本发明提供一种视频驱动的人脸动画生成方法,包括:1)从视频的人脸图像中提取所述视频的语义特征向量,语义特征向量由多个语义特征变量组成,语义特征变量包括:描述脸部器官周围局部运动的特征变量,以及描述全脸各器官之间相对运动的特征变量;2)基于由多个表情基构成的参考模型,将所述视频的语义特征向量表示为各表情基的语义特征向量的加权和,并将与各表情基的语义特征向量的加权系数作为表情参数;3)基于步骤2)所获得的表情参数和相应的参考模型的表情基,生成与所述视频表情一致的人脸动画。本发明能够增加人脸动画的稳定性和真实感;能够尽可能减少用户操作;能够减少计算量,降低内存消耗。 | ||
申请公布号 | CN104217454A | 申请公布日期 | 2014.12.17 |
申请号 | CN201410415274.7 | 申请日期 | 2014.08.21 |
申请人 | 中国科学院计算技术研究所 | 发明人 | 夏时洪;王涵 |
分类号 | G06T13/40(2011.01)I | 主分类号 | G06T13/40(2011.01)I |
代理机构 | 北京泛华伟业知识产权代理有限公司 11280 | 代理人 | 王勇 |
主权项 | 一种视频驱动的人脸动画生成方法,其特征在于,包括下列步骤:1)从视频的人脸图像中提取所述视频的语义特征向量,所述语义特征向量由多个语义特征变量组成,所述语义特征变量包括:描述脸部器官周围局部运动的特征变量,以及描述全脸各器官之间相对运动的特征变量;2)基于由多个表情基构成的参考模型,将所述视频的语义特征向量表示为各表情基的语义特征向量的加权和,并将与各表情基的语义特征向量的加权系数作为表情参数;3)基于步骤2)所获得的表情参数和相应的参考模型的表情基,生成与所述视频表情一致的人脸动画。 | ||
地址 | 100190 北京市海淀区中关村科学院南路6号 |