发明名称 基于中性和情感声纹模型转换的说话人识别方法
摘要 本发明涉及一种基于中性和情感声纹模型转换的说话人识别方法,包括如下步骤:(1)语音特征的提取:先进行音频预处理,音频预处理分为采样量化,去零漂,预加重和加窗三个部分;然后进行提取倒谱特征MFCC;(2)建立情感模型库:进行高斯混合模型训练,对于每个用户的中性语音训练中性模型,进行中性-情感模型转化,通过中性情感语音转化算法得到情感语音模型;(3)测试语音打分,进行说话人识别。本发明有益的效果是:本技术采用中性-情感模型转换算法提高了情绪化说话人识别的识别率。本技术根据用户中性语音模型训练出用户的情感语音模型,提高了系统的识别率。
申请公布号 CN101226743A 申请公布日期 2008.07.23
申请号 CN200710157133.X 申请日期 2007.12.05
申请人 浙江大学 发明人 吴朝晖;杨莹春;单振宇
分类号 G10L17/00(2006.01);G10L15/02(2006.01);G10L15/06(2006.01);G10L15/08(2006.01) 主分类号 G10L17/00(2006.01)
代理机构 杭州九洲专利事务所有限公司 代理人 陈继亮
主权项 1.一种基于中性和情感声纹模型转换的说话人识别方法,其特征在于:包括如下步骤:(1)、语音特征的提取:先进行音频预处理,音频预处理分为采样量化,去零漂,预加重和加窗三个部分;然后进行提取倒谱特征MFCC;(2)、建立情感模型库:进行高斯混合模型训练,对于每个用户的中性语音训练中性模型,进行中性-情感模型转化,通过中性情感语音转化算法得到情感语音模型;(3)、测试语音打分,进行说话人识别。
地址 310027浙江省杭州市西湖区浙大路38号浙江大学计算机学院曹光彪东楼505室
您可能感兴趣的专利