发明名称 基于基音周期混合特征参数的声纹识别方法
摘要 本发明提供了一种基于基音周期混合特征参数的声纹识别方法,包括以下步骤:语音信号的采集输入、语音信号预处理、语音信号组合特征参数提取:即提取基音周期、LPCC、ΔLPCC、能量、能量的一阶差分、GFCC特征参数共同组合成多维特征向量、采用离散二进制粒子群优化算法对多维特征参数进行筛选、引入通用背景模型UBM训练得到说话人的声音模型、最后利用GMM-UBM模型对测试语音进行识别。与单一的语音信号特征参数进行声纹识别相比,采用组合特征参数并使用GMM-UBM模型的声纹识别系统,有效地提高了声纹识别的识别准确率和系统稳定性。
申请公布号 CN104900235A 申请公布日期 2015.09.09
申请号 CN201510268390.5 申请日期 2015.05.25
申请人 重庆大学 发明人 李勇明;谢文宾;王品;刘玉川;徐莎
分类号 G10L17/02(2013.01)I;G10L17/04(2013.01)I 主分类号 G10L17/02(2013.01)I
代理机构 重庆为信知识产权代理事务所(普通合伙) 50216 代理人 陈千
主权项 一种基于基音周期混合特征参数的声纹识别方法,其特征在于,包括如下步骤:S1:语音信号的采集输入;S2:语音信号的预处理,主要包括预加重、分帧和加窗处理;S3:语音信号组合特征参数提取:提取基音周期、LPCC、ΔLPCC、能量、能量的一阶差分以及GFCC特征参数共同组合成多维特征向量,其中:LPCC为线性预测倒谱系数,△LPCC为LPCC的一阶差分,GFCC为Gammatone滤波器倒谱系数;S4:利用离散二进制粒子群优化算法对步骤S3中的多维特征向量进行筛选,将GMM‑UBM识别过程中等错误率作为评价函数,选取使得等错误率最小的特征向量作为声纹识别的特征向量,其中所述GMM‑UBM为高斯混合模型与通用背景模型相结合的说话人识别模型;S5:使用GMM‑UBM训练得到说话人的声音模型,即将语音库随机选取相应数量的语音训练得到通用背景模型UBM,然后利用最大后验准则自适应得到不同说话人的声音模型;S6:提取经粒子群优化算法筛选后的测试语音的特征参数,利用步骤S5训练得到的GMM‑UBM模型,计算出对数概率得分,选择概率得分最大者,即为目标说话人。
地址 400044 重庆市沙坪坝区沙坪坝正街174号