基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf

上传人:柴****2 文档编号:4570104 上传时间:2018-10-20 格式:PDF 页数:10 大小:483.79KB
返回 下载 相关 举报
摘要
申请专利号:

CN200910024432.5

申请日:

2009.02.24

公开号:

CN101814159A

公开日:

2010.08.25

当前法律状态:

终止

有效性:

无权

法律详情:

未缴年费专利权终止IPC(主分类):G06N3/08申请日:20090224授权公告日:20130724终止日期:20140224|||授权|||专利申请权的转移IPC(主分类):G06N 3/08变更事项:申请人变更前权利人:余华变更后权利人:南京工程学院变更事项:地址变更前权利人:210096 江苏省南京市南京信息职业技术学院变更后权利人:211167 江苏省南京市江宁区科学园弘景大道1号南京工程学院登记生效日:20130613|||著录事项变更IPC(主分类):G06N 3/08变更事项:发明人变更前:余华 戴红霞 陈存宝 赵力 魏昕 奚吉 王青云 梁瑞宇变更后:包永强 余华 陈存宝 赵力 魏昕 奚吉 王青云 梁瑞宇 王浩|||实质审查的生效IPC(主分类):G06N 3/08申请日:20090224|||公开

IPC分类号:

G06N3/08; G10L17/00

主分类号:

G06N3/08

申请人:

余华

发明人:

余华; 戴红霞; 陈存宝; 赵力; 魏昕; 奚吉; 王青云; 梁瑞宇

地址:

210096 江苏省南京市南京信息职业技术学院

优先权:

专利代理机构:

代理人:

PDF下载: PDF下载
内容摘要

本发明公开了基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法,利用本方法可以提高说话人确认系统的性能。本发明充分考虑了AANN和GMM各自的优点,把AANN嵌入到GMM-UBM,并且提出了一种两阶段的学习方法,交替更新GMM和AANN的参数,并以极大似然概率作为训练GMM和AANN的共同目标,这样使AANN能够学习特征向量间的差异,把特征向量集映射能增大似然概率的子空间,并且由于神经网络的学习特性可以进一步消除信道的不匹配效果。实验表明,采用本发明的说话人确认方法可以有效地降低系统的错误识别率。

权利要求书

1: 基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法,其特征在于包括以下步骤: 在训练时,利用自联想神经网络(AANN)对特征向量进行变换,并且学习特征向量集的结构,然后把学习结果以残差特征向量的形式提供给高斯混合模型(GMM),进行GMM模型训练; 通过一个两阶段方法来训练这个通用背景模型和说话人模型,训练AANN网络的过程和训练GMM模型的过程交替进行; 其中,训练通用背景模型的GMM时采用期望最大(EM)方法,其训练过程为: (1‑1)确定GMM模型和AANN网络结构; (1‑2)设定收敛条件和最大迭代次数; (1‑3)随机确定AANN网络和GMM模型参数; (1‑4)把背景特征向量输入AANN网络,得到所有的残差向量; (1‑5)固定AANN网络参数,利用如下各式修正GMM模型各个高斯分布的权系数,均值和方差,其中方差可由均方值和均值得到: 类别后验概率: 权系数: 均值: 均方值: xt是一个N维的随机向量;bi(x),i=1,2,...,M是成员密度;pi,i=1,2,..,M是混合权值,满足pi>0;每个成员密度是一个均值矢量为Ui、协方差矩阵为∑i的高斯函数,形式如下: λ为完整的高斯混合密度由所有成员密度的均值矢量、协方差矩阵和混合权值参数λi的集合; λi={pi,ui,∑i},i=1,2,...,M (1‑6)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数; (1‑7)判断是否满足训练停止条件,是,停止训练,否,转(1‑4); 训练目标说话人模型的GMM时用最大后验概率(MAP)方法,其训练过程为: (2‑1)给定收敛条件和最大迭代次数; (2‑2)通用背景模型的AANN网络和GMM模型参数作为模型初始参数 (2‑3)把目标说话人特征向量输入AANN网络,得到所有的残差向量; (2‑4)固定AANN网络参数,修正GMM模型各个高斯分布的权系数,均值向量和方差,修正公式如 通常,取值相同,有其中,r=16; (2‑5)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数; (2‑6)判断是否满足训练停止条件,是,停止训练,否,转(2‑3); 训练AANN时采用带惯性的反向传播(BP)向后反演法; 在进行说话人确认时,由于AANN网络已经学习了目标说话人特征空间的结构,所以输入特征向量,AANN网络会把特征向量作适当的变换,然后提供给GMM模型,而会起到增强目标特征的似然概率,降低非目标特征的似然概率。

说明书


基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法 

    【技术领域】

    本发明涉及一种说话人确认方法,特别涉及一种基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法。 

    背景技术

    在门禁、信用卡交易和法庭证据等方面,自动说话人确认,特别是与文本无关的说话人确认起着越来越重要的作用,它的目标是确认待测说话人是否是所称的那个人。 

    在说话人确认方法上,基于高斯混合背景模型(GMM‑UBM)方法越来越受到重视,由于它具有识别率高,训练简单,训练数据量要求不大等优点,已经成为目前主流的识别方法。基于高斯混合模型超向量的支持向量机(SVM)和因子分析方法则代表GMM‑UBM方法的最新成果,它们利用GMM‑UBM模型训练获取均值超向量,利用投影或因子分析方法对均值超向量进行处理,再利用SVM或其它方法进行确认。由于高斯混合模型(GMM)具有很好的表示数据的分布的能力,只要有足够多的项,足够多的训练数据,GMM就能够逼近任何分布模型。但是,GMM只能逼近数据分布,对底层数据分布的改变无能为力,它不能对数据作任何变换,或者说不能改变数据的分布;另外,在选择GMM模型时,通常取各个高斯分布的方差矩阵为对角矩阵,这个假设也不是很合理,这样要求高斯混合项足够多;还有由于训练和确认时信道可能不匹配会导致确认率降低。 

    自联想神经网络(AANN)在说话人识别方面也占有重要的位置,多层感知器(MLP)、射线基(RadialBasis)网络、时延网络(TDNN)等已经成功应用于说话人识别,并且取得很好的识别效果。神经网络对特征向量进行变换,通过学习,使变换得到的特征向量以某种方式逼近目标向量,逼近的准则通常是最小均方误差(MMSE)准则。可以预见的是,如果将神经网络技术和高斯混合背景模型相结合起来,将会大大提高系统的识别率,但是目前还没有出现此类方法。 

    【发明内容】

    本发明的目的就在于解决现有技术的缺陷,提出了基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法。本发明的技术方案是: 

    基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法,其特征在于包括以下步骤: 

    在训练时,利用自联想神经网络(AANN)对特征向量进行变换,并且学习特征向量集的结构,然后把学习结果以残差特征向量(即输入向量与AANN网络的输出之差)的形式提供给高斯混合模型(GMM),进行GMM模型训练; 

    通过一个两阶段方法来训练这个通用背景模型和说话人模型,训练AANN网络的过程和训练GMM模 型的过程交替进行;训练通用背景模型的GMM时采用期望最大(EM)方法,训练目标说话人模型的GMM时用最大后验概率(MAP)方法,训练AANN时采用带惯性的反向传播(BP)向后反演法; 

    在进行说话人确认时,由于AANN网络已经学习了目标说话人特征空间的结构,所以输入特征向量,AANN网络会把特征向量作适当的变换,然后提供给GMM模型,而会起到增强目标特征的似然概率,降低非目标特征的似然概率。在所述的基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法中,所述的通用背景模型训练过程如下: 

    (1)确定GMM模型和AANN网络结构; 

    (2)设定收敛条件和最大迭代次数; 

    (3)随机确定AANN网络和GMM模型参数; 

    (4)把背景特征向量输入AANN网络,得到所有的残差向量; 

    (5)固定AANN网络参数,利用如下各式修正GMM模型各个高斯分布的权系数,均值和方差(可由均方值和均值得到): 

    类别后验概率:<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>p</mi> <mi>i</mi> </msub> <msub> <mi>b</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>p</mi> <mi>k</mi> </msub> <msub> <mi>b</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

    权系数:<mrow> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow>

    均值:<mrow> <mover> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <msub> <mi>x</mi> <mi>t</mi> </msub> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

    均方值:<mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <msubsup> <mi>x</mi> <mi>t</mi> <mn>2</mn> </msubsup> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>

    xt是一个N维的随机向量;bi(x),i=1,2,...,M是成员密度;pi,i=1,2,...,M是混合权值,满足 <mrow> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>1</mn> <mo>,</mo> </mrow>pi>0。每个成员密度是一个均值矢量为Ui、协方差矩阵为∑i的高斯函数,形式如下: 

     <mrow> <msub> <mi>b</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msup> <mrow> <mo>(</mo> <mn>2</mn> <mi>&pi;</mi> <mo>)</mo> </mrow> <mrow> <mi>D</mi> <mo>/</mo> <mn>2</mn> </mrow> </msup> <msup> <mrow> <mo>|</mo> <msub> <mi>&Sigma;</mi> <mi>i</mi> </msub> <mo>|</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>2</mn> </mrow> </msup> </mrow> </mfrac> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&prime;</mo> </msup> <msubsup> <mi>&Sigma;</mi> <mi>i</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow>

    λ为完整的高斯混合密度由所有成员密度的均值矢量、协方差矩阵和混合权值参数λi的集合。 

    λi={pi,ui,∑i},i=1,2,...,M 

    (6)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数; 

    (7)判断是否满足训练停止条件,是,停止训练,否,转(4)。 

    在所述的基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法中,所述的说话人模型训练过程如下: 

    (1)给定收敛条件和最大迭代次数; 

    (2)通用背景模型的AANN网络和GMM模型参数作为模型初始参数 

    (3)把目标说话人特征向量输入AANN网络,得到所有的残差向量; 

    (4)固定AANN网络参数,修正GMM模型各个高斯分布的权系数,均值向量和方差,修正公式如下: 

     <mrow> <msub> <mover> <mi>&omega;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <mo>[</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>&omega;</mi> </msubsup> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>&omega;</mi> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&omega;</mi> <mi>i</mi> </msub> <mo>]</mo> <mi>&gamma;</mi> </mrow>

     <mrow> <msub> <mover> <mi>&mu;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mover> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&mu;</mi> <mi>i</mi> </msub> </mrow>

     <mrow> <msubsup> <mover> <mi>&sigma;</mi> <mo>^</mo> </mover> <mi>i</mi> <mn>2</mn> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>&sigma;</mi> <mi>i</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msubsup> <mi>&mu;</mi> <mi>i</mi> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mover> <mi>&mu;</mi> <mo>^</mo> </mover> <mn>2</mn> </msup> </mrow>

    通常,αiw,αim,αiv取值相同,有<mrow> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>w</mi> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <mo>=</mo> <mi>N</mi> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>/</mo> <mrow> <mo>(</mo> <mi>N</mi> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mi>r</mi> <mo>)</mo> </mrow> <mo>,</mo> </mrow>其中,r=16。 

    (5)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数; 

    (6)判断是否满足训练停止条件,是,停止训练,否,转(3)。 

    本发明的优点和效果在于: 

    1.充分利用了AANN和GMM各自的优点,使AANN能够学习特征向量间的差异,把特征向量集映射到增大似然概率的子空间,并且由于神经网络的学习特性可以进一步消除信道的不匹配效果,并且起到了抑制语义特征,增强说话人特征的效果,使得整个说话人确认系统错误率大大降低。 

    2.由于采用了GMM‑UBM模型,训练目标说话人模型时不必从头开始,而是通过调整背景模型的参数得到目标说话人的模型,可以有效减少训练工作量;并且由于背景模型可以说反映了目标范围内说话人语音特征的方方面面,这样利用背景模型来调整得到目标说话人模型时,他/她的训练数据没有的特征也会在模型中反映出来;此外,有利于快速得分计算。 

    本发明的其他优点和效果将在下面继续描述。 

    【附图说明】

    图1——背景和说话人训练模型。 

    图2——五层自联想神经网络模型。 

    图3——两种方法的系统EER对比。 

    【具体实施方式】

    下面结合附图和实施例,对本发明所述的技术方案作进一步的阐述。 

    图1是嵌入AANN网络的说话人确认的训练模型。在训练时,AANN对特征向量进行变换,并且学习特征向量集的结构,然后把学习结果以残差特征向量(即输入向量与AANN网络的输出之差)的形式提供给GMM,进行GMM模型训练。由于AANN网络学习的准则是极大似然概率,这样通过学习,残差分布就会朝着增强似然概率的方向进行。 

    在进行说话人确认时,由于AANN网络已经学习了目标说话人特征空间的结构,所以输入特征向量,AANN网络会把特征向量作适当的变换,然后提供给GMM模型,而会起到增强目标特征的似然概率,降低非目标特征的似然概率。 

    通过一个两阶段方法来训练这个通用背景模型和说话人模型,训练AANN网络的过程和训练GMM模型的过程交替进行。训练通用背景模型的GMM时采用EM方法,训练目标说话人模型的GMM时用MAP方法,训练AANN时我们利用带惯性的BP向后反演法。 

    1.基于EM方法的通用背景模型训练过程: 

    (1)确定GMM模型和AANN网络结构; 

    (2)设定收敛条件和最大迭代次数; 

    (3)随机确定AANN网络和GMM模型参数; 

    (4)把背景特征向量输入AANN网络,得到所有的残差向量; 

    (5)固定AANN网络参数,利用式(式1),(式2),(式3)和(式4)修正GMM模型各个高斯分布的权系数,均值和方差(可由均方值和均值得到),具体修正公式如下: 

    类别后验概率:<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>p</mi> <mi>i</mi> </msub> <msub> <mi>b</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </msubsup> <msub> <mi>p</mi> <mi>k</mi> </msub> <msub> <mi>b</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>(式1) 

    权系数:<mrow> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow>(式2) 

    均值:<mrow> <mover> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <msub> <mi>x</mi> <mi>t</mi> </msub> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>(式3) 

    均方值:<mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <msubsup> <mi>x</mi> <mi>t</mi> <mn>2</mn> </msubsup> </mrow> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <mi>p</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>(式4) 

    这里x是一个N维的随机向量;bi(x),i=1,2,...,M是成员密度;Pi,i=1,2,...,M是混合权值,满足 Pi>0。每个成员密度是一个均值矢量为Ui、协方差矩阵为∑i的高斯函数,形式如(式5): 

     <mrow> <msub> <mi>b</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msup> <mrow> <mo>(</mo> <mn>2</mn> <mi>&pi;</mi> <mo>)</mo> </mrow> <mrow> <mi>D</mi> <mo>/</mo> <mn>2</mn> </mrow> </msup> <msup> <mrow> <mo>|</mo> <msub> <mi>&Sigma;</mi> <mi>i</mi> </msub> <mo>|</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>2</mn> </mrow> </msup> </mrow> </mfrac> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&prime;</mo> </msup> <msubsup> <mi>&Sigma;</mi> <mi>i</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow>(式5) 

    λ为完整的高斯混合密度由所有成员密度的均值矢量、协方差矩阵和混合权值参数λi的集合。 

    λi={pi,ui,∑i},i=1,2,...,M                                                (式6) 

    (6)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数; 

    (7)判断是否满足训练停止条件,是,停止训练,否,转(4)。 

    2.基于MAP方法的目标说话人模型训练过程 

    (1)给定收敛条件和最大迭代次数; 

    (2)通用背景模型的AANN网络和GMM模型参数作为模型初始参数; 

    (3)把目标说话人特征向量输入AANN网络,得到所有的残差向量; 

    (4)固定AANN网络参数,利用(式2),(式3),(式4)修正GMM模型各个高斯分布的权系数,均值向量和方差(可由均方值和均值得到);此外要注意的是,不是直接用这些统计量代替相应旧的统计量,而是用(式7),(式8)和(式9)代替( 和 分别表示更新后的权系数,均值和方差)。 

     <mrow> <msub> <mover> <mi>&omega;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <mo>[</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>&omega;</mi> </msubsup> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>&omega;</mi> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&omega;</mi> <mi>i</mi> </msub> <mo>]</mo> <mi>&gamma;</mi> </mrow>(式7) 

     <mrow> <msub> <mover> <mi>&mu;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mover> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&mu;</mi> <mi>i</mi> </msub> </mrow>(式8) 

     <mrow> <msubsup> <mover> <mi>&sigma;</mi> <mo>^</mo> </mover> <mi>i</mi> <mn>2</mn> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>&sigma;</mi> <mi>i</mi> <mn>2</mn> </msubsup> <mo>+</mo> <msubsup> <mi>&mu;</mi> <mi>i</mi> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mover> <mi>&mu;</mi> <mo>^</mo> </mover> <mn>2</mn> </msup> </mrow>(式9) 

    通常, 取值相同,有<mrow> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>w</mi> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>m</mi> </msubsup> <mo>=</mo> <msubsup> <mi>&alpha;</mi> <mi>i</mi> <mi>v</mi> </msubsup> <mo>=</mo> <mi>N</mi> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>/</mo> <mrow> <mo>(</mo> <mi>N</mi> <mover> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>&OverBar;</mo> </mover> <mo>+</mo> <mi>r</mi> <mo>)</mo> </mrow> <mo>,</mo> </mrow>其中,r=16。 

    (5)利用修正后的GMM模型各个高斯分布的权系数,均值向量和方差,把残差带入,得到一个似然概率,利用带惯性的BP向后反演方法修正AANN网络参数,AANN网络参数修正的计算过程见下一部分; 

    (6)判断是否满足训练停止条件,是,停止训练,否,转(3)。 

    3.修正AANN神经网络参数的计算过程 

    图2为五层AANN网络模型(包括输入层)。它是一种多层感知器网络,它的神经元组成是2L:4N:L:4N:2L,其中L表示线性,N表示非线性。其中,第三层是压缩层,以便消除数据的冗余。该模型可以用来克服GMM的弱点。 

    由于本发明采用两步迭代的方法求模型的参数,因此在迭代神经网络参数时固定GMM的权系数,均值向量和方差阵。我们要求极大化如下函数的神经网络参数: 

     <mrow> <mi>L</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>arg</mi> <mi> </mi> <mi>max</mi> </mrow> <msub> <mi>&omega;</mi> <mi>ij</mi> </msub> </munder> <munderover> <mi>&Pi;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>o</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow>(式10) 

    p(x|λ)见(式1)(为了表示方便,以下的xt中省去了下标t),ot为神经网络输出。 

    由于神经网络迭代时一般求极小值,而且和式比乘积更方便,所以我们对上式取对数后再取负,得到: 

     <mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>arg</mi> <mi>min</mi> </mrow> <msub> <mi>&omega;</mi> <mi>ij</mi> </msub> </munder> <mrow> <mo>(</mo> <mo>-</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>ln</mi> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>-</mo> <msub> <mi>o</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mrow>(式11) 

    带惯性的BP方法能够加速迭收敛过程,并能更好的处理局部极小值问题,带惯性的BP方法的公式如下: 

     <mrow> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mi>m</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <mi>&gamma;</mi> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&gamma;</mi> <mo>)</mo> </mrow> <mi>&alpha;</mi> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&PartialD;</mo> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> </mrow> </mfrac> <msub> <mo>|</mo> <mrow> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> <mo>=</mo> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <mi>m</mi> <mo>)</mo> </mrow> </mrow> </msub> </mrow>(式12) 

    这里α为迭代步长,F(x)=‑ln p((x‑o)|λ),γ为惯性系数,m为迭代次数,该值可根据实际情况选取,k为神经网络的层序号。令: 

     <mrow> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> <msubsup> <mi>o</mi> <mi>j</mi> <mrow> <mi>k</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> </mrow>(式13) 

     <mrow> <msubsup> <mi>o</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>=</mo> <mi>f</mi> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> </mrow>(式14) 

    oik为k层i个神经元输入样本x时的输出,yik为k层i个神经元输入样本x时的输入,f(yik)为激活函数。 的计算公式如下: 

     <mrow> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&PartialD;</mo> <msubsup> <mi>&omega;</mi> <mi>ij</mi> <mi>k</mi> </msubsup> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mfrac> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>&omega;</mi> </mrow> <mi>ij</mi> <mi>k</mi> </msubsup> </mfrac> </mrow>(式15) 

    由(式13)知,<mrow> <mfrac> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>&omega;</mi> </mrow> <mi>ij</mi> <mi>k</mi> </msubsup> </mfrac> <mo>=</mo> <msubsup> <mi>o</mi> <mi>j</mi> <mrow> <mi>k</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> </mrow>(式16) 

    求输出层 

     <mrow> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>o</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mfrac> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>o</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> <msubsup> <mi>y</mi> <mi>i</mi> <mtext>k</mtext> </msubsup> </mfrac> </mrow>

     <mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> </mrow> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&PartialD;</mo> <mrow> <mo>(</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>p</mi> <mi>n</mi> </msub> <msub> <mi>c</mi> <mi>n</mi> </msub> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <msubsup> <mi>&Sigma;</mi> <mi>n</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> </msup> <mo>)</mo> </mrow> <mo>/</mo> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>o</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mrow>

     <mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> </mrow> <mrow> <mi>p</mi> <mrow> <mo>(</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>&lambda;</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <munderover> <mi>&Sigma;</mi> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>p</mi> <mi>n</mi> </msub> <msub> <mi>c</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <mfrac> <mrow> <msub> <mi>a</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> <msubsup> <mi>&sigma;</mi> <mrow> <mi>n</mi> <mo>,</mo> <mi>i</mi> </mrow> <mn>2</mn> </msubsup> </mfrac> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>o</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>u</mi> <mrow> <mi>n</mi> <mo>,</mo> <mi>i</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mrow>(式17) 

    其中: 

     <mrow> <msub> <mi>a</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mi>T</mi> </msup> <msubsup> <mi>&Sigma;</mi> <mi>n</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mi>o</mi> <mo>-</mo> <msub> <mi>u</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> </msup> </mrow>(式18) 

     <mrow> <msub> <mi>c</mi> <mi>n</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msup> <mrow> <mo>(</mo> <mn>2</mn> <mi>&pi;</mi> <mo>)</mo> </mrow> <mrow> <mi>D</mi> <mo>/</mo> <mn>2</mn> </mrow> </msup> <msup> <mrow> <mo>|</mo> <msub> <mi>&Sigma;</mi> <mi>n</mi> </msub> <mo>|</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>2</mn> </mrow> </msup> </mrow> </mfrac> </mrow>(式19) 

    求隐含层 

     <mrow> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>j</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mfrac> <mfrac> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>j</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>j</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mfrac> <mfrac> <mrow> <mo>&PartialD;</mo> <mrow> <mo>(</mo> <munder> <mrow> <munder> <mi>&Sigma;</mi> <mi>n</mi> </munder> <msubsup> <mi>&omega;</mi> <mi>jn</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <msubsup> <mi>o</mi> <mi>n</mi> <mi>k</mi> </msubsup> </mrow> <mi>n</mi> </munder> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <mo>=</mo> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>j</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mfrac> <mfrac> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>o</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mi>k</mi> </msubsup> </mfrac> <msubsup> <mi>&omega;</mi> <mi>ji</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mrow>

     <mrow> <mo>=</mo> <msup> <mi>f</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>k</mi> </msubsup> <mo>)</mo> </mrow> <munder> <mi>&Sigma;</mi> <mi>j</mi> </munder> <mfrac> <mrow> <mo>&PartialD;</mo> <mi>F</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <msubsup> <mrow> <mo>&PartialD;</mo> <mi>y</mi> </mrow> <mi>i</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mfrac> <msubsup> <mi>&omega;</mi> <mi>ji</mi> <mrow> <mi>k</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> </mrow>(式20) 

    由于向后反演,所以在计算 时 已知,代入(式20)即可求出 

    为了验证本发明提出的说话人确认的优势,将本发明提出的方法和普通的基于GMM‑UBM的确认方法进行比较。 

    实施例: 

    本实施例采用N1ST 2006年的测试的1conv4w‑1conv4w作为实验,在其中选取80个目标说话人,每个人选取大约5分钟语音作为训练语音,其余语音作为测试语音。去除无效的测试外,总计有22000次测试。选择NIST2004年中的400个人的语音来训练GMM‑UBM,其中男性210人,女性190人,每人大约8分钟。 

    本实施例中采用38维的MFCC作为识别参数,对于MFCC参数提取,我们使用了基于能量和过零率的方法进行静音检测,去噪过程中我们用了谱减法,再通过f(Z)=1‑0.97Z‑1的滤波器进行预加重,进行长度20ms,窗移10ms的分帧后,进行汉明加窗。先抽取0‑18维MFCCs,总计为19维,特征参数通过CMS和RASTA进行倒谱域滤波去除信道卷积噪声,再通过一阶差分总计构成38维,最后特征通过短时高斯化以提高识别率。 

    我们在GMM‑UBM中嵌入2L:4N:L:4N:2L的AANN,非线性激活函数采用S函数,训练时神经网络的惯性系数γ=0.8。采用等错误率(EER)参数来衡量说话人确认的效果,对两种方法进行评价,其结果如图3所示。 

    从EER对比结果可以看出,基于AANN和GMM‑UBM结合的说话人确认效果比普通的GMM‑UBM方法有了较大程度地提高。 

    

基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf_第1页
第1页 / 共10页
基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf_第2页
第2页 / 共10页
基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf_第3页
第3页 / 共10页
点击查看更多>>
资源描述

《基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf》由会员分享,可在线阅读,更多相关《基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法.pdf(10页珍藏版)》请在专利查询网上搜索。

本发明公开了基于自联想神经网络和高斯混合背景模型相结合的说话人确认方法,利用本方法可以提高说话人确认系统的性能。本发明充分考虑了AANN和GMM各自的优点,把AANN嵌入到GMM-UBM,并且提出了一种两阶段的学习方法,交替更新GMM和AANN的参数,并以极大似然概率作为训练GMM和AANN的共同目标,这样使AANN能够学习特征向量间的差异,把特征向量集映射能增大似然概率的子空间,并且由于神经网络。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 物理 > 计算;推算;计数


copyright@ 2017-2020 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1