一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种针对多说话人的单通道语音分离方法及系统与流程

2021-06-29 23:10:00 来源:中国专利 TAG:语音 多说 信号处理 分离 单通道


1.本发明涉及语音信号处理领域,本发明具体涉及一种针对多说话人的单通道语音分离方法及系统。


背景技术:

2.随着高端智能设备如智能耳机、助听器、会议记录器等快速发展,语音交互作为人机互动最便捷的方式得到越来越广泛的研究。在语音信号处理领域,语音分离技术作为连接前端和后端的纽带,不仅可以过滤掉噪声等因素的干扰,还可以提取语音识别等技术需要的关键信息,因此起到至关重要的作用。但目前的算法中,当待分离的语音中含有较大的噪声或伴随混响时,分离的效果大打折扣。语音分离算法中研究和应用最广泛的是单通道语音分离技术。单通道语音分离技术主要利用单个麦克风采集的信号,借助目标语音和干扰信号之间的时频域声学和统计特性的差异进行建模,相比多通道语音分离任务,硬件要求和成本较低,运算量较小,但是难度更高。
3.近些年神经网络和深度学习技术得到快速发展,语音分离算法已采用深度学习的计算模式。基于深度学习的语音分离方法的基本思想是:建立语音分离模型,从混合语音中提取特征参数,然后通过网络训练寻找特征参数与各个目标语音信号的特征参数之间的映射关系,之后任意输入的混合信号都可以通过训练后的模型输出各个目标语音的信号,从而实现语音分离。早些年研究人员多在频域上研究分离算法,最近,时域的端到端分离算法由于可避免频域中的相位估算误差问题,得到广泛研究。目前时域语音分离算法主要包含:cov

tasnet、blstm

tasnet和furcanext等。这些算法多应用在纯语音混合的数据中,但当数据中混合了噪声和混响等干扰时,效果都会在一定程度上下降。分析其中一个原因是,这些算法多是仅直接将混合信号输入到网络模型中进行训练,这样训练出的网络对提高分离准确度的帮助有限。


技术实现要素:

4.本发明的目的一方面提供了针对多说话人的单通道语音分离方法,其通过分离网络的音素附加输入和注意力机制可增加网络对语音信号分离的依据,相比原有方法可有效提高语音输出的准确性,降低语音的失真率,提高可懂度。
5.本发明的目的另一方面提供了针对多说话人的单通道语音分离系统,其通过分离网络的音素附加输入和注意力机制可增加网络对语音信号分离的依据,相比原有系统可有效提高语音输出的准确性,降低语音的失真率,提高可懂度。
6.本发明的第一个方面,提供了一种针对多说话人的单通道语音分离方法,其包括:
7.步骤s101,构建语音分离深度神经网络。语音分离深度神经网络包括:输入层、输出层及多个输出通道。输出通道数量对应混合音频中的说话人数。语音分离网络包括:混合音频信号编码器、音素信息编码器、注意力机制模块和综合解码器。
8.步骤s102,将混合音频样本信号输入到混合音频信号编码器的输入端,经两层延
时卷积网络编码混合音频样本信号,获取第一编码。
9.将每个目标说话人语音音素串联输入到音素编码器的输入端,经两层延时卷积网络编码每个目标说话人语音音素,提取高维特征获取第二编码。
10.注意力机制模块通过内部的打分机制获取第一编码和第二编码的评分,通过第一编码和第二编码的评分获取注意力权重值。通过注意力权重值获取加权后的第一编码。通过加权后的第一编码和第二编码获取第三编码。
11.综合解码器,通过解卷积层解码第一编码及第三编码获取多个输出通道的语音分离信号。
12.步骤s103,每个目标说话人干净音频作为语音分离深度神经网络的训练目标。训练语音分离深度神经网络。使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练,以获得训练后的语音分离深度神经网络。
13.步骤s104,将待测试语音样本输入到训练后的语音分离深度神经网络中,经语音分离深度神经网络处理,从多个输出通道获取待测试语音样本中多个语音分离信号。将待测试语音样本中多个语音分离信号作为每个目标说话人的语音分离结果信号。
14.本发明针对多说话人的单通道语音分离方法的一种实施方式中,混合音频信号编码器和音素信息编码器分别包括两个隐藏层。解码器包括2个隐藏层。注意力机制模块包括一个隐藏层。
15.本发明针对多说话人的单通道语音分离方法的另一种实施方式中,步骤s102中还包括:
16.对语音样本数据库中的语音样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合获取多个混合音频样本信号。每个混合音频样本信号的长度为4s。
17.获取每个混合音频样本信号对应的目标说话人干净音频和语音音素。
18.本发明针对多说话人的单通道语音分离方法的另一种实施方式中,步骤s103中还包括,随机初始化语音分离深度神经网络的参数。
19.本发明针对多说话人的单通道语音分离方法的再一种实施方式中,使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤还包括:前向传播阶段。
20.前向传播阶段包括:对语音分离深度神经网络中神经元节点之间的权重和偏置进行初始化。前向传播语音分离深度神经网络。在语音分离深度神经网络的前向传播过程中,通过激活函数来增加各层之间的非线性关系,以能够生成输入与输出结果间的非线性映射。
21.本发明针对多说话人的单通道语音分离方法的再一种实施方式中,步骤s103中,使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤包括:
22.步骤s1031,计算语音分离深度神经网络的输出层损失函数的梯度。损失函数为公式1:
23.24.其中,s
target
是语音提取的目标。e
noise
是估计的噪音,由估计的语音和混合语音的差值求得。
25.步骤s1032,获取语音分离深度神经网络中网络层数l=l

1,l

2,

,2时每一层所对应的梯度。
26.步骤s1033,根据输出层损失函数的梯度及每一层所对应的梯度更新整个网络的权重和偏置。
27.本发明的第二个方面,提供了一种针对多说话人的单通道语音分离系统,其包括:
28.构建网络单元,其配置为构建语音分离深度神经网络。语音分离深度神经网络包括:输入层、输出层及多个输出通道。输出通道数量对应混合音频中的说话人数。语音分离网络包括:混合音频信号编码器、音素信息编码器、注意力机制模块和综合解码器。
29.网络配置单元,其配置为将混合音频样本信号输入到混合音频信号编码器的输入端,经两层延时卷积网络编码混合音频样本信号,获取第一编码。
30.将每个目标说话人语音音素串联输入到音素编码器的输入端,经两层延时卷积网络编码每个目标说话人语音音素,提取高维特征获取第二编码。
31.注意力机制模块通过内部的打分机制获取第一编码和第二编码的评分,通过第一编码和第二编码的评分获取注意力权重值。通过注意力权重值获取加权后的第一编码。通过加权后的第一编码和第二编码获取第三编码。
32.综合解码器,通过解卷积层解码第一编码及第三编码获取多个输出通道的语音分离信号。
33.训练单元,其配置为每个目标说话人干净音频作为语音分离深度神经网络的训练目标。训练语音分离深度神经网络。使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练,以获得训练后的语音分离深度神经网络。和
34.分离单元,其配置为将待测试语音样本输入到训练后的语音分离深度神经网络中,经语音分离深度神经网络处理,从多个输出通道获取待测试语音样本中多个语音分离信号。将待测试语音样本中多个语音分离信号作为每个目标说话人的语音分离结果信号。
35.本发明针对多说话人的单通道语音分离系统的一种实施方式中,网络配置单元还配置为:
36.对语音样本数据库中的语音样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合获取多个混合音频样本信号。每个混合音频样本信号的长度为4s。
37.获取每个混合音频样本信号对应的目标说话人干净音频和语音音素。
38.本发明针对多说话人的单通道语音分离系统的另一种实施方式中,训练单元还配置为随机初始化语音分离深度神经网络的参数。
39.本发明针对多说话人的单通道语音分离系统的另一种实施方式中,训练单元中使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤还包括:前向传播阶段。
40.前向传播阶段包括:对语音分离深度神经网络中神经元节点之间的权重和偏置进行初始化。前向传播语音分离深度神经网络。在语音分离深度神经网络的前向传播过程中,通过激活函数来增加各层之间的非线性关系,以能够生成输入与输出结果间的非线性映
射。
41.下文将以明确易懂的方式,结合附图对针对多说话人的单通道语音分离方法及系统的特性、技术特征、优点及其实现方式予以进一步说明。
附图说明
42.图1是用于说明在本发明一种实施方式中,针对多说话人的单通道语音分离方法的流程示意图。
43.图2是用于说明在本发明一种实施方式中,语音分离网络的组成示意图。
44.图3是用于说明在本发明一种实施方式中,多说话人的单通道语音分离系统的组成示意图。
45.图4是用于说明在本发明一种实施方式中,语音分离深度神经网络的组成示意图。
46.图5a是用于说明在本发明一种实施方式中,混合音频信号编码器的部分层结构示意图。
47.图5b是用于说明在本发明一种实施方式中,音素信息编码器的部分层结构示意图。
48.图6是用于说明在本发明一种实施方式中,注意力机制模块的部分层结构示意图
49.图7是用于说明在本发明又一种实施方式中,综合解码器的部分层结构示意图。
具体实施方式
50.为了对发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式,在各图中相同的标号表示结构相同或结构相似但功能相同的部件。
51.在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中只示意性地表示出了与本示例性实施例相关的部分,它们并不代表其作为产品的实际结构及真实比例。
52.发明的第一个方面,提供了一种针对多说话人的单通道语音分离方法,如图1所示,其包括:
53.步骤s101,构建语音分离深度神经网络。
54.本步骤中,构建语音分离深度神经网络。语音分离深度神经网络包括:输入层、输出层及多个输出通道。输出通道数量对应混合音频中的说话人数。如图2所示,语音分离网络包括:混合音频信号编码器101、音素信息编码器201、注意力机制模块301和综合解码器401。
55.步骤s102,获取多个输出通道的语音分离信号。
56.本步骤中,将混合音频样本信号输入到混合音频信号编码器101的输入端,经两层延时卷积网络编码混合音频样本信号,获取第一编码。
57.将每个目标说话人语音音素串联输入到音素编码器的输入端,经两层延时卷积网络编码每个目标说话人语音音素,提取高维特征获取第二编码。
58.注意力机制模块301通过内部的打分机制获取第一编码和第二编码的评分,通过第一编码和第二编码的评分获取注意力权重值。通过注意力权重值获取加权后的第一编
码。通过加权后的第一编码和第二编码获取第三编码。
59.综合解码器401,通过解卷积层解码第一编码及第三编码获取多个输出通道的语音分离信号。
60.步骤s103,获得训练后的语音分离深度神经网络。
61.本步骤中,每个目标说话人干净音频作为语音分离深度神经网络的训练目标。训练语音分离深度神经网络。使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练,以获得训练后的语音分离深度神经网络。
62.步骤s104,获取多个语音分离信号。
63.本步骤中,将待测试语音样本输入到训练后的语音分离深度神经网络中,经语音分离深度神经网络处理,从多个输出通道获取待测试语音样本中多个语音分离信号。将待测试语音样本中多个语音分离信号作为每个目标说话人的语音分离结果信号。
64.本发明一种针对多说话人的单通道语音分离方法相比现有的单通道语音分离算法能更进一步的提取每个说话人的语音特征,有效去除对应目标说话人以外的信号,从而提高算法分离的准确度,降低语音的失真率,有效的提高了分离后各语音的可懂度。通过分离网络的音素附加输入和注意力机制可增加网络对语音信号分离的依据,相比原有方法可有效提高语音输出的准确性,降低语音的失真率,提高可懂度。
65.本发明针对多说话人的单通道语音分离方法的一种实施方式中,混合音频信号编码器101和音素信息编码器201分别包括两个隐藏层。解码器包括2个隐藏层。注意力机制模块301包括一个隐藏层。
66.本发明针对多说话人的单通道语音分离方法的另一种实施方式中,步骤s102中还包括:
67.对语音样本数据库中的语音样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合获取多个混合音频样本信号。每个混合音频样本信号的长度为4s。
68.获取每个混合音频样本信号对应的目标说话人干净音频和语音音素。
69.本发明针对多说话人的单通道语音分离方法的另一种实施方式中,步骤s103中还包括,随机初始化语音分离深度神经网络的参数。
70.本发明针对多说话人的单通道语音分离方法的再一种实施方式中,使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤还包括:前向传播阶段。
71.前向传播阶段包括:对语音分离深度神经网络中神经元节点之间的权重和偏置进行初始化。前向传播语音分离深度神经网络。在语音分离深度神经网络的前向传播过程中,通过激活函数来增加各层之间的非线性关系,以能够生成输入与输出结果间的非线性映射。
72.本发明针对多说话人的单通道语音分离方法的再一种实施方式中,步骤s103中,使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤包括:
73.步骤s1031,计算语音分离深度神经网络的输出层损失函数的梯度。损失函数为公式1:
[0074][0075]
其中,s
target
是语音提取的目标。e
noise
是估计的噪音,由估计的语音和混合语音的差值求得。
[0076]
步骤s1032,获取语音分离深度神经网络中网络层数l=l

1,l

2,

,2时每一层所对应的梯度。
[0077]
步骤s1033,根据输出层损失函数的梯度及每一层所对应的梯度更新整个网络的权重和偏置。
[0078]
本发明的第二个方面,提供了一种针对多说话人的单通道语音分离系统,如图3所示,针对多说话人的单通道语音分离系统包括:构建网络单元10、网络配置单元20、训练单元30和分离单元40。
[0079]
构建网络单元10,其配置为构建语音分离深度神经网络。语音分离深度神经网络包括:输入层、输出层及多个输出通道。输出通道数量对应混合音频中的说话人数。语音分离网络包括:混合音频信号编码器101、音素信息编码器201、注意力机制模块301和综合解码器401。
[0080]
网络配置单元20,其配置为将混合音频样本信号输入到混合音频信号编码器101的输入端,经两层延时卷积网络编码混合音频样本信号,获取第一编码。
[0081]
将每个目标说话人语音音素串联输入到音素编码器的输入端,经两层延时卷积网络编码每个目标说话人语音音素,提取高维特征获取第二编码。
[0082]
注意力机制模块301通过内部的打分机制获取第一编码和第二编码的评分,通过第一编码和第二编码的评分获取注意力权重值。通过注意力权重值获取加权后的第一编码。通过加权后的第一编码和第二编码获取第三编码。
[0083]
综合解码器401,通过解卷积层解码第一编码及第三编码获取多个输出通道的语音分离信号。
[0084]
训练单元30,其配置为每个目标说话人干净音频作为语音分离深度神经网络的训练目标。训练语音分离深度神经网络。使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练,以获得训练后的语音分离深度神经网络。
[0085]
分离单元40,其配置为将待测试语音样本输入到训练后的语音分离深度神经网络中,经语音分离深度神经网络处理,从多个输出通道获取待测试语音样本中多个语音分离信号。将待测试语音样本中多个语音分离信号作为每个目标说话人的语音分离结果信号。
[0086]
本发明针对多说话人的单通道语音分离系统的一种实施方式中,网络配置单元20还配置为:
[0087]
对语音样本数据库中的语音样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合获取多个混合音频样本信号。每个混合音频样本信号的长度为4s。
[0088]
获取每个混合音频样本信号对应的目标说话人干净音频和语音音素。
[0089]
本发明针对多说话人的单通道语音分离系统的另一种实施方式中,训练单元30还配置为随机初始化语音分离深度神经网络的参数。
[0090]
本发明针对多说话人的单通道语音分离系统的另一种实施方式中,训练单元30中
使用损失函数通过梯度下降法来反向传播更新权重和偏置,对语音分离深度神经网络有监督的训练的步骤还包括:前向传播阶段。
[0091]
前向传播阶段包括:对语音分离深度神经网络中神经元节点之间的权重和偏置进行初始化。前向传播语音分离深度神经网络。在语音分离深度神经网络的前向传播过程中,通过激活函数来增加各层之间的非线性关系,以能够生成输入与输出结果间的非线性映射。
[0092]
在本发明的针对多说话人的单通道语音分离方法的另一种优选的实施方式中,本发明的目的是针对多说话人的单通道语音分离技术提出一种音素时域卷积语音分离方法。该算法相比现有的单通道语音分离算法能更进一步的提取每个说话人的语音特征,有效去除对应目标说话人以外的信号,从而提高算法分离的准确度,降低语音的失真率,有效的提高了分离后各语音的可懂度。
[0093]
本发明提出的算法由混合音频信号编码器、音素信息编码器、综合解码器和注意力机制模块构成。
[0094]
具体操作流程包括:
[0095]
第一部分:对训练语音样本进行预处理,并输入到网络输入端;
[0096]
第二部分:使用损失函数对深度神经网络进行训练,以获得深度神经网络模型;
[0097]
第三部分:将待测试语音样本输入到训好的网络模型中进行语音分离,得到测试结果。
[0098]
第一部分具体包括:
[0099]
1.1、对数据库样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合,同时保存每个混合音频对应的目标说话人干净音频和语音音素。每个样本的长度为4s。
[0100]
1.2、将混合音频信号输入到混合音频信号编码器的输入端,将每个目标语音对应音素串联输入到音素编码器的输入端,对应说话人的干净语音音频作为神经网络的训练目标。
[0101]
第二部分包括:
[0102]
2.1、对深度神经网络参数进行随机初始化;
[0103]
2.2、根据2.1初始化后的参数,对深度神经网络进行有监督的训练,即使用损失函数通过梯度下降法来反向传播更新权重和偏置,以获得深度神经网络模型。
[0104]
上述2.1中包括前向传播阶段和反向传播阶段。
[0105]
前向传播阶段包括:对网络神经元节点之间的权重和偏置进行初始化;深度神经网络进行前向传播。
[0106]
神经网络在前向传播过程中,可使用激活函数来增加网络之间的非线性关系,最后能够生成输入与输出结果间的非线性映射。
[0107]
反向传播阶段包括:
[0108]
<1>计算深度神经网络的损失函数;
[0109]
<2>通过梯度下降法更新深度神经网络的参数。
[0110]
整个网络的损失函数为公式2:
[0111][0112]
其中,s
target
是语音提取的目标;e
noise
是估计的噪音,由估计的语音和混合语音的差值求得。
[0113]
网络将使用梯度下降法对其中的参数进行交替更新:
[0114]
a、构建语音分离网络。它是一个多输出的网络,输出的通道数与混合音频中的说话人数目有关。整个网络由四个模块组成,包括:混合音频信号编码器、音素信息编码器、综合解码器和注意力机制模块。网络除了输入层、输出层外,混合音频信号编码器和音素信息编码器分别含有两个隐藏层,解码器含有2个隐藏层。注意力机制含有一个隐藏层。。
[0115]
b、计算网络输出层损失函数的梯度;
[0116]
c、计算网络层数l=l

1,l

2,

,2时每一层所对应的梯度;
[0117]
d、更新整个网络的权重和偏置。
[0118]
混合音频信号编码器部分:将混合音频y输入到网络输入端,然后经两层延时卷积网络对信号进行编码,得到g={g0,

,gn

1}。n为此编码器第二层网络对应的输出长度。
[0119]
音素信息编码器部分:将每个混合音频的目标语音对应的音素串联为p输入到此模块的输入端,然后经两层延时卷积网络编码,提取高维特征得到h={h0,

,hm

1}。m为此编码器第二层网络对应的输出长度。
[0120]
注意力机制模块部分:同时接收混合音频信号编码器和音素信息编码器的输出g和h,通过内部的打分机制对所有的hm和gn进行计算,得到公式3:
[0121][0122]
这样注意力权重α
n,m
就可以通过一个softmax算符得到公式4:
[0123][0124]
综合解码器部分:将混合音频信号编码器的输出与注意力机制模块的加权输出相乘后的结果c
n
输入到解码器中,即公式5:
[0125][0126]
然后通过网络的解卷积层解码即可得到对应的多通道语音分离信号。
[0127]
第三部分中的语音测试操作为:将待测试语音样本输入到训练后的网络模型中,经计算可得到每路语音对应的估计信号,即每一个说话人的语音分离结果。
[0128]
通过分离网络的音素附加输入和注意力机制可增加网络对语音信号分离的依据,相比原有方法可有效提高语音输出的准确性,降低语音的失真率,提高可懂度。
[0129]
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
[0130]
如图4所示,本发明提供了一种音素时域卷积语音分离算法,这里以两个说话人的语音分离为例。主要包括以下内容:
[0131]
第一部分:对训练语音样本进行预处理,并输入到网络输入端;
[0132]
第二部分:使用损失函数对深度神经网络进行训练,以获得深度神经网络模型;
[0133]
第三部分:将待测试语音样本输入到训好的网络模型中进行语音分离,得到测试
结果。
[0134]
以下将对每个部分做详细说明。
[0135]
其中第一部分具体包括:
[0136]1‑
1、对数据库样本信号在8khz下重采样,并对多个目标说话人与噪声及混响数据在信噪比

2.5db到2.5db之间做随机的音频混合得到y,同时保存每个混合音频对应的目标说话人干净音频xi(i=1,2,

,n)和语音音素pi。每个样本的长度为4s。
[0137]1‑
2、将混合音频信号y作为输入到混合音频信号编码器的输入端,将每个目标语音对应音素串联为p输入到音素编码器的输入端,对应说话人的干净语音音频xi作为神经网络的训练目标。
[0138]
第二部分具体包括:
[0139]
(1)对深度神经网络参数进行随机初始化;
[0140]
(2)根据(1)初始化后的参数,对深度神经网络进行有监督的训练,即使用损失函数通过梯度下降法来反向传播更新权重和偏置,以获得深度神经网络模型。
[0141]
上述(2)中包括前向传播阶段和反向传播阶段。
[0142]
前向传播阶段包括:对网络神经元节点之间的权重和偏置进行初始化;深度神经网络进行前向传播。
[0143]
神经网络在前向传播过程中,可使用激活函数来增加网络之间的非线性关系,最后能够生成输入与输出结果间的非线性映射。
[0144]
反向传播阶段包括:
[0145]
<1>计算深度神经网络的损失函数;
[0146]
<2>通过梯度下降法更新深度神经网络的参数。
[0147]
整个网络的损失函数为公式6:
[0148][0149]
其中,s
target
是语音提取的目标;e
noise
是估计的噪音,由估计的语音和混合语音的差值求得。
[0150]
网络将使用梯度下降法对其中的参数进行交替更新:
[0151]
a、构建语音分离网络。它是一个多输出的网络,输出的通道数与混合音频中的说话人数目有关。整个网络由四个模块组成(图4)包括:混合音频信号编码器101(图5a)、音素信息编码器201(图5b)、综合解码器401(图7)和注意力机制模块301(图6)。网络除了输入层、输出层外,混合音频信号编码器和音素信息编码器分别含有两个隐藏层,综合解码器含有2个隐藏层。注意力机制含有一个隐藏层。综合解码器401输出第一分离的语音分离信号、第二分离的语音分离信号,......。
[0152]
b、计算网络输出层损失函数的梯度;
[0153]
c、计算网络层数l=l

1,l

2,

,2时每一层所对应的梯度;
[0154]
d、更新整个网络的权重和偏置。
[0155]
混合音频信号编码器部分:将混合音频y输入到网络输入端,然后经两层延时卷积网络对信号进行编码,得到g={g0,

,gn

1}。n为此编码器第二层网络对应的输出长度。
[0156]
音素信息编码器部分:将每个混合音频的目标语音对应的音素串联为p输入到此
模块的输入端,然后经两层延时卷积网络编码,提取高维特征得到h={h0,

,hm

1}。m为此编码器第二层网络对应的输出长度。
[0157]
注意力机制模块部分:同时接收混合音频信号编码器和音素信息编码器的输出g和h,通过内部的打分机制对所有的hm和gn进行计算,得到公式7:
[0158][0159]
这样注意力权重α
n,m
就可以通过一个softmax算符得到公式8:
[0160][0161]
综合解码器部分:将混合音频信号编码器的输出与注意力机制模块的加权输出相乘后的结果c
n
输入到解码器中,即公式9:
[0162][0163]
然后通过网络的解卷积层进行解码即可得到对应的多个通道语音分离信号。
[0164]
第三部分中的语音测试操作为:将待测试语音样本输入到训练后的网络模型中,经计算可得到每路语音对应的估计信号,即每一个说话人的语音分离结果。
[0165]
应当理解,虽然本说明书是按照各个实施方式中描述的,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
[0166]
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文章

  • 日榜
  • 周榜
  • 月榜