一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

声纹识别方法、装置以及电子设备与流程

2022-04-27 13:20:10 来源:中国专利 TAG:


1.本技术涉及计算机技术领域,更具体地,涉及一种声纹识别方法、装置以及电子设备。


背景技术:

2.随着深度学习技术的发展,声纹识别算法得以大幅度地往前推进。然而由于音频数据的采集场景不同(例如:不同的音频采集设备、不同的语种、不同的生理情况等),导致采集到的音频数据处于不同域内且不同域之间差异较大,从而严重削弱声纹识别系统进行声纹识别的准确性。


技术实现要素:

3.鉴于上述问题,本技术提出了一种声纹识别方法、装置以及电子设备,以实现改善上述问题。
4.第一方面,本技术提供了一种声纹识别方法,所述方法包括:获取待识别语音;通过声纹模型获取所述待识别语音对应的第一声纹特征;通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似;将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。
5.第二方面,本技术提供了一种声纹识别装置,所述装置包括:语音获取单元,用于获取待识别语音;第一声纹特征获取单元,用于通过声纹模型获取所述待识别语音对应的第一声纹特征;第二声纹特征获取单元,用于通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似;声纹比对单元,用于将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。
6.第三方面,本技术提供了一种电子设备,包括一个或多个处理器以及存储器;一个或多个程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行, 所述一个或多个程序配置用于执行上述的方法。
7.第四方面,本技术提供的一种计算机可读存储介质,所述计算机可读存储介质中存储有程序代码,其中,在所述程序代码运行时执行上述的方法。
8.本技术提供的一种声纹识别方法、装置、电子设备以及存储介质,在获取待识别语音后,通过声纹模型获取所述待识别语音对应的第一声纹特征,通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,
所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似,将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。通过上述方式使得,可以基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征对识别模型进行训练,由于自适应声纹特征所属的域为目标域,与待识别语音所属域相同或相似,从而可以提高识别模型身份匹配识别的准确率。
附图说明
9.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地 ,下面描述中的附图仅仅是本技术的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
10.图1示出了本技术实施例提出的一种声纹识别方法的流程图;图2示出了本技术提出的一种第一声纹特征生成方法的示意图;图3示出了本技术提出的一种第二声纹特征生成方法的示意图;图4示出了本技术另一实施例提出的一种声纹识别方法的流程图;图5示出了本技术图4中s220的一种实施例方式的流程图;图6示出了本技术提出的一种目标域特征值对角矩阵的示意图;图7示出了本技术图4中s220的另一种实施例方式的流程图;图8示出了本技术实施例提出的一种声纹识别装置的结构框图;图9示出了本技术提出的一种电子设备的结构框图;图10是本技术实施例的用于保存或者携带实现根据本技术实施例的声纹识别方法的程序代码的存储单元。
具体实施方式
11.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
12.随着深度学习技术的发展,声纹识别算法得以大幅度地往前推进,使得可以基于声纹识别系统进行身份匹配识别。
13.发明人在对相关研究中发现,由于音频数据的采集场景不同(例如:不同的音频采集设备、不同的语种、不同的生理情况等),导致采集到的音频数据处于不同域内且不同域之间差异较大,从而严重削弱声纹识别系统进行声纹识别的准确性。
14.因此,发明人提出了本技术中的一种声纹识别方法、装置以及电子设备,在获取待识别语音后,通过声纹模型获取所述待识别语音对应的第一声纹特征,通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似,将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所
述识别模型得到。通过上述方式使得,可以基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征对识别模型进行训练,由于自适应声纹特征所属的域为目标域,与待识别语音所属域相同或相似,从而可以提高识别模型身份匹配识别的准确率。
15.请参阅图1,本技术提供的一种声纹识别方法,所述方法包括:s110:获取待识别语音。
16.其中,待识别语音是指需要进行身份匹配识别的主体(如:人等)所发出的语音,作为一种方式可以通过具有音频采集装置的电子设备(例如:手机、固话、耳机、电脑内置麦克风和声纹采集器等)获取待识别语音,生成待识别语音对应的音频数据。
17.s120:通过声纹模型获取所述待识别语音对应的第一声纹特征。
18.其中,声纹模型是指可以对待识别语音进行特征提取的模型,例如:神经网络模型、高斯混合模型等。作为一种方式,如图2所示,可以将待识别语音输入声纹模型,以得到第一声纹特征。
19.s130:通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似。
20.其中,识别模型是指可以用于身份匹配识别的模型,例如:plda(probabilistic linear discriminant analysis,概率线性判别分析)、lda(linear discriminant analysis,线性判别分析)、svm(support vector machines,支持向量机)、pca(principal component analysis,主成分分析)等模型。作为一种方式,如图3所示,可以将第一声纹特征输入识别模型以得到第二声纹特征,其中,第一声纹特征和第二声纹特征可以是由多个维度的特征分量组合而成的声纹特征,由于识别模型可以增大不同身份所对应的声纹特征间的离散度并且降低同一身份所对应的声纹特征的离散度,所以第一声纹特征中表示身份的特征分量间的离散度小于第二声纹特征中表示身份的特征分量间的离散度,而声纹特征中表示身份的特征分量间的离散度越大,则越容易通过该声纹特征识别出声纹特征所对应的身份,使得第二声纹特征比第一声纹特征更具有区分性,因此通过第二声纹特征可以更好地进行身份匹配识别。
21.声纹特征的域可以理解为声纹特征所对应的音频数据的场景。可选的,声纹特征的域可以是不同属性的组合,例如:采集音频数据的设备(如:手机、固话、耳机等),音频存储格式(如:.mp3、.mp4、.acc、.slik和.flac等),音频数据的采样频率(如:8khz、16khz和44.1khz等),音频数据主体的语种(如:普通话、粤语、英文等)、生理情况(如:戴口罩、沙哑、感冒等)和所处空间环境等属性的组合。
22.其中,不同的属性还可以分为关键属性和非关键属性。关键属性是指可以将目标域与其他域明显区分开来的属性,非关键属性是指可以同时存在于目标域和其他域中的属性,并且关键属性对本技术提出的声纹识别方法在准确率存在较大影响。示例性的,若目标域的应用场景为室内,则所处空间环境可以是关键属性,采集音频数据的设备、音频数据的采样频率等可以是非关键属性。
23.不同属性的组合可以形成不同的域,例如:在会议室中以固话方式采集的音频数据和在车内以手机采集的音频数据属于不同的域。并且,不同域的音频数据的听感也会有
所不同,例如:在会议室中以固话方式采集的音频数据听起来空洞失真,在车内以手机采集的音频数据听起来沉闷饱满。目标域是指需要应用的声纹特征所对应的音频数据的场景。相同域可以表征音频数据的场景完全相同,即对应的不同属性均完全相同;相似域可以表征音频数据的场景较为相似,即对应的不同属性中可以有部分不同,更具体地,可以是关键属性相同,非关键属性存在一些不同。
24.在本技术实施例中,源域声纹特征是指源域下的声纹特征,源域是与目标域不同的域,更具体地,源域声纹特征可以为预先在源域所对应的场景下音频数据的声纹特征。作为一种方式,可以将拥有大量用户的声纹识别应用程序(该应用程序中对应有识别模型)中的用户音频数据进行特征提取,得到源域声纹特征;当该应用程序需要应用于新的场景时,可以将新的场景作为目标域,基于目标域的音频数据进行特征提取,得到目标域的声纹特征。
25.可选的,目标域的声纹特征可以是基于某种特定的场景进行音频数据采集,并将采集到的音频数据进行特征提取而得到的声纹特征。例如:声纹识别应用程序主要的新应用场景为智能家居场景,并且在该场景中音频数据主体的语种为普通话,则可以在室内通过智能家居场景中常用的音频采集设备(如:手机等)采集普通话音频数据,并基于采集到的音频数据得到目标域声纹特征。
26.可选的,目标域的声纹特征可以是基于多种场景进行音频数据采集,并将采集到的音频数据进行特征提取而得到的声纹特征。例如:声纹识别应用程序需要应用于智能家居场景、会议室场景、室外等多种新场景中,并且在这些场景中音频数据主体所采用的主要语种为普通话和粤语,则可以在上述多种应用场景中通过场景中常用的音频采集设备(如:固话、手机、麦克风等)采集普通话和粤语的音频数据,并基于采集到的音频数据得到目标域声纹特征。
27.需要说明的是,与源域声纹特征相比,目标域声纹特征的收集是更加困难的,因为在适用于目标域的声纹识别应用程序还没有正式上线时,很难获得大量用户的音频数据,因此,作为一种方式,为了得到更多地训练数据去训练适用于目标域的声纹识别应用程序中的识别模型,可以基于大量的源域声纹特征以及有限的目标域的声纹特征得到与源域声纹特征数量相同的自适应声纹特征,其中,自适应声纹特征所属域为目标域,从而增加了适用于目标域的声纹识别应用程序中的识别模型的训练数据,进而提高了识别模型的准确率。
28.s140:将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。
29.其中,注册声纹特征可以是当用户首次使用声纹识别应用程序时,用于注册账户的音频数据所对应的声纹特征。示例性的,当用户首次使用声纹识别应用程序时,用户需要说一段语音去注册一个用于登录该应用程序的账户,此时,该应用程序可以在采集用户的音频数据后,将采集到的音频数据依次通过声纹模型、识别模型得到注册声纹特征,并对注册声纹特征与用户身份进行关联存储,例如,对该注册声纹特征贴上表明用户身份的标签。
30.作为一种方式,可以有多个用户进行注册,每个用户对应有一个注册声纹特征,从而可以得到多个注册声纹特征,当通过步骤s130得到第二声纹特征后,可以基于相似性度量(例如:余弦距离、欧氏距离等)的方式将第二声纹特征与多个注册声纹特征进行比对,得
到与第二声纹特征最相似的注册声纹特征,并将这个最相似的注册声纹特征所对应的身份作为第二声纹特征的身份,从而实现了身份的匹配识别。
31.本实施例提供的一种声纹识别方法,在获取待识别语音后,通过声纹模型获取所述待识别语音对应的第一声纹特征,通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似,将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。通过上述方式使得,可以基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征对识别模型进行训练,由于自适应声纹特征所属的域为目标域,与待识别语音所属域相同或相似,从而可以提高识别模型身份匹配识别的准确率。
32.请参阅图4,本技术提供的一种声纹识别方法,所述方法包括:s210:获取所述源域声纹特征和所述目标域的声纹特征,其中,所述源域声纹特征对应的域与所述目标域不同。
33.其中,作为一种方式,可以先获取源域音频数据和目标域音频数据,再将源域音频数据和目标域音频数分别输入声纹模型,以得到源域声纹特征和目标域的声纹特征。例如,源域音频数据有m条,目标域音频数据有n(m远远大于n)条,则将源域音频数据和目标域音频数据分别输入声纹模型,则可以得到源域声纹特征的集合和目标域的声纹特征的集合。
34.可选的,源域音频数据可以是拥有大量用户的声纹识别应用程序通过用户登录行为所采集到的数据;目标域音频数据可以是在目标域的应用场景下所采集到的数据。
35.可选的,目标域的声纹特征可以分为开发集、注册集和验证集声纹特征,其中,开发集声纹特征可以是在目标域应用场景下任意采集的声纹特征,这里的任意指的是可以不限音频内容、不限音频时长等,所以开发集声纹特征可以是没有对应身份的声纹特征,可以用于在没有用户使用识别模型时,将源域声纹特征转换为自适应声纹特征以训练识别模型;注册集声纹特征和验证集声纹特征可以是在开始有用户使用识别模型时所采集到的目标域的声纹特征,可以用于后期对识别模型的更新,使得更新后的识别模型在身份匹配识别时具有更高的准确率。
36.s220:基于所述源域声纹特征和所述目标域的声纹特征,得到自适应声纹特征。
37.其中,作为一种方式,可以先基于目标域的声纹特征,获取目标域的主要声纹特征,再基于目标域的主要声纹特征将源域声纹特征转换为自适应声纹特征。
38.作为一种方式,如图5所示,基于目标域的声纹特征,获取目标域的主要声纹特征,包括:s221:基于所述目标域的声纹特征,获取目标域协方差矩阵。
39.其中,作为一种方式,可以将目标域的声纹特征输入协方差矩阵公式得到目标域协方差矩阵。示例性的,目标域的声纹特征可以为,其中,为目
标域的声纹特征集合,表示一条目标域的声纹特征,协方差矩阵公式如下:其中,e(*)表示数学期望。
40.s222:对所述目标域协方差矩阵进行特征值分解,以得到目标域特征值对角矩阵。
41.其中,作为一种方式,可以通过对目标域协方差矩阵进行特征值分解(eigen decomposition,evd),得到目标域特征值对角矩阵,目标域特征值对角矩阵可以用于表示从协方差矩阵中提取出的特征值,通过对目标域协方差矩阵进行特征值分解,可以将目标域的声纹特征中的干扰数据滤除,从而使得目标域特征值对角矩阵可以更好地表示目标域的声纹特征。其中,特征值分解结果如下:其中,是特征向量,是目标域特征值对角矩阵,为目标域特征值对角矩阵中的特征值。
42.s223:基于所述目标域特征值对角矩阵,获取所述目标域的主要声纹特征。
43.其中,每一个目标域的声纹特征对应有多个维度,目标域特征值对角矩阵的大小与目标域的声纹特征的维度相关。例如:目标域的声纹特征可以表示为一个1
×
n的多维向量,则目标域特征值对角矩阵可以为n
×
n的对角矩阵。在目标域特征值对角矩阵中的特征值可以表示多个目标域的声纹特征在不同维度上的特征分布情况。
44.作为一种方式,可以基于目标域特征值对角矩阵,得到目标域的声纹特征对应的多个维度的特征值;对多个维度的特征值进行规范化处理,得到多个规范化特征值;将多个规范化特征值中的非关键规范化特征值替换为第一阈值,以得到目标域的主要声纹特征,其中,非关键规范化特征值小于第一阈值,关键规范化特征值大于或等于第一阈值。
45.作为一种方式,可以通过零-均值(z-score)规范化对多个维度的特征值进行规范化处理,得到多个规范化特征值,零-均值(z-score)规范化的计算公式如下:其中,表示目标域的声纹特征对应的多个维度的特征值,为目标域的声纹特征对应的一个维度的特征值,表示目标域的声纹特征对应的多个维度的特征值的均值,表示目标域的声纹特征对应的多个维度的特征值的方差。
46.示例性的,如图6所示,可以基于图6的目标域特征值对角矩阵,得到规范化处理后的多个维度的特征值为,当第一阈值为0.5时,可以将分别与0.5进行比对,若哪个维度的特征值小于0.5,则可以确定该维度的特征值为非关键规范化特征值,需要将该维度的特征值替换为
0.5。例如:为0.3,则需要将替换为0.5,此时目标域的主要声纹特征为:。
47.需要说明的是,可以基于识别模型的准确性调节第一阈值,例如:当第一阈值为a时,识别模型的准确率为x,为了提高识别模型的准确率可以先尝试将第一阈值设置为b(b《a),若当第一阈值为b时所对应的识别模型准确率有所增加,则可以继续减小第一阈值,以得到最高的识别模型准确率;若当第一阈值为b时所对应的识别模型准确率有所下降,则可以尝试将第一阈值设置为c(c》a),若当第一阈值为c时所对应的识别模型准确率有所增加,则可以继续增大第一阈值,以得到最高的识别模型准确率。
48.通过对目标域的声纹特征对应的多个维度的特征值进行规范化处理,可以将多个维度的特征值进行缩放,使上述多个维度的特征值可以在一个特定范围内波动,滤除了目标域的声纹特征中的不良数据,提高了目标域的声纹特征的普适性。并且通过将非关键规范化特征值替换为第一阈值,可以约束目标域的声纹特征的最小值,从而可以滤除非关键规范化特征值并突出关键规范化特征值的表征能力,进而可以提高识别模型的准确率。
49.作为一种方式,如图7所示,基于目标域的主要声纹特征将源域声纹特征转换为自适应声纹特征,包括:s225:基于所述目标域的主要声纹特征生成目标域正则协方差矩阵。
50.其中,作为一种方式,可以通过将目标域的主要声纹特征输入正则公式得到目标域正则协方差矩阵,该正则公式如下:其中,是基于目标域的主要声纹特征重构的协方差矩阵;是对该重构协方差矩阵进行正则化的矩阵,表示正则系数,表示一个单元矩阵,表示通过步骤s210得到的目标域声纹特征,表示选取目标域的声纹特征的第二个维度的参数,也就是选取用于表示目标域的声纹特征的1
×
n多维向量中的n。
51.需要说明的是,正则系数同步骤s223中的第一阈值一样,也是可以根据识别模型的准确性进行调节的。
52.s226:基于所述源域声纹特征生成源域正则协方差矩阵。
53.其中,作为一种方式,可以先基于源域声纹特征得到源域协方差矩阵,再基于正则公式以及源域协方差矩阵得到源域正则协方差矩阵。
54.其中,源域声纹特征可以为,为源域声纹特征集合,表示一条源域声纹特征,每条源域声纹特征可以表示为一个1
×
n的多维向量。源域协方差矩阵的计算方法如下:
其中,e(*)表示数学期望。
55.源域正则协方差矩阵的正则公式如下:其中,是对源域协方差矩阵进行正则化的矩阵,表示正则系数,表示一个单元矩阵,表示源域声纹特征,表示选取源域声纹特征的第二个维度的参数,也就是选取用于表示源域声纹特征的1
×
n多维向量中的n。
56.需要说明的是,源域协方差矩阵可以在步骤s210得到源域声纹特征后以及在s226步骤之前的任意步骤中获得。
57.再者,需要说明的是,步骤s225和s226中的正则参数、可以是相同的,也可以是不同的,可以根据实际情况(如:识别模型的准确率)进行设置。
58.s227:基于所述源域正则协方差矩阵与所述源域声纹特征,得到白化源域声纹特征。
59.其中,作为一种方式,可以基于下述公式得到白化源域声纹特征:其中,为通过步骤s210得到的源域声纹特征,为通过步骤s226得到的源域正则协方差矩阵。通过上述方式,可以去除源域声纹特征中表示源域的特征分量,从而使得到的白化源域声纹特征所属域与源域不同。
60.s228:基于所述目标域正则协方差矩阵与所述白化源域声纹特征,得到所述自适应声纹特征。
61.其中,作为一种方式,可以基于下述公式得到自适应声纹特征:其中,为通过步骤s227得到的白化源域声纹特征,为通过步骤s225得到的目标域正则协方差矩阵。通过上述方式,可以增加白化源域声纹特征中表示目标域的特征分量,使得自适应声纹特征所属域与目标域相同或相似,从而实现了将大量的源域声纹特征转化为所属域为目标域的自适应声纹特征,增加了识别模型的可训练数据,进而提高了模型的准确率。
62.s230:基于所述自适应声纹特征对待训练分类模型进行训练,以得到所述识别模型。
63.其中,待训练分类模型可以为plda、lda、svm、pca等模型。作为一种方式,可以将自
适应声纹特征输入待训练分类模型进行训练,以将收敛的待训练分类模型进行训练作为识别模型,该识别模型对目标域下待识别语音的身份匹配识别具有较高的准确率。
64.本实施例提供的一种声纹识别方法,通过上述方式使得,可以基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征对识别模型进行训练,由于自适应声纹特征所属的域为目标域,与待识别语音所属域相同或相似,从而可以提高识别模型身份匹配识别的准确率。并且,在本实施例中,通过对目标域的声纹特征进行主要声纹特征提取,并基于主要声纹特征将大量的源域声纹特征转化为所属域为目标域的自适应声纹特征,增加了识别模型的可训练数据,进而提高了模型的准确率。
65.请参阅图8,本技术提供的一种声纹识别装置400,运行于电子设备,所述装置400包括:语音获取单元410,用于获取待识别语音。
66.第一声纹特征获取单元420,用于通过声纹模型获取所述待识别语音对应的第一声纹特征。
67.第二声纹特征获取单元430,用于通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征,其中,所述目标域与所述待识别语音所属域相同或相似。
68.声纹比对单元440,用于将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。
69.其中,所述装置还包括:识别模型生成单元450,用于获取所述源域声纹特征和所述目标域的声纹特征,其中,所述源域声纹特征对应的域与所述目标域不同;基于所述源域声纹特征和所述目标域的声纹特征,得到自适应声纹特征;基于所述自适应声纹特征对待训练分类模型进行训练,以得到所述识别模型。
70.作为一种方式,识别模型生成单元450具体用于基于所述目标域的声纹特征,获取目标域的主要声纹特征;基于所述目标域的主要声纹特征将所述源域声纹特征转换为自适应声纹特征。
71.其中,作为一种方式,识别模型生成单元450具体用于基于所述目标域的声纹特征,获取目标域协方差矩阵;对所述目标域协方差矩阵进行特征值分解,以得到目标域特征值对角矩阵;基于所述目标域特征值对角矩阵,获取所述目标域的主要声纹特征。
72.作为另一种方式,所述目标域的声纹特征对应有多个维度,识别模型生成单元450具体用于基于所述目标域特征值对角矩阵,得到所述目标域的声纹特征对应的多个维度的特征值;对所述多个维度的特征值进行规范化处理,得到多个规范化特征值;将所述多个规范化特征值中的非关键规范化特征值替换为第一阈值,以得到目标域的主要声纹特征,其中,非关键规范化特征值小于所述第一阈值。
73.其中,可选的,识别模型生成单元450具体用于通过零-均值规范化对所述多个维度的特征值进行规范化处理,得到多个规范化特征值。
74.作为又一种方式,识别模型生成单元450具体用于基于所述目标域的主要声纹特征生成目标域正则协方差矩阵;基于所述源域声纹特征生成源正则协方差矩阵;基于所述
源域正则协方差矩阵与所述源域声纹特征,得到白化源域声纹特征;基于所述目标域正则协方差矩阵与所述白化源域声纹特征,得到所述自适应声纹特征。
75.作为又一种方式,识别模型生成单元450具体用于获取源域音频数据和目标域音频数据;将所述源域音频数据输入所述声纹模型,以得到所述源域声纹特征;将所述目标域音频数据输入所述声纹模型,以得到所述目标域的声纹特征。
76.下面将结合图9对本技术提供的一种电子设备进行说明。
77.请参阅图9,基于上述的声纹识别方法、装置,本技术实施例还提供的另一种可以执行前述声纹识别方法的电子设备100。电子设备100包括相互耦合的一个或多个(图中仅示出一个)处理器102、存储器104。其中,该存储器104中存储有可以执行前述实施例中内容的程序,而处理器102可以执行该存储器104中存储的程序。
78.其中,处理器102可以包括一个或者多个处理核。处理器102利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器104内的指令、程序、代码集或指令集,以及调用存储在存储器104内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器102可以采用数字信号处理(digital signal processing,dsp)、现场可编程门阵列(field-programmable gate array,fpga)、可编程逻辑阵列(programmable logic array,pla)中的至少一种硬件形式来实现。处理器102可集成中央处理器(central processing unit,cpu)、图像处理器(graphics processing unit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器102中,单独通过一块通信芯片进行实现。
79.存储器104可以包括随机存储器(random access memory,ram),也可以包括只读存储器(read-only memory)。存储器104可用于存储指令、程序、代码、代码集或指令集。存储器104可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
80.请参考图10,其示出了本技术实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质800中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
81.计算机可读存储介质1000可以是诸如闪存、eeprom(电可擦除可编程只读存储器)、eprom、硬盘或者rom之类的电子存储器。可选地,计算机可读存储介质800包括非易失性计算机可读存储介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
82.综上所述,本技术提供的一种声纹识别方法、装置以及电子设备,在获取待识别语音后,通过声纹模型获取所述待识别语音对应的第一声纹特征,通过识别模型获取所述第一声纹特征对应的第二声纹特征,其中,所述识别模型为基于指定训练数据进行训练得到,所述指定训练数据至少包括基于源域声纹特征以及目标域的声纹特征所得到的自适应声
纹特征,其中,所述目标域与所述待识别语音所属域相同或相似,将所述第二声纹特征与注册声纹特征进行比对,以进行身份匹配识别,其中,所述注册声纹特征为预先通过所述识别模型得到。通过上述方式使得,可以基于源域声纹特征以及目标域的声纹特征所得到的自适应声纹特征对识别模型进行训练,由于自适应声纹特征所属的域为目标域,与待识别语音所属域相同或相似,从而可以提高识别模型身份匹配识别的准确率。
83.最后应说明的是:以上实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献