一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

目标对象分类方法、系统、电子设备及存储介质与流程

2022-08-17 22:49:53 来源:中国专利 TAG:


1.本发明涉及人工智能技术领域,尤其涉及一种目标对象分类方法、系统、电子设备及存储介质。


背景技术:

2.说话人验证(speaker verification,sv)是一个二元分类任务,目的是验证一个未知的话语是否属于其声称的身份,在sv的研究中,通常用深度神经网络来提取作为目标对象的说话人的特征,注意力机制(attention)是一种强有力的获得更有鉴别性的话语级特征的方法。相关技术中的sv模型以及方法不能从原始语音输入中提取说话人判别特征,限制了说话人特征的容量和识别能力,无法有效对目标对象进行分类。


技术实现要素:

3.本发明实施例的主要目的在于提出一种目标对象分类方法、系统、电子设备及存储介质,实现了从原始语音输入中提取说话人判别特征,提高了说话人特征的容量和识别能力,能够有效对目标对象进行分类。
4.为实现上述目的,本发明实施例的第一方面提出了一种目标对象分类方法,所述方法包括:
5.获取目标对象的原始语音信号;
6.将所述原始语音信号输入至预设的目标对象分类模型中;其中,所述目标对象分类模型包括时域特征提取器和transformer模型,所述时域特征提取器和所述transformer模型构成端到端结构;
7.基于所述时域特征提取器对所述原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号;
8.对所述梅尔滤波器组特征信号进行谱增强以及下采样处理,得到预处理语音信号,基于所述transformer模型对所述预处理语音信号进行特征提取处理,得到所述目标对象的分类结果。
9.在本发明的一些实施例中,所述时域特征提取器通过以下步骤构建:
10.获取预加重模块、分帧模块、加窗模块、短时傅里叶变换模块和梅尔滤波模块;
11.将所述预加重模块、所述分帧模块、所述加窗模块和所述短时傅里叶变换模块依次组合成卷积层,并将所述梅尔滤波模块组合成全连接层;
12.根据所述卷积层和所述全连接层得到所述时域特征提取器。
13.在本发明的一些实施例中,所述时域特征提取器通过以下步骤训练:
14.获取多个原始样本的样本语音信号;
15.将所述样本语音信号输入至所述时域特征提取器中得到样本梅尔滤波器组特征信号,根据所述样本梅尔滤波器组特征信号得到时域特征损失值,并根据所述时域特征损失值优化更新所述时域特征提取器的参数。
16.在本发明的一些实施例中,所述transformer模型包括多个transformer组,所述transformer模型通过以下步骤训练:
17.获取训练样本,所述训练样本包括多个预处理音频数据;
18.将所述预处理音频数据输入至所述transformer模型,得到各个所述transformer组输出的帧级特征;其中,所述帧级特征包括句子特征和多个语音帧对应的语音特征;
19.根据所述句子特征和各个所述语音特征之间的距离确定transformer模型损失值,根据所述transformer模型损失值优化更新所述transformer模型的参数。
20.在本发明的一些实施例中,所述语音特征为所述帧级特征的第一帧,所述语音特征为所述帧级特征除所述第一帧外的其余帧,所述根据所述句子特征和各个所述语音特征之间的距离确定transformer模型损失值,包括:
21.构建所述transformer模型的分类损失函数;
22.构建所述transformer模型的扩散损失函数,所述扩散损失函数表征所述第一帧与各个所述其余帧之间的距离之和;
23.根据所述分类损失函数和所述扩散损失函数的差值得到所述transformer模型训练时所用的所述模型损失函数,并根据所述模型损失函数得到所述transformer模型损失值。
24.在本发明的一些实施例中,所述构建所述transformer模型的分类损失函数,包括:
25.获取缩放因子、超参数以及自然常数;
26.以所述自然常数为底,并根据所述缩放因子、所述帧级特征的相位角和所述超参数得到的指数作为第一参数;
27.以所述自然常数为底,并根据所述缩放因子和所述帧级特征的相位角得到的指数作为第二参数;
28.根据所述第一参数和所述第二参数计算附加角裕度损失函数,并将得到的所述附加角裕度损失函数作为所述分类损失函数。
29.在本发明的一些实施例中,所述构建所述transformer模型的扩散损失函数,包括:
30.获取所述第一帧与各个所述其余帧之间的kl散度;
31.将得到的所述transformer模型内的多个所述kl散度求和得到所述扩散损失函数。
32.为实现上述目的,本发明实施例的第二方面提出了一种目标对象分类系统,所述系统包括:
33.信号接收模块,用于获取目标对象的原始语音信号;
34.目标对象分类模型,用于接收所述原始语音信号,所述目标对象分类模型包括时域特征提取器和transformer模型,所述时域特征提取器和所述transformer模型构成端到端结构;
35.所述时域特征提取器,用于对所述原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号;
36.所述目标对象分类模型,还用于对所述梅尔滤波器组特征信号进行谱增强以及下
采样处理,得到预处理语音信号并输入至所述transformer模型中;
37.所述transformer模型,用于对所述预处理语音信号进行特征提取处理,得到所述目标对象的分类结果。
38.为实现上述目的,本发明实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现上述第一方面所述的方法。
39.为实现上述目的,本发明实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
40.本发明实施例提出的目标对象分类方法、系统、电子设备及存储介质,目标对象分类方法可以应用在目标对象分类系统中,通过运用目标对象分类方法,本发明实施例获取目标对象的原始语音信号,将原始语音信号输入至预设的目标对象分类模型中进行处理,目标对象分类模型包括时域特征提取器和transformer模型,时域特征提取器和transformer模型构成端到端结构,因此目标对象分类模型即为端到端的sv模型,在该模型中,基于时域特征提取器对原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号,对梅尔滤波器组特征信号进行谱增强以及下采样处理,得到预处理语音信号,并基于transformer模型对预处理语音信号进行特征提取处理,得到目标对象的分类结果,本发明实施例中通过时域特征提取器可以直接获取原始语音信号进行处理,通过transformer模型输出语音的分类结果,因此本发明实现了从原始语音输入中提取说话人判别特征,提高了说话人特征的容量和识别能力,能够有效对目标对象进行分类。
41.本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
42.附图用来提供对本发明技术方案的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明的技术方案,并不构成对本发明技术方案的限制。
43.图1是本发明实施例提供的目标对象分类方法的流程图;
44.图2是本发明实施例提供的sv模型的示意图;
45.图3是本发明实施例提供的时域特征提取器的构建流程图;
46.图4是本发明实施例提供的时域特征提取器的框架图;
47.图5是本发明实施例提供的时域特征提取器的训练流程图;
48.图6是本发明实施例提供的transformer模型的训练流程图;
49.图7是图6中的步骤s403的流程图;
50.图8是本发明实施例之前的sv模型的示意图;
51.图9是图7中的步骤s501的流程图;
52.图10是图7中的步骤s502的流程图;
53.图11是本发明实施例提供的目标对象分类系统的结构示意图;
54.图12是本发明实施例提供的电子设备的硬件结构示意图。
具体实施方式
55.为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
56.需要说明的是,虽然在系统示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于系统中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
57.除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
58.首先,对本发明实施例中涉及的若干名词进行解析:
59.人工智能(artificial intelligence,ai):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
60.transformer模型:一种基于完全自注意力的神经网络模型,可以通过依赖自注意力机制来计算输入和输出的表示,transformer模型是依赖于注意力机制搭建的模型框架,其整体架构可以分为输入层、编码层、解码层以及输出层。若transformer模型将图像特征矩阵输入编码层,编码层在对图像特征矩阵进行自注意力计算之后,将自注意力计算后的图像特征矩阵发送到该层的前馈神经网络,并经由该层的前馈神经网络将图像特征矩阵发送至下一层编码层,重复相应处理,直到多层编码层全部执行完毕,再使用残差块对特征进行解码,最后用一个卷积层来获取特征提取的结果。
61.嵌入(embedding):embedding是一种向量表征,也可以叫特征或者特征向量,是指用一个低维的向量表示一个物体,embedding向量的性质是能使距离相近的向量对应的物体有相近的含义。embedding实质是一种映射,从语义空间到向量空间的映射,同时尽可能在向量空间保持原样本在语义空间的关系,如语义接近的两个词汇在向量空间中的位置也比较接近。embedding能够用低维向量对物体进行编码还能保留其含义,常应用于机器学习,在机器学习模型构建过程中,以提高效率。
62.在sv的研究中,一般有两种模型:统计模型和神经网络模型。随着标注数据规模的不断扩大,通过神经网络模型提取说话人的特征向量用于说话人验证,并由cnn、rnn等先进模型驱动。
63.然而,仍需要更强大的深度神经网络来更好地提取说话人特征。注意力机制(attention)是一种强有力的方法,它提供了一种获得更有鉴别性的话语级特征的方法。基
于transformer的sv方法,使模型能够学习帧级特征,从而更精确地表征说话人的特征。
64.基于此,本发明实施例提供了一种目标对象分类方法、系统、电子设备及存储介质,旨在实现了从原始语音输入中提取说话人判别特征,提高了说话人特征的容量和识别能力,能够有效对目标对象进行分类。
65.本发明实施例提供的目标对象分类方法、系统、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本发明实施例中的目标对象分类方法。
66.本发明实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
67.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
68.本发明实施例提供的目标对象分类方法,涉及人工智能技术领域。本发明实施例提供的目标对象分类方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在本发明的一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现目标对象分类方法的应用等,但并不局限于以上形式。
69.本发明实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本发明实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
70.图1是本发明实施例提供的目标对象分类方法的一个可选的流程图,图1中的目标对象分类方法可以包括但不限于包括步骤s101至步骤s107。
71.步骤s101,获取目标对象的原始语音信号。
72.需要说明的是,本发明实施例中可以直接获取目标对象的原始语音信号,用以后续经过本发明实施例中的目标对象分类方法进行处理,原始语音信号中包括多个对象的语音信息,需要通过说话人验证来分离出其中说话人的声音,该说话人即为本发明实施例中描述到的目标对象。
73.步骤s102,将原始语音信号输入至预设的目标对象分类模型中;其中,目标对象分
类模型包括时域特征提取器和transformer模型,时域特征提取器和transformer模型构成端到端结构。
74.需要说明的是,本发明实施例中提供了一种目标对象分类模型,如图2所示,该目标对象分类模型即为上述所说的sv模型,用于进行说话人验证,以输出说话人分类结果,所提出的目标对象分类模型设置了时域特征提取器(time-domain feature extractor,tdfe)和transformer模型,时域特征提取器和transformer模型的设置使得目标对象分类模型是一种端到端的模型,具体如下步骤。
75.步骤s103,基于时域特征提取器对原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号。
76.需要说明的是,本发明实施例中通过预设的时域特征提取器对原始语音信号进行特征提取处理,可以得到梅尔滤波器组特征信号,时域特征提取器是预先设置的一个用于将原始语音信号处理得到梅尔滤波器组特征信号的神经网络模型,现有技术中的sv模型往往在输入的时候输入的是一个mel-fbank特征或mfcc特征,这里以mel-fbank特征为例子,即为梅尔滤波器组特征信号,然后,最原始的语音信号并不是一个mel-fbank特征,所以需要对mel-fbank特征进行转换处理,本发明实施例中随着时域特征提取器的加入,相比现有技术中的sv模型,可以直接输入原始语音信号进行说话人分类,且时域特征提取器是是从原始数据分布中学习来的神经网络模型,使得所有的操作都可以通过原始的时域输入在处理器上实现,更适合于神经网络的后续处理,提高了处理效率和速度。
77.步骤s104,对梅尔滤波器组特征信号进行谱增强以及下采样处理,得到预处理语音信号,基于transformer模型对预处理语音信号进行特征提取处理,得到目标对象的分类结果。
78.需要说明的是,本发明实施例在目标对象分类模型中还对时域特征提取器输出的梅尔滤波器组特征信号进行预处理,预处理的过程包括对梅尔滤波器组特征信号进行谱增强以及下采样处理,经过预处理后的信号为预处理语音信号,预处理语音信号满足输入至transformer模型的条件,随后将预处理语音信号输入至transformer模型中,输出为说话人分类损失,本发明实施例中的目标对象的分类结果即为说话人分类损失,最终完成说话人分类,可以理解的是,本发明实施例中通过直接输入原始语音信号,经过在sv模型中设置时域特征提取器和transformer模型,构成端到端的结构,因此能够输出说话人分类损失,本发明实施例可以更精确、更有效地提取原始语音输入的特征,达到更加准确的说话人识别能力。
79.可以理解的是,本发明实施例中的预处理过程还可以包括其他预处理的步骤,预处理过程是基于transformer模型的sv模型均具备的步骤,在一实施例中,预处理还包括对信号进行位置编码,具体的,原始语音信号输入至时域特征提取器后,输出mel-fbank特征,sv模型中的谱增强模块(spec aug)对mel-fbank特征进行谱增强处理,对其进行数据增强,增强模型的鲁棒性,随后下采样模块(sub sampling)对经过谱增强的信号进行下采样处理,预处理过程中的位置编码模块(positional encoding)对经过下采样的信号进行位置编码处理,这个位置编码是补充进来的,随后才将得到的预处理语音信号输入至transformer模型中,经过transformer模型对信号的处理,语音将切成一帧一帧的向量,可以理解的是,sv模型的最后面还设置有分类模块,分类模块用于对经过transformer模型提
取得到的信号进行分类,最终输出说话人分类损失,说话人分类损失即为上述实施例中描述的目标对象的分类结果。
80.参照图3所示,在本发明的一些实施例中,所述时域特征提取器通过以下步骤构建,其构建步骤可以包括但不限于包括步骤s201至步骤s203。
81.步骤s201,获取预加重模块、分帧模块、加窗模块、短时傅里叶变换模块和梅尔滤波模块。
82.步骤s202,将预加重模块、分帧模块、加窗模块和短时傅里叶变换模块依次组合成卷积层,并将梅尔滤波模块组合成全连接层。
83.步骤s203,根据卷积层和全连接层得到时域特征提取器。
84.需要说明的是,本发明实施例中提到的时域特征提取器为预先设置的一个神经网络架构的提取器,时域特征提取器是直接从作为原始波形输入的原始语音信号中提取特征的前端模块,在构建时域特征提取器时,一般来说,标准的mel-fbank特征提取器由以下几个模块组成:预加重模块(pre-emphasis)、分帧模块(framing)、加窗模块(window)、短时傅里叶变换(stft)模块、能谱(es)模块(图中未示出)和梅尔滤波模块(mel-filter),本发明实施例中的时域特征提取器的框架如图4所示,所有这些部分被组合成一个卷积层和一个全连接层的黑盒操作,其中,将预加重模块、分帧模块、加窗模块和短时傅里叶变换模块依次组合成卷积层,并将梅尔滤波模块组合成全连接层,可以理解的是,本发明实施例中从语音信号中获得mel-fbank特征的一般步骤是受人类感知生物学的启发,所提出的tdfe提取的特征是从真实数据的分布中学习的,更适合于神经网络的后续处理。
85.具体的,由于本发明实施例中的时域特征提取器是从真实数据的分布中学习的,用神经网络模型来替代原先需要从外部进行的对原始语音信号的操作,直接将神经网络模型的时域特征提取器添加到sv模型中,有助于形成端到端的系统,且由于神经网络模型的加入,数据训练的速度也显著提升,采用时域特征提取器可以更精确、更有效地提取原始语音输入的特征,进一步提高了对原始语音信号的处理能力,使得本发明实施例中的sv模型具有更大容量和分辨能力。
86.参照图5所示,在本发明的一些实施例中,时域特征提取器通过以下步骤训练,其训练步骤可以包括但不限于包括步骤s301至步骤s302。
87.步骤s301,获取多个原始样本的样本语音信号。
88.步骤s302,将样本语音信号输入至时域特征提取器中得到样本梅尔滤波器组特征信号,根据样本梅尔滤波器组特征信号得到时域特征损失值,并根据时域特征损失值优化更新时域特征提取器的参数。
89.需要说明的是,本发明实施例中的时域特征提取器是从真实数据的分布中学习的,更适合于神经网络的后续处理,具体的,在模型的训练阶段,可获取多个原始样本的样本语音信号,原始样本是多个真实数据中的样本,样本语音信号为与上述实施例中对应的原始语音信号的样本集,随后将样本语音信号输入至时域特征提取器中得到样本梅尔滤波器组特征信号,根据样本梅尔滤波器组特征信号得到时域特征损失值,并根据时域特征损失值优化更新时域特征提取器的参数,本发明实施例中的提出的时域特征提取器是可学习的,由一个卷积层和一个全连接组成,输入是时域的原始语音信号,输出是类似于me l-fbank的特征,目的就是使整个系统使一个端到端的模型,通过神经网络提取特征可以在处
理器上进行,加速了正向传播速度和模型训练速度,同时通过神经网络提取的特征是从真实数据的分布中学习的,更适合于神经网络的后续处理。
90.transformer模型包括多个transformer组,也可以叫transformer层,参照图6所示,在本发明的一些实施例中,transformer模型通过以下步骤训练,其训练步骤可以包括但不限于包括步骤s401至步骤s403。
91.步骤s401,获取训练样本,训练样本包括多个预处理音频数据。
92.步骤s402,将预处理音频数据输入至transformer模型,得到各个transformer组输出的帧级特征;其中,帧级特征包括句子特征和多个语音帧对应的语音特征。
93.步骤s403,根据句子特征和各个语音特征之间的距离确定transformer模型损失值,根据transformer模型损失值优化更新transformer模型的参数。
94.需要说明的是,如图2所示,transformer模型中包含多个transformer组(transformer block),transformer组之间依次连接,形成一层一层的连接关系,在transformer模型的训练阶段,可以获取训练样本,训练样本包括多个预处理音频数据,预处理音频数据与上述实施例中的预处理语音信号类似,随后将将预处理音频数据输入至transformer模型中,得到各个transformer组输出的帧级特征,其中,帧级特征包括句子特征和多个语音帧对应的语音特征,如图2所示,所得到的帧级特征即为embedding,所得到的embedding有多个,句子特征为embedding中的话语级特征(utterance-level embedding),话语级特征通过自注意机制对来自其他帧级的特征(frame-level embedding)的信息进行总结,而语音特征为上述所说的frame-level embedding,本发明实施例根据句子特征和各个语音特征之间的距离确定transformer模型损失值,根据transformer模型损失值优化更新transformer模型的参数,从而增强了utterance-level embedding中的说话人相关信息,削弱了其他frame-level embedding中的说话人相关信息,有助于得到目标对象的分类结果。
95.需要说明的是,每个transformer组包括依次相邻的注意力层、加和与归一化层、前馈层、add&norm层。在transformer组的嵌入层,对当前输入进行嵌入处理,得到多个特征向量;在注意力层,从transformer组的上一组获取p个输入向量,以p个输入向量中的任意的第一输入向量为中心,基于预设的注意力窗口范围内的各个输入向量与该第一输入向量之间的关联度,得到该第一输入向量对应的中间向量,如此确定出p个输入向量对应的p个中间向量;在池化层,将p个中间向量合并为q个输出向量,其中至少一个transformer层中最后一个transformer层得到的多个输出向量用作当前输入的特征表示。在嵌入层,对当前输入(可以为文本输入,例如一段文本或一个句子;文本可以为中文/英文或其他语言文本)进行嵌入处理,得到多个特征向量。嵌入层在获取当前输入后,可以对该当前输入中各个词进行嵌入处理,可得到各个词的特征向量,这里所描述的特征向量就是上述实施例中的embedding。
96.具体的,语音特征为帧级特征的第一帧,语音特征为帧级特征除第一帧外的其余帧,也可以叫其他帧,参照图7所示,在本发明的一些实施例中,目标对象分类方法中的步骤s403可以包括但不限于包括步骤s501至步骤s503。
97.步骤s501,构建transformer模型的分类损失函数。
98.步骤s502,构建transformer模型的扩散损失函数,扩散损失函数表征第一帧与各
个其余帧之间的距离之和。
99.步骤s503,根据分类损失函数和扩散损失函数的差值得到transformer模型训练时所用的模型损失函数,并根据模型损失函数得到transformer模型损失值。
100.需要说明的是,句子特征为帧级特征中的第一帧,即utterance-level embedding为每一层transformer组的第一帧特征,而语音特征为帧级特征除第一帧外的其余帧,transformer模型训练时所用的模型损失函数根据分类损失函数(classification loss)和扩散损失函数(difffluence loss)得到,其中,分类损失是一个交叉熵函数,扩散损失函数表征第一帧与各个其余帧之间的距离之和,扩散损失函数可以增强说话人在utterance-level embedding中的相关信息,本发明实施例根据分类损失函数和扩散损失函数的差值得到transformer模型训练时所用的模型损失函数,并根据模型损失函数得到transformer模型损失值。
101.需要说明的是,本发明实施例中的第一帧是最终拿来使用的一个embedding,第一帧的embedding是额外添加的,它可以学习到整个句子的信息,后面每一帧的embedding都对应一段原始信号,第一帧信号与其余帧信号的输入和用途是不同的,所以第一帧和其他每帧越不相同越好,这里计算了第一帧embedding和其他帧embedding的距离和,在学习中最大化这个和,来促使第一帧embedding不同于其他帧。因此为了增强第一帧中说话人的信息,需要让第一帧与其余帧之间的距离变大,随之需要让模型损失函数最小,通过在分类损失函数后减去一个扩散损失函数,增加了第一帧与其余帧之间的距离,从而增强了第一帧中说话人的信息,削弱其余帧中说话人的信息,从而减少输出特性上存在的帧级信息浪费,提高了说话人特征的容量和识别能力。
102.可以理解的是,在基于的sv模型中,与应用于自然语言处理(如bert)和计算机视觉(如vit)的transformer类似,如图8所示,一个额外的可学习特征(extra learnable speaker embedding)被添加到序列中,作为模型的第一帧,就是本发明实施例中帧级特征的语音特征,语音特征作为帧级特征中的第一帧,该帧对应的最终隐藏状态作为集合特定语句的特征(utterance-specific embedding),用于说话人分类,其他帧中的信息忽略,但是,说话者相关信息不仅存在于第一帧的embedding中,在除第一帧外的其余帧中也包含有说话者相关信息,为了提高说话人特征的识别能力,需要将被忽略的信息进一步聚合,形成更好的utterance-level embedding。
103.而本发明实施例中的sv模型,如图2所示,在模型损失函数中添加扩散损失函数,扩散损失函数是每一层中第一帧embedding(图中第一个圆点)与其他帧embedding(除第一个圆点外的其他圆点)之间的距离之和,从而增强了第一帧中的说话人相关信息,削弱了其余帧中的说话人相关信息,因为这种损失函数利用了整个语句的所有特征,更适合于在语句中捕捉说话人的特征。
104.参照图9所示,在本发明的一些实施例中,目标对象分类方法中的步骤s501可以包括但不限于包括步骤s601至步骤s604。
105.步骤s601,获取缩放因子、超参数以及自然常数。
106.步骤s602,以自然常数为底,并根据缩放因子、帧级特征的相位角和超参数得到的指数作为第一参数。
107.步骤s603,以自然常数为底,并根据缩放因子和帧级特征的相位角得到的指数作
为第二参数。
108.步骤s604,根据第一参数和第二参数计算附加角裕度损失函数,并将得到的附加角裕度损失函数作为分类损失函数。
109.需要说明的是,本发明实施例中的模型损失函数是有两部分组成的,包括分类损失函数和扩散损失函数,其中分类损失函数是一个交叉熵函数,在本发明实施例中使用aam-softmax损失函数来作为分类损失函数,获取缩放因子、超参数以及自然常数,其中,τ为训练过程中防止梯度过小的缩放因子,m为超参数,e为自然常数,得到分类损失函数lc,lc如下所示:
[0110][0111][0112][0113]
其中,公式(1)为本发明实施例中的分类损失函数,φn为第一参数,是根据缩放因子、帧级特征的相位角和超参数得到的指数,ψn为第二参数,是根据缩放因子和帧级特征的相位角得到的指数。
[0114]
需要说明的是,上述公式中的τ是对样本特征用l2正则化处理,再对其进行缩放,m是超参数并默认为0.5,在满足本发明实施例要求的前提下,m的取值可以根据实际需要进行调整,对比不做具体限制。此外,在上述公式中,n是一次训练所选取的样本数(batch size),n是分类号(class number),l表示的是第l个transformer组,可以理解的是,batch size是一个超参数,用于定义在更新内部模型参数之前要处理的样本数,也就是在模型的内部参数更新之前控制训练样本的数量。训练数据集可以分为一个或多个batch,其中,当所有训练样本用于创建一个batch时,学习算法称为批量梯度下降;当批量是一个样本的大小时,学习算法称为随机梯度下降;当批量大小超过一个样本且小于训练数据集的大小时,学习算法称为小批量梯度下降。batch size是在更新模型之前处理的多个样本。
[0115]
参照图10所示,在本发明的一些实施例中,目标对象分类方法中的步骤s502可以包括但不限于包括步骤s701至步骤s702。
[0116]
步骤s701,获取第一帧与各个其余帧之间的kl散度。
[0117]
步骤s702,将得到的transformer模型内的多个kl散度求和得到扩散损失函数。
[0118]
需要说明的是,本发明实施例中的模型损失函数是有两部分组成的,包括分类损失函数和扩散损失函数,其中扩散损失函数利用广泛应用于机器学习和深度学习领域的kl散度(kullback-leibler散度)来表示距离,具体的,扩散损失函数获取第一帧与各个其余帧之间的kl散度,kl散度是两个概率分布差别的非对称性的度量,可以衡量两个随机分布之间的距离,当两个随机分布相同时,它们的kl散度为零,当两个随机分布的差别增大时,它们的kl散度也会增大,所以kl散度可以用于比较文本的相似度,随后将得到的transformer模型内的多个kl散度求和得到扩散损失函数,得到扩散损失函数ld,ld如下所示:
[0119][0120]
其中,v
li
表示第l层第i个其余帧,l表示总共的帧级特征的个数,t表示
transformer组的层数,v
l0
表示为第一帧,kl()用来表示kullback-leibler散度,因此kl(v
l0
||v
li
)是第一帧到某个其余帧之间的kl散度。
[0121]
综上可知,本发明实施例中的模型损失函数根据分类损失函数和扩散损失函数的差值得到,因此得到的模型损失函数l,l对应的公式如下所示:
[0122]
l=l
c-ldꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0123]
可以理解的是,本发明实施例中提出的目标对象的分类方法,是一种改进的基于transformer的时域说话人验证方法,利用时域特征提取器和扩散损失函数来捕获说话人特征,使其具有更大容量和分辨能力。本发明中的sv模型跟现有其他方案对比,具有突出的性能和优点,与标准的mel-fbank提取器相比,本发明实施例中的sv模型采用时域特征提取器可以更精确、更有效地提取原始语音输入的特征,而采用基于扩散损失函数的新的损失函数能够在utterance-levelembedding中增强说话人相关信息,而在其他frame-level embedding中减弱说话人相关信息,并且扩散损失函数可以灵活地嵌入到其他类似的结构,通过上述改进,所提出的sv模型可以达到更加准确的说话人识别能力,最终输出目标对象分类结果。
[0124]
请参阅图11,本发明实施例还提供一种目标对象分类系统,可以实现上述实施例中描述的目标对象分类方法,目标对象分类系统包括:
[0125]
信号接收模块1101,用于获取目标对象的原始语音信号。
[0126]
目标对象分类模型1110,用于接收所述原始语音信号,目标对象分类模型包括时域特征提取器1102和transformer模型1103,时域特征提取器和transformer模型构成端到端结构。
[0127]
时域特征提取器1102,用于对原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号。
[0128]
目标对象分类模型1110,还用于对梅尔滤波器组特征信号进行谱增强以及下采样处理,得到预处理语音信号并输入至transformer模型1103中。
[0129]
transformer模型1103,用于对预处理语音信号进行特征提取处理,得到目标对象的分类结果。
[0130]
需要说明的是,目标对象分类系统可以执行上述任意一个实施例中的目标对象分类方法,通过运用目标对象分类方法,本发明实施例获取目标对象的原始语音信号,将原始语音信号输入至预设的目标对象分类模型中进行处理,目标对象分类模型包括时域特征提取器和transformer模型,时域特征提取器和transformer模型构成端到端结构,因此目标对象分类模型即为端到端的sv模型,在该模型中,基于时域特征提取器对原始语音信号进行特征提取处理,得到梅尔滤波器组特征信号,对梅尔滤波器组特征信号进行谱增强以及下采样处理,得到预处理语音信号,并基于transformer模型对预处理语音信号进行特征提取处理,得到目标对象的分类结果,本发明实施例中通过时域特征提取器可以直接获取原始语音信号进行处理,通过transformer模型输出语音的分类结果,因此本发明实现了从原始语音输入中提取说话人判别特征,提高了说话人特征的容量和识别能力,能够有效对目标对象进行分类。
[0131]
此外,信号接收模块1101可以是目标对象分类模型1110的一部分,也可以连接在目标对象分类模型1110之前,目标对象分类系统还可以设置有分类模块,分类模块用于对
经过transformer模型提取得到的信号进行分类,最终输出说话人分类损失,即输出目标对象的分类结果。
[0132]
该目标对象分类系统的具体实施方式与上述目标对象分类方法的具体实施例基本相同,在此不再赘述。
[0133]
本发明实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述目标对象分类方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
[0134]
请参阅图12,图12示意了另一实施例的电子设备的硬件结构,电子设备包括:
[0135]
处理器1201,可以采用通用的cpu(centralprocessingunit,中央处理器)、微处理器、应用专用集成电路(applicationspecificintegratedcircuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本发明实施例所提供的技术方案;
[0136]
存储器1202,可以采用只读存储器(readonlymemory,rom)、静态存储设备、动态存储设备或者随机存取存储器(randomaccessmemory,ram)等形式实现。存储器1202可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1202中,并由处理器1201来调用执行本发明实施例的目标对象分类方法;
[0137]
输入/输出接口1203,用于实现信息输入及输出;
[0138]
通信接口1204,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信;
[0139]
总线1205,在设备的各个组件(例如处理器1201、存储器1202、输入/输出接口1203和通信接口1204)之间传输信息;
[0140]
其中处理器1201、存储器1202、输入/输出接口1203和通信接口1204通过总线1205实现彼此之间在设备内部的通信连接。
[0141]
本发明实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述目标对象分类方法。
[0142]
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0143]
本发明实施例描述的实施例是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
[0144]
本领域技术人员可以理解的是,图1、图3、图5、图6、图7、图9和图10中示出的技术方案并不构成对本发明实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
[0145]
以上所描述的系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0146]
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
[0147]
本发明实施例的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0148]
应当理解,在本发明实施例中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
[0149]
在本发明所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,系统或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0150]
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0151]
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0152]
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例的方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,简称rom)、随机存取存储器(random access memory,简称ram)、磁碟或者光盘等各种可以存储
程序的介质。
[0153]
以上参照附图说明了本发明实施例的优选实施例,并非因此局限本发明实施例的权利范围。本领域技术人员不脱离本发明实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本发明实施例的权利范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献