一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

文本匹配模型的训练方法、装置、设备及存储介质与流程

2021-10-29 23:00:00 来源:中国专利 TAG:匹配 装置 模型 文本 训练


1.本技术涉及计算机技术领域,尤其涉及一种文本匹配模型的训练方法、装置、设备及存储介质。


背景技术:

2.随着互联网技术的发展,智能对话系统可以对用户输入信息进行语义识别,确定用户的对话意图,在电商、智能设备等方面有着广泛的应用。常见问题解答(frequently asked questions,faq)对话系统是智能客服中普遍使用的方法,客户在智能对话系统上输入要查询的问题后,智能对话系统会自动识别文本的语义信息,并返回答案。在这过程中,智能对话系统使用的文本匹配方法是影响整个对话系统准确率的关键部分。
3.目前,在智能对话系统中,通常使用的文本匹配方法为:通过传统机器学习中的词袋模型(bag

of

words model)对文本进行向量表示,计算最佳匹配25(bm25)、词频

逆文本频率指数(term frequence

inverse document frequence,tf

idf)等余弦相关度,进行余弦相关度打分,从而确定匹配的文本。但是,上述方式通过计算文本的字面相关度进行文本匹配,因此,文本匹配效果差。


技术实现要素:

4.本技术提供一种文本匹配模型的训练方法、装置、设备及存储介质,以更加准确地进行文本匹配,提升文本匹配的效果。
5.第一方面,本技术提供一种文本匹配模型的训练方法,包括:
6.获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配;
7.对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对;
8.基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型;
9.获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配;
10.基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。
11.第二方面,本技术提供一种文本匹配方法,应用于智能对话系统,该文本匹配方法包括:
12.获取待匹配文本以及待匹配文本的各候选文本匹配结果;
13.将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,文本匹配模型为采用如本技术第一方面所述的文本匹配模型;
14.根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。
15.可选的,将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,包括:基于预设文本对格式将待匹配文本分别与各候选文本匹配结果进行文本拼接,获得拼接文本对;将拼接文本对输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率。
16.可选的,根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果,包括:确定对应第一概率最大的候选文本匹配结果为待匹配文本对应的目标文本匹配结果。
17.本技术提供的文本匹配方法,由于根据本技术第一方面所述的文本匹配模型输出的第一概率,确定待匹配文本对应的目标文本匹配结果,因此,能够更加准确地进行文本匹配,进而提升智能对话系统的用户体验。
18.第三方面,本技术提供一种文本匹配模型的训练装置,包括:
19.第一获取模块,用于获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配;
20.处理模块,用于对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对;
21.预训练模块,用于基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型;
22.第二获取模块,用于获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配;
23.微调训练模块,用于基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。
24.第四方面,本技术提供一种文本匹配装置,应用于智能对话系统,该文本匹配装置包括:
25.获取模块,用于获取待匹配文本以及待匹配文本的各候选文本匹配结果;
26.确定模块,用于将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,文本匹配模型为采用如本技术第一方面所述的文本匹配模型;
27.处理模块,用于根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。
28.第五方面,本技术提供一种对话处理方法,应用于智能对话系统,包括:
29.获取用户对话文本;
30.根据用户对话文本以及预设文本匹配方法,确定用户对话文本对应的匹配文本,预设文本匹配方法为采用如本技术第二方面所述的文本匹配方法;
31.将匹配文本的预设应答文本确定为用户对话文本的目标应答文本;
32.将目标应答文本反馈给用户。
33.本技术提供的对话处理方法,由于根据本技术第二方面所述的文本匹配方法,确定用户对话文本对应的匹配文本,进而将对应的目标应答文本反馈给用户,因此,能够快速
准确地匹配用户对话文本并进行反馈,提升用户体验。
34.第六方面,本技术提供一种对话处理装置,应用于智能对话系统,包括:
35.获取模块,用于获取用户对话文本;
36.第一确定模块,用于根据用户对话文本以及预设文本匹配方法,确定用户对话文本对应的匹配文本,预设文本匹配方法为采用如本技术第二方面所述的文本匹配方法;
37.第二确定模块,用于将匹配文本的预设应答文本确定为用户对话文本的目标应答文本;
38.反馈模块,用于将目标应答文本反馈给用户。
39.第七方面,本技术提供一种电子设备,包括:存储器和处理器;
40.存储器用于存储程序指令;
41.处理器用于调用存储器中的程序指令执行如本技术第一方面所述的文本匹配模型的训练方法。
42.第八方面,本技术提供一种电子设备,包括:存储器和处理器;
43.存储器用于存储程序指令;
44.处理器用于调用存储器中的程序指令执行如本技术第二方面所述的文本匹配方法。
45.第九方面,本技术提供一种电子设备,包括:存储器和处理器;
46.存储器用于存储程序指令;
47.处理器用于调用存储器中的程序指令执行如本技术第五方面所述的对话处理方法。
48.第十方面,本技术提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序指令,计算机程序指令被执行时,实现如本技术第一方面所述的文本匹配模型的训练方法。
49.第十一方面,本技术提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序指令,计算机程序指令被执行时,实现如本技术第二方面所述的文本匹配方法。
50.第十二方面,本技术提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序指令,计算机程序指令被执行时,实现如本技术第五方面所述的对话处理方法。
51.第十三方面,本技术提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如本技术第一方面所述的文本匹配模型的训练方法。
52.第十四方面,本技术提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如本技术第二方面所述的文本匹配方法。
53.第十五方面,本技术提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如本技术第五方面所述的对话处理方法。
54.本技术提供的文本匹配模型的训练方法、装置、设备及存储介质,通过获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果,对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对,基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型,获取预设业务场景对
应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。由于本技术对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对,基于第二样本对,对初始文本匹配模型进行迭代预训练,以使文本匹配模型更关注文本匹配中权重较高的实体名词和动词,从而提升文本匹配模型的上下文理解能力,因此,根据本技术实施例获得的文本匹配模型,能够更加准确地进行文本匹配,进而提升文本匹配的效果。
附图说明
55.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
56.图1为本技术一实施例提供的应用场景示意图;
57.图2为本技术一实施例提供的文本匹配模型的训练方法的流程图;
58.图3为本技术另一实施例提供的文本匹配模型的训练方法的流程图;
59.图4为本技术一实施例提供的进行了掩码处理的第二样本对的示意图;
60.图5为本技术一实施例提供的文本匹配方法的流程图;
61.图6为本技术另一实施例提供的文本匹配方法的流程图;
62.图7为本技术一实施例提供的对话处理方法的流程图;
63.图8为本技术一实施例提供的文本匹配模型的训练装置的结构示意图;
64.图9为本技术一实施例提供的文本匹配装置的结构示意图;
65.图10为本技术一实施例提供的对话处理装置的结构示意图;
66.图11为本技术一实施例提供的电子设备的结构示意图。
具体实施方式
67.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
68.首先,对本技术涉及的部分技术术语进行解释说明:
69.双向全序编码预测器(bidirectional encoder representations from transformers,bert)模型,即一种双向transformer的编码器模型,在使用时通常分为两个阶段:(1)预训练阶段,即预训练语言模型;(2)微调阶段,即在预训练好的语言模型的基础上进行微调训练,使其适用于下游文本分类、序列标注等任务。
70.遮蔽语言模型(masked language model,mlm),bert预训练阶段中的学习任务之一,即随机选择输入的文本中的部分字,用[掩码]([mask])代替,然后训练模型去正确预测被遮掩(mask)的字。
[0071]
预测句子对关系(next sentence prediction,nsp)模型,bert预训练阶段中的学
习任务之一,即输入两个句子,判断句子b是否是句子a的下一句。
[0072]
faq对话系统是智能客服中普遍使用的方法,客户在智能对话系统上输入要查询的问题后,智能对话系统会自动识别文本的语义信息,并返回答案。faq对话系统的算法逻辑通常是,首先收集业务数据和用户日志数据,维护一个faq问答库,形式是“问题

答案(question

answer)”的问答对;然后针对问答对中的标准问题进行扩充,扩展出多个相关问题,用于语义匹配;当客户在faq对话系统输入要查询的问题后,faq对话系统会先做粗召回,即在faq问答库中查找与要查询的问题文本匹配程度比较高的问题列表,再通过精度更高的模型对问题列表进行精排序,根据精排序后的结果(比如文本相关度大于设定阈值),确定与要查询的问题匹配的标准问题,并将该标准问题对应的答案显示给客户。其中,粗召回阶段通常使用分布式全文搜索引擎(elasticsearch,es),根据关键词的倒排索引表,召回faq知识库(faq知识库用于保存标准问法和相关问法,可看做意图识别数据集,即每类查询意图中对应有多种问法)中最相近的问法,精排序阶段使用文本匹配模型,对客户在faq对话系统输入的要查询的问题和粗召回阶段获得的最相近的问法进行相关度打分,而文本匹配模型的效果是影响客户问题匹配准确度的关键部分,进而能够影响整个faq对话系统准确率。示例性地,在购物场景中,客户通过购物产品的智能对话系统输入要查询的问题比如为:什么时候发货?智能对话系统在获取到该问题后,对该问题进行文本匹配,确定该问题匹配的标准问题,进而将该标准问题对应的答案显示给客户。在购物场景中,若将客户咨询的发货时间问题错误地匹配为客户咨询发货方式对应的标准问题,则会大大影响客户对购物产品的使用体验。常规的文本匹配方法有两种:(1)通过传统机器学习中的词袋模型对文本进行向量表示,计算bm25、tf

idf等余弦相关度,进行余弦相关度打分,从而确定匹配的文本,但此方法通过计算文本的字面相关度进行文本匹配;(2)通过深度学习模型、预训练模型进行文本相似度训练,其中,预训练模型比如为长短期记忆网络(long short

term memory,lstm)、bert模型,使模型具有更深层的语义理解能力,但此方法仍然存在模型性能的瓶颈问题。另外,常规的构建文本匹配样本的方法为在faq知识库中随机抽样或借助人工辅助构造负样本,导致负样本难度过低以及人力的浪费。
[0073]
基于上述问题,本技术提供一种文本匹配模型的训练方法、装置、设备及存储介质,通过对获取的多个样本对中文本包含的特定词性的词进行掩码处理,基于掩码处理后的多个样本对迭代预训练文本匹配模型,对预训练后的文本匹配模型进行迭代微调训练,获得目标文本匹配模型。通过上述方式获得的目标文本匹配模型能够更加准确地进行文本匹配。
[0074]
以下,首先对本技术提供的方案的应用场景进行示例说明。
[0075]
图1为本技术一实施例提供的应用场景示意图。如图1所示,本应用场景中,客户端101获取客户的问题,将客户的问题发送给服务器102,服务器102根据客户的问题进行文本匹配,确定匹配的目标问题,将匹配的目标问题对应的答案发送给客户端101,客户端101将该答案显示给客户。其中,服务器102根据客户的问题进行文本匹配,确定匹配的目标问题的具体实现过程可以参见下述各实施例的方案。
[0076]
需要说明的是,图1仅是本技术实施例提供的一种应用场景的示意图,本技术实施例不对图1中包括的设备进行限定,也不对图1中设备之间的位置关系进行限定。例如,在图1所示的应用场景中,还可以包括数据存储设备,该数据存储设备相对客户端101或者服务
器102可以是外部存储器,也可以是集成在客户端101或者服务器102中的内部存储器。
[0077]
接下来,通过具体实施例介绍文本匹配方法。
[0078]
图2为本技术一实施例提供的文本匹配模型的训练方法的流程图。本技术实施例的方法可以应用于电子设备中,该电子设备可以是服务器或服务器集群等。如图2所示,本技术实施例的方法包括:
[0079]
s201、获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果。
[0080]
其中,匹配结果用于指示两个文本是否匹配。
[0081]
本技术实施例中,匹配结果比如为:0表示匹配,1表示不匹配。示例性地,一个第一样本对中包括两个文本,其中的一个文本比如为:你什么时候发货?,对应的意图为发货时间;其中的另一个文本比如为:你几号发货?,对应的意图为发货时间,这两个文本的意图相同,因此,确定该第一样本对中包括的两个文本的匹配结果为:匹配。示例性地,另一个第一样本对中包括两个文本,其中的一个文本比如为:你什么时候发货?,对应的意图为发货时间;其中的另一个文本比如为:你通过什么方式发货?,对应的意图为发货方式,这两个文本的意图不相同,因此,确定该第一样本对中包括的两个文本的匹配结果为:不匹配。对于如何获取多个第一样本对,可参考相关技术或者后续实施例,此处不再赘述。
[0082]
s202、对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对。
[0083]
该步骤中,在获取了多个第一样本对后,示例性地,若第一样本对中的文本包含实体名词和动词,则对该第一样本对中文本包含的实体名词和动词进行掩码处理,得到对应的第二样本对;若第一样本对中的文本包含实体名词、不包含动词,则对该第一样本对中文本包含的实体名词进行掩码处理,得到对应的第二样本对;若第一样本对中的文本包含动词、不包含实体名词,则对该第一样本对中文本包含的动词进行掩码处理,得到对应的第二样本对。对于如何对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对,可参考相关技术或者后续实施例,此处不再赘述。
[0084]
s203、基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型。
[0085]
示例性地,初始文本匹配模型比如为初始bert模型。在获得了第二样本对后,可以基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型。对于如何基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型,可参考相关技术或者后续实施例,此处不再赘述。
[0086]
s204、获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果。
[0087]
其中,匹配结果用于指示两个文本是否匹配。
[0088]
示例性地,匹配结果比如为:0表示匹配,1表示不匹配,上述预设业务场景包括购物场景、业务推荐场景、业务咨询场景等,具体地,比如为购物场景,不同的购物问题对应不同的购物意图,例如,客户咨询发货时间或发货方式,则发货时间为一种购物意图,发货方式为另一种购物意图。可以根据预设业务场景获取预设业务场景对应的多个第三样本对。示例性地,一个第三样本对中包括两个文本,其中的一个文本比如为:大概什么时候发货?,
对应的意图为发货时间;其中的另一个文本比如为:哪一天发货?,对应的意图为发货时间,这两个文本的意图相同,因此,确定该第三样本对中包括的两个文本的匹配结果为:匹配,可以理解,该第三样本对中包括的两个文本均为正样本。若第三样本对中包括的两个文本的意图不相同,则确定该第三样本对中包括的两个文本的匹配结果为:不匹配,可以理解,该第三样本对中包括的两个文本一个为正样本、一个为负样本。示例性地,第三样本对的格式比如为“[cls][句子1][sep][句子2]”文本对格式,其中,[cls]为分类起始符,表示特殊字符位置的输出,用于指示第三样本对中包括的两个文本的匹配结果(0表示匹配,1表示不匹配),即用于指示句子1和句子2是否匹配;[sep]为特殊分隔符,用于分隔句子1和句子2。示例性地,[sep]比如为符号“|”,第三样本对比如为“[cls]大概什么时候发货?|哪一天发货?”,由于第三样本对中包括的两个文本匹配,相应地,第三样本对比如为“0大概什么时候发货?|哪一天发货?”。
[0089]
s205、基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。
[0090]
示例性地,预训练后的文本匹配模型比如为预训练后的bert模型。在获得了预设业务场景对应的第三样本对后,可以基于第三样本对,对预训练后的bert模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。对预训练后的bert模型如何进行迭代微调训练,可参考目前的相关技术。示例性地,第三样本对的格式比如为“[cls][句子1][sep][句子2]”文本对格式,第三样本对的长度相同,均用l1表示,将第三样本对输入至预训练后的bert模型进行迭代微调训练。具体地,第三样本对经过预训练后的bert模型包含的12层的编码(encoder)网络,可以得到对应的向量(用vec1表示),vec1的维度为l1*768;将vec1输入至注意力(attention)层,可以获的attention加权矩阵(用a1表示),a1的维度为l1*l1,即第三样本对中的每个字可以用其他的字进行加权表示。通过attention层的计算,能够提升bert模型的语义理解能力,即通过attention层的交互计算,bert模型既能够知道第三样本对中包括的两个文本是否相关,又能够知道具体相关在哪里。attention层的输出矩阵用u1表示,则u1=a1*vec1,u1的维度为l1*768;对attention层的输出结果进行加权平均处理,获得第三样本对的整句文本的向量(用x1表示),x1的维度为1*768,将向量x1连接二分类全连接(dense)层,输出第三样本对中包括的两个文本的相关概率、不相关概率,即第三样本对中包括的两个文本的相关度,根据该相关度,确定第三样本对中包括的两个文本的匹配结果。通过上述方式,对预训练后的bert模型进行迭代微调训练,可以获得预设业务场景对应的bert模型。
[0091]
在获得了预设业务场景对应的文本匹配模型后,可以将该文本匹配模型应用于预设业务场景中,进行文本匹配。
[0092]
本技术实施例提供的文本匹配模型的训练方法,通过获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果,对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对,基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型,获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。由于本技术实施例对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第
二样本对,基于第二样本对,对初始文本匹配模型进行迭代预训练,以使文本匹配模型更关注文本匹配中权重较高的实体名词和动词,从而提升文本匹配模型的上下文理解能力,且本实施例为模型的多阶段学习,在预训练阶段和微调阶段都加入了文本匹配的相关任务,提升了模型多阶段学习的目标一致性,减小了模型学习的缺口,也提升了模型在专一场景的语义理解能力,降低了模型过拟合的风险。因此,根据本技术实施例获得的文本匹配模型,能够更加准确地进行文本匹配,进而提升文本匹配的效果。
[0093]
图3为本技术另一实施例提供的文本匹配模型的训练方法的流程图。在上述实施例的基础上,本技术实施例对如何训练文本匹配模型进行进一步说明。如图3所示,本技术实施例的方法可以包括:
[0094]
本技术实施例中,图2中s201步骤可以进一步细化为如下的s301和s302两个步骤:
[0095]
s301、确定训练数据,训练数据包括多个文本。
[0096]
本技术实施例中,训练数据用于训练文本匹配模型,训练数据包括多个文本。
[0097]
可选的,训练数据包括正样本和负样本,其中,负样本包括预设比例的难负样本,难负样本用于表示字面较为相似但语义不相关的文本。
[0098]
示例性地,比如,问题a为“还款了怎么还没入账?”,问题a的意图为“已还款/扣款显示未还款”,问题b为“已还款额度没恢复怎么办?”,问题b的意图为“已还款额度未恢复”,问题c为“如何销户?”,问题c的意图为“怎么注销账号”。问题a和问题b的字面较为相似但语义不相关,因此,将问题a和问题b组合成难负样本对,避免了所有样本对都是像将问题a和问题c组合的简单样本对,导致文本匹配任务过于简单。训练数据中的负样本包括预设比例的难负样本,具体可参考后续实施例,此处不再赘述。
[0099]
相比目前通过随机抽样方式获得的训练数据,本技术实施例通过在训练数据的负样本中包括预设比例的难负样本,能够提升文本匹配模型的学习难度,进而能够提高文本匹配模型的文本匹配准确度。
[0100]
一种可能的实施方式中,确定训练数据,包括:获取文本分类数据集,文本分类数据集中包括多个文本;对文本分类数据集中的文本进行向量化处理,获得文本分类数据集中各文本对应的向量;基于文本分类数据集中各文本对应的向量以及预设聚类方法,确定各文本所属的分类,分类用于指示相关度大于预设值的文本所属的类别;基于分类中的各文本以及各文本对应的标签,确定训练数据,标签用于指示文本的意图。
[0101]
示例性地,可以根据业务场景中的客服坐席与客户的通话记录中获取文本分类数据集,获得的文本分类数据集比如可以作为faq知识库中意图识别数据集。示例性地,文本分类数据集中包括多个文本,对每个文本进行tf

idf向量表示,即将每个句子表示成一个1*n的向量,其中,n为词汇表的大小,从而获得各文本对应的向量。具体地,tf

idf由tf、idf两部分组成,其中,tf表示词频,即一个文件中,词频越高的词权重越大;idf表示逆文本频率指数,即一个词出现的文件数越多,这个词的权重越低;tf

idf=tf*idf。假如一个文件集包含两个文件,其中文件1中的文本为:小明很开心,因为是晴天,可以踢足球了;文件2中的文本为:小明很伤心,因为是雨天,不能踢足球了。针对这个文件集,首先获取词汇表,即将每个文件中包含的文本进行分词后,得到词汇表:[小明,很,开心,因为,是,晴天,可以,踢足球,了,伤心,雨天,不能];计算每个文件中每个词对应的tf

idf,每个文件中的每个词的tf值为每个词的词频除以总词频,比如:文件1中“小明”这个词的词频是1,总词频是9,所
以“小明”这个词的tf值为1/9,“小明”出现在了两个文件中,因此,“小明”这个词的idf=log(2/(2 0.001))=

0.0005,其中0.001用于数据平滑处理。依此类推,如表1所示,可以分别获得文件1和文件2中每个词对应的tf

idf:
[0102]
表1
[0103][0104][0105]
最后,使用tf

idf表示两个文件中的文本,将每个文件中的文本表示成了一个1*12的向量,其中,12为词汇表的大小,从而获得文件1中的文本对应的向量vec1以及文件2中的文本对应的向量vec2。这个过程可以理解为填表的过程,即将词汇表中每个词对应的tf

idf值作为词汇表的索引进行填充,如表2所示,词汇表中有的索引就用tf

idf值填充,没有的就用0填充。
[0106]
表2
[0107][0108]
示例性地,预设聚类方法比如为k均值聚类算法(k

means clustering algorithm,kmeans)。在获得了文本分类数据集中各文本对应的tf

idf向量后,根据kmeans聚类算法,将k(即种类)比如设置为100,则将文本分类数据集中各文本聚成比如100个簇,每个簇内文本相关性较大。例如,文本分类数据集中的一个文本为问题1,对应的标签为a(即文本的意图分类,初始时可以为人工设置的标签),问题1属于kmeans聚类获得的100个簇中的m簇,则问题1的负样本为属于m簇且标签不为a的文本(即聚到同一个簇中的标签不为a的其他标签对应的文本为负样本);则问题1的正样本为属于m簇且标签为a的文本。根据各正样本和负样本,确定训练数据。该确定训练数据的实施方式可以理解为基于聚类生成
训练数据。
[0109]
进一步地,基于文本分类数据集中各文本对应的向量以及预设聚类方法,确定各文本所属的分类,包括:对各文本对应的向量进行降维处理,获得降维处理后的各文本对应的向量;基于降维处理后的各文本对应的向量以及预设聚类方法,确定各文本所属的分类。
[0110]
示例性地,通过奇异值分解(singular value decomposition,svd)对各文本对应的tf

idf向量进行降维处理,将tf

idf向量降维到比如1000,即将每个句子表示成一个1*1000的向量,以降低预设聚类方法的计算量。基于降维处理后的各文本对应的tf

idf向量以及预设聚类方法,确定各文本所属的分类。对于如何通过svd对各文本对应的tf

idf向量进行降维处理,可参考目前的相关技术。
[0111]
另一种可能的实施方式中,确定训练数据,包括:获取随机构建的文本匹配数据集,文本匹配数据集包含多个文本;将文本匹配数据集输入至预设相关度模型,获得文本匹配数据集中各文本之间的相关度;根据文本匹配数据集中各文本之间的相关度、各文本对应的标签以及预设相关度阈值,确定训练数据,标签用于指示文本的意图。
[0112]
示例性地,预设相关度模型比如为lstm序列分类模型(用模型t表示),预设相关度阈值比如为0.5。示例性地,首先通过随机构建的相关、不相关数据,获得随机构建的文本匹配数据集,文本匹配数据集包含多个文本;然后将文本匹配数据集输入至模型t,对模型t进行训练,获得文本匹配数据集中各文本之间的相关度;最后根据文本匹配数据集中各文本之间的相关度、各文本对应的标签以及预设相关度阈值0.5,确定训练数据。例如,文本匹配数据集中的三个文本,分别为问题2、问题3、问题4,问题2对应的标签为a,若问题3与问题2基于模型t获得的相关度大于0.5,且问题3的标签不为a,则问题3为问题2的负样本;若问题4与问题2基于模型t获得的相关度大于0.5,且问题4的标签为a,则问题4为问题2的正样本。根据各正样本和负样本,确定训练数据。该确定训练数据的方式可以理解为基于相关度生成训练数据。
[0113]
又一种可能的实施方式中,确定训练数据,包括:获取随机生成的样本数据集,随机生成的样本数据集包含多个文本;基于随机生成的样本数据集以及随机生成的样本数据集包含的各文本的标签,确定训练数据,标签用于指示文本的意图。
[0114]
示例性地,通过随机生成的相关、不相关数据,获得随机生成的样本数据集,随机生成的样本数据集包含多个文本,基于随机生成的样本数据集以及随机生成的样本数据集包含的各文本的标签,确定训练数据。例如,随机生成的样本数据集中的三个文本,分别为问题5、问题6、问题7,问题5对应的标签为a,若问题6的标签不为a,则问题6为问题5的负样本;若问题7的标签为a,则问题7为问题5的正样本。根据各正样本和负样本,确定训练数据。该确定训练数据的方式可以理解为基于随机方式生成训练数据。
[0115]
在上述实施例的基础上,可选的,将基于聚类生成的训练数据、基于相关度生成的训练数据、基于随机方式生成的训练数据按照第一预设比例进行组合,确定训练数据;或者,基于聚类生成的训练数据、基于相关度生成的训练数据、基于随机方式生成的训练数据按照第二预设比例任意两两组合,确定训练数据。
[0116]
示例性地,训练数据的负样本组成比例为:1/3基于聚类生成的训练数据,1/3基于相关度生成的训练数据,1/3基于随机方式生成的训练数据,训练数据中的正样本和负样本比例为1:1。其中,基于聚类生成的训练数据中的负样本和基于相关度生成的训练数据中的
负样本可以理解为难负样本。
[0117]
本技术实施例的训练数据至少包括基于聚类生成的训练数据、基于相关度生成的训练数据中的一种,相比目前通过随机抽样方式获得的训练数据,本技术实施例的训练数据能够增加文本匹配任务的复杂度,提升文本匹配模型的学习难度,进而能够提高文本匹配模型的文本匹配准确度。
[0118]
s302、基于预设文本对格式对多个文本中任两个文本进行拼接,获得多个第一样本对。
[0119]
示例性地,预设文本对格式比如为“[cls][句子1][sep][句子2]”文本对格式,其中的参数可以参考上述s205步骤中第三样本对的格式示例。在确定了训练数据后,基于预设文本对格式对训练数据包括的多个文本中任两个文本进行拼接,并叠加位置(position)向量(用于表征文本的相对位置),获得多个第一样本对。示例性地,对于bert模型,叠加位置向量为bert模型中使用位置编码表示序列的顺序的方式,是让bert模型理解输入单词顺序的方法,其中,叠加即为每个词的词向量与每个词的位置向量的叠加。叠加位置向量有助于确定每个单词的位置,或确定序列中不同单词之间的距离,能够更好地表达词与词之间的距离,以更好地表达句子的语义。
[0120]
本技术实施例中,图2中s202步骤可以进一步细化为如下的s303和s304两个步骤:
[0121]
s303、对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词。
[0122]
在获得了多个第一样本对后,可以对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词。
[0123]
进一步地,对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词,包括:通过预设分词工具对各第一样本对中文本包含的实体名词和/或动词进行分词处理以及词性识别处理,得到已标记词。
[0124]
示例性地,预设分词工具比如为jieba分词工具。通过jieba分词工具对各第一样本对中的文本分别进行分词标记和词性标记,其中,重点对各第一样本对中文本包含的实体名词和/或动词进行标记处理,获得各第一样本对中文本对应的已标记的实体名词和/或动词。
[0125]
s304、将各第一样本对中预设比例的已标记词替换为预设信息,得到对应的第二样本对。
[0126]
示例性地,预设比例比如为30%,预设信息比如为掩码信息,例如用[mask]表示。随机选择第一样本对中30%的已标记的名词和/动词,用[mask]代替,得到对应的第二样本对。示例性地,图4为本技术一实施例提供的进行了掩码处理的第二样本对的示意图,如图4所示,用[掩码](即[mask])代替了句子1和句子2中的部分已标记词。
[0127]
本技术实施例中,图2中s203步骤可以进一步细化为如下的s305至s307三个步骤:
[0128]
s305、基于第二样本对,对初始文本匹配模型进行迭代预训练,预测第二样本对中进行了掩码处理的实体名词和/或动词,获得第一损失函数值。
[0129]
示例性地,参考图4,初始文本匹配模型比如为初始bert模型。在获得了第二样本对后,可以基于第二样本对,对初始bert模型进行迭代预训练,预测第二样本对中进行了掩码处理的实体名词和/或动词,即预测和第二样本对中进行掩码处理前的实体名词和/或动
词是否相同,获得第一损失函数值。该步骤可以理解为初始bert模型预训练阶段的mlm任务。由于bert模型预训练阶段的mlm任务中整体为交互式匹配结构,通过bert模型中12层的bert编码,以及模型输出层的attention计算,提升模型的语义理解能力,即利用模型输出层的attention交互计算,使模型既知道两句文本是否相似,又知道相似在哪里,实现了提高文本匹配模型的文本匹配准确度。
[0130]
s306、在各第二样本对中包含的分类起始符向量后添加二分类全连接层,对初始文本匹配模型进行迭代预训练,预测各第二样本对的相关度,获得第二损失函数值。
[0131]
其中,分类起始符用于指示第二样本对中包括的两个文本的匹配结果。
[0132]
示例性地,参考图4,初始文本匹配模型比如为初始bert模型,在执行步骤s305的同时,在各第二样本对中包含的分类起始符向量后添加二分类dense层,对初始bert模型进行迭代预训练,预测各第二样本对的相关度,即输出第二样本对中包括的两个文本的相关概率、不相关概率,以确定第二样本对中包括的两个文本的匹配结果,获得第二损失函数值。其中,第二样本对中包括的两个文本的相关概率比如为图4中柱状图401所示的概率值(比如为0.12),对应分类起始符为0(0表示匹配);第二样本对中包括的两个文本的不相关概率比如为图4中柱状图402所示的概率值(比如为0.88),对应分类起始符为1(1表示不匹配),第二样本对中包括的两个文本的相关概率和不相关概率的和为1。根据柱状图401所示的概率值和柱状图402所示的概率值,可以确定图4所示的句子1和句子2的匹配结果为:不匹配。该步骤可以理解为将初始bert模型预训练阶段的nsp任务更改为了难度更大、与下游任务更相符的文本匹配任务,相比常规的nsp任务,本实施例中提供的文本匹配任务对于模型来说难度更大,也即,对于模型的学习能力提升更快,本发明在预训练阶段融入了文本匹配任务,并将mask任务改为预测特定词性的词(实体名词和/或动词),使模型对相似度计算中权重较高的名词、动词有更好的理解。
[0133]
s307、根据第一损失函数值和第二损失函数值,获得预训练后的文本匹配模型。
[0134]
示例性地,融合步骤s305和s306两个预训练任务,在第一损失函数值和第二损失函数值的加和满足预设评估条件(比如可以根据经验获得)时,获得预训练后的文本匹配模型。
[0135]
可选的,融合步骤s305和s306两个预训练任务,在迭代次数达到预设迭代次数时,获得预训练后的文本匹配模型。
[0136]
s308、获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果。
[0137]
其中,匹配结果用于指示两个文本是否匹配。
[0138]
该步骤的具体描述可以参见图2所示实施例中s204的相关描述,此处不再赘述。
[0139]
s309、基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。
[0140]
该步骤的具体描述可以参见图2所示实施例中s205的相关描述,此处不再赘述。
[0141]
本技术实施例提供的文本匹配模型的训练方法,通过确定训练数据,训练数据包括多个文本,基于预设文本对格式对多个文本中任两个文本进行拼接,获得多个第一样本对,对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词,将各第一样本对中预设比例的已标记词替换为预设信息,得到对应的第二样本对,基于第二样
本对,对初始文本匹配模型进行迭代预训练,预测第二样本对中进行了掩码处理的实体名词和/或动词,获得第一损失函数值,在各第二样本对中包含的分类起始符向量后添加二分类全连接层,对初始文本匹配模型进行迭代预训练,预测各第二样本对的相关度,获得第二损失函数值,根据第一损失函数值和第二损失函数值,获得预训练后的文本匹配模型,获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。本技术实施例中基于聚类生成的训练数据、相关度生成的训练数据、随机方式生成的训练数据自动确定训练数据,通过组合多种算法保证了样本数据的难易均衡,提升了文本匹配模型的学习难度,提高了文本匹配模型的性能;通过对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对,基于第二样本对,对初始文本匹配模型进行迭代预训练,以使文本匹配模型更关注文本匹配中权重较高的实体名词和动词,从而提升了文本匹配模型的上下文理解能力,同时,在各第二样本对中包含的分类起始符向量后添加二分类全连接层,以更加贴合具体的业务场景来预测第二样本对中包括的两个文本是否匹配。因此,根据本技术实施例获得的文本匹配模型,能够更加准确地进行文本匹配,进而提升文本匹配的效果。
[0142]
图5为本技术一实施例提供的文本匹配方法的流程图,应用于智能对话系统。如图5所示,本技术实施例的方法包括:
[0143]
s501、获取待匹配文本以及待匹配文本的各候选文本匹配结果。
[0144]
示例性地,待匹配文本可以是用户向执行本方法实施例的智能对话系统输入的,或者,是其它设备向执行本方法实施例的智能对话系统发送的。示例性地,根据待匹配文本,通过比如上述es搜索引擎粗召回的输出,获得待匹配文本以及待匹配文本的各候选文本匹配结果。
[0145]
s502、将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率。
[0146]
其中,文本匹配模型为采用如上述任一方法实施例获得的文本匹配模型。
[0147]
该步骤中,示例性地,第一概率为相关概率。在获得了待匹配文本以及各候选文本匹配结果后,可以将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的相关概率。比如,待匹配文本的候选文本匹配结果有3个,通过文本匹配模型,可以获得待匹配文本对应于这3个候选文本匹配结果的相关概率分别为0.65、0.85、0.95。
[0148]
s503、根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。
[0149]
在获得了每一候选文本匹配结果的第一概率后,可以根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。对于根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果,可参考相关技术或者后续实施例,此处不再赘述。
[0150]
示例性地,待匹配文本为用户向执行本方法实施例的智能对话系统输入的问题,在确定了待匹配文本对应的目标文本匹配结果后,可以将智能对话系统中目标文本匹配结果对应的信息即问题的答案,显示给用户。
[0151]
本技术实施例提供的文本匹配方法,通过获取待匹配文本以及待匹配文本的各候选文本匹配结果,将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。由于本技术实施例中根据如上述任一方法实施例获得的文本匹配模型输出的第一概率,确定待匹配文本对应的目标文本匹配结果,因此,能够更加准确地进行文本匹配,进而提升智能对话系统的用户体验。
[0152]
图6为本技术另一实施例提供的文本匹配方法的流程图。在上述实施例的基础上,本技术实施例对如何进行文本匹配进行进一步说明。如图6所示,本技术实施例的方法可以包括:
[0153]
s601、获取待匹配文本以及待匹配文本的各候选文本匹配结果。
[0154]
该步骤的具体描述可以参见图5所示实施例中s501的相关描述,此处不再赘述。
[0155]
本技术实施例中,图5中s502步骤可以进一步细化为如下的s602和s603两个步骤:
[0156]
s602、基于预设文本对格式将待匹配文本分别与各候选文本匹配结果进行文本拼接,获得拼接文本对。
[0157]
示例性地,预设文本对格式比如为“[cls][句子1][sep][句子2]”文本对格式,其中的参数可以参考上述s205步骤中第三样本对的格式示例。在获得了待匹配文本以及待匹配文本的各候选文本匹配结果后,可以基于预设文本对格式将待匹配文本分别与各候选文本匹配结果进行文本拼接,获得对应的拼接文本对。
[0158]
s603、将拼接文本对输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率。
[0159]
该步骤中,在获得了拼接文本对后,可以将拼接文本对输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率。确定待匹配文本对应于每一候选文本匹配结果的第一概率的具体描述可以参见图5所示实施例中s502步骤的相关描述,此处不再赘述。
[0160]
s604、确定对应第一概率最大的候选文本匹配结果为待匹配文本对应的目标文本匹配结果。
[0161]
示例性地,根据s603步骤获得的待匹配文本对应于3个候选文本匹配结果的相关概率分别为0.65、0.85、0.95,因此,确定对应0.95的候选文本匹配结果为待匹配文本对应的目标文本匹配结果。
[0162]
本技术实施例提供的文本匹配方法,通过获取待匹配文本以及待匹配文本的各候选文本匹配结果,基于预设文本对格式将待匹配文本分别与各候选文本匹配结果进行文本拼接,获得拼接文本对,将拼接文本对输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,确定对应第一概率最大的候选文本匹配结果为待匹配文本对应的目标文本匹配结果。由于本技术实施例中根据如上述任一方法实施例获得的文本匹配模型输出的第一概率的最大值,确定待匹配文本对应的目标文本匹配结果,因此,能够更加准确地进行文本匹配,进而提升智能对话系统的用户体验。
[0163]
图7为本技术一实施例提供的对话处理方法的流程图,应用于智能对话系统。如图7所示,本技术实施例的方法可以包括:
[0164]
s701、获取用户对话文本。
[0165]
本技术实施例中,用户对话文本比如为用户问题,用户问题可以为购物产品、推荐产品等方面的相关问题,本技术不以此为限制。示例性地,获取用户在购物产品的智能对话界面输入的问题,比如为:大概什么时候发货?。
[0166]
s702、根据用户对话文本以及预设文本匹配方法,确定用户对话文本对应的匹配文本。
[0167]
其中,预设文本匹配方法为采用如图5所示的文本匹配方法。
[0168]
示例性地,在获取了用户对话文本后,根据图5所示的文本匹配方法,可以确定用户对话文本对应的匹配文本,该匹配文本可以理解为预先设置好的标准文本。示例性地,用户对话文本比如为用户问题,用户问题为:大概什么时候发货?根据图5所示的文本匹配方法,可以确定用户问题对应的匹配文本为:发货时间。
[0169]
s703、将匹配文本的预设应答文本确定为用户对话文本的目标应答文本。
[0170]
示例性地,匹配文本的预设答案是预先设置好的,比如可以在数据库中预先存储已经定义好的问答对,其中的问题为匹配文本,其中的答案为匹配文本的预设应答文本。示例性地,在确定了用户对话文本对应的匹配文本为发货时间后,可以直接将匹配文本的预设应答文本确定为用户对话文本的目标应答文本,目标应答文本比如为:发货时间为2021年7月19日。
[0171]
s704、将目标应答文本反馈给用户。
[0172]
在获得了目标应答文本后,可以将目标应答文本反馈给用户。示例性地,比如对于用户在购物产品的智能对话界面输入的问题为:大概什么时候发货?,则在该智能对话界面反馈对应的目标应答文本为:发货时间为2021年7月19日。
[0173]
本技术实施例提供的对话处理方法,通过获取用户对话文本,根据用户对话文本以及预设文本匹配方法,确定用户对话文本对应的匹配文本,将匹配文本的预设应答文本确定为用户对话文本的目标应答文本,将目标应答文本反馈给用户。因此,能够快速准确地匹配用户对话文本并进行反馈,提升用户体验。
[0174]
下述为本技术装置实施例,可以用于执行本技术方法实施例。对于本技术装置实施例中未披露的细节,请参照本技术方法实施例。
[0175]
图8为本技术一实施例提供的文本匹配模型的训练装置的结构示意图,如图8所示,本技术实施例的文本匹配模型的训练装置800包括:第一获取模块801、处理模块802、预训练模块803、第二获取模块804和微调训练模块805。其中:
[0176]
第一获取模块801,用于获取多个第一样本对,每个第一样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配。
[0177]
处理模块802,用于对各第一样本对中文本包含的实体名词和/或动词进行掩码处理,得到对应的第二样本对。
[0178]
预训练模块803,用于基于第二样本对,对初始文本匹配模型进行迭代预训练,获得预训练后的文本匹配模型。
[0179]
第二获取模块804,用于获取预设业务场景对应的多个第三样本对,每个第三样本对中包括两个文本和两个文本的匹配结果,匹配结果用于指示两个文本是否匹配。
[0180]
微调训练模块805,用于基于第三样本对,对预训练后的文本匹配模型进行迭代微调训练,获得预设业务场景对应的文本匹配模型。
[0181]
在一些实施例中,处理模块802可以具体用于:对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词;将各第一样本对中预设比例的已标记词替换为预设信息,得到对应的第二样本对。
[0182]
可选的,处理模块802在用于对各第一样本对中文本包含的实体名词和/或动词进行标记处理,得到已标记词时,可以具体用于:通过预设分词工具对各第一样本对中文本包含的实体名词和/或动词进行分词处理以及词性识别处理,得到已标记词。
[0183]
在一些实施例中,第一获取模块801可以具体用于:确定训练数据,训练数据包括多个文本;基于预设文本对格式对多个文本中任两个文本进行拼接,获得多个第一样本对。
[0184]
可选的,第一获取模块801在用于确定训练数据时,可以具体用于:获取文本分类数据集,文本分类数据集中包括多个文本;对文本分类数据集中的文本进行向量化处理,获得文本分类数据集中各文本对应的向量;基于文本分类数据集中各文本对应的向量以及预设聚类方法,确定各文本所属的分类,分类用于指示相关度大于预设值的文本所属的类别;基于分类中的各文本以及各文本对应的标签,确定训练数据,标签用于指示文本的意图。
[0185]
可选的,第一获取模块801在用于基于文本分类数据集中各文本对应的向量以及预设聚类方法,确定各文本所属的分类时,可以具体用于:对各文本对应的向量进行降维处理,获得降维处理后的各文本对应的向量;基于降维处理后的各文本对应的向量以及预设聚类方法,确定各文本所属的分类。
[0186]
可选的,第一获取模块801在用于确定训练数据时,可以具体用于:获取随机构建的文本匹配数据集,文本匹配数据集包含多个文本;将文本匹配数据集输入至预设相关度模型,获得文本匹配数据集中各文本之间的相关度;根据文本匹配数据集中各文本之间的相关度、各文本对应的标签以及预设相关度阈值,确定训练数据,标签用于指示文本的意图。
[0187]
可选的,第一获取模块801在用于确定训练数据时,可以具体用于:获取随机生成的样本数据集,随机生成的样本数据集包含多个文本;基于随机生成的样本数据集以及随机生成的样本数据集包含的各文本的标签,确定训练数据,标签用于指示文本的意图。
[0188]
在一些实施例中,预训练模块803可以具体用于:基于第二样本对,对初始文本匹配模型进行迭代预训练,预测第二样本对中进行了掩码处理的实体名词和/或动词,获得第一损失函数值;在各第二样本对中包含的分类起始符向量后添加二分类全连接层,对初始文本匹配模型进行迭代预训练,预测各第二样本对的相关度,获得第二损失函数值,分类起始符用于指示第二样本对中包括的两个文本的匹配结果;根据第一损失函数值和第二损失函数值,获得预训练后的文本匹配模型。
[0189]
本技术实施例的装置,可以用于执行上述任一方法实施例中文本匹配模型的训练方法的方案,其实现原理和技术效果类似,此处不再赘述。
[0190]
图9为本技术一实施例提供的文本匹配装置的结构示意图,应用于智能对话系统。如图9所示,本技术实施例的文本匹配装置900包括:获取模块901、确定模块902和处理模块903。其中:
[0191]
获取模块901,用于获取待匹配文本以及待匹配文本的各候选文本匹配结果。
[0192]
确定模块902,用于将待匹配文本以及各候选文本匹配结果输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率,文本匹配模型为采用如上述任
一方法实施例获得的文本匹配模型。
[0193]
处理模块903,用于根据每一候选文本匹配结果的第一概率,确定待匹配文本对应的目标文本匹配结果。
[0194]
在一些实施例中,确定模块902可以具体用于:基于预设文本对格式将待匹配文本分别与各候选文本匹配结果进行文本拼接,获得拼接文本对;将拼接文本对输入至文本匹配模型,确定待匹配文本对应于每一候选文本匹配结果的第一概率。
[0195]
可选的,处理模块903可以具体用于:确定对应第一概率最大的候选文本匹配结果为待匹配文本对应的目标文本匹配结果。
[0196]
本技术实施例的装置,可以用于执行上述任一方法实施例中文本匹配方法的方案,其实现原理和技术效果类似,此处不再赘述。
[0197]
图10为本技术一实施例提供的对话处理装置的结构示意图,应用于智能对话系统。如图10所示,本技术实施例的对话处理装置1000包括:获取模块1001、第一确定模块1002、第二确定模块1003和反馈模块1004。其中:
[0198]
获取模块1001,用于获取用户对话文本。
[0199]
第一确定模块1002,用于根据用户对话文本以及预设文本匹配方法,确定用户对话文本对应的匹配文本。
[0200]
其中,预设文本匹配方法为采用如图5所示的文本匹配方法。
[0201]
第二确定模块1003,用于将匹配文本的预设应答文本确定为用户对话文本的目标应答文本。
[0202]
反馈模块1004,用于将目标应答文本反馈给用户。
[0203]
本技术实施例的装置,可以用于执行上述任一方法实施例中对话处理方法的方案,其实现原理和技术效果类似,此处不再赘述。
[0204]
图11为本技术一实施例提供的电子设备的结构示意图。示例性地,电子设备可以被提供为一服务器或计算机。参照图11,电子设备1100包括处理组件1101,其进一步包括一个或多个处理器,以及由存储器1102所代表的存储器资源,用于存储可由处理组件1101的执行的指令,例如应用程序。存储器1102中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1101被配置为执行指令,以执行上述任一方法实施例。
[0205]
电子设备1100还可以包括一个电源组件1103被配置为执行电子设备1100的电源管理,一个有线或无线网络接口1104被配置为将电子设备1100连接到网络,和一个输入输出(i/o)接口1105。电子设备1100可以操作基于存储在存储器1102的操作系统,例如windows servertm,mac os xtm,unixtm,linuxtm,freebsdtm或类似。
[0206]
本技术还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行计算机执行指令时,实现如上文本匹配模型的训练方法的方案、文本匹配方法的方案以及对话处理方法的方案。
[0207]
本技术还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如上文本匹配模型的训练方法的方案、文本匹配方法的方案以及对话处理方法的方案。
[0208]
上述的计算机可读存储介质,上述可读存储介质可以是由任何类型的易失性或非
易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。
[0209]
一种示例性的可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(application specific integrated circuits,简称:asic)中。当然,处理器和可读存储介质也可以作为分立组件存在于如上文本匹配模型的训练装置或文本匹配装置或对话处理装置中。
[0210]
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0211]
最后应说明的是:以上各实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述各实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜