一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种匹配文本的方法、电子设备及计算机可读存储介质与流程

2022-12-20 01:34:44 来源:中国专利 TAG:


1.本技术涉及人工智能技术领域,特别涉及一种匹配文本的方法、电子设备及计算机可读存储介质。


背景技术:

2.采用自然语言处理(nlp)技术对文本匹配是一个比较成熟的技术,在不同场景下,可以采用不同的文本匹配方式对文本进行匹配。比如,采用短查询词语(query)进行文本的标题(title)的搜索,将具有匹配成功的标题的文本作为该短查询词语匹配的文本。这种文本匹配方式比较简单,将短的查询词语的语义特征与短的标题的语义特征,在训练得到的神经网络模型中进行相似度计算,以确定是否匹配时,所采用的神经网络模型在进行两者的语义特征处理时采用的方式一致,处理结果也分布在一个相似的空间内,在计算相似度时准确且可靠。又比如,采用查询词语进行文本的搜索,得到匹配的文本。这种文本匹配方式的搜索对象是包括很多词语的长度较长的文本,也就是短查询词语与长文本之间采用训练的神经网络模型进行相似度计算,以确定是否匹配,所采用的神经网络模型在进行两者的语义特征处理时就无法采用相同的方式,并且处理结果也不会分布在一个相似空间内,在计算相似度时复杂且无法得到准确结果。再比如,还可以采用查询文本进行被查询文本的搜索,得到匹配的文本。这种文本匹配方式比较复杂,所采用的神经网络模型在处理两者的语义特征是也比较复杂,这种文本匹配方式不常用。
3.随着互联网技术的快速发展,各种运营服务平台为客户提供各种运营服务,比如基于销售物品的平台由销售服务提供者为客户提供销售服务等等。在这种场景下,基于运营服务平台,销售服务提供者需要与客户之间采用诸如即时通讯(im)等交互方式进行对话,获知客户需求,为客户推荐所匹配的文本,从而使得客户能够继续在该平台上消费运营服务。可以看出,运营服务平台基于会话信息匹配并推荐的文本,直接影响了运营服务的质量。因此,采用何种文本匹配方式,能够使得基于会话信息进行准确的文本匹配,并进行后续的推荐,以提升运营服务平台的运营服务质量,是一个亟待解决的问题。


技术实现要素:

4.有鉴于此,本技术实施例提供一种匹配文本的方法、电子设备及计算机可读存储介质,该匹配方法能够针对会话信息进行准确的文本匹配。
5.本技术实施例提供一种匹配文本的方法,所述方法包括:
6.获取会话过程中的会话信息,提取所述会话信息中的至少一类型的特征信息;
7.获取参与会话的客户的画像信息;
8.获取多个候选文本,针对每个所述文本,提取所述文本的特征信息;
9.针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值;
10.从多个候选的文本中,根据各个所述文本对应的相似度值从高到低的顺序,选取设定个数的所述文本,作为匹配所述会话信息的文本。
11.在上述方法中,所述提取会话信息中的至少一类型的特征信息包括:
12.提取所述会话信息的时序语义特征信息、所述会话信息的关键词信息、所述会话信息中的反映客户意图信息和所述会话信息所属的会话阶段信息中的一种或多个组合。
13.在上述方法中,所述针对每个所述文本,提取所述文本的特征信息包括:
14.针对每个所述文本,提取所述文本的标题特征信息及语义特征信息。
15.在上述方法中,所述针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值包括:
16.将所述文本的特征信息,采用所述文本匹配模型中的第一神经网络进行映射后,得到所述文本的特征向量,将所述文本的特征向量采用所述文本匹配模型中的第一自注意力机制神经网络进行处理后,得到所述文本的关键特征向量;
17.将所述至少一类型的特征信息和所述客户的画像信息,采用所述文本匹配模型中的第二神经网络进行映射后,得到所述会话信息相关的特征向量,将所述会话信息相关的特征向量采用所述文本匹配模型中的第二自注意力神经网络进行处理后,得到所述会话信息的关键特征向量;
18.基于所述文本的特征信息,构造所述文本的生成特征信息,采用所述文本匹配模型中的第三神经网络进行映射后,得到所述文本的生成特征向量;
19.将所述会话信息的关键特征向量及所述文本的生成特征向量,输入到所述文本匹配模型中的第四神经网络进行所述文本的生成特征的相似度计算,得到所述文本的对抗特征向量;
20.将所述文本的关键特征向量与所述文本的对抗特征向量输入到所述文本匹配模型中的至少一层全连接层单元进行至少一次的分类处理后,再通过所述文本匹配模型的逻辑回归层单元进行分类后的向量转化后,计算得到所述文本与所述会话信息的相似度值。
21.在上述方法中,所述第一神经网络为distilbert网络;
22.所述第二神经网络为双向长短期记忆bi-lstm网络;
23.所述第三神经网络为distilbert网络。
24.在上述方法中,所述第四神经网络基于设置的函数进行所述文本的生成特征的相似度计算,所述设置的函数为:
25.所设置的随机变量值与所述文本的生成特征向量的乘积值,与,所述随机变量值的剩余值与所述会话信息的关键特征向量的乘积值,之和,所述随机变量值的取值为:设置的所述文本的生成特征与所述会话信息的关键特征向量之间的相似度值的剩余值,与设置的符合设定概率的伯努利分布随机数之间的乘积值。
26.在上述方法中,所述文本匹配模型是训练得到的,所述文本匹配模型的结构包括:
27.第一神经网络、第一自注意力机制神经网络、第二神经网络、第二自注意力机制神经网络、第三神经网络、第四神经网络、至少一层全连接层单元及一逻辑回归层单元,其中,
28.获取样本文本的特征信息,通过所述第一神经网络进行映射后,得到所述样本文本的特征向量,将所述样本文本的特征向量采用所述第一自注意力机制神经网络进行处理
后,得到所述样本文本的关键特征向量;
29.从样本会话信息中获取得到至少一类型的特征信息,及获取参与会话的客户的样本画像信息,通过所述第二神经网络进行映射后,得到所述会话信息相关的样本特征向量,采用所述第二自注意力神经网络进行处理后,得到所述会话信息的样本关键特征向量;
30.基于所述样本文本的特征信息,构造所述样本文本的生成特征信息,采用所述第三神经网络进行映射后,得到所述样本文本的生成特征向量;
31.将所述会话信息的样本关键特征向量及所述样本文本的生成特征向量,输入到所述第四神经网络进行所述文本的生成特征的相似度计算,得到所述样本文本的对抗特征向量;
32.将所述样本文本的关键特征向量与所述样本文本的对抗特征向量输入到所述至少一层全连接层单元进行至少一次的分类处理后,再通过所述逻辑回归层单元进行分类后的向量转化后,计算得到所述文本与所述会话信息的相似度值;
33.基于计算得到的所述文本与所述会话信息的相似度值对所述文本匹配模型中的参数进行调整,再采用上述方式对所述文本匹配模型继续训练,直到满足设定的相似度阈值为止。
34.在本技术的另一个实施例中,还提供一种电子设备,其特征在于,包括:
35.处理器;
36.存储器,存储有程序,所述程序配置为在被所述处理器执行时实现如权利要求1至7中任一项所述的匹配文本的方法。
37.在本技术的另一个实施例中,还提供一种非瞬时计算机可读存储介质,所述非瞬时计算机可读存储介质存储指令,所述指令在由处理器执行时使得所述处理器执行上述任一项所述的匹配文本的方法。
38.在本技术的另一个实施例中,还提供一种计算机程序产品,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现如上述任一项所述的匹配文本的方法。
39.如上所见,本技术实施例获取会话过程中的会话信息,提取所述会话信息中的至少一类型的特征信息;获取参与会话的客户的画像信息;获取多个候选的文本,针对每个所述文本,提取所述文本的特征信息;针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值;从多个候选的文本中,根据各个所述文本对应的相似度值从高到低的顺序,选取设定个数的所述文本,作为匹配所述会话信息的文本。因此,本技术实施例在进行文本匹配时,不仅依据是会话信息中的多类型的特征信息,而且依据了参与会话的客户的画像信息,从而更加明确会话所表达的含义,提供匹配度更高的文本;在匹配文本时,还针对了文本的语义特征和标题特征进行匹配,从而使得匹配的文本更符合会话所涉及的含义。本技术实施例实现了针对会话信息进行准确的文本匹配过程。
附图说明
40.图1为目前提供的匹配文本的结构示意图;
41.图2为本技术实施例提供的匹配文本的方法流程图;
42.图3为本技术实施例提供的匹配文本的架构示意图;
43.图4为本技术实施例提供的匹配文本模型的结构示意图;
44.图5为本技术实施提供的匹配文本后得到的文本展示示意图;
45.图6为本技术实施例提供的匹配文本的装置结构示意图;
46.图7为本技术的另一个实施例所提供的一种电子设备的示意图。
具体实施方式
47.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
48.本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其他步骤或单元。
49.下面以具体实施例对本技术的技术方案进行详细说明。下面几个具体实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
50.目前,在匹配文本时,考虑到简单且易于执行,通常采用短查询词语进行文本的标题的搜索,将具有匹配成功的标题的文本作为该短查询词语匹配的文本的方案。具体地说,如图1所示,图1为目前提供的匹配文本的结构示意图。图中基于全连接层神经网络模型进行匹配,通常的网络结构为双塔网络结构。上述方案的匹配过程是由训练得到的神经网络模型进行的,通过该神经网络模型的输入层,分别接收查询词语向量及文本的标题向量后,在该神经网络模型的表示层分别从查询词语向量提取出查询词语的语义特征向量,及从文本的标题向量中提取出标题的语义特征向量;在该神经网络模型的匹配层进行两者相似度的匹配后,最终得到匹配得分,将匹配得分最高的文本的标题,作为匹配成功的文本的标题,从而匹配得到具有该文本的标题的文本。
51.当然,图1所述的过程也可以替换为查询语句与文本的匹配方案,或者文本与文本的匹配方案,但是匹配的准确性会降低,及在匹配层时的匹配过程会变得复杂。
52.目前文本匹配方案的应用场景为推荐文章,而在基于运营服务平台由运营服务提供者为客户提供运营服务过程中,与客户之间的问答交互场景下,针对会话信息进行文本的匹配方案则没有提供。采用图1所述的过程进行针对会话信息进行文本的匹配时,存在最终匹配的文本不准确的问题。这是因为,在会话交互场景下,最终匹配的文本不仅仅与会话信息的具体语义特征有关,还与客户的行为特征、客户自身特证、当前涉及的内容主题等信息都有关,而单纯以会话信息的语义特征匹配文本,则会造成匹配得到的文本并不是准确的,在后续推荐给客户后,也无法提升运营服务平台的运营服务质量。
53.在具体技术领域应用时,如何有针对性的为具体技术领域的会话场景匹配合适的
文本则目前没有方案可以实现。比如,运营服务平台为房屋销售服务平台时,基于与客户之前的会话内容、客户需求及经纪人的回答,进行文本推送的应用场景下,如何进行会话内容的文本匹配,并将匹配成功的文本推送给客户的方案,目前无法实现。这是因为,在该应用场景下,一方面,经纪人的运营服务对于与客户之间的会话内容的依赖性较强,能够通过与客户的会话内容,转换为真实商机委托,所以需要准确推送相关的文本;另一方面,其他运营服务平台进行文本推送时,也可以基于客户的行为特征进行匹配并推送,但是在本应用场景下,为了提升经纪人的服务质量,不仅需要考虑客户的行为特征,而且还需要结合经纪人的服务质量、以及会话内容的语义特征等信息,来匹配要推荐的文本,整个匹配过程是比较复杂的;再一方面,在该应用场景下,进行文本匹配时,会存在与会话信息相似度很高但相关性不够的文本匹配上,即匹配的文本包括了会话信息描述的内容,但该匹配的文本又存在一些条件或领域等不匹配的情况。因此,在该应用场景下,基于会话信息,采用何种文本匹配方式,可以匹配准确的文本并推送给客户,成为了一个亟待解决的问题。
54.本技术实施例为了解决上述问题,采用的具体文本匹配方法为:获取会话过程中的会话信息,提取所述会话信息中的至少一类型的特征信息;获取参与会话的客户的画像信息;获取多个候选的文本,针对每个所述文本,提取所述文本的特征信息;针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值;从多个候选的文本中,根据各个所述文本对应的相似度值从高到低的顺序,选取设定个数的所述文本,作为匹配所述会话信息的文本。
55.这样,本技术实施例在进行文本匹配时,依据的不仅仅是会话信息中的一类型的特征信息,而是包括了诸如会话信息的时序语义特征、会话信息的关键词信息、会话信息中的反映客户意图信息和会话信息所属的会话阶段信息中的多种类型信息,并且还依据了参与会话的客户的画像信息,从而更加明确会话所表达的含义,提供匹配度更高的文本;更进一步地,在匹配文本时,也不仅仅只针对文本的标题特征进行匹配,还针对了文本的语义特征,从而使得匹配的文本更符合会话所涉及的含义。这样,本技术实施例实现了针对会话信息进行准确的文本匹配过程。
56.本发明实施例中,在文本匹配模型中采用了不同的神经网络模型分别对会话信息中的多种类型的特征信息和客户的画像信息进行向量编码映射,及对文本的特征信息进行向量编码映射,从而保证在后续相似度计算过程中所使用的特征向量的有效性。
57.更进一步地,本技术实施例在文本匹配模型在相似度计算过程中,还引入了文本的对抗特征向量进行计算,从而提升文本匹配模型的鲁棒性,加强匹配文本的程度。为了在文本匹配模型中引入文本的抵抗特征向量,在文本匹配模型中设置了生成神经网络,来生成文本的对抗特征向量,该文本的对特征向量与会话信息的相似度较高但相关性较差,引入文本匹配模型进行计算,就可以提升文本匹配模型的鲁棒性。
58.因此,本技术实施例提供的文本匹配模型采用基于生成及分类的架构构思,采用生成的架构构思来生成相应的对抗特征向量加强文本匹配模型的处理,采用分类的架构构思来计算相似度值,从而提升所匹配文本的相似度及相关度。
59.图2为本技术实施例提供的匹配文本的方法流程图,其具体步骤包括:
60.步骤201、获取会话过程中的会话信息,提取所述会话信息中的至少一类型的特征
信息;
61.步骤202、获取参与会话的客户的画像信息;
62.步骤203、获取多个候选的文本,针对每个所述文本,提取所述文本的特征信息;
63.步骤204、针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值;
64.步骤205、从多个候选的文本中,根据各个所述文本对应的相似度值从高到低的顺序,选取设定个数的所述文本,作为匹配所述会话信息的文本。
65.在上述过程中,设定个数根据需要设置,这里不限定。
66.在上述过程中,设定个数可以设置为1。在这种情况下,则是确定具有最高相似度值的所述文本,将所述具有最高相似度值的所述文本,作为匹配所述会话信息的文本。
67.在上述过程中,步骤201、步骤202及步骤203的执行顺序可以同时进行、或者顺序进行、或者反序进行,这里不限制。
68.在上述过程中,所述获取参与会话的客户的画像信息可以是从所述会话信息中获取的,或者从参与会话的相关人员的信息中获取的,这里不限制。
69.应理解,在本公开的实施例中,会话信息、画像信息等均是在得到用户预先授权的情况下获取的。
70.在本技术实施例中,由于会话过程中的会话信息包含了很多类型的特征信息,比如关键词、客户的意图(需求)、当前会话所处的会话阶段(session)等信息,这些信息也决定了客户所关注的文本类型,因此,在匹配文本时,需要将这些信息输入所述文本匹配模型中处理。具体地说,所述提取会话信息中的至少一类型的特征信息包括:
71.提取所述会话信息的时序语义特征信息、所述会话信息的关键词信息、所述会话信息中的反映客户意图信息和所述会话信息所属的会话阶段信息中的一种或多个组合。
72.在本技术实施例中,由于仅仅匹配文本的标题会使得匹配不准确,所以在匹配时,还需要进行文本的语义特征进行匹配。因此,针对每个所述文本,提取所述文本的特征信息包括:针对每个所述文本,提取所述文本的标题特征信息及语义特征信息。
73.上述方法采用图3所示的架构实现,图3为本技术实施例提供的匹配文本的架构示意图。如图所示,将会话信息中的时序语义特征、关键词信息、反映客户意图信息及所属的会话阶段信息,以及所述文本的特征信息中的标题特征信息及语义特征信息,输入到文本匹配模型中处理,得到相似度值输出。
74.具体地说,当运营服务平台为房屋销售服务平台时,所述会话信息中的关键词信息、所述会话信息中的反映客户意图信息,以及反映客户意图信息的类别如表一所示。
75.[0076][0077]
表一
[0078]
具体地说,当运营服务平台为房屋销售服务平台时,参与会话的客户的画像信息如表二所示,包括了客户的特征、经纪人特征及所涉及会话特征等。
[0079][0080]
表二
[0081]
具体地说,当运营服务平台为房屋销售服务平台时,所述会话信息所属的会话阶段信息为客户当前所在的购房阶段,购房阶段包括了了解阶段、深度了解阶段、意向阶段及成交阶段等等。
[0082]
在本技术实施例中,所述文本匹配模型采用基于生成及分类的架构构思,采用生成的架构构思来生成相应的对抗特征向量加强文本匹配模型的处理,采用分类的架构构思来计算相似度值。具体地说,所述针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值包括:
[0083]
将所述文本的特征信息,采用所述文本匹配模型中的第一神经网络进行映射后,得到所述文本的特征向量,将所述文本的特征向量采用所述文本匹配模型中的第一自注意力机制神经网络进行处理后,得到所述文本的关键特征向量;
[0084]
将所述至少一类型的特征信息和所述客户的画像信息,采用所述文本匹配模型中的第二神经网络进行映射后,得到所述会话信息相关的特征向量,将所述会话信息相关的特征向量采用所述文本匹配模型中的第二自注意力神经网络进行处理后,得到所述会话信息的关键特征向量;
[0085]
基于所述文本的特征信息,构造所述文本的生成特征信息,采用所述文本匹配模
型中的第三神经网络进行映射后,得到所述文本的生成特征向量;
[0086]
将所述会话信息的关键特征向量及所述文本的生成特征向量,输入到所述文本匹配模型中的第四神经网络进行所述文本的生成特征的相似度计算,得到所述文本的对抗特征向量;
[0087]
将所述文本的关键特征向量与所述文本的对抗特征向量输入到所述文本匹配模型中的至少一层全连接层单元进行至少一次的分类处理后,再通过所述文本匹配模型的逻辑回归层单元进行分类后的向量转化后,计算得到所述文本与所述会话信息的相似度值。
[0088]
在一个示例性实施例中,所述第一神经网络为distilbert网络;所述第二神经网络为双向长短期记忆(bi-lstm)网络;所述第三神经网络为distilbert网络,然而应理解本公开的实施例并不限于此。
[0089]
可以看出,对于会话过程的会话信息,由于包括多个类型的特征信息,这些特征信息之间具有相关性,所以采用了bi-lstm网络得到对应的特征向量,而对于文本的特征信息来说,采用了distilbert网络处理。
[0090]
在本技术实施例中,第四神经网络就是为了生成对抗特征向量的生成神经网络,用来提升文本匹配模型的鲁棒性。在具体实现上,所述第四神经网络基于设置的函数进行所述文本的生成特征的相似度计算,所述设置的函数为:所设置的随机变量值与所述文本的生成特征向量的乘积值,与,所述随机变量值的剩余值与所述会话信息的关键特征向量的乘积值,之和,所述随机变量值的取值为:设置的所述文本的生成特征与所述会话信息的关键特征向量之间的相似度值的剩余值,与设置的符合设定概率的伯努利分布随机数之间的乘积值。
[0091]
第四神经网络所采用的函数的公式表达为:
[0092]
s=sd
gen
(1-s)m,s=(1-y)z
ꢀꢀꢀ
(1)
[0093]
其中,d
gen
表示的是文本的生成特征信息经过distilbert网络产生的文本的生成特征向量;m为会话信息经过bi-lstm网络得到对应的特征向量;y为一个参数,表示两者的相似度,当y=0时输出为d
gen
,当y=1时,输出为m。为了加入噪音,本技术实施例引入了一个z,z为符合设定概率的伯努利分布随机数,这样是为了加强文本匹配模型的鲁棒性。
[0094]
在这里,定义了s(d,m)为文本与会话信息的相似度值,当s=1时,表示两者是相匹配的,当s=0时,表示两者是不匹配的,s是文本匹配模型的全连接层单元的输出,取值为0-1,作为最终得到的相似度值。
[0095]
在上述过程中,所述文本匹配模型的逻辑回归层单元进行分类后的向量转化后,计算得到所述文本与所述会话信息的相似度值时,所述文本匹配模型的逻辑回归层单元采用归一化(softmax)函数进行向量转换,得到的得分就是相似度值。该softmax函数采用已有的公式,具体为:
[0096]
score=softmax(wx b)=softmax(w(α
·
d s)))=softmax(w(α
·
d sd
gen
(1-s)m)),s=(1-y)z
[0097]
在这里,softmax(wx b)是softmax的表达式,表明对wx b参数进行归一化的概率计算,得到位于[0,1]区间的值,将该值作为最终的得分socre。其中,wx b=w(α
·
d s),具体为w(α
·
d sd
gen
(1-s)m)。d
gen
表示的是文本的生成特征信息经过distilbert网络产生的文本的生成特征向量;m为会话信息经过bi-lstm网络得到对应的特征向量;y为表示两者的
相似度,z为符合设定概率的伯努利分布随机数,d标识文本的生成特征信息,α为文本的生成特征信息所设置的系数,根据经验值设置。
[0098]
得分的高低表示的文本与会话信息之间的相关程度,本技术将召回的文本按照得分的高低进行推荐。
[0099]
在本技术实施例中,所述文本匹配模型是训练得到的,所述文本匹配模型的目标函数为:
[0100]
其中,β是设置的超级参数,为了使得模型更容易区分对抗特征向量,将β设置为大于1的值。x,y分别代表了该模型的输入,即x为所述至少一类型的用户特征信息和所述客户的画像信息等的所述会话信息的关键特征向量,y为文本的特征信息。x及y的下标i标识了要进行相似度计算的所述会话信息的关键特征向量及所述文本的生成特征向量的数量值,n为要进行相似度计算的所述会话信息的关键特征向量及所述文本的生成特征向量的数量总值,f
θ
为计算随机变量值的函数,该函数在计算时是基于所述会话信息的关键特征向量计算得到的。
[0101]
在本技术实施例中,文本匹配模型的结构如图4所示,图4为本技术实施例提供的匹配文本模型的结构示意图,所述文本匹配模型的结构包括:第一神经网络、第一自注意力机制神经网络、第二神经网络、第二自注意力机制神经网络、第三神经网络、第四神经网络、至少一层全连接层单元及一逻辑回归层单元,其中,
[0102]
获取样本文本的特征信息,通过所述第一神经网络进行映射后,得到所述样本文本的特征向量,将所述样本文本的特征向量采用所述第一自注意力机制神经网络进行处理后,得到所述样本文本的关键特征向量;从样本会话信息中获取得到至少一类型的特征信息,及获取参与会话的客户的样本画像信息,通过所述第二神经网络进行映射后,得到所述会话信息相关的样本特征向量,采用所述第二自注意力神经网络进行处理后,得到所述会话信息的样本关键特征向量;
[0103]
基于所述样本文本的特征信息,构造所述样本文本的生成特征信息,采用所述第三神经网络进行映射后,得到所述样本文本的生成特征向量;
[0104]
将所述会话信息的样本关键特征向量及所述样本文本的生成特征向量,输入到所述第四神经网络进行所述文本的生成特征的相似度计算,得到所述样本文本的对抗特征向量;
[0105]
将所述样本文本的关键特征向量与所述样本文本的对抗特征向量输入到所述至少一层全连接层单元进行至少一次的分类处理后,再通过所述逻辑回归层单元进行分类后的向量转化后,计算得到所述文本与所述会话信息的相似度值;
[0106]
基于计算得到的所述文本与所述会话信息的相似度值对所述文本匹配模型中的参数进行调整,再采用上述方式对所述文本匹配模型继续训练,直到满足设定的相似度阈值为止。
[0107]
在这里,第一神经网络为distilbert网络,第二神经网络为bi-lstm网络,第三神
经网络为distilbert网络,第四神经网络采用设置的函数实现,即采用上述的公式(1)实现。
[0108]
在这里,构造所述样本文本的生成特征信息时,可以采用设置的规则对所述样本文本的特征信息进行替换,就是将所述样本文本作为正样本,将正样本中的地域信息、范畴信息或/和时间信息进行随机替换,得到所述样本文本的生成特征信息。所述样本文本的生成特征信息为负样本特征信息。采用这种方式的目的是在所述模型训练及后续应用时,保留与相似度相关的向量特征,而破坏与相关性相关的向量特征。
[0109]
本发明实施例在经过了所训练的文本匹配模型的文本匹配后,就会将与所述会话信息的相关性很高,但是相似度不高的文本被排除,而将相似度很高且属性也相同的文本筛选出来,推荐给客户。从而保证了匹配文本的准确性。
[0110]
在一个具体例子中,当运营服务平台为房屋销售服务平台时,将本技术实施例提供的文本匹配方式在平台上运行,在设定时间内获取会话信息,匹配文本后进行推送,比如设定时间为1天。如图5所示,图5为本技术实施提供的匹配文本后得到的文本展示示意图,该图中的左侧呈现了经纪人上展示的描述文本的图像,右侧呈现了为客户推荐的描述文本的图像,可以看出,为客户推荐的描述文本图像与经纪人想要推送给客户的描述文本的图像相同。经过统计,为客户推荐的相似度值最高的描述文本的图像,采纳度达到了78%,为客户推荐的相似度值第三高的描述文本的图像,采纳度达到了86%。因此,采用本技术实施例进行的文本匹配过程,提高了文本匹配的准确性。
[0111]
图6为本技术实施例提供的匹配文本的装置结构示意图,所述装置包括:获取单元、匹配单元及输出单元,其中,
[0112]
获取单元,用于获取会话过程中的会话信息,提取所述会话信息中的至少一类型的特征信息;获取参与会话的客户的画像信息;获取多个候选的文本,针对每个所述文本,提取所述文本的特征信息;
[0113]
匹配单元,用于针对每个所述文本,将所述文本的特征信息,及所述至少一类型的特征信息和所述客户的画像信息,输入到文本匹配模型中,进行所述文本与所述会话信息之间的相似度计算,得到所述文本与所述会话信息的相似度值;
[0114]
输出单元,用于从多个候选的文本中,根据各个所述文本对应的相似度值从高到低的顺序,选取设定个数的所述文本,作为匹配所述会话信息的文本。
[0115]
在本技术的另一个实施例中,还提供一种电子设备,包括:处理器;存储器,存储有程序,所述程序配置为在被所述处理器执行时实现如上述的匹配文本的方法。
[0116]
在本技术的另一个实施例中,提供了一种非瞬时计算机可读存储介质,所述非瞬时计算机可读存储介质存储指令,所述指令在由处理器执行时引发所述处理器执行前述实施例中的匹配文本方法。图7为本技术的另一个实施例所提供的一种电子设备的示意图。如图7所示,本技术另一实施例还提供一种电子设备,其可以包括处理器701,其中,处理器701用于执行上述一种匹配文本的方法的步骤。从图7中还可以看出,上述实施例提供的电子设备还包括非瞬时计算机可读存储介质702,该非瞬时计算机可读存储介质702上存储有计算机程序,该计算机程序被处理器701运行时执行上述一种匹配文本的方法的步骤。
[0117]
具体地,该非瞬时计算机可读存储介质302能够为通用的存储介质,如移动磁盘、硬盘、flash、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、或便携式紧凑磁
盘只读存储器(cd-rom)等,该非瞬时计算机可读存储介质302上的计算机程序被处理器301运行时,能够引发处理器601执行上述的一种匹配文本的方法的各个步骤。
[0118]
实际应用中,所述的非瞬时计算机可读存储介质702可以是上述实施例中描述的设备/装置/系统中所包含的,也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或多个程序被执行时,能够执行上述的一种匹配文本的方法中的各个步骤。
[0119]
本技术的再一实施例还提供一种计算机程序产品,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现上述的一种匹配文本的方法中的各个步骤。
[0120]
本技术附图中的流程图和框图,示出了按照本技术公开的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或者代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应该注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同附图中所标准的顺序发生。例如,两个连接地表示的方框实际上可以基本并行地执行,它们有时也可以按照相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或者流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0121]
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本技术中。特别地,在不脱离本技术精神和教导的情况下,本技术的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,所有这些组合和/或结合均落入本技术公开的范围。
[0122]
本文中应用了具体实施例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思路,并不用于限制本技术。对于本领域的技术人员来说,可以依据本技术的思路、精神和原则,在具体实施方式及应用范围上进行改变,其所做的任何修改、等同替换、改进等,均应包含在本技术保护的范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献