一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

对话生成模型训练、对话回复生成方法和装置以及介质与流程

2022-04-30 18:29:18 来源:中国专利 TAG:


1.本发明涉及人工智能技术领域,尤其涉及一种对话生成模型训练、对话回复生成方法和装置以及存储介质。


背景技术:

2.对话生成任务是根据对话历史和当前轮次的提问,生成回复的任务。对话历史通常由多轮对话构成,每轮对话由提问和回复构成。在现有的对话生成模型训练过程中,输入是将对话历史中的每一轮的提问和回复拼接为一段长文本,未对每一个轮次的提问和回复进行区分对待。在实际的应用中,每一轮的提问和回复的重要性不同,重要的提问和回复对当前的回复生成能够起到正面作用,与当前的回复生成无关的提问和回复是噪音信息,会影响当前的回复生成的准确性。


技术实现要素:

3.有鉴于此,本发明要解决的一个技术问题是提供一种对话生成模型训练、对话回复生成方法和装置以及存储介质。
4.根据本公开的第一方面,提供一种对话生成模型训练方法,包括:根据历史对话信息中的提问信息和回复信息,生成与所述历史对话信息相对应的历史轮次提问信息;基于所述历史轮次提问信息和当前提问信息生成训练样本;使用对话生成模型对所述训练样本进行处理,确定所述历史轮次提问信息与所述当前提问信息相对应的重要性评分;根据所述重要性评分确定注意力权重,使用所述对话生成模型并根据所述注意力权重,确定与所述当前轮次提问信息相对应的目标词生成概率;基于所述目标词生成概率生成与所述当前提问信息相对应的回复预测信息;根据所述回复预测信息确定损失函数,基于所述损失函数对所述对话生成模型进行调整处理。
5.可选地,所述使用对话生成模型对所述训练样本进行处理,确定所述历史轮次提问信息与所述当前提问信息相对应的重要性评分包括:使用提问分割符和回复隔离符对所述训练样本中的提问信息和回复信息进行隔离处理;使用所述对话生成模型的编码器对所述历史轮次提问信息进行编码处理,获得与所述历史轮次提问信息相对应的编码隐层状态信息;根据所述编码隐层状态信息,获得所述当前提问信息与所述历史轮次提问信息之间的重要性评分。
6.可选地,所述编码隐层状态信息包括:提问编码隐层状态信息和回复编码隐层状态信息;所述根据所述编码隐层状态信息,获得所述当前提问信息与所述历史轮次提问信息之间的重要性评分包括:使用所述对话生成模型的第一激励函数,获得与所述提问编码隐层状态信息相对应的第一激励函数值;使用所述第一激励函数,获得与所述回复编码隐层状态信息相对应的第二激励函数值;基于所述第一激励函数值、所述第二激励函数值以及所述第二激活函数,获得所述重要性评分。
7.可选地,所述根据所述重要性评分确定注意力权重包括:确定所述历史轮次提问
信息的初始权重;将所述初始权重与对应的重要性评分的乘积,作为新权重;对全部历史轮次提问信息的新权重进行求和,获得所述注意力权重。
8.可选地,所述确定所述历史轮次提问信息的初始权重包括:使用所述对话生成模型的第三激活函数,获得与所述历史轮次提问信息相对应的第三激励函数值;基于所述第三激励函数值以及所述第二激活函数,获得所述初始权重。
9.可选地,所述使用所述对话生成模型并根据所述注意力权重,确定与所述当前轮次提问信息相对应的目标词生成概率包括:使用所述对话生成模型的解码器并根据所述注意力权重进行解码处理,获得与所述当前轮次提问信息相对应的解码隐层状态信息;基于所述解码隐层状态信息以及所述第二激活函数,获得所述目标词生成概率。
10.可选地,所述基于所述目标词生成概率生成与所述当前提问信息相对应的回复预测信息包括:选取所述目标词生成概率最高的候选词作为所述目标词,生成所述回复预测信息。
11.可选地,所述根据所述回复预测信息确定损失函数,基于所述损失函数对所述对话生成模型进行调整处理包括:根据所述回复预测信息确定交叉熵损失函数,基于所述交叉熵损失函数对所述对话生成模型进行调整处理。
12.根据本公开的第二方面,提供一种对话回复生成方法,包括:根据历史对话信息中的提问信息和回复信息,生成与所述历史对话信息相对应的历史轮次提问信息;基于所述历史轮次提问信息和当前提问信息生成对话预测信息;获取训练好的对话生成模型,使用所述对话生成模型对所述对话预测信息进行处理,生成与所述当前提问信息相对应的回复预测信息;其中,所述对话生成模型是通过权利要求1至8中任一项所述的训练方法训练得到。
13.根据本公开的第三方面,提供一种对话生成模型训练装置,包括:提问轮次生成模块,用于根据历史对话信息中的提问信息和回复信息,生成与所述历史对话信息相对应的历史轮次提问信息;训练样本生成模块,用于基于所述历史轮次提问信息和当前提问信息生成训练样本;重要性评分模块,用于使用对话生成模型对所述训练样本进行处理,确定所述历史轮次提问信息与所述当前提问信息相对应的重要性评分;注意力权重模块,用于根据所述重要性评分确定注意力权重;生成概率确定模块,用于使用所述对话生成模型并根据所述注意力权重,确定与所述当前轮次提问信息相对应的目标词生成概率;预测信息生成模块,用于基于所述目标词生成概率生成与所述当前提问信息相对应的回复预测信息;模型调整处理模块,用于根据所述回复预测信息确定损失函数,基于所述损失函数对所述对话生成模型进行调整处理。
14.可选地,所述重要性评分模块,用于使用提问分割符和回复隔离符对所述训练样本中的提问信息和回复信息进行隔离处理;使用所述对话生成模型的编码器对所述历史轮次提问信息进行编码处理,获得与所述历史轮次提问信息相对应的编码隐层状态信息;根据所述编码隐层状态信息,获得所述当前提问信息与所述历史轮次提问信息之间的重要性评分。
15.可选地,所述编码隐层状态信息包括:提问编码隐层状态信息和回复编码隐层状态信息;所述重要性评分模块,还用于使用所述对话生成模型的第一激励函数,获得与所述提问编码隐层状态信息相对应的第一激励函数值;使用所述第一激励函数,获得与所述回
复编码隐层状态信息相对应的第二激励函数值;基于所述第一激励函数值、所述第二激励函数值以及所述第二激活函数,获得所述重要性评分。
16.可选地,所述注意力权重模块,用于确定所述历史轮次提问信息的初始权重;将所述初始权重与对应的重要性评分的乘积,作为新权重;对全部历史轮次提问信息的新权重进行求和,获得所述注意力权重。
17.可选地,所述注意力权重模块,还用于使用所述对话生成模型的第三激活函数,获得与所述历史轮次提问信息相对应的第三激励函数值;基于所述第三激励函数值以及所述第二激活函数,获得所述初始权重。
18.可选地,所述生成概率确定模块,用于使用所述对话生成模型的解码器并根据所述注意力权重进行解码处理,获得与所述当前轮次提问信息相对应的解码隐层状态信息;基于所述解码隐层状态信息以及所述第二激活函数,获得所述目标词生成概率。
19.可选地,所述预测信息生成模块,具体用于选取所述目标词生成概率最高的候选词作为所述目标词,生成所述回复预测信息。
20.可选地,所述模型调整处理模块,具体用于根据所述回复预测信息确定交叉熵损失函数,基于所述交叉熵损失函数对所述对话生成模型进行调整处理。
21.根据本公开的第四方面,提供一种对话回复生成装置,包括:历史信息生成模块,用于根据历史对话信息中的提问信息和回复信息,生成与所述历史对话信息相对应的历史轮次提问信息;对话信息生成模块,用于基于所述历史轮次提问信息和当前提问信息生成对话预测信息;预测信息处理模块,获取训练好的对话生成模型,使用所述对话生成模型对所述对话预测信息进行处理,生成与所述当前提问信息相对应的回复预测信息;其中,所述对话生成模型是通过如上所述的训练方法训练得到。
22.根据本公开的第五方面,提供一种对话生成模型训练装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如上所述的方法。
23.根据本公开的第六方面,提供一种对话回复生成装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如上所述的方法。
24.根据本公开的第七方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行如上所述的方法。
25.本公开的对话生成模型训练、对话回复生成方法和装置以及存储介质,采用层次化注意力机制对历史轮次对话信息进行加权处理,提高了相关的历史轮次对话信息与当前轮次对话的提问信息之间的权重,降低与当前轮次对话的提问信息无关的历史轮次对话信息之间的权重,实现信息过滤的效果,提升当前轮次回复的生成质量,提高回复信息的准确性,提高了用户使用感受。
附图说明
26.为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还
可以根据这些附图获得其他的附图。
27.图1为根据本公开的对话生成模型训练方法的一个实施例的流程示意图;
28.图2为根据本公开的对话生成模型训练方法的一个实施例中的确定重要性评分的流程示意图;
29.图3为根据本公开的对话生成模型训练方法的另一个实施例中的确定重要性评分的流程示意图;
30.图4为根据本公开的对话生成模型训练方法的一个实施例中的确定注意力权重的流程示意图;
31.图5为根据本公开的对话回复生成方法的一个实施例的流程示意图;
32.图6为根据本公开的对话生成模型训练装置的一个实施例的模块示意图;
33.图7为根据本公开的对话回复生成装置的一个实施例的模块示意图;
34.图8为根据本公开的对话生成模型训练装置的另一个实施例的模块示意图;
35.图9为根据本公开的对话回复生成装置的另一个实施例的模块示意图。
具体实施方式
36.下面参照附图对本公开进行更全面的描述,其中说明本公开的示例性实施例。下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
37.下文中的“第一”、“第二”等仅用于描述上相区别,并没有其他特殊的含义。
38.图1为根据本公开的对话生成模型训练方法的一个实施例的流程示意图,如图1所示:
39.步骤101,根据历史对话信息中的提问信息和回复信息,生成与历史对话信息相对应的历史轮次提问信息。历史轮次提问信息包括在一次历史提问中的提问和对应的回复信息。
40.步骤102,基于历史轮次提问信息和当前提问信息生成训练样本。当前提问信息为当前轮次对话中的提问信息。
41.步骤103,使用对话生成模型对训练样本进行处理,确定历史轮次提问信息与当前提问信息相对应的重要性评分。对话生成模型可以为多种模型,例如为transformer模型等。transformer模型是由谷歌提出的一种模型。
42.步骤104,根据重要性评分确定注意力权重,使用对话生成模型并根据注意力权重,确定与当前轮次提问信息相对应的目标词生成概率。
43.步骤105,基于目标词生成概率生成与当前提问信息相对应的回复预测信息。
44.步骤106,根据回复预测信息确定损失函数,基于损失函数对对话生成模型进行调整处理。
45.本公开的对话生成模型训练方法对基于transformer模型的编码器-解码器框架进行改进,利用改进的层次化注意力机制,对历史轮次的文本进行加权,提高与当前轮次对话相关的对话轮次的权重,降低与当前轮次对话无关的轮次对话的权重,实现信息过滤效
果,提升当前轮次对话回复的生成质量。
46.当某一轮次对话对当前轮次对话是重要的时候,这一轮次对话中的提问和回复文本是重要的,否则,该轮次对话中的提问和回复文本都是噪音。首先,获取每一轮次对话与当前提问信息相对应的重要性评分,然后利用该重要性评分对每一轮次对话中的文本的注意力机制进行正则化,获得注意力权重。
47.如果历史第k轮次对话中的提问文本中的问题和当前轮次对话中的当前提问文本中的问题很接近,则第k轮次对话和当前轮次对话相关性大;如果历史第k轮次对话中的提问文本中的问题和当前轮次对话中的当前提问文本中的问题不接近,则第k轮次对话的回复很有可能并没有解决当前轮此对话的疑问(因为当前轮次对话再次对第k轮次对话的回复进行发文),则第k轮次对话很可能是噪音。
48.例如,第k轮次对话:提问:“这款手表镜面是什么材料”?回答:“矿物水晶玻璃”。当前轮次对话:提问:“手表镜面硬度怎么样”?回答:“硬度非常高,军表级别”。由上可知,当前轮次对话的提问和第k轮次对话的提问相关,第k轮次对话有助于当前轮次对话的回复生成。
49.第k轮次对话:提问:“这款手表镜面材料硬度怎么样”?回答:“镜面材料是矿物水晶玻璃”。当前轮次对话:提问:“矿物水晶玻璃是什么”?回答:“是一种强化玻璃,透明度高,抗磨能力也较为出色”。由上可知,当前轮次对话的提问和第k轮次对话的回复相关,第k轮次对话并未解决用户问题,第k轮次对话无助于当前轮次对话的回复生成。
50.在一个实施例中,给定一段历史对话信息,包括k轮对话,每一轮次对话由一个提问qi和一个回复ri构成,第i轮次对话的提问文本qi=(q
i1
,q
i2
,

,q
im
),其中,q
i1
代表一个字,第i轮次对话的回复文本ri=(r
i1
,r
i2
,

,r
in
),其中,r
i1
代表一个字。
51.在进行对话生成模型训练时,假设训练目标是第5轮次对话的回复,即对话生成模型的输出目标为y=(r
51
,r
52
,

,r
5n
),输入为前4轮次对话的历史信息和第5轮次对话的提问(当前提问信息),即每一个训练样本为:
52.x=(q
11
,

,q
1m
,s
q1
,r
11
,

,r
1n
,s
r1
,q
21
,

,q
2m
,s
q2
,r
21
,

,r
2n
,s
r2
,

,q
51
,

,q
5m
)
ꢀꢀꢀ
(1-1);
53.其中,使用提问分割符s
qi
和回复隔离符s
ri
符号作为分割符,将训练样本中的每一轮次对话的提问和回复信息隔开。
54.确定历史轮次提问信息与当前提问信息相对应的重要性评分可以采用多种方法。图2为根据本公开的对话生成模型训练方法的一个实施例中的确定重要性评分的流程示意图,如图2所示:
55.步骤201,使用提问分割符和回复隔离符对训练样本中的提问信息和回复信息进行隔离处理。
56.步骤202,使用对话生成模型的编码器对历史轮次提问信息进行编码处理,获得与历史轮次提问信息相对应的编码隐层状态信息。
57.步骤203,根据编码隐层状态信息,获得当前提问信息与历史轮次提问信息之间的重要性评分。
58.图3为根据本公开的对话生成模型训练方法的另一个实施例中的确定重要性评分的流程示意图,编码隐层状态信息包括提问编码隐层状态信息和回复编码隐层状态信息,
如图3所示:
59.步骤301,使用对话生成模型的第一激励函数,获得与提问编码隐层状态信息相对应的第一激励函数值。
60.步骤302,使用第一激励函数,获得与回复编码隐层状态信息相对应的第二激励函数值。
61.步骤303,基于第一激励函数值、第二激励函数值以及第二激活函数,获得重要性评分。
62.在一个实施例中,使用对话生成模型transformer模型的编码器f
enc
对历史轮次提问信息x进行编码,生成编码隐层状态h:
63.hi=f
enc
(xi)
ꢀꢀꢀ
(1-2);
64.其中,xi为第i轮次的历史轮次提问信息,hi为与第i轮次的历史轮次提问信息相对应的编码隐层状态信息。
65.求解历史轮次提问信息与当前轮次的提问信息之间的重要性:
[0066][0067][0068]
其中,h
qk
是第k轮次对话的提问分割符号s
qk
对应的编码隐层向量,h
rk
是第k轮次对话的提问分割符号s
rk
对应的编码隐层向量。h
qk
、h
rk
为1*p维向量,vq为p*p为矩阵,s
t-1
为p*1维向量,s
t-1
为t-1时刻解码器的隐层向量,h
qkvqst-1
经过向量乘法后为一个实数;其中,h
qk
、h
rk
、s
rk
、vq、s
t-1
都为模型生成的随机初始化数据。
[0069]
sigmoid函数为第一激励函数,softmax函数为第二激活函数,即为t时刻的输入第k轮次对话(与当前提问信息相对应)的重要性得分。
[0070]
确定注意力权重可以采用多种方法。图4为根据本公开的对话生成模型训练方法的一个实施例中的确定注意力权重的流程示意图,如图4所示:
[0071]
步骤401,确定历史轮次提问信息的初始权重。
[0072]
步骤402,将初始权重与对应的重要性评分的乘积,作为新权重。
[0073]
步骤403,对全部历史轮次提问信息的新权重进行求和,获得注意力权重。
[0074]
确定历史轮次提问信息的初始权重可以采用多种方法。例如,使用对话生成模型的第三激活函数,获得与历史轮次提问信息相对应的第三激励函数值,基于第三激励函数值以及第二激活函数,获得初始权重。
[0075]
确定与当前轮次提问信息相对应的目标词生成概率可以采用多种方法。例如,使用对话生成模型的解码器并根据注意力权重进行解码处理,获得与当前轮次提问信息相对应的解码隐层状态信息,基于解码隐层状态信息以及第二激活函数,获得目标词生成概率。
[0076]
在一个实施例中,利用下面的公式求解字级别的注意力权重:
[0077][0078]
其中,wa、va是都为权重矩阵,为模型生成的随机初始化数据。
[0079]
tanh为对话生成模型transformer模型的第三激活函数。
[0080][0081]
其中,为第i轮次的历史轮次提问信息的初始权重。
[0082][0083]
其中,即为第k轮次的历史轮次提问信息中第i个字的注意力权重。以此进行解码:
[0084][0085]st
=f
dec
(s
t-1
,y
t-1
,c
t
)
ꢀꢀꢀ
(1-9);
[0086]
其中,为注意力机制后的向量,即为t时刻对输入xi(或hi)的注意力权重,代表xi在t时刻的重要性;y_t-1是t-1时刻的标准输出。
[0087]
解码器根据解码隐层状态s,计算目标词w的生成概率计:
[0088]
p
vocab
(w)=softmax(wbs
t
)
ꢀꢀꢀ
(1-10)
[0089]
其中,wb是权重矩阵。
[0090]
选取目标词生成概率最高的候选词作为目标词,生成回复预测信息。根据回复预测信息确定交叉熵损失函数,基于交叉熵损失函数对对话生成模型进行调整处理。
[0091]
例如,损失函数为交叉熵损失函数:l=-∑ilog(p
vocab
(w))。
[0092]
基于现有的交叉熵损失函数对对话生成模型进行调整处理。交叉熵(cross entropy)用于度量两个概率分布间的差异性信息,在机器学习中作为损失函数可以衡量两个值之间的相似性,在使用sigmoid函数在梯度下降时,能避免均方误差损失函数学习速率降低的问题。
[0093]
图5为根据本公开的对话回复生成方法的一个实施例的流程示意图,如图5所示:
[0094]
步骤501,根据历史对话信息中的提问信息和回复信息,生成与历史对话信息相对应的历史轮次提问信息。
[0095]
步骤502,基于历史轮次提问信息和当前提问信息生成对话预测信息。
[0096]
步骤503,获取训练好的对话生成模型,使用对话生成模型对对话预测信息进行处理,生成与当前提问信息相对应的回复预测信息。其中,对话生成模型是通过如上任一实施例中的对话生成模型训练方法训练得到。
[0097]
在一个实施例中,如图6所示,本公开提供一种对话生成模型训练装置60,包括提问轮次生成模块61、训练样本生成模块62、重要性评分模块63、注意力权重模块64、生成概率确定模块65、预测信息生成模块66和模型调整处理模块67。
[0098]
提问轮次生成模块61根据历史对话信息中的提问信息和回复信息,生成与历史对话信息相对应的历史轮次提问信息。训练样本生成模块62基于历史轮次提问信息和当前提问信息生成训练样本。重要性评分模块63使用对话生成模型对训练样本进行处理,确定历史轮次提问信息与当前提问信息相对应的重要性评分。
[0099]
注意力权重模块64根据重要性评分确定注意力权重。生成概率确定模块65使用对话生成模型并根据注意力权重,确定与当前轮次提问信息相对应的目标词生成概率。预测信息生成模块66基于目标词生成概率生成与当前提问信息相对应的回复预测信息。模型调
整处理模块67根据回复预测信息确定损失函数,基于损失函数对对话生成模型进行调整处理。
[0100]
在一个实施例中,重要性评分模块63使用提问分割符和回复隔离符对训练样本中的提问信息和回复信息进行隔离处理。重要性评分模块63使用对话生成模型的编码器对历史轮次提问信息进行编码处理,获得与历史轮次提问信息相对应的编码隐层状态信息。重要性评分模块63根据编码隐层状态信息,获得当前提问信息与历史轮次提问信息之间的重要性评分。
[0101]
编码隐层状态信息包括提问编码隐层状态信息和回复编码隐层状态信息。重要性评分模块63使用对话生成模型的第一激励函数,获得与提问编码隐层状态信息相对应的第一激励函数值。重要性评分模块63使用第一激励函数,获得与回复编码隐层状态信息相对应的第二激励函数值。重要性评分模块63基于第一激励函数值、第二激励函数值以及第二激活函数,获得重要性评分。
[0102]
在一个实施例中,注意力权重模块64确定历史轮次提问信息的初始权重,将初始权重与对应的重要性评分的乘积,作为新权重。注意力权重模块64对全部历史轮次提问信息的新权重进行求和,获得注意力权重。
[0103]
注意力权重模块64使用对话生成模型的第三激活函数,获得与历史轮次提问信息相对应的第三激励函数值。注意力权重模块64基于第三激励函数值以及第二激活函数,获得初始权重。
[0104]
在一个实施例中,生成概率确定模块65使用对话生成模型的解码器并根据注意力权重进行解码处理,获得与当前轮次提问信息相对应的解码隐层状态信息。生成概率确定模块65基于解码隐层状态信息以及第二激活函数,获得目标词生成概率。
[0105]
预测信息生成模块66选取目标词生成概率最高的候选词作为目标词,生成回复预测信息。模型调整处理模块67根据回复预测信息确定交叉熵损失函数,基于交叉熵损失函数对对话生成模型进行调整处理。
[0106]
在一个实施例中,如图7所示,本公开提供一种对话回复生成装置70,包括历史信息生成模块71、对话信息生成模块72和预测信息处理模块73。历史信息生成模块71根据历史对话信息中的提问信息和回复信息,生成与历史对话信息相对应的历史轮次提问信息。对话信息生成模块72基于历史轮次提问信息和当前提问信息生成对话预测信息。预测信息处理模块73训练好的对话生成模型,使用对话生成模型对对话预测信息进行处理,生成与当前提问信息相对应的回复预测信息。
[0107]
图8为根据本公开的对话生成模型训练装置的另一个实施例的模块示意图。如图8所示,该装置可包括存储器81、处理器82、通信接口83以及总线84。存储器81用于存储指令,处理器82耦合到存储器81,处理器82被配置为基于存储器81存储的指令执行实现上述的对话生成模型训练方法。
[0108]
存储器81可以为高速ram存储器、非易失性存储器(non-volatile memory)等,存储器81也可以是存储器阵列。存储器81还可能被分块,并且块可按一定的规则组合成虚拟卷。处理器82可以为中央处理器cpu,或专用集成电路asic(application specific integrated circuit),或者是被配置成实施本公开的对话生成模型训练方法的一个或多个集成电路。
[0109]
图9为根据本公开的对话回复生成装置的另一个实施例的模块示意图。如图9所示,该装置可包括存储器91、处理器92、通信接口93以及总线94。存储器91用于存储指令,处理器92耦合到存储器91,处理器92被配置为基于存储器91存储的指令执行实现上述的对话回复生成方法。
[0110]
存储器91可以为高速ram存储器、非易失性存储器(non-volatile memory)等,存储器91也可以是存储器阵列。存储器91还可能被分块,并且块可按一定的规则组合成虚拟卷。处理器92可以为中央处理器cpu,或专用集成电路asic(application specific integrated circuit),或者是被配置成实施本公开的对话回复生成方法的一个或多个集成电路。
[0111]
在一个实施例中,本公开提供一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上任一个实施例中的对话生成模型训练方法。
[0112]
上述实施例中的对话生成模型训练、对话回复生成方法和装置以及存储介质,采用层次化注意力机制对历史轮次对话信息进行加权处理,提高了相关的历史轮次对话信息与当前轮次对话的提问信息之间的权重,降低与当前轮次对话的提问信息无关的历史轮次对话信息之间的权重,实现信息过滤的效果,提升当前轮次回复的生成质量,提高回复信息的准确性,提高了用户使用感受。
[0113]
可能以许多方式来实现本公开的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和系统。用于方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
[0114]
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献