一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

角色对话模拟方法、装置、设备及存储介质与流程

2022-07-30 16:05:04 来源:中国专利 TAG:


1.本发明涉及自然语言处理技术领域,尤其涉及一种角色对话模拟方法、装置、电子设备及计算机可读存储介质。


背景技术:

2.随着人工智能的快速发展,运用计算机技术在智能问答领域以及对话模拟领域中的应用逐渐增多。例如,医疗问诊领域需要对病人的身体状况、症状表现、疾病发展等信息进行针对性询问,是医生获取患者病症信息的重要来源。现如今,可以运用自然语言处理技术构建智能问诊对话系统,缓解医生与病患之间信息不对称,促进医疗资源的高效利用,针对用户,医生的对话进行模拟,是实现智能医疗问诊与疾病诊断的核心。现有技术的对话模拟系统中,常常使用的是模板问答、问答库问答的方式,存在则场景单一,角色智能对话模拟不够灵活的问题。


技术实现要素:

3.本发明提供一种角色对话模拟方法、装置及计算机可读存储介质,其主要目的在于解决角色智能对话模拟不够灵活的问题。
4.为实现上述目的,本发明提供的一种角色对话模拟方法,包括:
5.获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本;
6.构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵;
7.对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值;
8.若所述相关度结果小于或等于所述阈值,则更新所述文本矩阵,并返回对所述文本矩阵进行矩阵计算及预测计算的步骤;
9.若所述相关度结果大于所述阈值,则停止训练,得到对话模型;
10.根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本;
11.将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,并根据所述目标输出结果判断句子生成是否结束;
12.若句子生成未结束,则返回将所述目标文本输入所述对话模型中的步骤。
13.若句子生成结束,则对所述目标输出结果进行拼接,得到回复对话。
14.可选地,所述对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本,包括:
15.将所述对话语料输入预设的分类模型中,得到对话语料对应的角色预测结果;
16.根据所述角色预测结果对所述对话语料进行分类,得到每个角色对应的语料;
17.剔除所述每个角色对应的语料中的预设字符,得到每个角色对应的第一文本;
18.对所述第一文本进行语义识别,计算语义识别结果与预设文本向量的距离值,将距离值小于预设阈值的语义识别结果所对应的文本删除,得到每个角色对应的第二文本;
19.分别将每个角色对应的第二文本进行文本拼接,得到每个角色对应的训练文本。
20.可选地,所述分别将每个角色对应的第二文本进行文本拼接,得到每个角色对应的训练文本,包括:
21.从多个角色中选取一个角色作为目标角色,将所述目标角色对应的第二文本作为目标文本;
22.根据所述目标文本计算得到平均句长,并根据所述平均句长设置所述目标文本的长度,将设置好长度的目标文本进行首尾拼接,得到所述目标角色对应的训练文本。
23.可选地,所述构建预训练对话模型,包括:
24.将模型划分为四部分,第一部分为向量生成层,第二部分为第一向量处理层,第三部分为第二向量处理层,第四部分为预测层;
25.在所述向量生成层中添加位置编码结构及embedding结构;
26.在所述第一向量处理层中添加layernorm结构、masked multi self-attention结构以及残差连接结构;
27.在所述第二向量处理层中添加layernorm结构、feed forward结构以及残差连接结构;
28.在所述预测层中添加layernorm结构及预测函数。
29.可选地,所述对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,包括:
30.利用所述第向量处理层对所述文本矩阵进行归一化、注意力计算以及残差计算,得到第一向量矩阵;
31.利用所述第二向量处理层所述文本矩阵进行归一化、前馈神经调节以及残差计算,得到第二向量矩阵;
32.利用所述预测层对所述第二向量矩阵进行归一化,并将归一化的结果输入预测函数中,得到预测结果,所述预测结果包括预测文字和结束符;
33.判断所述预测结果是预测文字还是结束符;
34.若所述预测结果是预测文字,则返回利用所述第向量处理层对所述文本矩阵进行归一化、注意力计算以及残差计算,得到第一向量矩阵的步骤;
35.若所述预测结果是结束符,则将所有的预测结果进行拼接,得到预测对话。
36.可选地,所述根据所述预测对话和所述训练文本计算相关度结果,包括:
37.获取该预测对话所对应的角色之外其他角色的训练文本,将所述其他角色的训练文本作为对比文本;
38.根据所述对比文本生成对比矩阵,对所述对比矩阵进行线性化处理,得到第一线性向量;
39.对所述第一线性向量进行特征压缩,得到第二线性向量,在所述第二线性向量中提取与所述预测对话对应的字向量的相关度,将所述相关度结果输入预设的概率输出函数中,得到相关度结果。
40.可选地,所述对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,包括:
41.获取上一个结束符之后所述对话模型的所有输出结果;
42.将所述模型输出结果与所述所有输出结果进行重复性检测;
43.若出现重复的输出结果,则根据预设的重复性惩罚在所述对话模型中去除所述重复的输出结果,并利用所述对话模型重新生成模型输出结果,并返回将所述模型输出结果与所述所有输出结果进行重复性检测的步骤;
44.若未出现重复的输出结果,则在所述模型输出结果中进行随机采样,将采样结果作为目标输出结果。
45.为了解决上述问题,本发明还提供一种角色对话模拟装置,所述装置包括:
46.文本生成模块,用于获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本,以及根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本;
47.文本矩阵生成模块,用于构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵;
48.模型训练模块,用于对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值;若所述相关度结果小于或等于所述阈值,则更新所述文本矩阵,并返回对所述文本矩阵进行矩阵计算及预测计算的步骤;若所述相关度结果大于所述阈值,则停止训练,得到对话模型;
49.模型预测模块,用于将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果;
50.回复对话生成模块,用于对所述目标输出结果进行拼接,得到回复对话。
51.为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
52.至少一个处理器;以及,
53.与所述至少一个处理器通信连接的存储器;其中,
54.所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的角色对话模拟方法。
55.为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的角色对话模拟方法。
56.本发明实施例通过对对话语料进行处理,再将处理后的对话语料作为训练文本输出模型进行训练,进而得到对话模型,即通过该构建的对话模型,能够理解对话语料中对话者的特定语言场景,进而生成符合实际应用场景的对话;通过对对话模型的输出结果进行重复性筛选及采样,使生成的回复对话不局限于固定的答案,更加灵活。因此本发明提出的角色对话模拟方法、装置、电子设备及计算机可读存储介质,可以解决角色智能对话模拟不够灵活的问题。
附图说明
57.图1为本发明一实施例提供的角色对话模拟方法的流程示意图;
58.图2为本发明一实施例提供的对对话语料进行角色分类、文本清洗的流程示意图;
59.图3为本发明一实施例提供的对模型输出结果进行重复性筛选及采样的流程示意图;
60.图4为本发明一实施例提供的角色对话模拟装置的功能模块图;
61.图5为本发明一实施例提供的实现所述角色对话模拟方法的电子设备的结构示意图。
62.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
63.应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
64.本技术实施例提供一种角色对话模拟方法。所述角色对话模拟方法的执行主体包括但不限于服务端、终端等能够被配置为执行本技术实施例提供的该方法的电子设备中的至少一种。换言之,所述角色对话模拟方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(contentdelivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。
65.参照图1所示,为本发明一实施例提供的角色对话模拟方法的流程示意图。在本实施例中,所述角色对话模拟方法包括:
66.s1、获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本。
67.本发明实施例中,所述对话语料在实际应用场景中可以为医生与患者之间的对话语料、用户与客服之间的对话语料等。
68.本发明实施例中,可以利用爬虫技术从网络上抓取获得大量对话语料,或者利用具有抓取功能的计算机语句(如java语句、python语句等)从预先构建的用于存储各类对话语料的存储区域中获取大量对话语料,所述存储区域包括但不限于数据库、区块链节点、网络缓存等。
69.本发明实施例中,请参阅图2所示,所述对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本,包括:
70.s21、将所述对话语料输入预设的分类模型中,得到对话语料对应的角色预测结果;
71.s22、根据所述角色预测结果对所述对话语料进行分类,得到每个角色对应的语料;
72.s23、剔除所述每个角色对应的语料中的预设字符,得到每个角色对应的第一文本;
73.s24、对所述第一文本进行语义识别,计算语义识别结果与预设文本向量的距离
值,将距离值小于预设阈值的语义识别结果所对应的文本删除,得到每个角色对应的第二文本;
74.s25、分别将每个角色对应的第二文本进行文本拼接,得到每个角色对应的训练文本。
75.本发明实施例中,可以采用自然语言处理(nlp)模型对所述每个角色对应的第一文本语义识别,所述语义识别结果表现为文本向量的形式。
76.本发明实施例中,以医疗问诊为例,问诊文本中患者角色对应的文本可能包含有身体状况、症状信息、生活习惯、检查报告等,其中,检查报告不是对话模型训练所需要的文本,因此可以将检查报告对应的文本向量作为所述预设文本向量。通过计算所述语义识别结果和预设文本向量的距离值,判断角色对应的文本中是否含有该文本类型,距离值越小,表示向量相关度结果越高,进而相关度结果小于预设阈值,则说明该语音识别结果对应的第一文本为预设文本向量对应的文本类型。
77.详细地,计算所述语义识别结果和预设文本向量的距离值,可以通过如下公式:
[0078][0079]
其中,d为所述距离值,r为第i个预设文本向量,t为语义识别结果,θ为预设系数。
[0080]
本发明实施例中,所述分别将每个角色对应的第二文本进行文本拼接,得到每个角色对应的训练文本,包括:
[0081]
从多个角色中选取一个角色作为目标角色,将所述目标角色对应的第二文本作为目标文本;
[0082]
根据所述目标文本计算得到平均句长,并根据所述平均句长设置所述目标文本的长度,将设置好长度的目标文本进行首尾拼接,得到所述目标角色对应的训练文本。
[0083]
进一步地,可以通过根据平均句长对每个角色对应的第二文本进行长度统一化处理,进而进行文本的首尾拼接,得到每个角色对应的训练文本。
[0084]
本发明实施例中,在生成每个角色对应的训练文本之后,还可以根据不同角色对所述训练文本设置不同的角色标签,例如,医生的对应的角色标签为doctor,患者对应的角色标签为patient,则可以在所述训练文本前拼接所述角色标签,形成角色标识。
[0085]
s2、构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵。
[0086]
本发明实施例中,所述预训练对话模型可以由多层单向transformer的解码器部分构成,是一种自回归模型,所述预训练对话模型包括但不限于gpt-2(generative pre-training 2.0)模型。
[0087]
本发明实施例中,所述构建预训练对话模型,包括:
[0088]
将模型划分为四部分,第一部分为向量生成层,第二部分为第一向量处理层,第三部分为第二向量处理层,第四部分为预测层;
[0089]
在所述向量生成层中添加位置编码结构及embedding结构;
[0090]
在所述第一向量处理层中添加layernorm结构、masked multi self-attention结构以及残差连接结构;
[0091]
在所述第二向量处理层中添加layernorm结构、feed forward结构以及残差连接
结构;
[0092]
在所述预测层中添加layernorm结构及预测函数。
[0093]
本发明实施例中,所述embedding结构用于将词嵌入与位置编码进行拼接,所述layernorm结构用于针对输入的数据进行横向特征维度的归一化,所述masked multi self-attention结构用于针对输入的embedding计算多次attention,并将计算结果进行拼接,所述残差连接结构通过残差网络结构叠加处理层中其余结构的输出结果,所述feed forward结构即根据归一化矩阵调节前馈神经因子。
[0094]
本发明实施例中,所述利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵,包括:
[0095]
将所述训练文本中的每个文字转换为字向量,得到字向量集,并对所述字向量集执行位置编码,得到定位字向量集;
[0096]
将所述定位字向量集转换为定位向量矩阵,根据所述定位向量矩阵的维度,生成文本矩阵。
[0097]
本发明实施例中,可采用word2vec算法,将所述训练文本中的每个文字转换为字向量。
[0098]
本发明实施例中,所述对所述字向量集执行位置编码,包括:
[0099]
随机提取所述字向量集中字向量作为坐标向量,将所述坐标向量的位置作为坐标原点;
[0100]
根据所述坐标原点,建立所述字向量集中每个字向量的位置向量,利用所述位置向量对所述字向量集执行位置编码。
[0101]
本发明实施例中,所述字向量离所述已编码字对应的字向量越远,则所述字向量对应的位置向量的模越大。
[0102]
本发明实施例中,所述文本矩阵与所述定位向量矩阵的维度一样,例如定位向量矩阵的维度为m
×
n,则生成的文本矩阵的维度也为m
×
n,本发明实施例中,可采用随机方法,生成文本矩阵。
[0103]
s3、对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值。
[0104]
本发明实施例中,所述对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,包括:
[0105]
利用所述第向量处理层对所述文本矩阵进行归一化、注意力计算以及残差计算,得到第一向量矩阵;
[0106]
利用所述第二向量处理层所述文本矩阵进行归一化、前馈神经调节以及残差计算,得到第二向量矩阵;
[0107]
利用所述预测层对所述第二向量矩阵进行归一化,并将归一化的结果输入预测函数中,得到预测结果,所述预测结果包括预测文字和结束符;
[0108]
判断所述预测结果是预测文字还是结束符;
[0109]
若所述预测结果是预测文字,则返回利用所述第向量处理层对所述文本矩阵进行归一化、注意力计算以及残差计算,得到第一向量矩阵的步骤;
[0110]
若所述预测结果是结束符,则将所有的预测结果进行拼接,得到预测对话。
[0111]
本发明实施例中,所述根据所述预测对话和所述训练文本计算相关度结果,包括:
[0112]
获取该预测对话所对应的角色之外其他角色的训练文本,将所述其他角色的训练文本作为对比文本;
[0113]
根据所述对比文本生成对比矩阵,对所述对比矩阵进行线性化处理,得到第一线性向量;
[0114]
对所述第一线性向量进行特征压缩,得到第二线性向量,在所述第二线性向量中提取与所述预测对话对应的字向量的相关度,将所述相关度结果输入预设的概率输出函数中,得到相关度结果。
[0115]
本发明实施例中,所述概率输出函数可采用softmax函数根据所述相关度进行概率计算,得到所述预测对话和所述训练文本之间的相关度结果。
[0116]
若所述相关度结果小于或等于所述阈值,则执行s4、更新所述文本矩阵,并返回s3。
[0117]
本发明实施例中,若所述相关度结果小于或等于所述阈值,则可以重新对输入文本进行位置编码和拼接,进而重新调节预训练的对话模型。
[0118]
若所述相关度结果大于所述阈值,则执行s5、停止训练,得到对话模型。
[0119]
本发明实施例中,若所述相关度结果大于所述阈值,则说明预训练对话模型预测的正确,可以不需要再更新所述文本矩阵,重新调节对话模型。
[0120]
s6、根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本。
[0121]
本发明实施例中,所述预设条件可以为输入角色指令,根据角色指令进而确定对话模型的角色。
[0122]
本发明实施例中,所述对所述用户输入进行文本处理,得到目标文本的步骤与上述s1中对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本的步骤相似,在此不过多赘述。
[0123]
s7、将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,并根据所述目标输出结果判断句子生成是否结束。
[0124]
本发明实施例中,所述将所述目标文本输入所述对话模型中,得到模型输出结果的步骤与上述s2-s3中构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵,对所述文本矩阵进行矩阵计算及预测计算的步骤相似,在此不过多赘述。
[0125]
本发明实施例中,请参阅图3所示,所述对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,包括:
[0126]
s31、获取上一个结束符之后所述对话模型的所有输出结果;
[0127]
s32、将所述模型输出结果与所述所有输出结果进行重复性检测;
[0128]
若出现重复的输出结果,则执行s33、根据预设的重复性惩罚在所述对话模型中去除所述重复的输出结果,并利用所述对话模型重新生成模型输出结果,并返回s32;
[0129]
若未出现重复的输出结果,则执行s34、在所述模型输出结果中进行随机采样,将采样结果作为目标输出结果。
[0130]
本发明实施例中,所述惩罚规则可以为添加一个惩罚项权重参数,针对输出结果的重复性较高的token进行惩罚,减少生成概率。
[0131]
本发明实施例中,所述随机采样可以为softmax-topk采样。
[0132]
本发明实施例中,判断句子生成是否结束可以通过判断所述目标输出结果是否存在终止符来确定。
[0133]
若句子生成未结束,则返回s7。
[0134]
本发明实施例中,若句子生成未结束,即未检测到终止符,说明回复对话未生成完成,需要对话模型继续进行预测,直至检测到终止符,句子生成结束。
[0135]
若句子生成结束,则执行s8、对所述目标输出结果进行拼接,得到回复对话。
[0136]
本发明实施例中,当句子结束时,得到的模型输出结果可能为多个输出结果,未形成完整的对话,因此需要根据多个输出结果进行拼接,进而得到回复对话。
[0137]
进一步地,可以通过预设的语义打分模型对多个所述目标输出结果进行打分,根据打分的结果设置每个目标输出结果的权值,根据所述权值对多个所述目标输出结果进行拼接。
[0138]
本发明实施例中,所述语义打分模型包括但不限于深度语义匹配模型(deep structured semantic models,dssm)、自然语言处理模型(natural language processing models,npl)。
[0139]
本发明实施例通过对对话语料进行处理,再将处理后的对话语料作为训练文本输出模型进行训练,进而得到对话模型,即通过该构建的对话模型,能够理解对话语料中对话者的特定语言场景,进而生成符合实际应用场景的对话;通过对对话模型的输出结果进行重复性筛选及采样,使生成的回复对话不局限于固定的答案,更加灵活。因此本发明提出的角色对话模拟方法,可以解决角色智能对话模拟不够灵活的问题。
[0140]
如图4所示,是本发明一实施例提供的角色对话模拟装置的功能模块图。
[0141]
本发明所述角色对话模拟装置100可以安装于电子设备中。根据实现的功能,所述角色对话模拟装置100可以包括文本生成模块101、文本矩阵生成模块102、模型训练模块103、模型预测模块104及回复对话生成模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
[0142]
在本实施例中,关于各模块/单元的功能如下:
[0143]
所述文本生成模块101,用于获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本,以及根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本;
[0144]
所述文本矩阵生成模块102,用于构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵;
[0145]
所述模型训练模块103,用于对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值;若所述相关度结果小于或等于所述阈值,则更新所述文本矩阵,并返回对所述文本矩阵进行矩阵计算及预测计算的步骤;若所述相关度结果大于所述阈值,则停止训练,得到对话模型;
[0146]
所述模型预测模块104,用于将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果;
[0147]
所述回复对话生成模块105,用于对所述目标输出结果进行拼接,得到回复对话。
[0148]
详细地,本发明实施例中所述角色对话模拟装置100中所述的各模块在使用时采用与上述图1至图3中所述的角色对话模拟方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
[0149]
如图5所示,是本发明一实施例提供的实现角色对话模拟方法的电子设备的结构示意图。
[0150]
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如角色对话模拟程序。
[0151]
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(central processing unit,cpu)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(control unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行角色对话模拟程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
[0152]
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:sd或dx存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(smart media card,smc)、安全数字(secure digital,sd)卡、闪存卡(flash card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如角色对话模拟程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
[0153]
所述通信总线12可以是外设部件互连标准(peripheral component interconnect,简称pci)总线或扩展工业标准结构(extended industry standard architecture,简称eisa)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
[0154]
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如wi-fi接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organic light-emitting diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
[0155]
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
[0156]
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、wi-fi模块等,在此不再赘述。
[0157]
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
[0158]
所述电子设备1中的所述存储器11存储的角色对话模拟程序是多个指令的组合,在所述处理器10中运行时,可以实现:
[0159]
获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本;
[0160]
构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵;
[0161]
对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值;
[0162]
若所述相关度结果小于或等于所述阈值,则更新所述文本矩阵,并返回对所述文本矩阵进行矩阵计算及预测计算的步骤;
[0163]
若所述相关度结果大于所述阈值,则停止训练,得到对话模型;
[0164]
根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本;
[0165]
将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,并根据所述目标输出结果判断句子生成是否结束;
[0166]
若句子生成未结束,则返回将所述目标文本输入所述对话模型中的步骤。
[0167]
若句子生成结束,则对所述目标输出结果进行拼接,得到回复对话。
[0168]
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
[0169]
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)。
[0170]
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
[0171]
获取对话语料,对所述对话语料进行角色分类、文本清洗,得到不同角色对应的训练文本;
[0172]
构建预训练对话模型,并利用所述预训练对话模型对所述不同角色对应的训练文本进行位置编码,得到文本矩阵;
[0173]
对所述文本矩阵进行矩阵计算及预测计算,得到预测对话,根据所述预测对话和所述训练文本计算相关度结果,并判断所述相关度结果是否大于预设阈值;
[0174]
若所述相关度结果小于或等于所述阈值,则更新所述文本矩阵,并返回对所述文本矩阵进行矩阵计算及预测计算的步骤;
[0175]
若所述相关度结果大于所述阈值,则停止训练,得到对话模型;
[0176]
根据预设条件确定所述对话模型的角色,获取用户输入,对所述用户输入进行文本处理,得到目标文本;
[0177]
将所述目标文本输入所述对话模型中,得到模型输出结果,对所述模型输出结果进行重复性筛选及采样,得到目标输出结果,并根据所述目标输出结果判断句子生成是否结束;
[0178]
若句子生成未结束,则返回将所述目标文本输入所述对话模型中的步骤。
[0179]
若句子生成结束,则对所述目标输出结果进行拼接,得到回复对话。
[0180]
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0181]
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0182]
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
[0183]
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
[0184]
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
[0185]
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
[0186]
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
[0187]
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照
较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献