一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于终身蒸馏的开放域对话生成方法及设备

2022-12-10 00:53:57 来源:中国专利 TAG:


1.本发明实施例涉及开放域对话生成技术领域,尤其涉及一种基于终身蒸馏的开放域对话生成方法及设备。


背景技术:

2.随着信息技术和互联网的迅猛发展,社交媒体日渐普及,智能手机数量剧增,人机对话场景越来越多,对话系统扮演的角色越来越重要。开放域对话系统是对话系统的一个重要分支,能够生成不限领域的日常对话。当前的开放域对话产生方法存在容易生成单调对话回应的问题,一些方法希望通过提高生成回应多样性的方式缓解该问题,但这些模型生成的回应仍然与真实回应存在一定差距。此外,一味提高生成回应多样性能会引导模型生成与当前对话无关的词语,使回应变得冗长且奇怪,回应准确性的表现难以控制,导致回应变得无意义,与对话系统的初始目的相悖。因此,开发一种基于终身蒸馏的开放域对话生成方法及设备,可以有效克服上述相关技术中的缺陷,就成为业界亟待解决的技术问题。


技术实现要素:

3.针对现有技术存在的上述问题,本发明实施例提供了一种基于终身蒸馏的开放域对话生成方法及设备。
4.第一方面,本发明的实施例提供了一种基于终身蒸馏的开放域对话生成方法,包括:步骤1:对原始数据进行预处理,得到验证集、测试集、以及包含历史话语数量不超过3个多段对话的训练集;步骤2:构建基于终身蒸馏的开放域对话生成模型,将训练样本与验证样本批量随机地输入基于终身蒸馏的开放域对话生成模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或迭代达到预定次数后停止,保存验证集上的最优模型,所述构建基于终身蒸馏的开放域对话生成模型包括:构建基础编解码模型结构、构建基于终身蒸馏的教师-学生架构、构建目标函数;步骤3:加载在验证集上评价指标最优的基于终身蒸馏的开放域对话生成模型,采用测试样本批量进行测试,输出与保存对话生成的结果。
5.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤1中的原始数据包含多轮对话数据,并将训练集的每段对话处理成对话历史话语数量不超过3个的多段对话。
6.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中的构建基础编解码模型结构具体为:采用基于transformer的序列到序列生成框架,构建嵌入层、编码器、解码器及输出层。
7.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中构建基于终身蒸馏的教师-学生架构具体为:在构建模型时引入旧模型作为教师帮助蒸馏之前层次的对话知识,将上一时刻训练好的模型mm-1当作当前时刻m训练模型mm的教师,到下一时刻m 1,当前模型mm作为教师指导模型mm 1的训练,以此类推
进行顺序蒸馏。
8.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中构建目标函数具体为:为在当前训练过程中,能够保存部分之前训练过程中学习到的知识,让模型能够学习不同轮次对话的特征,提高模型的准确性和多样性,在每个样例除硬标签与预测分布之间的损失之外,引入上一个过程训练好的模型,将其作为教师模型,输出的软标签指导当前模型进行预测。
9.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中的构建好基于终身蒸馏的开放域对话生成模型后,将训练与验证样本随机批量的输入到模型中,并采用adam优化器使模型逐渐学习最优的参数值,计算在验证集上的评价指标,当验证集上的指标不再上升或者模型训练迭代到预定次数后停止训练,保存验证集上表现最优的关系分类模型。
10.在上述方法实施例内容的基础上,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤3的采用测试样本批量进行测试具体为:加载步骤2中训练好的基于终身蒸馏的开放域对话生成模型,再将测试集中的样本批量输入到模型中,此时模型的参数固定不变,经过模型计算后,生成对话回复。
11.第二方面,本发明的实施例提供了一种基于终身蒸馏的开放域对话生成装置,包括:第一主模块,用于实现步骤1:对原始数据进行预处理,得到验证集、测试集、以及包含历史话语数量不超过3个多段对话的训练集;第二主模块,用于实现步骤2:构建基于终身蒸馏的开放域对话生成模型,将训练样本与验证样本批量随机地输入基于终身蒸馏的开放域对话生成模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或迭代达到预定次数后停止,保存验证集上的最优模型,所述构建基于终身蒸馏的开放域对话生成模型包括:构建基础编解码模型结构、构建基于终身蒸馏的教师-学生架构、构建目标函数;第三主模块,用于实现步骤3:加载在验证集上评价指标最优的基于终身蒸馏的开放域对话生成模型,采用测试样本批量进行测试,输出与保存对话生成的结果。
12.第三方面,本发明的实施例提供了一种电子设备,包括:
13.至少一个处理器;以及
14.与处理器通信连接的至少一个存储器,其中:
15.存储器存储有可被处理器执行的程序指令,处理器调用程序指令能够执行第一方面的各种实现方式中任一种实现方式所提供的基于终身蒸馏的开放域对话生成方法。
16.第四方面,本发明的实施例提供了一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行第一方面的各种实现方式中任一种实现方式所提供的基于终身蒸馏的开放域对话生成方法。
17.本发明实施例提供的基于终身蒸馏的开放域对话生成方法及设备,提出由浅入深依次顺序建模不同层次的对话数据,保证每种对话层次特征能够被准确建模,能够有效提升模型的准确性,采用旧层次对话训练的模型当作教师,在建模新层次对话时蒸馏该教师的知识给学生,学生能够综合建模各种对话特征,有利于保持对话的多样性。
附图说明
18.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单的介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
19.图1为本发明实施例提供的基于终身蒸馏的开放域对话生成方法流程图;
20.图2为本发明实施例提供的基于终身蒸馏的开放域对话生成装置结构示意图;
21.图3为本发明实施例提供的电子设备的实体结构示意图;
22.图4为本发明实施例提供的另一基于终身蒸馏的开放域对话生成方法流程图;
23.图5为本发明实施例提供的基于终身蒸馏的开放域对话生成模型框架图。
具体实施方式
24.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。另外,本发明提供的各个实施例或单个实施例中的技术特征可以相互任意结合,以形成可行的技术方案,这种结合不受步骤先后次序和/或结构组成模式的约束,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时,应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
25.针对在开放域对话中容易生成单调对话回应的问题,本发明提出一种基于终身蒸馏的开放域对话生成方法。该方法引入终身蒸馏的思想,由浅入深依次顺序建模不同层次的对话数据,保证每种对话层次特征能够被准确建模。,该方法采用旧层次对话训练的模型当作教师,在建模新层次对话时蒸馏该教师的知识给学生,让其能够综合建模各种对话特征,保持对话的多样性。基于这种思想,本发明实施例提供了一种基于终身蒸馏的开放域对话生成方法,参见图1,该方法包括:步骤1:对原始数据进行预处理,得到验证集、测试集、以及包含历史话语数量不超过3个多段对话的训练集;步骤2:构建基于终身蒸馏的开放域对话生成模型,将训练样本与验证样本批量随机地输入基于终身蒸馏的开放域对话生成模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或迭代达到预定次数后停止,保存验证集上的最优模型,所述构建基于终身蒸馏的开放域对话生成模型包括:构建基础编解码模型结构、构建基于终身蒸馏的教师-学生架构、构建目标函数;步骤3:加载在验证集上评价指标最优的基于终身蒸馏的开放域对话生成模型,采用测试样本批量进行测试,输出与保存对话生成的结果。
26.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤1中的原始数据包含多轮对话数据,并将训练集的每段对话处理成对话历史话语数量不超过3个的多段对话。
27.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中的构建基础编解码模型结构具体为:采用基于transformer的序列到序列生成框架,构建嵌入层、编码器、解码器及输出层。
28.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中构建基于终身蒸馏的教师-学生架构具体为:在构建模型时引入旧模型作为教师帮助蒸馏之前层次的对话知识,将上一时刻训练好的模型mm-1当作当前时刻m训练模型mm的教师,到下一时刻m 1,当前模型mm作为教师指导模型mm 1的训练,以此类推进行顺序蒸馏。
29.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中构建目标函数具体为:为在当前训练过程中,能够保存部分之前训练过程中学习到的知识,让模型能够学习不同轮次对话的特征,提高模型的准确性和多样性,在每个样例除硬标签与预测分布之间的损失之外,引入上一个过程训练好的模型,将其作为教师模型,输出的软标签指导当前模型进行预测。
30.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤2中的构建好基于终身蒸馏的开放域对话生成模型后,将训练与验证样本随机批量的输入到模型中,并采用adam优化器使模型逐渐学习最优的参数值,计算在验证集上的评价指标,当验证集上的指标不再上升或者模型训练迭代到预定次数后停止训练,保存验证集上表现最优的关系分类模型。
31.基于上述方法实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成方法,步骤3的采用测试样本批量进行测试具体为:加载步骤2中训练好的基于终身蒸馏的开放域对话生成模型,再将测试集中的样本批量输入到模型中,此时模型的参数固定不变,经过模型计算后,生成对话回复。
32.本发明实施例提供的基于终身蒸馏的开放域对话生成方法,提出由浅入深依次顺序建模不同层次的对话数据,保证每种对话层次特征能够被准确建模,能够有效提升模型的准确性,采用旧层次对话训练的模型当作教师,在建模新层次对话时蒸馏该教师的知识给学生,学生能够综合建模各种对话特征,有利于保持对话的多样性。
33.另一实施例提供的基于终身蒸馏的开放域对话生成方法,包括:步骤1:对原始数据集中的对话数据进行预处理,获取对话历史话语数量不超过3个的多段对话。本实施例中选择开放域对话生成任务中被广泛采用的dailydialog和esconv数据集,这两个数据集自被提出后便逐渐在开放域对话生成领域内取得广泛的使用。dailydialog包含有从日常对话中收集的高质量多轮对话数据,包括对话文本、对话动作标签、以及情感类别标签,本发明只采用该数据集中的对话纯文本。esconv数据集是为帮助对话系统中情感支持技术的研究而收集和标注的,因此除对话纯文本外,还包括情感支持相关的对话类别标签。本发明同样只采用该数据集中的对话纯文本。
34.本发明将上述两个数据集的训练集的每段对话处理成对话历史话语数量不超过3个的多段对话,对话种类包含多轮对话和单轮对话,更符合复杂的真实对话场景。处理后的dailydialog数据集的训练集中包含68.5k的数据,验证集中包含6.1k的数据,测试集中包含5.8k的数据,总共包含77.7k的数据。处理后的esconv数据集的训练集中包含28.6k的数据,验证集中包含8.0k的数据,测试集中包含7.3k的数据,总共包含43.9k的数据。
35.步骤2:参考图4,将训练样本与验证样本批量随机地输入基于终身蒸馏的开放域对话生成模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或者迭代达到一定次数后停止,保存验证集上的最优模型。
36.实施例中,为能够综合建模多种层次对话特征,并保证模型在不同层次对话上的表现,本发明提出的方法会依次建模对话层次由浅入深的对话数据,并且在建模新模型时会引入旧模型作为教师帮助蒸馏之前层次的对话知识。参考图5,此处说明整个模型的实现过程。
37.1)构建基础编解码模型结构:本发明采用基于transformer的序列到序列生成框架,该框架相比基于循环神经网络的编解码框架能够更好地捕捉到对话历史中的重要信息,并且不存在长距离依赖问题,能够通用地建模单轮和多轮对话。基础编解码模型结构包含4个模块,分别是嵌入层、编码器、解码器、以及输出层。
38.嵌入层用于对输入的对话文本进行分词,并将每个分词通过大小为nv的词典映射到对应的为向量,其中d为嵌入层的向量维度大小。本发明采用预训练语言模型bert的分词方法,如果当前对话历史有多个话语,则会被

[sep]’分隔开,如下所示:
[0039][0040]
其中,为第i个话语第j个词语的词向量为。此外,为采用文本序列中的相对和绝对位置,本发明将位置信息输入到编码器。与transformer中的位置编码一致,本发明采用正弦和余弦公式对位置进行编码本发明将词向量和位置向量相加,最后将整个序列为t一起输入到编码器进行编码,具体的整个序列为t如下所示:
[0041][0042][0043]
编码器由ne层编码层组成,每个编码层分为两个子层:多头注意力层和全连接层。每个子层都会采用残差连接的方式,在输入下一个子层时,将这个子层的输入和输出相加一起输入,保留上一层的信息,以此防止深度网络加深导致的梯度消失或梯度爆炸问题。此外,每个子层后都会添加一步层归一化的操作,使其分布保持稳定。因此,每一个子层的输出用layernorm(x sublayer(x))为,其中,sublayer()为子层的计算函数。编码器接收对话历史的文本序列为,并输出其编码后的为序列。因此,编码器的输出为为:
[0044]
oe=ne×
encoderlayer(t)
[0045]
解码器是由nd层解码层组成,每个解码层分为三个子层:掩码多头注意力层、多头注意力层和全连接层。掩码多头注意力层与多头注意力头结构相似,区别在于会对输入进行掩码,保证只有当前时刻的前面的回应为会被输入。与编码部分类似,每个子层里都会使用残差连接,然后进行层归一化。解码部分输入编码部分编码后的为,以及前t-1时刻的回应的为,输出当前时刻回应分词的为:
[0046][0047]
输出层用前一时刻t-1位置的回应分词y
t-1
的最后一层解码层的为输出o
t
,来预测当前时刻的回应分词的分布概率p
t
,如下所示:
[0048][0049]
其中,linear()为全连接映射。
[0050]
2)构建基于终身蒸馏的教师-学生架构:为让模型能够综合建模多种层次对话特
征,并保证模型在不同层次对话上的表现,本发明依次建模对话层次由浅入深的对话数据,并且在建模新模型时会引入旧模型作为教师帮助蒸馏之前层次的对话知识。以建模第m个模型mm为例(m》1),当前模型mm是学生模型,而教师模型m
m-1
是第m-1个模型。其中,教师模型m
m-1是第m-1次训练时的学生模型。本发明中的教师模型和学生模型的模型架构均为上述的基础编解码模型结构。
[0051]
教师模型m
m-1
的训练数据为对话历史话语数量1≤nk≤m-1的对话。本发明没有将教师模型m
m-1
的训练数据局限于对话历史话语数量为nk=m-1的对话数据,有两方面的原因:一方面是一层次对话数据的有限性,只用对话历史话语数量为nk=m-1的对话训练,能会存在当前层次对话样例过少导致的模型训练不充分问题;另一方面是从数据角度为当前教师模型引入浅层对话的知识,防止模型过于拟合当前层次对话的特征,却忽略之前层次对话的知识。
[0052]
第m-1次训练结束后,训练过程中的最优模型m
m-1
会被保存下来,第m次训练时,保存下的教师模型会得到回应分词t的预测概率分布本发明称该概率分布为训练模型mm的软标签。
[0053]
学生模型mm与教师模型m
m-1
类似,训练数据是由对话历史话语数量1≤nk≤m的对话数据构成。在建模当前层次对话特征的,学生模型能从数据角度引入前面层次的对话知识,并且学习到多种层次的通用对话特征。
[0054]
模型方面,在训练模型mm时,前一时刻训练后保存的模型m
m-1
被用作教师模型,指导当前模型的训练。教师模型m
m-1
本身包含浅层对话的信息,在不损害当前对话层次建模过程的前提下,将这些知识通过蒸馏的方式传递给学生模型mm。模型mm既能学习到当前层次对话的特征,又能通过蒸馏引入前面层次的对话知识,因此,在建模过程中融合多种层次的对话特征。
[0055]
类似地,学生模型mm会得到生成回应分词t的预测概率分布p
tm

[0056]
3)构建目标函数:对话生成任务基本是采用mle方法计算真实0-1标签与模型的预测分布之间的损失,具体的mle方法如下所示:
[0057][0058]
其中,q是独热编码,又被称为硬标签,只有真实的词对应的维度值为1,其余的值都为0。wi为词典v中第i维度上的词语。在终身蒸馏的过程中,本发明希望在当前训练过程中,能够保存部分之前训练过程中学习到的知识,让模型能够学习不同轮次对话的特征,提高模型的准确性和多样性。因此,每个样例除硬标签与预测分布之间的损失之外,本发明引入上一个过程训练好的模型,将其当作教师模型,让它输出的软标签指导当前模型进行预测。
[0059]
除第一轮训练只有硬标签监督外,后面模型在训练时都会用前一轮训练的模型作为教师模型进行蒸馏,假设当前是第m(1《m≤m)个模型的训练:
[0060][0061]
[0062][0063]
其中,为第m-1个模型输出的当前回应分词t的软标签,为当前模型mm输出的当前回应分词t的分布概率。第m(m》1)个模型的训练损失是硬标签与软标签的预测损失之和,具体如下:
[0064][0065]
构建好目标函数后,将训练与验证样本随机批量地输入到模型中,并且采用adam优化器使模型逐渐学习最优的参数值,计算在验证集上的评价指标,当验证集上的指标不再上升或者模型训练迭代到一定次数后停止训练,保存验证集上表现最优的对话生成模型。
[0066]
步骤3:加载步骤2中训练好的开放域对话生成模型,再将测试集中的样本批量输入到对话生成模型中,此时模型的参数固定不变。经过模型计算后,生成对话回复。
[0067]
实施例中,加载在验证集上表现最好的模型,输入测试集dtest,得到测试集的每段对话样本的对话回复结果。最终的实验结果表明,本发明提出的基于终身蒸馏的开放域对话生成方法在dailydialog和esconv数据集上都达到最佳效果。
[0068]
本发明各个实施例的实现基础是通过具有处理器功能的设备进行程序化的处理实现的。因此在工程实际中,可以将本发明各个实施例的技术方案及其功能封装成各种模块。基于这种现实情况,在上述各实施例的基础上,本发明的实施例提供了一种基于终身蒸馏的开放域对话生成装置,该装置用于执行上述方法实施例中的基于终身蒸馏的开放域对话生成方法。参见图2,该装置包括:第一主模块,用于实现步骤1:对原始数据进行预处理,得到验证集、测试集、以及包含历史话语数量不超过3个多段对话的训练集;第二主模块,用于实现步骤2:构建基于终身蒸馏的开放域对话生成模型,将训练样本与验证样本批量随机地输入基于终身蒸馏的开放域对话生成模型中,开始迭代模型训练过程,得到训练集与验证集上的评价指标,当验证集上的指标不再上升或迭代达到预定次数后停止,保存验证集上的最优模型,所述构建基于终身蒸馏的开放域对话生成模型包括:构建基础编解码模型结构、构建基于终身蒸馏的教师-学生架构、构建目标函数;第三主模块,用于实现步骤3:加载在验证集上评价指标最优的基于终身蒸馏的开放域对话生成模型,采用测试样本批量进行测试,输出与保存对话生成的结果。
[0069]
本发明实施例提供的基于终身蒸馏的开放域对话生成装置,采用图2中的若干模块,提出由浅入深依次顺序建模不同层次的对话数据,保证每种对话层次特征能够被准确建模,能够有效提升模型的准确性,采用旧层次对话训练的模型当作教师,在建模新层次对话时蒸馏该教师的知识给学生,学生能够综合建模各种对话特征,有利于保持对话的多样性。
[0070]
需要说明的是,本发明提供的装置实施例中的装置,除了可以用于实现上述方法实施例中的方法外,还可以用于实现本发明提供的其他方法实施例中的方法,区别仅仅在于设置相应的功能模块,其原理与本发明提供的上述装置实施例的原理基本相同,只要本领域技术人员在上述装置实施例的基础上,参考其他方法实施例中的具体技术方案,通过组合技术特征获得相应的技术手段,以及由这些技术手段构成的技术方案,在保证技术方
案具备实用性的前提下,就可以对上述装置实施例中的装置进行改进,从而得到相应的装置类实施例,用于实现其他方法类实施例中的方法。例如:
[0071]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第一子模块,用于实现步骤1中的原始数据包含多轮对话数据,并将训练集的每段对话处理成对话历史话语数量不超过3个的多段对话。
[0072]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第二子模块,用于实现步骤2中的构建基础编解码模型结构具体为:采用基于transformer的序列到序列生成框架,构建嵌入层、编码器、解码器及输出层。
[0073]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第三子模块,用于实现步骤2中构建基于终身蒸馏的教师-学生架构具体为:在构建模型时引入旧模型作为教师帮助蒸馏之前层次的对话知识,将上一时刻训练好的模型mm-1当作当前时刻m训练模型mm的教师,到下一时刻m 1,当前模型mm作为教师指导模型mm 1的训练,以此类推进行顺序蒸馏。
[0074]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第四子模块,用于实现步骤2中构建目标函数具体为:为在当前训练过程中,能够保存部分之前训练过程中学习到的知识,让模型能够学习不同轮次对话的特征,提高模型的准确性和多样性,在每个样例除硬标签与预测分布之间的损失之外,引入上一个过程训练好的模型,将其作为教师模型,输出的软标签指导当前模型进行预测。
[0075]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第五子模块,用于实现步骤2中的构建好基于终身蒸馏的开放域对话生成模型后,将训练与验证样本随机批量的输入到模型中,并采用adam优化器使模型逐渐学习最优的参数值,计算在验证集上的评价指标,当验证集上的指标不再上升或者模型训练迭代到预定次数后停止训练,保存验证集上表现最优的关系分类模型。
[0076]
基于上述装置实施例的内容,作为一种可选的实施例,本发明实施例中提供的基于终身蒸馏的开放域对话生成装置,还包括:第六子模块,用于实现步骤3的采用测试样本批量进行测试具体为:加载步骤2中训练好的基于终身蒸馏的开放域对话生成模型,再将测试集中的样本批量输入到模型中,此时模型的参数固定不变,经过模型计算后,生成对话回复。
[0077]
本发明实施例的方法是依托电子设备实现的,因此对相关的电子设备有必要做一下介绍。基于此目的,本发明的实施例提供了一种电子设备,如图3所示,该电子设备包括:至少一个处理器(processor)、通信接口(communications interface)、至少一个存储器(memory)和通信总线,其中,至少一个处理器,通信接口,至少一个存储器通过通信总线完成相互间的通信。至少一个处理器可以调用至少一个存储器中的逻辑指令,以执行前述各个方法实施例提供的方法的全部或部分步骤。
[0078]
此外,上述的至少一个存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理
解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个方法实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0079]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0080]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的一些部分所述的方法。
[0081]
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。基于这种认识,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0082]
需要说明的是,术语"包括"、"包含"或者其任何其它变体意在涵盖非排它性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句"包括
……
"限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0083]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献