一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于增量学习的评论生成方法、系统、设备及存储介质与流程

2022-04-24 22:21:12 来源:中国专利 TAG:


1.本技术涉及自然语言生成领域,尤其涉及一种基于增量学习的评论生成方法、系统、设备及存储介质。


背景技术:

2.随着科技不断发展,媒体信息在网络平台上传播的同时,用户可以通过评论发表自己的观点。媒体信息的评论一方面可以对媒体信息的内容作进一步的解释,另一方面可以吸引更多用户的讨论。媒体信息的评论的生成技术可以针对一则特定媒体信息生成评论,激发用户交流回复的热情,从而增加媒体信息的热度,甚至还能够发挥舆论导向的作用,使得社会更加稳定和谐。目前阶段媒体信息评论自动生成技术的相关研究较为稀少,由于媒体信息的实时性,不断地有新的训练数据产生,故需要调整模型适应新的评论生成任务。
3.现有的评论生成技术部分采用基于预训练语言模型进行微调的方法,这个方法若面向源源不断的新训练数据集时,会出现旧任务性能被降低的问题。还有一些研究采用了基于预训练语言模型进行联合训练的方法,然而这个方法效率非常低,且对计算资源要求苛刻,这极大阻碍了模型实时地学习新数据。


技术实现要素:

4.本技术的主要目的在于提供一种基于增量学习的评论生成方法、系统、设备及存储介质,旨在解决现有技术的评论生成技术效率低,对计算资源要求苛刻的技术问题。
5.为实现以上目的,本技术提供一种基于增量学习的评论生成方法,所述基于增量学习的评论生成方法包括:获取用户输入的媒体信息;将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再基于第一训练样本,通过序列到序列的训练方法对所述第三语言模型进行训练得到的;其中,所述第一语言模型基于增量学习进行更新。
6.可选地,所述第一语言模型基于增量学习进行更新的步骤,包括:获取第二训练样本;确定所述第一训练样本中的第一代表性样本以及所述第二训练样本中的第二代表性样本;基于所述第一代表性样本和所述第二代表性样本,更新所述第一语言模型。
7.可选地,所述确定所述第一训练样本及所述第二训练样本中代表性样本的步骤,包括:分别对所述第一训练样本及所述第二训练样本施加扰动,获取所述第一训练样本
及所述第二训练样本的预测值变化;基于所述预测值变化,获取样本在特征空间的相对位置;基于所述样本在特征空间的相对位置,确定所述第一训练样本及所述第二训练样本中代表性样本。
8.可选地,所述基于所述第一代表性样本和所述第二代表性样本,更新所述第一语言模型的步骤,包括:合并所述第一代表性样本和所述第二代表性样本,得到新训练样本;基于所述新训练样本,利用所述序列到序列的训练方法对所述第一语言模型进行训练,得到更新后的所述第一语言模型。
9.可选地,所述获取用户输入的媒体信息的步骤之前,所述方法包括:获取所述预训练样本、transformer模型块、所述第一训练样本和mask矩阵;基于所述预训练样本与transformer模型块,对所述预设的第二语言模型进行训练,得到所述第三语言模型;基于所述第一训练样本和mask矩阵,对所述第三语言模型进行训练得到所述第一语言模型。
10.可选地,所述基于所述mask矩阵,对所述第三语言模型进行训练得到所述第一语言模型的步骤,包括:基于所述第一训练样本和mask矩阵,引入temperature参数,利用topk和topp相结合的采样方法对所述第三语言模型进行训练,得到所述第一语言模型。
11.可选地,所述获取所述第一训练样本的步骤,包括:获取媒体数据和评论集合;将所述媒体数据和评论集合进行信息分类,获取所述信息分类标签;对所述媒体数据和评论集合进行所述信息分类标签的标记,得到所述第一训练样本。
12.本技术还提供一种基于增量学习的评论生成系统,所述基于增量学习的评论生成系统包括:获取模块,用于获取用户输入的媒体信息;处理模块,用于将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再基于第一训练样本,通过序列到序列的训练方法对所述第三语言模型进行训练得到的;更新模块,用于所述第一语言模型基于增量学习进行更新。
13.本技术还提供一种基于增量学习的评论生成设备,所述基于增量学习的评论生成设备包括:存储器、处理器以及存储在存储器上的用于实现所述基于增量学习的评论生成方法的程序,所述存储器用于存储实现基于增量学习的评论生成方法的程序;所述处理器用于执行实现所述基于增量学习的评论生成方法的程序,以实现所述基于增量学习的评论生成方法的步骤。
14.本技术还提供一种存储介质,所述存储介质上存储有实现基于增量学习的评论生
成方法的程序,所述实现基于增量学习的评论生成方法的程序被处理器执行以实现所述基于增量学习的评论生成方法的步骤。
15.本技术提供的一种基于增量学习的评论生成方法、系统、设备及存储介质,与现有技术中采用预训练语言模型进行联合训练方法,效率低下,且对计算资源要求苛刻相比,在本技术中,获取用户输入的媒体信息;将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再基于第一训练样本,通过序列到序列的训练方法对所述第三语言模型进行训练得到的;其中,所述第一语言模型基于增量学习进行更新,引入增量学习的方法对预训练语言模型进行更新,即对预训练语言模型面向数据流进行再训练,结合提出的序列到序列训练方法来对模型进行微调,使得模型可以更快更有效地适用于自然语言生成任务,在保持了旧话题评论生成任务准确性同时适应新的新闻话题评论生成任务。
附图说明
16.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
17.图1是本技术实施例方案涉及的硬件运行环境的设备结构示意图;图2为本技术基于增量学习的评论生成方法第一实施例的流程示意图;图3为本技术基于增量学习的评论生成方法语言模型结构图;图4为本技术基于增量学习的评论生成方法序列到序列目标mask矩阵图。
18.本技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
19.应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
20.如图1所示,图1是本技术实施例方案涉及的硬件运行环境的终端结构示意图。
21.本技术实施例终端可以是pc,也可以是智能手机、平板电脑、电子书阅读器、mp3(moving picture experts group audio layer iii,动态影像专家压缩标准音频层面3)播放器、mp4(moving picture experts group audio layer iv,动态影像专家压缩标准音频层面4)播放器、便携计算机等具有显示功能的可移动式终端设备。
22.如图1所示,该终端可以包括:处理器1001,例如cpu,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(display)、输入单元比如键盘(keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如wi-fi接口)。存储器1005可以是高速ram存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
23.可选地,终端还可以包括摄像头、rf(radio frequency,射频)电路,传感器、音频电路、wifi模块等等。其中,传感器比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示屏的亮度,接近传感器可在移动终端移动到耳边时,关闭显示屏和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;当然,移动终端还可配置陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
24.本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
25.如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作装置、网络通信模块、用户接口模块以及基于增量学习的评论生成程序。
26.在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于增量学习的评论生成程序。
27.参照图2,本技术实施例提供一种基于增量学习的评论生成方法,所述基于增量学习的评论生成方法包括:步骤s100,获取用户输入的媒体信息;步骤s200,将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再基于第一训练样本,通过序列到序列的训练方法对所述第三语言模型进行训练得到的;步骤s300,其中,所述第一语言模型基于增量学习进行更新。
28.在本实施例中,具体的应用场景可以是:媒体信息在网络平台传播,使得用户可以对媒体信息发表自己的观念进行讨论,也可以对媒体信息进行进一步的解释,以及增加媒体信息的传播度,针对有需求的媒体信息可以使用评论生成技术,即语言生成模型,而媒体信息具备实时性,不断有新的训练数据产生,需要调整模型适应新的评论生成任务,现有技术中采用基于预训练语言模型进行微调的方法,面向源源不断的新训练数据集时,会出现旧任务性能被降低的问题;或者采用了基于预训练语言模型进行联合训练的方法,但是这个方法效率非常低,且对计算资源要求苛刻,这极大阻碍了模型实时地学习新数据。
29.具体步骤如下:步骤s100,获取用户输入的媒体信息;在本实施例中,首先获取用户输入的媒体信息,其中,获取用户输入的媒体信息的方式可以是:方式一:若检测到语音指令时,提取语音指令中的语音信息,从语音信息中解析得到目标媒体信息;方式二:在本实施例中,还可以设置有询问界面,基于询问界面上输入的信息获取目标媒体信息。
30.在本实施例中,媒体信息可以是媒体文本,也可以是媒体标签,还可以是媒体视频,其中,所述媒体可以是新闻,也可以是其他信息传播方式,具体地,媒体信息包含各类别和领域的信息,比如体育类信息、娱乐类信息或民生类信息等。例如,用户需求在一则体育类新闻中生成评论,获取的媒体信息为“在a足球杯的足球比赛中,b队获取总冠军”。
31.步骤s200,将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再基于第一训练样本,通过序列到序列的训练方法对所述第三语言模型进行训练得到的;在本实施例中,所述第一语言模型为通过评论生成技术,训练得到的评论生成模型,此模型针对有评论生成需求的媒体信息,进行评论生成处理,得到所述媒体信息的评论集合,其中,评论生成处理为提取媒体信息的内容,通过第一语言模型,生成评论集合,具体地,所述评论集合为符合人类语言特征的评论集,且所述评论集合与媒体信息的主体相契合,例如,将获取的媒体信息“在a足球杯的足球比赛中,b队获取总冠军”输入至第一语言模型,生成的评论包括“感动,b队的团队精神令人振奋,继续加油!”“再接再厉,勿忘初心,保持状态,奋勇向前,b队加油!”等。
32.在本实施例中,预设的第二语言模型为待训练的初始模型,对所述第二语言模型进行预训练任务的训练,得到第三语言模型,在对所述第三语言模型进行微调,即基于第一训练样本,利用序列到序列的训练方法进行训练得到最终的第一语言模型,利用序列到序列的训练方法,使得模型可以更快更有效地适用于自然语言生成任务,其中,预训练任务是通过预训练样本对第二模型进行训练,具体地,预训练样本为语言句子对,通过预训练任务的训练,使得初始的第二语言模型初步适应文本任务的生成。
33.步骤s300,其中,所述第一语言模型基于增量学习进行更新。
34.在本实施例中,由于新闻的实时性,第一语言模型要面向的是源源不断的媒体和评论数据流,故还需要适应新的媒体评论生成任务,本技术根据媒体不同的领域话题将媒体和评论样本分为了不同的类,由此引入了类增量学习中基于样本回放的策略来进行新训练集的生成,使第一语言模型在当前话题任务上表现良好的同时可以在新话题任务上获得不错的效果。
35.具体地,所述步骤s300包括以下步骤s310-s330:步骤s310,获取第二训练样本;在本实施例中,所述第二训练样本为新的媒体和评论数据流,获取所述训练样本的方式可以是通过网络爬虫(自动获取网页内容的程序),对互联网上的媒体和评论数据流进行获取,也可以是在网站上进行下载,在此不作限定,其中,新的媒体和评论数据流包含各类别和领域的媒体信息以及相应信息下的评论。
36.步骤s320,确定所述第一训练样本中的第一代表性样本以及所述第二训练样本中的第二代表性样本;在本实施例中,第一训练样本为构建的媒体和评论样本数据集,与第二训练样本相比为旧样本,训练时部分第一训练样本中具有代表性的旧数据会被保留并且用于模型对旧数据的复习,即需要筛选出这部分具有代表性的旧数据,使模型在旧话题任务上表现良好,其中,具有代表性的旧数据的筛选可以通过分类算法筛选,也可以通过聚类算法筛选,
还可以通过关联算法筛选。由于机器内存有限,在筛选代表性的样本数据时,对第二训练样本进行筛选,确定所述第二训练样本中的第二代表性样本,以适应新的媒体和评论任务。
37.具体地,所述步骤s320包括以下步骤s321-s323:步骤s321,分别对所述第一训练样本及所述第二训练样本施加扰动,获取所述第一训练样本及所述第二训练样本的预测值变化;在本实施例中,根据媒体不同的类别将媒体和评论样本分为了不同的类,类中心的样本代表性最强,决策边界的样本区分性最强,筛选出的代表性样本包括类中心的样本和决策边界的样本,保证多样性的话需要计算预训练样本在特征空间的相对位置,计算预训练样本在特征空间的相对位置的算法如下:训练样本在特征空间的相对位置的算法如下:训练样本在特征空间的相对位置的算法如下:其中,c代表样本的类,表示样本的不确定性,表示第c类被预测为top1的次数,表示预训练样本的预测值变化。
38.表现出来即就是标签为c的样本,经过扰动后,若被预测为c类的次数越多,则预测值变化越小。
39.步骤s322,基于所述预测值变化,获取样本在特征空间的相对位置;根据此不确定性,本技术对获得的每一类数据可以进行排序,记内存中允许的样本数总数为k,记每当获得新训练数据时总共有t类,为了同时兼顾新旧任务的准确性则每一类需要取到同样的样本数m则为:步骤s323,基于所述样本在特征空间的相对位置,确定所述第一训练样本及所述第二训练样本中代表性样本。
40.在本实施例中,对每一类经过排序的样本进行均匀间隔取样,每一类保留m个样本,这样就保证了每一类样本的多样性。
41.步骤s330,基于所述第一代表性样本和所述第二代表性样本,更新所述第一语言模型。
42.在本实施例中,保证了每一类样本的多样性的同时筛选新旧样本作为回放的样本进行新数据的训练学习,最终模型在保证对旧话题生成评论原有效果的同时在新话题任务上也能取得可观的效果。
43.具体地,所述步骤s330包括以下步骤s331-s332:步骤s331,合并所述第一代表性样本和所述第二代表性样本,得到新训练样本;
在本实施例中,为了让模型适应不断产生的媒体和评论数据流,基于样本多样性筛选第一训练样本中的代表性样本,以及基于新的媒体和评论数据流,获取的所述训练样本,合并得到新训练样本,其中,所述新训练样本包含第一训练样本,即旧数据中筛选出来的媒体和评论数据流以及第二训练样本,即新数据中筛选出来的媒体和评论数据流。
44.步骤s332,基于所述新训练样本,利用所述序列到序列的训练方法对所述第一语言模型进行训练,得到更新后的所述第一语言模型。
45.在本实施例中,基于新训练样本,对所述第一语言模型利用序列到序列的训练方法进行训练,更新所述第一语言模型。具体地,引入增量学习的方法对第一语言模型进行更新,利用序列到序列的训练方法,对已有模型进行微调,则得到了同时在新旧话题任务上表现良好的新模型,以此来处理数据流,使得模型就可以在保持了旧话题评论生成任务准确性同时不断适应新的媒体话题评论生成任务。
46.在本实施例提供的基于增量学习的评论生成方法中,在步骤s100,所述获取用户输入的媒体信息的步骤之前所述方法包括以下步骤a100-a300:步骤a100,获取所述预训练样本、transformer模型块、所述第一训练样本和mask矩阵;在本实施例中,所述预训练样本为构建的媒体和评论样本数据集,获取所述预训练样本的方式可以是通过网络爬虫(自动获取网页内容的程序),对互联网上的媒体和评论数据流进行获取,也可以是在网站上进行下载,在此不作限定。
47.如图3所示,所述第二语言模型为多层的transformer块堆结起来的模型,其中transformer块带有bert-wwm预训练模型的参数,具体地,bert-wwm预训练模型为开源的自编码语言模型,采用所述transformer块能够提前训练好这些下游任务中底层的、共性的部分模型,然后再用下游任务各自的样本数据来训练各自的模型,极大地加快收敛速度。搭建第二语言模型之前,对输入的数据进行编码,编码事先引入了多进程的编码方法,计算出cpu核数,在这些核中保留10个核用于做其他运算防止机器崩溃,记其他核的总数为n。创建n个进程池,而后将数据集等分为n个数据列表,异步对所有数据进行编码,进而提高机器的资源利用率并有效减少了编码时间。
48.序列到序列训练方法的输入分为了两个序列,此方法具体表现在向注意力机制中加入了一个mask矩阵,这个mask矩阵如图3所示,其中s1和s2分别代表了源序列和目标序列。利用序列到序列的训练方法,使得模型可以更快更有效地适用于自然语言生成任务。
49.具体地,所述步骤a100包括以下步骤a110-a130:步骤a110,获取媒体数据和评论集合;在本实施例中,获取所述媒体数据-评论集合的方式可以是通过网络爬虫(自动获取网页内容的程序),对互联网上的媒体和评论数据流进行获取,也可以是在网站上进行下载,在此不作限定。
50.步骤a120,将所述媒体数据和评论集合进行信息分类,获取所述信息分类标签;步骤a130,对所述媒体数据和评论集合进行所述信息分类标签的标记,得到所述第一训练样本。
51.在本实施例中,由于目前媒体评论生成领域数据集的匮乏,我们构建了一个大型媒体和评论数据集。将每一个话题的训练数据看作是一个类,每一批新的数据就会增加新
类,这些类中每个新闻-评论数据为一个样本,这样就方便我们引入增量学习中样本回放的方法来适应不断产生的新闻评论数据流,其中,分类标签包括体育类标签、娱乐类标签或民生类标签等,不同领域或话题的媒体和评论数据,分成不同的类。
52.步骤a200,基于所述预训练样本与transformer模型块,对所述预设的第二语言模型进行训练,得到所述第三语言模型;如图3所示,在本实施例中,transformer块带有bert-wwm预训练模型的参数,具体地,bert-wwm预训练模型为开源的自编码语言模型,采用所述transformer块能够提前训练好这些下游任务中底层的、共性的部分模型,然后再用下游任务各自的样本数据来训练各自的模型,极大地加快收敛速度,其中,模型的输入的编码向量是由3个嵌入特征向量的和组成,其中token embedding将每一个单词拆解为成子词,这些拆解后的子词尽量能被其他词广泛使用到。position embedding的任务是对每一个单词所在的位置进行记录,主要通过编码来解决。segment embedding用于判别不同的句子分辩这两个句子是否是上下文关系。基于所述预训练样本与transformer模型块,对所述预设的第二语言模型进行训练,模型具有初步语言生成能力。
53.步骤a300,基于所述第一训练样本和mask矩阵,对所述第三语言模型进行训练得到所述第一语言模型。
54.在本实施例中,考虑到面向新闻的自动评论生成工作需要完成文本生成任务,本技术利用序列到序列的训练方法,对模型进行微调操作。序列到序列训练方法的输入分为了两个序列,此方法具体表现在向注意力机制中加入了一个mask矩阵,这个mask矩阵如图4所示,其中s1和s2分别代表了源序列和目标序列。mask矩阵的左部分(左面三列)全为0,这表示源序列中的所有token可以注意到它的任何一个tokens,mask矩阵的右上部分(右两列上三行)为正无穷,表示源序列的tokens是注意不到目标序列的tokens的,mask矩阵右下方的右上角被设置为无穷大,表示目标序列的tokens只能注意到它上文的tokens而不能注意到它下文的tokens。即具体表现为源序列的tokens在整个序列中可以注意到整个源序列,目标序列的tokens只能注意到左侧的tokens和自身。
55.每一个transformer块如图3所示,对于输入向量,即就是,将其作为24层的transformer网络的原始输入,则代表第0层的输入,每一层的输出为:其中,l就是层数,也就是24,最终,而就表示了输入的上下文表征。
56.在模型的每一层中, mask矩阵控制了每一个token的注意力分布情况,若transformer层数为l,我们用如下公式组来计算self-attention head:::
此处的m为序列到序列方法的mask矩阵。
57.在搭建模型时运用了cache模块,由于解码的特性,已经编码得到的token表示不会受到新token的影响,将前面token的表示存起来,便减少了运算量,提高运算速率。
58.具体地,所述步骤a300包括:基于所述第一训练样本和mask矩阵,引入temperature参数,利用topk和topp相结合的采样方法对所述第三语言模型进行训练,得到所述第一语言模型。
59.在本实施例中,搭建好第三语言模型后,模型已经适应了中文的自然语言任务,而后用初始数据集对模型来进行微调,这样模型就初步具有了文本生成的能力。
60.在语言生成阶段,由当前输入的token,模型会计算出下一个将要生成的token在字典中的对应概率分布,而后根据一些生成算法来选择一个token输出,而后再将此token输入到模型中,而后就继续预测下一个token的概率分布,选择下一个token的输出,如此循环生成token从而最终生成一个完整的句子。此处我们引入temperature参数,来让token的预测概率差距变的更大,从而让生成器尽可能采样一些最有可能的token,在采样时,为了进一步提高生成序列的质量,有效降低输出误差,我们采用了topk和topp相结合的采样方法。topk方法会对字典中token的概率按照由高到低的顺序进行一个排序,而后将一定位置之后token的概率修改为0,而后将修改后得到的结果全部重新输入到softmax函数中生成新的概率分布。topk策略有效防止了一些低概率token被误输出的问题,但当某个token概率很大时,会引入许多低概率的token,这样还是会导致一些低概率token误输出的问题,所以此时我们引入了topp策略来弥补topk策略的不足。topp策略按照概率由高到低的顺序对概率分布进行一个累加,当概率和超过一定阈值后将这之后token的概率全部修改为0,这样就有效弥补了topk策略的缺陷。
61.在本实施例中,本技术可以应用于网络社交媒体平台上,对任意新闻时事进行评论生成。在实施上,可以以软件的方式嵌入于智能系统;也可以嵌入于后台服务器上,满足大批量的新闻评论生成需求。
62.本技术提供的一种基于增量学习的评论生成方法、系统、设备及存储介质,与现有技术中采用预训练语言模型进行联合训练方法,效率低下,且对计算资源要求苛刻相比,在本技术中,获取用户输入的媒体信息;将所述媒体信息输入至第一语言模型中,对所述媒体信息进行评论生成处理,得到所述媒体信息的评论集合,其中,所述第一语言模型是先以预训练任务对预设的第二语言模型进行训练得到第三语言模型后,再利用序列到序列的训练方法对所述第三语言模型进行训练得到的,所述预训练任务包括预训练样本;其中,所述第一语言模型基于增量学习进行更新,即在本技术中,引入增量学习的方法对预训练语言模型进行更新,即对预训练语言模型面向数据流进行再训练,再结合提出的序列到序列训练方法来对模型进行微调,使得模型可以更快更有效地适用于自然语言生成任务,在保持了旧话题评论生成任务准确性同时适应新的新闻话题评论生成任务。
63.本技术还提供一种基于增量学习的评论生成设备,所述基于增量学习的评论生成设备包括:存储器、处理器以及存储在存储器上的用于实现所述基于增量学习的评论生成方法的程序,所述存储器用于存储实现基于增量学习的评论生成方法的程序;所述处理器用于执行实现所述基于增量学习的评论生成方法的程序,以实现所述
基于增量学习的评论生成方法的步骤。
64.本技术基于增量学习的评论生成设备具体实施方式与上述基于增量学习的评论生成同步方法各实施例基本相同,在此不再赘述。
65.本技术还提供一种存储介质,所述存储介质上存储有实现基于增量学习的评论生成方法的程序,所述实现基于增量学习的评论生成方法的程序被处理器执行以实现所述基于增量学习的评论生成方法的步骤。
66.本技术存储介质具体实施方式与上述基于增量学习的评论生成方法各实施例基本相同,在此不再赘述。
67.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
68.上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。
69.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本技术各个实施例所述的方法。
70.以上仅为本技术的优选实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本技术的专利保护范围内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献