一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

文本打标签方法、装置、电子设备及存储介质与流程

2021-12-17 22:03:00 来源:中国专利 TAG:


1.本发明涉及人工智能技术领域及数字医疗技术领域,尤其涉及一种文本打标签方法、装置、电子设备及计算机可读存储介质。


背景技术:

2.一些用户量较大的app通常会提供新闻资讯服务,这类新闻资讯多为外部采购,存在新闻资讯没有标签或者标签混乱的问题,给新闻资讯的审核和投放带来困难。
3.当前为新闻资讯打标签,主要有两种方法:
4.一种是通过人工对新闻数据进行全量的标注,这种方式人工成本较高,且容易出现标签分类遗漏或错误的现象。
5.另一种方法,利用向量空间模型(vsm,vector space model)将新闻资讯从文本转换为向量空间中的向量,通过计算向量之间的相似性来度量不同新闻资讯间的相似度,再利用kmeans方法对新闻资讯进行聚类,依据聚类结果生成新闻资讯的标签。但是这种方法针对相同的语义不同的文本时,对文本打标签的准确率比较低,存在相同语义的文本所对应的标签不一致的情况,因此对新闻资讯等文本打标签的准确率有待提升。


技术实现要素:

6.本发明提供一种文本打标签方法、装置及计算机可读存储介质,其主要目的在于提升文本打标签的准确性。
7.为实现上述目的,本发明提供的一种文本打标签方法,包括:
8.构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
9.利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
10.利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
11.将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;
12.若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;
13.若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
14.利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
15.可选地,所述构造由相似语义文本组成的第一序列集,包括:
16.从预设的相似语义文本库中获取相似语义文本集;
17.根据预设的组合方式,将所述相似语义文本集中每两个相似语义文本组合成一个序列,直到所述相似语义文本集中所有文本都完成组合,得到由相似语义文本组成的第一序列集。
18.可选地,所述对所述第一序列集中的文本执行随机遮蔽操作,包括:
19.在所述第一序列集中,随机选择预设遮蔽文本比例的文本,得到待遮蔽文本;
20.利用预设的掩码对所述待遮蔽文本中预设覆盖比例的文本进行覆盖,得到掩码覆盖文本;
21.利用随机生成的文本对所述待遮蔽文本中预设替换比例的文本进行替换,得到替换文本;
22.汇总所述掩码覆盖文本及所述替换文本,得到遮蔽文本。
23.可选地,所述对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,包括:
24.利用预构建的语义识别模型,对所述第二序列集进行文本特征提取,得到文本特征集;
25.利用预设的激活函数对所述文本特征集执行激活计算,得到预测的遮蔽文本;
26.将所述预测的遮蔽文本与所述第二序列集中未遮蔽的文本组合为预测序列;
27.对所述预测序列中每个文字进行词向量转换,根据所述每个文字对应的词向量,计算所述预测序列中相似语义文本的预测相似度。
28.可选地,所述计算所述预测序列中相似语义文本的预测相似度,包括:
29.分别计算所述预测序列中每条相似语义文本对应的词向量均值;
30.计算所有相似语义文本之间的词向量均值的绝对差值,将所述绝对差值作为所述预测序列的预测相似度。
31.可选地,所述将所述第一损失值与所述第二损失值组合为所述预训练的损失值,包括:
32.利用预设的第一损失权重对所述第一损失值执行加权操作,得到加权后的第一损失值;
33.利用预设的第二损失权重对所述第二损失值执行加权操作,得到加权后的第二损失值;
34.将所述加权后的第一损失值与所述加权后的第二损失值相加,得到所述预训练的输出损失值。
35.可选地,所述利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,所述方法还包括:
36.利用所述完成预训练的语义识别模型对待打标签的文本进行文本特征提取,得到文本特征集;
37.利用预先训练的激活函数计算所述文本特征集与预设的多个文本标签之间的概率值,选择大于预设概率阈值的概率值对应的标签为所述待打标签文本的标签。
38.为了解决上述问题,本发明还提供一种文本打标签装置,所述装置包括:
39.预训练语料构造模块,用于构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
40.预训练预测模块,用于利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
41.预训练损失计算模块,用于利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
42.预训练结束判断模块,用于将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
43.预训练模型应用模块,用于利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
44.为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
45.存储器,存储至少一个指令;及
46.处理器,执行所述存储器中存储的指令以实现上述所述的文本打标签方法。
47.为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的文本打标签方法。
48.本发明申请利用由相似语义文本组成的含有遮蔽文本的序列集对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,使完成预训练的语义识别模型具有对相似语义文本的识别及生成能力,再利用所述完成预训练的语义识别模型对待打标签的文本进行打标签,可以解决相似语义文本的标签不一致的问题,从而提升了文本打标签的准确性。
附图说明
49.图1为本发明一实施例提供的文本打标签方法的流程示意图;
50.图2为图1所示文本打标签方法中其中一个步骤的详细实施流程示意图;
51.图3为图1所示文本打标签方法中其中一个步骤的详细实施流程示意图;
52.图4为图1所示文本打标签方法中其中一个步骤的详细实施流程示意图;
53.图5为本发明一实施例提供的文本打标签装置的功能模块图;
54.图6为本发明一实施例提供的实现所述文本打标签方法的电子设备的结构示意图。
55.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
56.应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
57.本技术实施例提供一种文本打标签方法。所述文本打标签方法的执行主体包括但不限于服务端、终端等能够被配置为执行本技术实施例提供的该方法的电子设备中的至少一种。换言之,所述文本打标签方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(contentdelivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。
58.参照图1所示,为本发明一实施例提供的文本打标签方法的流程示意图。在本实施例中,所述文本打标签方法包括:
59.s1、构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
60.本发明实施例中,所述相似语义文本是指内容组织形式不同但表达的含义相同或相似的文本,例如,“银行卡办理”与“借记卡申请”这两个文本就是相似语义的文本。
61.较佳地,本发明实施例中,所述第一序列集中每个序列包括两个相似语义的文本。
62.本发明实施例中,所述随机遮蔽操作是基于bert模型的,在自然语言处理(natural language processing,nlp)中一种常用的对训练语料的处理方式,即随机选择所述序列集中的相似语义的文本的部分文字,对选择的文字进行覆盖或者替换为其他的文字,这样做可以提升bert模型的鲁棒性。
63.详细地,参阅图2所示,所述s1,包括:
64.s11、从预设的相似语义文本库中获取相似语义文本集;
65.s12、根据预设的组合方式,将所述相似语义文本集中每两个相似语义文本组合成一个序列,直到所述相似语义文本集中所有文本都完成组合,得到由相似语义文本组成的第一序列集;
66.s13、在所述第一序列集中,随机选择预设遮蔽文本比例的文本,得到待遮蔽文本;
67.s14、利用预设的掩码对所述待遮蔽文本中预设覆盖比例的文本进行覆盖,得到掩码覆盖文本;
68.s15、利用随机生成的文本对所述待遮蔽文本中预设替换比例的文本进行替换,得到替换文本;
69.s16、汇总被所述掩码覆盖文本及所述替换文本,得到遮蔽文本。
70.本发明实施例中,所述预设的相似语义文本库可以是服务行业或政府便民系统中的智能问答知识库,例如,在银行的智能问答知识库中,通常一个标准问题会对应多个相似问题,例如,标准问题“信用卡发卡额度”,相似问题可以是“你们下来的信用卡额度是多少”、“我新申请信用卡额度是多少”、“信用卡最低下款多少”、“我这种卡能达到多少额度”等。所述标准问题与任一所述相似问题为相似语义文本。
71.本发明实施例中,所述预设的组合方式可以是排列组合方式,也可以是所述标准问题文本逐次与每个相似问题组合成一个序列,再通过变换标准问题与相似问题的前后位置组合成一个新的序列。
72.本发明实施例中,假设所述预设遮蔽文本比例为15%,所述预设覆盖比例为80%,所述预设替换比例为10%,所述预设的掩码为[mask]。即对所述序列集中15%的文本执行
所述随机遮蔽操作,进一步地,在对所述15%的文本执行随机遮蔽操作时,其中80%的待遮蔽文本直接用[mask]覆盖,10%的待遮蔽文本用其他随机生成的文字替换,10%的待遮蔽文本保持原样不变。
[0073]
例如,“银行卡办理借记卡申请”序列中,假设“办理”为所述待遮蔽文本,在上述覆盖的情况下,“银行卡办理借记卡申请”转换为“银行卡[mask][mask]借记卡申请”,在上述替换的情况下,“银行卡办理借记卡申请”转换为“银行卡流水借记卡申请”。
[0074]
本发明实施例中,通过对所述序列集中的相似语义的文本执行随机遮蔽操作,使得所述序列集既有保留原样的文本又有被所述预设的俺码覆盖的文本,同时少量的文本被随机替换,产生了少量的噪声,从而提升了训练模型的学习能力。
[0075]
s2、利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
[0076]
本发明实施例中,所述预构建的语义识别模型可以采用基于bert构建的语义识别模型或采用unilm语义识别模型,相较于基于bert的语义识别模型,所述unilm语义识别模型不仅能很好处理自然语言理解的问题,也能很好处理自然语言生成的问题,是一种既能阅读又能自动生成文本的预训练模型。
[0077]
本发明实施例中,由于所述第二序列集的文本内容由自然语言组成,若直接对所述文本内容进行分析,会占用大量的计算资源,导致分析的效率低下,因此,可将所述文本内容转换为文本向量矩阵,进而将由自然语言表达的文本内容转换为数值形式。
[0078]
较佳地,所述对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练之前,所述方法还包括:在每个所述序列的相似语义文本的相邻位置添加分隔符;在每个所述序列的文本的结束位置添加分隔符;对每个所述序列进行词向量转换得到词向量集;对所述词向量集执行位置编码操作,得到嵌入位置信息的词向量集。
[0079]
例如,所述序列由“银行卡办理”和“借记卡申请”这两个相似语义文本组成,所述在每个所述序列的文本的起始位置添加起始符,为“[cls]银行卡办理借记卡申请”。所述在每个所述序列的相似语义文本相邻位置添加分隔符,为“[cls]银行卡办理[sep]借记卡申请”。所述在每个所述序列的文本的结束位置添加分隔符,为“[cls]银行卡办理[sep]借记卡申请[sep]”。
[0080]
本发明实施例中,所述词向量转换是指将所述序列集的每一个文字转换为词向量,所述词向量集记录了每个文字的词信息,可以通过预设的词向量转换模型将所述遮蔽后的序列集中的每个文字转化为词向量,得到词向量集,所述预设的词向量转换模型可以采用word2vec、glove、elmo等词向量经典模型。可以采用基于bert的positions embedding进行位置信息嵌入。
[0081]
可以理解的是,通常相同的文字在文本中出现的位置不同,所表达的含义不同,因此,还需要将每个文字在文本的位置信息嵌入到所述词向量集中,得到嵌入位置信息的词向量集。
[0082]
本发明实施例中,所述预设的位置编码公式,包括:
[0083]
[0084][0085]
其中,所述pos表示每个文字在文本中的位置编号,例如,(1,2,3,4,n),所述i表示词向量中的位置,例如,(0,1,2,3,......,511),d_model表示所述词向量集的维度。
[0086]
详细地,参阅图3所示,所述s2,包括:
[0087]
s21、利用预构建的语义识别模型,对所述第二序列集进行文本特征提取,得到文本特征向量集;
[0088]
s22、利用预设的激活函数对所述文本特征向量集执行激活计算,得到预测的遮蔽文本;
[0089]
s23、将所述预测的遮蔽文本与所述第二序列集中未遮蔽的文本组合为预测序列;
[0090]
s24、对所述预测序列中每个文字进行词向量转换,根据所述每个文字对应的词向量,计算所述预测序列中相似语义文本的预测相似度。
[0091]
本发明实施例中,例如,所述包括遮蔽文本的序列为“银行卡[mask][mask]借记卡申请”,其中[mask][mask]为遮蔽文本,假设预测的遮蔽文本为“开户”,则所述预测序列为“银行卡开户借记卡申请”。
[0092]
本发明实施例中,所述对所述包括遮蔽文本的序列集进行文本特征提取,还包括:将所述嵌入位置信息的词向量集转化为位置向量矩阵;利用所述预构建的语义识别模型中的多头注意力机制,将所述位置向量矩阵中的文本特征转化成文本特征向量关联矩阵;利用所述预构建的语义识别模型中的残差连接层,连接位置向量矩阵集及所述文本特征向量关联矩阵,得到文本特征向量密切关联矩阵;利用所述预构建的语义识别模型中的全连接层,对所述文本特征向量密切关联矩阵进行降维处理,得到文本特征向量矩阵。
[0093]
详细地,所述计算所述预测序列中相似语义文本的预测相似度,包括:分别计算所述预测序列中每条相似语义文本对应的词向量均值;计算所有相似语义文本之间的词向量均值的绝对差值,将所述绝对差值作为所述预测序列的预测相似度。
[0094]
s3、利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
[0095]
本发明实施例中,所述第二序列集对应的序列由两个相似语义文本组成,因此,本发明实施例中,损失函数包括所述预设的第一损失函数与所述预设的第二损失函数两部分,所述预设的第一损失函数用来计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的损失值,所述预设的第二损失函数用来计算所述预测序列中两个相似语义文本的相似度与所述第一序列集对应的原始序列中两个相似语义文本的相似度之间的损失值。
[0096]
所述预设的第一损失函数,包括:
[0097][0098]
在所述预设的第一损失函数中,所述num为所述第二序列集中的序列个数,所述pre为所述预测的遮蔽文本,所述grt为所述第一序列集中对应的原始文本,所述i为所述第
二序列集中的第i个序列。
[0099]
所述预设的第二损失函数,包括:
[0100][0101]
v=r
b
×
d
[0102][0103][0104][0105]
在所述预设的第二损函数中,v=r
b
×
d
为所述在一次所述预训练中的所输出的向量矩阵,b为一次所述预训练中的序列个数,d为所述预设遮蔽文本比例,对v做归一化得到所述为b
×
b的相似度矩阵,y(x
i
)为所述第二序列集中第i个序列中两个相似语义文本的相似度,为所述第一序列中两个相似语义文本的相似度。
[0106]
s4、将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;
[0107]
本发明实施例中,所述第一损失值与所述第二损失值计算的损失对象不同,相应的权重也不同,需要对所述第一损失值与所述第二损失值进行加权操作。
[0108]
详细地,参阅图4所示,所述s4,包括:
[0109]
s41、利用预设的第一损失权重对所述第一损失值执行加权操作,得到加权后的第一损失值;
[0110]
s42、利用预设的第二损失权重对所述第二损失值执行加权操作,得到加权后的第二损失值;
[0111]
s43、将所述加权后的第一损失值与所述加权后的第二损失值相加,得到所述预训练的输出损失值。
[0112]
本发明实施例中,所述输出损失值,包括:
[0113]
loss=αloss1 βloss2
[0114]
其中,所述输出损失值为loss,所述第一损失函数为loss1,所述第二损失函数为loss2,其中α、β分别所述预设的第一损失权重及所述预设的第二损失权重,可根据实际情况进行调整。
[0115]
s5、若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;
[0116]
本发明实施例中,所述预设条件可以是指定的损失阈值,当所述预训练的输出损失值大于或等于所述损失阈值时,表示所述语言识别模型的语义识别能力还有待提高,需要进一步做参数调整,执行新的预训练。
[0117]
s6、若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
[0118]
本发明实施例中,当所述输出损失值小于所述损失阈值时,则退出所述预训练。
[0119]
s7、利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
[0120]
本发明实施例中,所述完成预训练的语义识别模型具有对相似语义文本的识别及生成能力,利用所述完成预训练的语义识别模型对待标签文本进行语义识别进而提取所述待打标签文本的文本特征,实现所述文本特征与文本标签之间的映射。
[0121]
所述待打标签文本可以是新闻文本、医疗文本,例如医生处方文本等。
[0122]
详细地,所述利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,包括:利用所述完成预训练的语义识别模型对待打标签的文本进行文本特征提取,得到文本特征集;利用预先训练的激活函数计算所述文本特征集与预设的多个文本标签之间的概率值,选择大于预设概率阈值的概率值对应的标签为所述待打标签文本的标签。
[0123]
本发明实施例中,所述预设标签是对文本信息的分类标签,例如,针对多媒体新闻,所述预设标签可以是体育、汽车、美妆、理财、教育、医疗等标签。
[0124]
本发明实施例中,所述预设概率阈值可以根据实际情况调整。
[0125]
详细地,所述激活函数包括但不限于softmax激活函数、sigmoid激活函数、relu激活函数。
[0126]
本发明其中一个实施例中,可利用如下激活函数计算相对概率值:
[0127][0128]
其中,p(a|x)为文本特征x和预设的文本标签a之间的相对概率,w_a为文本标签a的权重向量,t为求转置运算符号,exp为求期望运算符号,a为预设的文本标签的数量。
[0129]
本发明另一实施例中,可以采用决策树算法或者k

means聚类算法替换所述预设的激活函数。利用所述决策数算法或者所述聚类算法对所述文本特征集进行分类或聚类,实现所述文本特征与文本标签之间的映射。
[0130]
本发明申请利用由相似语义文本组成的含有遮蔽文本的序列集对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,使完成预训练的语义识别模型具有对相似语义文本的识别及生成能力,再利用所述完成预训练的语义识别模型对待打标签的文本进行打标签,可以解决相似语义文本的标签不一致的问题,从而提升了文本打标签的准确性。
[0131]
如图5所示,是本发明一实施例提供的文本打标签装置的功能模块图。
[0132]
本发明所述文本打标签装置100可以安装于电子设备中。根据实现的功能,所述文本打标签装置100可以包括预训练语料构造模块101、预训练预测模块102、预训练损失计算模块103、预训练结束判断模块104及预训练模型应用模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
[0133]
在本实施例中,关于各模块/单元的功能如下:
[0134]
所述预训练语料构造模块101,用于构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
[0135]
所述预训练预测模块102,用于利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
[0136]
所述预训练损失计算模块103,用于利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
[0137]
所述预训练结束判断模块104,用于将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
[0138]
所述预训练模型应用模块105,用于利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
[0139]
如图6所示,是本发明一实施例提供的实现文本打标签方法的电子设备的结构示意图。
[0140]
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如文本打标签程序。
[0141]
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:sd或dx存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(smart media card,smc)、安全数字(secure digital,sd)卡、闪存卡(flash card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如文本打标签程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
[0142]
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(central processing unit,cpu)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(control unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如文本打标签程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
[0143]
所述总线可以是外设部件互连标准(peripheral component interconnect,简称pci)总线或扩展工业标准结构(extended industry standard architecture,简称eisa)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
[0144]
图6仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图6示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些
部件,或者不同的部件布置。
[0145]
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、wi

fi模块等,在此不再赘述。
[0146]
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如wi

fi接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
[0147]
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organic light

emitting diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
[0148]
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
[0149]
所述电子设备1中的所述存储器11存储的文本打标签程序是多个指令的组合,在所述处理器10中运行时,可以实现:
[0150]
构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
[0151]
利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
[0152]
利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
[0153]
将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;
[0154]
若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;
[0155]
若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
[0156]
利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
[0157]
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
[0158]
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存
储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read

only memory)。
[0159]
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
[0160]
构造由相似语义文本组成的第一序列集,对所述第一序列集中的文本执行随机遮蔽操作,得到包括遮蔽文本的第二序列集;
[0161]
利用所述第二序列集,对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练,得到包含预测的遮蔽文本的预测序列及所述预测序列中相似语义文本的预测相似度;
[0162]
利用预设的第一损失函数计算所述预测的遮蔽文本与所述第一序列集中对应的原始文本之间的第一损失值,利用预设的第二损失函数计算所述预测相似度与所述第一序列集中相似语义文本的原始相似度之间的第二损失值;
[0163]
将所述第一损失值与所述第二损失值组合为所述预训练的输出损失值,判断所述输出损失值是否满足预设条件;
[0164]
若所述输出损失值不满足所述预设条件,则调整所述语义识别模型的参数,并返回上述的对预构建的语义识别模型进行遮蔽文本预测及文本相似度计算的预训练的步骤;
[0165]
若所述输出损失值满足所述预设条件,则退出所述预训练,得到完成预训练的语义识别模型;
[0166]
利用所述完成预训练的语义识别模型对待打标签的文本执行打标签操作,得到所述待打标签文本的标签。
[0167]
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0168]
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0169]
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
[0170]
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
[0171]
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
[0172]
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用
密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
[0173]
本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0174]
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
[0175]
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献