一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

文本信息抽取方法、模型训练方法、装置及存储介质与流程

2021-11-05 18:22:00 来源:中国专利 TAG:
1.本发明涉及自然语言处理技术,尤其是一种文本信息抽取方法、模型训练方法、装置及存储介质。
背景技术
::2.随着人工智能(artificialintelligen\ce,ai)技术的发展和具体领域的应用需求的不断增长,将人工智能技术应用到诸如医疗领域等具体领域的研究得到了发展。其中,自然语言处理(naturallanguageprocessing,nlp)技术为人工智能技术的重要分支。其中,文本信息抽取是自然语言处理技术中一项重要任务。目前通常使用深度学习模型进行文本信息抽取任务,深度学习模型的良好效果建立在大量高质量标注数据的基础之上,数据量越大,训练出的深度学习模型越容易泛化且切合实际,虽然深度学习方法能够自动提取出难以由人工规则得出的数据特征,但其过程属于黑盒模型,这就意味着对于某些可由人工规则提取出的特征,深度迁移学习模型可能无法保证能将该特征提取出来。因此深度学习模型仍然需要使用人工特征,因此又提出了将人工特征与深度迁移学习的特征结合的方式来优化模型整体性能,但目前上述结合方式的预测效果不够理想。技术实现要素:3.为解决上述技术问题的至少之一,本技术提供了一种文本信息抽取方法、模型训练方法、文本信息抽取装置、模型训练装置及计算机可读存储介质,以提高文本信息抽取的准确性。4.根据本技术的第一方面,提供一种文本信息抽取方法,包括以下步骤:5.获取待处理文本;6.获取所述待处理文本的多个文本属性信息;7.将所述待处理文本输入至第一机器学习模型,对所述待处理文本进行特征提取得到多个第一文本特征信息;8.将多个所述文本属性信息输入至第二机器学习模型,对输入至所述第二机器学习模型的各个所述文本属性信息进行交叉组合,得到多个文本交互属性信息,所述第二机器学习模型将多个所述文本属性信息和多个所述文本交互属性信息进行组合,得到组合属性信息;9.将所述组合属性信息分别与各个所述第一文本特征信息进行拼接,得到多个第二文本特征信息;10.将多个所述第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定所述待处理文本的目标文本信息。11.根据本技术的第二方面,提供一种模型训练方法,包括以下步骤:12.取训练数据,所述训练数据包括训练文本和标注信息,所述标注信息用于标注所述训练文本的目标文本信息;13.获取所述训练文本的多个文本属性信息;14.将所述训练文本输入至第一机器学习模型,对所述训练文本进行特征提取得到多个第一训练文本特征信息;15.将多个所述文本属性信息输入至第二机器学习模型,对输入至所述第二机器学习模型的各个所述文本属性信息进行交叉组合,得到多个文本交互属性信息,所述第二机器学习模型将多个所述文本属性信息和多个所述文本交互属性信息进行组合,得到训练文本组合属性信息;16.将所述训练文本组合属性信息分别与各个所述第一训练文本特征信息进行拼接,得到多个第二训练文本特征信息;17.将多个所述第二训练文本特征信息输入至分类模型进行分类处理,确定所述训练文本的预测文本抽取结果;18.根据所述预测文本抽取结果和所述标注信息,对所述第一机器学习模型、所述第二机器学习模型、所述分类模型中至少一个模型的参数进行修正。19.根据本技术的第三方面,提供一种文本信息抽取装置,包括:20.文本获取装置,用于获取待处理文本;21.文本获取装置,用于获取待处理文本;22.文本属性获取装置,用于获取所述待处理文本的多个文本属性信息;23.文本特征识别单元,用于将所述待处理文本输入至第一机器学习模型,对所述待处理文本进行特征提取得到多个第一文本特征信息;24.属性组合单元,用于将多个所述文本属性信息输入至第二机器学习模型,对输入至所述第二机器学习模型的各个所述文本属性信息进行交叉组合,得到多个文本交互属性信息,所述第二机器学习模型将多个所述文本属性信息和多个所述文本交互属性信息进行组合,得到组合属性信息;25.文本特征拼接单元,用于将所述组合属性信息分别与各个所述第一文本特征信息进行拼接,得到多个第二文本特征信息;26.预测单元,用于将多个所述第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定所述待处理文本的目标文本信息。27.根据本技术的第四方面,提供了一种模型训练装置,包括:28.训练数据获取装置,用于获取训练数据,所述训练数据包括训练文本和标注信息,所述标注信息用于标注所述训练文本中的目标文本信息;29.训练文本属性获取装置,用于获取所述训练文本的多个文本属性信息;30.训练文本特征识别单元,用于将所述训练文本输入至第一机器学习模型,对所述训练文本进行特征提取得到多个第一训练文本特征信息;31.属性组合单元,用于将多个所述文本属性信息输入至第二机器学习模型,对输入至所述第二机器学习模型中的各个所述文本属性信息进行交叉组合,得到多个文本交互属性信息,所述第二机器学习模型将多个所述文本属性信息和多个所述文本交互属性信息进行组合,得到训练文本组合属性信息;32.训练文本特征组合单元,用于将所述训练文本组合属性信息分别与各个所述第一训练文本特征信息进行拼接,得到多个第二训练文本特征信息;33.预测单元,用于将多个所述第二训练文本特征信息输入至分类模型中进行分类处理,确定所述训练文本的预测文本抽取结果;34.修正单元,用于根据所述预测文本抽取结果和所述标注信息,对所述第一机器学习模型、所述第二机器学习模型、所述分类模型中至少一个模型的参数进行修正。35.根据本技术的第五方面,提供一种文本信息抽取装置,包括:36.至少一个存储器,用于存储程序;37.至少一个处理器,用于加载所述程序以执行上述的文本信息抽取方法。38.根据本技术的第六方面,提供一种模型训练装置,包括:39.至少一个存储器,用于存储程序;40.至少一个处理器,用于加载所述程序以执行上述的模型训练方法。41.根据本技术的第七方面,提供了一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令被处理器执行上述的文本信息抽取方法,或者,执行上述的模型训练方法。42.本技术实施例的有益效果是:43.将获取的待处理文本输入至第一机器学习模型,提取待处理文本的第一文本特征信息,另外,还获取待处理文本的多个文本属性信息,通过第二机器学习模型对多个文本属性信息进行交叉组合后得到多个文本交互属性信息,进一步将文本交互属性信息和文本属性信息进行组合得到组合属性信息。通过将所述组合属性信息分别与各个所述第一文本特征信息进行拼接,得到多个第二文本特征信息,将多个所述第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定所述待处理文本中的目标文本信息。通过引入多个文本属性信息,并且对多个文本属性信息进行交叉组合,能够加强不同文本属性信息之间的交互,以识别到最有区分性的特征组合表示,组合属性信息同时能够丰富候选预测结果的多样性,能有效辅助对文本信息的抽取,提高文本信息抽取的准确性。附图说明44.图1是已有的文本信息抽取模型结构示意图;45.图2是本技术实施例提供的文本信息抽取方法的使用场景示意图;46.图3是本技术实施例提供的文本信息抽取方法的方法流程图;47.图4是本技术实施例提供的第三机器学习模型的模型结构示意图;48.图5是本技术实施例提供的文本信息抽取模型结构示意图;49.图6是图3步骤330的一个实施例的具体方法流程图;50.图7是bert模型一个实施例的结构原理图;51.图8是图3步骤340的一个实施例的具体方法流程图;52.图9是softmax分类器的结构原理图;53.图10是本技术实施例提供的模型训练方法的方法流程图;54.图11是图10步骤1040的一个实施例的具体方法流程图。具体实施方式55.下面结合说明书附图和具体的实施例对本技术进行进一步的说明。所描述的实施例不应视为对本技术的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。56.在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。57.除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的
技术领域
:的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本技术实施例的目的,不是旨在限制本技术。58.对本技术实施例进行进一步详细说明之前,对本技术实施例中涉及的名词和术语进行说明,本技术实施例中涉及的名词和术语适用于如下的解释。59.1)文本信息:指文本所携带的信息,包括文本的语义、类别、关键词或实体对等。60.2)文本属性信息:指一般文本的特性类型信息,比如文本信息内容的类别(例如新闻资讯、娱乐资讯等)、文本中关键词的类别(例如体育名词、乐器名词、建筑名词等)、文本的通用特性(例如句子长度、词频)等。61.3)自然语言处理nlp(naturallanguageprocessing):是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言处理包括多方面和步骤,基本有认知、理解、生成等部分。自然语言认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言。62.4)关键词抽取:从文本中抽取同文本具有主题相关性且具有商业性的词或短语。63.5)人工特征:通过人工构造的帮助模型进行训练的特征,例如将模型识别的文本分类信息、通过识别图片中的文字信息等作为特征引入模型中。64.6)字符串匹配算法:它是按照一定的策略将待分析的字符串与一个机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。65.7)n元语法的分词算法:其基本思想是,首先根据词典(可以是从训练语料中抽取出来的词典,也可以是外部词典)对句子进行简单匹配,找出所有可能的词典词,然后,将它们和所有单个字作为结点,构造的n元切分词图,图中的结点表示可能的词候选,边表示路径,边上的n元概率表示代价,最后利用相关搜索算法(动态规划)从图中找到代价最小的路径作为最后的分词结果。66.8)特征融合策略:将人工特征加入机器学习模型/深度学习模型的策略。67.9)rnn:全称为recursiveneuralnetworks,递归神经网络,是具有树状阶层结构且网络节点按其连接顺序对输入信息进行递归的人工神经网络。68.10)bert:全称为bidirectionalencoderrepresentationsfromtransformers,一种利用海量文本的语言模型训练方法,该方法被广泛用于多种自然语言处理任务,如文本分类、文本匹配、机器阅读理解等。69.11)人工神经网络:简称神经网络(neuralnetwork,nn),在机器学习和认知科学领域,是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于对函数进行估计或近似。70.12)模型参数:是使用通用变量来建立函数和变量之间关系的一个数量。在人工神经网络中,模型参数通常是实数矩阵。71.13)因子分解机(fm,factormachine)算法:一种基于矩阵分解的机器学习算法,通过对两两特征组合,引入交叉项特征,解决了大规模稀疏数据中的特征组合问题。72.14)token:词单元,对输入文本做任何实际处理前,都需要将其分割成诸如词、标点符号、数字或纯字母数字等语言单元。这些单元被称为词单元。73.15)softmax:归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的k维向量“压缩”到另一个k维实向量中,使得每一个元素的范围都在[0,1]之间,并且所有元素的和为1。[0074]本技术实施例所提供的文本的文本信息抽取方法和模型训练方法均可以应用于人工智能之中。人工智能(artificialintelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。[0075]人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。[0076]人工智能云服务,一般也被称作是aiaas(aiasaservice,中文为“ai即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说aiaas平台会把几类常见的ai服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个ai主题商城:所有的开发者都可以通过api接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的ai框架和ai基础设施来部署和运维自己专属的云人工智能服务。[0077]自然语言处理(naturelanguageprocessing,nlp)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。[0078]机器学习(machinelearning,ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。[0079]机器学习(machinelearning,ml)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。[0080]在文本信息抽取任务中,通常使用深度学习模型进行文本信息抽取任务,其中,目前通常使用深度学习模型进行文本信息抽取任务,深度学习模型的良好效果建立在大量高质量标注数据的基础之上,数据量越大,训练出的深度学习模型越容易泛化且切合实际,虽然深度学习方法能够自动提取出难以由人工规则得出的数据特征,但其过程属于黑盒模型,这就意味着对于某些可由人工规则提取出的特征,深度迁移学习模型可能无法保证能将该特征提取出来。[0081]因此深度学习模型仍然需要使用辅助训练特征,而由人工构建的辅助训练特征为人工特征,因此又提出了将人工特征与深度迁移学习的特征结合的方式来优化模型整体性能,即深度学习模型同时处理稀疏特征和稠密特征,使得模型同时具有记忆能力和泛化能力。参见图1所示,是一种深度学习算法模型,包括图1左侧所示的深度语义模型110和图1右侧显示的人工特征模型120,例如一个给定的输入文本t,其中输入文本t由多个词组成,即t=[t1,t2,…,tn],ti是输入文本t中的第i个词。可以使用分词算法,将一个输入文本t拆分成多次词ti,例如可以采用字符串匹配算法、基于n元语法的分词算法或者基于机器学习模型的分词算法等进行分词。参见图1所示,深度语义模型110包括序列模型,例如基于rnn模型或bert模型的序列模型。例如对于输入文本“演奏钢琴指南”,可以通过分词算法分为“演奏”、“钢琴”、“指南”三个词组,然后输入至深度语义模型110中,以bert模型为例,上述的词组ti分别输入至图1所示的bert模型对输入文本的字符进行处理后生成词向量x,词向量x表示为:[0082]x=x1,x2,…,xn,x=fbert([t1,t2,...tn]);[0083]参照图1所示,再通过语义模型111对向量x进行语义识别处理,其中图1中所示的语义模型对上述的各个词向量进行组合求平均,生成候选词k={p1,p2,…,pm},其中m是候选关键词个数,pi为每个候选词的向量表示,其中,[0084]pi=average(xl,xl 1,…,xr),xl,xl 1,…,xr为第i个候选词中的每个词的语义输出表示。例如图1中p3(对应候选词为钢琴指南)是由x2(对应的词向量为钢琴)和x3(对应的词向量为指南)求平均得到,例如通过图1所示的avg函数计算平均值。[0085]参见图1所示,对于输入文本t有两个人工特征:文本类目cd和候选词类目ci,其中文本类目cd和候选词类目ci是人工构造的帮助模型进行训练的特征,而对于上述输入文本t“演奏钢琴指南”对应的文本类目cd为“声乐”,对应的候选词类目ci为“乐器”。文本类目cd和候选词类目ci分别通过全连接权重矩阵lookuptable转换为特征向量,分别表示为fdoc和fi,。然后分别将fdoc和fi,与各个候选词向量pi进行直接拼接,生成的候选词的预测向量表示yi=w[ki;fdoc;fi,] b,其中i,j是大于等于1的正整数,[·]代表向量按维度拼接。最后,将预测向量输入至归一化层softmax模型中,判断第i个候选词是否为目标关键词labeli,即:申请人通过对上述模型进行仔细研究得知,上述模型中关键词的语义特征与辅助训练特征并没有进行有效的交互和融合,因此预测中不能有效对关键词抽取模型本身进行辅助,导致文本信息抽取任务的预测效果不够理想。[0086]有鉴于此,本技术通过对多个文本属性特征进行交叉融入文本语义表示的信息中,能够帮助进行文本信息抽取,提高文本信息抽取任务的预测效果。[0087]图2是本发明实施例提供的文本信息抽取方法的使用场景示意图,系统架构200可以包括终端设备201、202、203,网络204和服务器205。网络204用以在终端设备201、202、203和服务器205之间提供通信链路的介质。网络204可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。[0088]用户可以使用终端设备201、202、203通过网络204与服务器205交互,以接收或发送消息等。其中,终端设备201、202、203可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、虚拟现实设备、智能家居设备等等。[0089]服务器205可以是提供各种服务的服务器,例如对用户利用终端设备201、202、203所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。[0090]服务器205可例如从训练数据中获取训练文本及其标注信息,其中标注信息用于标注训练文本中当前文本信息抽取任务的目标文本信息。通过目标模型的第一机器学习模型和训练文本进行处理,并通过目标模型的第二机器学习模型对训练文本的多个文本属性信息进行处理,然后将第一机器学习模型的输出结果和第二机器学习模型的输出结果进行组合并再分类,以获得训练文本的目标文本信息,根据训练文本的目标文本信息以及标注信息,确定目标损失以训练目标模型。[0091]应该理解,图2中的终端设备、网络204和服务器205的数目仅仅是示意性的,服务器205可以是一个实体的服务器,还可以为多个服务器组成,根据实际需要,可以具有任意数目的终端设备、网络和服务器。[0092]参照图3,本技术实施例提供的一种文本信息抽取方法的一个可选的流程图,图4中的方法步骤包括步骤310至步骤360;[0093]步骤310,获取待处理文本。[0094]在本步骤中,待处理文本可以只包括一个句子,也可以包括由多个句子组成的语段,甚至是由多个语段组成的文章。待处理文本可以从互联网获取、由本地输入装置输入或者从存储器读取,例如,可以从服务器搜索用户曾经浏览过的网页中提取待处理文本(例如网页的标题、软件描述,资讯文章中获取到的原始文本信息作为待处理文本)。[0095]步骤320,获取待处理文本的多个文本属性信息。[0096]在本步骤中,文本属性信息与待处理文本之间存在关联,文本属性信息为待处理文本的特性类型,一实施例中,可以是文本信息内容的类目,例如文本信息的内容为关于新闻资讯、娱乐资讯、体育资讯等类目。一实施例中,也可以是文本中关键词的类目,例如文本信息中的关键词的类目为游戏、体育、乐器、建筑等。一实施例中,也可以是与文本信息内容无关的文本通用特性,例如句子长度、词频等。在本步骤中,需要获取多个文本属性信息,其中,文本属性信息的类型可以相同或者不同。例如待处理文本“s游戏今天上线”的文本类目可以同时包括游戏类目和新闻资讯类目,因此可以获取游戏类目和新闻资讯类目的文本属性信息,而该两个文本属性信息的类型均为文本类目。再例如待处理文本“真人街机捕鱼”中的文本类目为“游戏”,关键词的类目也为“游戏”,但这两个文本属性的类型不同。其中上述的类目可以为一级类目,也可以设置为多级类目,以三级类目为例,在一级类目资讯下,可以有二级类目娱乐,而在二级类目娱乐下,可以有三级类目游戏。通过设置多级类目,能够便于对各个类目信息进行归类整理。[0097]一实施例中,上述多个的文本属性信息的文本属性类型可被预先设定。以获取两个文本属性信息为例,可以限定第一个文本属性信息的类型为文本类目,第二个文本属性信息的类型为关键词类目。设定的方式可以通过人工进行构建,例如分别为文本类目和关键词类目构建文本类目集合和关键词类目集合,文本属性信息在文本类目集合和关键词类目集合中选择,又或者分别构建提取文本类目和关键词类目的算法或预测模型,实现文本类目和关键词类目的自动获取。[0098]一实施例中,文本属性信息可以和待处理文本一起获取,例如用户正在浏览游戏分类或游戏网页中的文章,则可以在获取该文章作为待处理文本的同时,将浏览页面的网页分类或游戏分类提取作为文本属性信息。另一实施例中,也可以将步骤310获取的待处理文本进行进一步的处理,从待处理文本中提取出文本属性信息,例如通过算法或者第三机器学习模型提取待处理文本的多个文本属性信息。其中,用户在训练第三机器学习模型过程中,可以通过构建特定的训练样本,调节第三机器学习模型输出的文本属性信息的类型。[0099]步骤330,将待处理文本输入至第一机器学习模型,对待处理文本进行特征提取得到多个第一文本特征信息。[0100]本步骤中,第一机器学习模型为预先训练好的机器学习模型,第一机器学习模型的处理对象为待处理文本,用于直接提取待处理文本的第一文本特征信息。其中,第一文本特征信息可以是待处理文本的关键词特征、分类信息或语义信息等。一实施例中,第一机器学习模型包括深度序列模型(例如rnn模型或bert模型)和语义模型,其中深度序列模型用于将待处理文本转换为向量特征,语义模型进一步从该向量特征中提取多个候选文本特征(例如候选的关键词),形成第一文本特征信息。例如对于待处理文本“真人街机捕鱼”经过第一机器学习模型处理后,会得到表示“真人街机捕鱼”、“街机”、“街机捕鱼”和“捕鱼”的第一文本特征信息。[0101]一实施例中,可以首先使用分词算法或者分词模型将待处理文本进行分词处理后再输入至深度序列模型中。[0102]另外,一实施例中,第一机器学习模型还可以使用语义匹配等模型进行第一文本特征信息的匹配预测得到第一文本特征信息。[0103]步骤340,将多个文本属性信息输入至第二机器学习模型,对输入至第二机器学习模型的各个文本属性信息进行交叉组合,得到多个文本交互属性信息,第二机器学习模型将多个文本属性信息和多个文本交互属性信息进行组合,得到组合属性信息。[0104]本步骤中,第二机器学习模型为预先训练好的机器学习模型,用于对输入的多个文本属性信息进行融合交互,融合交互的过程为:将各个文本属性信息进行交叉组合形成文本交互属性信息,然后将文本交互属性信息与各个文本交互属性信息再进行组合,得到组合属性信息。也就是说,组合属性信息包括文本属性信息以及由各个文本属性交叉组合的文本交互属性信息。一实施例中,第二机器学习模型可以采用因子分解机算法模型。[0105]步骤350,将组合属性信息分别与各个第一文本特征信息进行拼接,得到多个第二文本特征信息。[0106]本步骤中,将第一机器学习模型和第二机器学习模型的输出结果进行拼接,其中第一机器学习模型形成多个第一文本特征信息,第二机器学习模型对多个文本属性信息融合交互后形成一个组合属性信息。通过将该组合属性新型分别与各个第一文本特征进行拼接,得到多个第二文本信息。一实施例中,可以将组合属性新型分别拼接在各个第一文本特征的尾部。[0107]步骤360,将多个第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定待处理文本的目标文本信息。[0108]本步骤中,分类模型为预先训练好的学习模型。将组合有文本属性信息特征的第二文本特征输入至分类模型进行分类处理,该分类模型会预测输入的第二文本特征信息所表示的含义属于目标文本信息的概率。例如,将各个第二文本特征信息表示为y=y1,y2,...,yi,yi表示为第i个候选词。将第二文本特征信息输入到分类模型中进行预测,例如分类模型的输出结果是(0.4,0.05,0.5,....,0.05)。这说明本次分类结果中,y1为目标特征的概率是0.4,y2为目标特征的概率是0.05,y3为目标特征的概率为0.5,yi为目标特征的概率为0.05。对于上述概率,配合一定的阈值条件,可以确定出目标特征,例如设置0.3以上的概率为目标特征,则y1和y3均是目标特征,y1和y3对应的文本特征信息为目标文本信息。[0109]本技术实施例提供的技术方案,将获取的待处理文本输入至第一机器学习模型,提取待处理文本的第一文本特征信息,另外,还获取待处理文本的多个文本属性信息,通过第二机器学习模型对多个文本属性信息进行交叉组合后得到多个文本交互属性信息,进一步将文本交互属性信息和文本属性信息进行组合得到组合属性信息。通过将组合属性信息分别与各个第一文本特征信息进行拼接,得到多个第二文本特征信息,将多个第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定待处理文本中的目标文本信息。通过引入多个文本属性信息,并且对多个文本属性信息进行交叉组合,能够加强不同文本属性信息之间的交互,以识别到最有区分性的特征组合表示,组合属性信息同时能够丰富候选预测结果的多样性,能有效辅助对文本信息的抽取,提高文本信息抽取的准确性。[0110]一实施例中,所获取的多个文本属性信息中,包括文本属性类型为文本类目的第一文本属性信息,以及文本属性类型为候选词类目的第二文本属性信息。通过限定文本属性的类型为文本类目和候选词类目,再通过第二机器学习模型对文本类目和候选词类目进行融合,使本技术实施例能够适用于关键词信息的提取。例如,对于获取的两个文本属性信息c1和c2,可以限定c1的文本属性类型为文本类目,限定c2的文本属性类型为候选词类目。其中,设定的方式可以通过人工进行构建,例如分别为文本类目和关键词类目构建文本类目集合和关键词类目集合,文本属性信息c1在文本类目集合中选择,文本属性信息c2在关键词类目集合中选择。另外,参见上述实施例,还可以分别构建提取文本类目和关键词类目的算法或预测模型,实现文本类目和关键词类目的自动获取。例如,参见图4所示的第三机器学习模型,第三机器学习模型通过人工构建的训练数据进行训练,使其能够识别出待处理文本中的文本类目和候选词类目,例如,对于待处理文本“真人街机捕鱼”,输入至第三机器学习模型中进行识别后,会提取出文本类目的文本属性信息cd=“游戏”,以及提取出候选词类目的文本属性信息ci=“游戏”。其中第三机器学习模型可以采用目前成熟的机器学习模型,例如决策树、神经网络模型、支持向量机模型等。[0111]参见图5所示,为服务器205中的一个目标模型的实施例,目标模型包括第一机器学习模型510、第二机器学习模型520和分类模型530。其中第一机器学习模型510包括深度序列模型511和语义模型512。[0112]参照图6所示,一实施例中,上述步骤330,具体包括以下步骤:[0113]步骤610,对待处理文本进行字符处理得到多个词组。[0114]本步骤中,待处理文本由分词算法或分词模型划分成多个词组,例如对于待处理文本“真人街机捕鱼”,经过分词后形成“真人”“街机”“捕鱼”三个词组。待处理文本以t表示,则t=[t1,t2,…,tn],ti是输入文本t中的第i个词。则上述的t1=“真人”,t2=“街机”,t3=“捕鱼”。通过对待处理文本进行字符处理,能便于第一机器学习模型510的识别处理,提高第一机器学习模型510的识别处理效率。[0115]步骤620,将多个词组输入至第一机器学习模型,对多个词组进行语义识别,得到多个第一文本特征信息,其中,第一文本特征信息为候选词特征向量。[0116]本步骤中,如图7所示,第一机器学习模型510中的深度序列模型511采用bert模型,其中bert模型通过迁移学习得到(针对自己的应用对别人预训练好的模型上进行二次训练)。待处理文本以词组为单位t=[t1,t2,…,tn],作为bert模型输入侧的tok1、tok2、……、tokn,经过bert模型对输入文本的字符进行处理后生成词向量x,词向量x表示为:x=x1,x2,…,xn,x=fbert([t1,t2,...tn])。[0117]然后,再通过语义模型对向量x进行语义识别处理,其中图5中所示的语义模型512对上述的各个词向量进行组合求平均,生成第一文本特征信息k={p1,p2,…,pm},其中m是候选关键词个数,pi为每个候选词的特征向量表示,其中,pi=average(xl,xl 1,…,xr),xl,xl 1,…,xr为第i个候选词中的每个词的语义输出表示。例如图5中p3(对应候选词为街机捕鱼)是由x2(对应的词向量为街机)和x3(对应的词向量为捕鱼)求平均得到的。其中,可以如图5所示使用avg函数计算平均值。[0118]另外,一实施例中,语义模型512除了使用组合求平均外,也可以采用加权和卷积处理的模型进行语义识别。[0119]通过上述步骤610和步骤620,从待处理文本中提取出第一文本特征信息。以便后续的进一步分类处理。[0120]参照图8所示,一实施例中,上述步骤340可以进一步包括以下步骤:[0121]步骤810,对输入至第二机器学习模型的各个文本属性信息两两交叉组合,得到多个文本交互属性信息。[0122]本步骤中,通过第二机器学习模型对各个输入的文本属性信息进行两两交叉组合,得到文本属性交互信息。例如,当有两个文本属性信息c1和c2,则将c1和c2交叉组合形成文本属性交互信息c12。当有三个文本属性信息c1、c2和c3,这将c1分别和c2、c3交叉组合,c2和c3交叉组合,形成c12、c12和c23文本交互属性信息。同理,也可以获取更多数量的文本属性信息进行交叉融合。通过对文本属性信息的两两交叉组合,能使各个文本属性信息进行充分的交互。[0123]步骤820,第二机器学习模型将多个文本属性信息与多个文本交互属性信息进行加权,得到文本组合属性信息。[0124]本步骤中,将多个文本属性信息与多个文本交互属性信息进行加权,得到组合属性信息。例如,对于两个文本属性信息c1和c2,通过上述步骤得到c1和c2的文本属性交互信息c12,在本步骤中,将c1、c2和c12进行加权,得到组合属性信息。[0125]一实施例中,结合图5所示对第二机器学习模型520的工作过程进一步说明,其中第二机器学习模型520采用因子分解机算法模型(fm模型),以文本属性信息的类型为文本类目cd和候选词类目ci为例,获取待处理文本t对应的文本属性信息cd=“游戏”,文本属性信息ci=“游戏”。其中文本属性信息可以和待处理文本一起获取,也可以通过算法或机器学习模型从待处理文本t中得到。获取到的文本类目cd和候选词类目ci分别通过全连接权重矩阵lookuptable转换为特征向量,分别表示为f1和f2。[0126]将f1和f2输入至fm模型中进行交叉融合处理,具体来说,通过fm模型建模得到的向量可以表示为:[0127][0128]其中i,j是大于等于1的正整数,w0,w1和wij为fm模型的参数,fi是每个文本属性信息的取值。上述fm模型中,w0为偏置项,为一阶项,w1表示一阶项的权重,一阶项包括了所有输入至fm模型的文本属性信息,为二阶项,wij表示二阶项的权重,二阶项实现了对各个文本属性信息的两两交叉组合并形成文本属性交互信息。对于二阶项可以通过分子分解求得,进而减少计算复杂度:[0129][0130]上述公式中,k是特征向量的维度,<vi,vj>表示二阶项的权重,vi,vj为fi对应的隐向量。使用fm模型将待处理文本分解后可以获得对应属性特性和隐向量以及偏置项,上述待处理文本中的文本类目、候选词类目分别对应一个属性特征,这些属性特征的一阶特征组成上述的一阶项,文本类目、候选词类目的隐向量组成上述的二阶项。[0131]最后对上述的偏置项、一阶项和二阶项求和形成组合属性信息,也可以理解为各个文本属性信息fi和各个文本属性交互信息fifj进行加权形成组合属性信息xfm,w0,w1和wij为组合属性信息的各阶权重。fm模型可以进一步加强不同文本属性信息之间的交互,它创造性地提出了交叉项,并利用隐向量的方式解决了交叉项参数系统的问题,可以更好地提取样本中的低阶项。[0132]参照图5所示,第一机器学习模型510对待处理文本t语义识别处理,得到多个第二文本特征信息pi=average(xl,xl 1,…,xr);第二机器学习模型520对各个文本属性信息进行处理得到组合属性信息一实施例中,第二文本特征信息pi和组合属性信息xfm均通过向量进行表示,因此可以通过字符合并算法例如concat函数将xfm向量与各个pi向量进行拼接,得到第二文本特征信息yi=[pi,xfm],其中i,j是大于等于1的正整数,[·]代表向量按维度拼接。[0133]参照图5所示,将拼接后的第二文本特征信息yi输入至分类模型530中进行处理,得到分类预测结果,以确定待处理文本的目标文本信息。其中,分类模型530可以采用归一化指数(softmax)分类器实现,参照图9所示,该softmax分类器由一个输入层910、第一隐层920、第二隐层930和输出层940所构成。通过该softmax分类器对n m维的向量进行归一化处理,最终将n m维的向量映射为一个z维的输出向量。该softmax分类器实际上的作用是将输入的向量映射到分类结果中。该分类模型会预测输入的第二文本特征信息所表示的含义属于目标文本信息的概率。例如,将各个第二文本特征信息表示为yi=y1,y2,...,yi,yi表示为第i个候选词,而通过分类模型可以判断第i个候选词是否是关键词labeli,即:[0134][0135]例如分类模型的输出结果是(0.4,0.1,0.4,0.1)。这说明本次分类结果中,y1为目标特征的概率是0.4,y2为目标特征的概率是0.1,y3为目标特征的概率为0.4,y4为目标特征的概率为0.1,配合一定的阈值条件,可以确定出目标特征,例如设置0.3以上的概率为目标特征,则确定y1和y3均是目标特征,y1和y3对应的文本特征信息为目标文本信息。例如,如图5所示,y1对应的目标文本信息为“真人街机捕鱼”,y3对应的目标文本信息为“街机捕鱼”,可见,通过图5所示的目标模型在待处理文本中提取出目标文本信息。[0136]参照图10是本实施例提供的一种模型训练方法的流程图。通过该方法进行训练的模型,可以应用于如图4所示的文本信息抽取方法中。在本技术实施例中,以图3所示的服务器305为执行主体为例子进行说明,服务器中设置有目标模型,目标模型包括第一机器学习模型510、第二机器学习模型520和分类模型530。其中第一机器学习模型510包括深度序列模型511和语义模型512。[0137]参见图10,该实施例的模型训练方法包括以下步骤1010至1070。[0138]步骤1010,获取训练数据,训练数据包括训练文本和标注信息,标注信息用于标注训练文本的目标文本信息。[0139]本步骤中,训练数据包括训练文本及其对应的标注信息,训练文本可以只包括一个句子,也可以包括由多个句子组成的语段,甚至是由多个语段组成的文章。其中训练文本可以从互联网获取、由本地输入装置输入或者从存储器读取。标注信息为训练文本在当前文本信息抽取任务所期待的输出结果,即为训练文本的目标文本信息,例如当前文本抽取任务为抽取关键词,则标注信息为训练文本的关键词,若文本抽取任务为对文本进行分类,则标注信息为文本的分类。标注信息可以通过人工进行标注,另外标注信息也可以通过算法自动生成,例如通过词库匹配训练文本中的关键词。[0140]步骤1020,获取训练文本的多个文本属性信息。[0141]本步骤中,文本属性信息的文本属性类型可被预先设定。以获取两个文本属性信息为例,可以限定第一文本属性信息的类型为文本类目,第二文本属性信息的类型为关键词类目。设定的方式可以通过人工进行构建,例如分别为文本类目和关键词类目构建文本类目集合和关键词类目集合,文本属性信息在文本类目集合和关键词类目集合中选择,又或者分别构建提取文本类目和关键词类目的算法或预测模型,实现文本类目和关键词类目的自动获取。文本属性信息可以和训练文本一起获取,也可以从训练文本中提取出文本属性信息,例如通过算法或者第三机器学习模型进行提取训练文本的多个文本属性信息。其中,用户可以通过构建特定的训练样本对第三机器学习模型进行训练,以构建第三机器学习模型输出的文本属性信息的类型。[0142]步骤1030,将训练文本输入至第一机器学习模型,对训练文本进行特征提取得到多个第一训练文本特征信息。本步骤与图3的步骤330的具体实现方式相同。[0143]步骤1040,将多个文本属性信息输入至第二机器学习模型,对输入至第二机器学习模型的各个文本属性信息进行交叉组合,得到多个文本交互属性信息,第二机器学习模型将多个文本属性信息和多个文本交互属性信息进行组合,得到训练文本组合属性信息。本步骤与图3的步骤340的具体实现方式相同。[0144]步骤1050,将训练文本组合属性信息分别与各个第一训练文本特征信息进行拼接,得到多个第二训练文本特征信息。本步骤与图3的步骤350的具体实现方式相同。[0145]步骤1060,将多个第二训练文本特征信息输入至分类模型进行分类处理,确定训练文本的预测文本抽取结果。本步骤与图3的步骤350的具体实现方式相同。[0146]步骤1070,根据预测文本抽取结果和标注信息,对第一机器学习模型、第二机器学习模型、分类模型中至少一个模型的参数进行修正。[0147]本步骤中,通过将标注信息与目标模型输出的预测文本抽取结果进行对比。计算交叉熵,然后通过bp(backpropagation,即误差反向传播)算法,来更新关系目标模型的参数。bp网络的输入输出关系实质上是一种映射关系:一个输入m个输出的bp神经网络所完成的功能是从一维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。这是bp算法得以应用的基础。反向传播算法主要由两个环节(激励传播、权重更新)反复循环迭代,直到网络的对输入的响应达到预定的目标范围为止。在模型学习级阶段,如果在输出层得不到期望的输出值,则取输出与期望的误差的平方和作为目标函数,转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,作为修改权值的依据,网络的学习在权值修改过程中完成,当误差达到所期望值时,网络学习结束。[0148]其中,一实施例中,可以同时对目标模型中的第一机器学习模型、第二机器学习模型、分类模型进行联合训练,以调整各个模型的参数。也可以单独训练调整某个学习模型的参数,例如单独调节第二机器学习模型的参数,或者固定一个模型而训练其他两个学习模型的参数,例如固定第一机器学习模型,对第二机器学习模型和分类模型法进行联合训练。[0149]参照图11所示,一实施例中,上述步骤1040进一步包括:[0150]步骤1110,对输入至第二机器学习模型的各个文本属性信息两两交叉组合,得到多个文本交互属性信息。本步骤与图8的步骤810的具体实现方式相同。通过对文本属性信息的两两交叉组合,能使各个文本属性信息进行充分的交互。[0151]步骤1120,第二机器学习模型将多个文本属性信息与多个文本交互属性信息进行加权,得到训练文本组合属性信息。本步骤与图8的步骤820的具体实现方式相同。[0152]本技术实施例提供的文本信息抽取方法相对于现有的类似算法识别性能更好,通过引入多个文本属性信息,并且对多个文本属性信息进行交叉组合,能够加强不同文本属性信息之间的交互,以识别到最有区分性的特征组合表示,组合属性信息同时能够丰富候选预测结果的多样性,能有效辅助对文本信息的抽取,提高文本信息抽取的准确性。[0153]本技术实施例提供文本信息抽取方法,可以应用与各种文本信息抽取任务,例如文本分类、实体抽取或者关键词抽取等,以关键词抽取为例,可以使用人工构建的文本属性信息优化的关键词抽取模型,以应用到广告业务下的用户关键词标签挖掘中,作为关键词定向应用到广告定向投放上,或是特征应用到广告系统粗排、精排模型中,或是辅助行业人群包挖掘。[0154]具体来说:先从广告标题、app描述、资讯文章等数据中获取到原始文本信息,然后使用本方案优化后的模型抽取出符合文本相关性和具有商业性的关键词,再和用户进行关联作为用户的标签数据。当流量端根据广告请求向相关人群投放广告时,可以根据用户相关的关键词标签进行投放。对于关键词抽取任务,申请人测试了文本类目和候选词类目作为文本属性信息的类别。对于两种类目特征,一共包含19个一级类目、214个二级类目和935个三级类目特征。对于训练数据,在实际业务中,在广告、app描述、电商标题、资讯文章四个场景不同文本中进行了训练数据的构建。利用已有的商业词库匹配得到训练数据中的候选关键词,然后使用已有类目抽取服务得到数据集中的类目特征。通过对目标模型的训练和测试,验证了fm模型融合人工特征的模型抽取性能的优越性。[0155]以下为本技术实施例提供的信息抽取模型和其他现有算法模型的性能对比测试。[0156][0157]表1数据集测试结果[0158]参见表1所示的数据集,将本技术实施例的使用fm模型融合人工特征策略模型与不使用人工特征的模型以及使用人工特征直接拼接的模型进行比较实验。其中,p为查准率(precision),是在预测当中查找准确个数的比例;r为查全率(recall),在预测中看看真正预测对的占全有对的比率。f1为对查准率和查全率的综合考量参数,其计算公式为:f1=2*p*r/(p r)。从表1可以看出使用fm模型融合人工特征的模型抽取性能的优越性。[0159]本技术实施例公开了一种文本信息抽取装置,包括:[0160]文本获取装置,用于获取待处理文本;[0161]文本获取装置,用于获取待处理文本;[0162]文本属性获取装置,用于获取待处理文本的多个文本属性信息;[0163]文本特征识别单元,用于将待处理文本输入至第一机器学习模型,对待处理文本进行特征提取得到多个第一文本特征信息;[0164]属性组合单元,用于将多个文本属性信息输入至第二机器学习模型,对输入至第二机器学习模型的各个文本属性信息进行交叉组合,得到多个文本交互属性信息,第二机器学习模型将多个文本属性信息和多个文本交互属性信息进行组合,得到组合属性信息;[0165]文本特征拼接单元,用于将组合属性信息分别与各个第一文本特征信息进行拼接,得到多个第二文本特征信息;[0166]预测单元,用于将多个第二文本特征信息输入至分类模型进行分类处理,得到分类预测结果,以确定待处理文本的目标文本信息。[0167]本技术实施例公开了一种模型训练装置,包括:[0168]训练数据获取装置,用于获取训练数据,训练数据包括训练文本和标注信息,标注信息用于标注训练文本中的目标文本信息;[0169]训练文本属性获取装置,用于获取训练文本的多个文本属性信息;[0170]训练文本特征识别单元,用于将训练文本输入至第一机器学习模型,对训练文本进行特征提取得到多个第一训练文本特征信息;[0171]属性组合单元,用于将多个文本属性信息输入至第二机器学习模型,对输入至第二机器学习模型中的各个文本属性信息进行交叉组合,得到多个文本交互属性信息,第二机器学习模型将多个文本属性信息和多个文本交互属性信息进行组合,得到训练文本组合属性信息;[0172]训练文本特征组合单元,用于将训练文本组合属性信息分别与各个第一训练文本特征信息进行拼接,得到多个第二训练文本特征信息;[0173]预测单元,用于将多个第二训练文本特征信息输入至分类模型中进行分类处理,确定训练文本的预测文本抽取结果;[0174]修正单元,用于根据预测文本抽取结果和标注信息,对第一机器学习模型、第二机器学习模型、分类模型中至少一个模型的参数进行修正。[0175]本技术实施例公开了一种文本信息抽取装置,包括:[0176]至少一个存储器,用于存储程序;[0177]至少一个处理器,用于加载程序以执行上述任意实施例的文本信息抽取方法。[0178]本技术实施例公开了一种模型训练装置,包括:[0179]至少一个存储器,用于存储程序;[0180]至少一个处理器,用于加载程序以执行任意实施例的模型训练方法。[0181]本技术实施例公开了一种计算机可读存储介质,存储有计算机可执行指令,计算机可执行指令被处理器执行上述任意实施例的文本信息抽取方法,或者,执行上述任意实施例的模型训练方法。[0182]本实施例公开一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述任意实施例的信息抽取方法或者实现上述任意实施例的模型训练方法。[0183]本技术的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或装置不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或装置固有的其他步骤或单元。[0184]应当理解,在本技术中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。[0185]在本技术所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其他的形式。[0186]作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。[0187]另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。[0188]所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read‑onlymemory,简称rom)、随机存取存储器(randomaccessmemory,简称ram)、磁碟或者光盘等各种可以存储程序代码的介质。[0189]对于上述方法实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。[0190]以上是对本技术的较佳实施进行了具体说明,但本技术并不限于所述实施例,熟悉本领域的技术人员在不违背本技术精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本技术权利要求所限定的范围内。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献