一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

对象文本中地点识别方法、装置、电子设备及存储介质与流程

2021-10-29 22:26:00 来源:中国专利 TAG:
1.本技术涉及文本处理领域,尤其涉及对象文本中地点识别方法、装置、电子设备及存储介质。
背景技术
::2.本部分旨在为权利要求书中陈述的本技术的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。3.本地信息是发生在某个局部区域或者与该区域有关的信息,在信息推荐领域,本地信息通常仅适合推荐给当地用户以及对该地感兴趣的用户,信息以新闻为例,相关技术中,通过在新闻文本中提取地点信息,以标注该新闻适合推荐的区域,为新闻的推荐提供依据。4.相关技术中,常采用基于地名词典进行匹配的方式提取对象文本中的地点信息,其将全国几千个省、市、区及行政地区的名称加入地名词典并建立字典树(trie树),使用ac自动机(aho‑corasickautomaton)多模匹配算法匹配对象文本内容,记录从对象文本中匹配到的各个地点的频数,按照频数由高到低进行排序,并结合地点的行政层级关系计算分数,取分数高的地点作为最终的地点标签,若从对象文本中未匹配到任何地点,则认为此对象文本内容是非本地信息。此种匹配方式的关键点在于字符串匹配,而全国部分城市的地名与常见名词同名,如山东省日照市、广东省中山市等,城市和城市之间也存在同名或相似的情况,如吉林省吉林市、辽宁省鞍山市与安徽省马鞍山市等,采用上述匹配方式的字符串匹配阶段易带来误判,导致地点识别不准确以及易误判为本地信息的问题。技术实现要素:5.为解决上述技术问题,本技术实施例提供了一种对象文本中地点识别方法、装置、电子设备及存储介质,提高了文本中地点识别的准确率。6.一方面,本技术一实施例提供了一种对象文本中地点识别方法,包括:7.获取待识别对象文本的文本关联信息和发布所述对象文本的账号信息;8.将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得所述对象文本的属性信息和所述对象文本的地点标签信息,所述对象文本的属性表征所述对象文本的内容是否属于本地信息,所述多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布所述样本对象文本的账号信息按照预设多任务学习深度神经网络模型进行训练获得的;9.根据所述对象文本的属性信息和所述对象文本的地点标签信息确定地点识别结果。10.在一种可能的实施方式中,所述多任务地点识别模型包括输入层、共享网络层、第一任务网络层和第二任务网络层;所述共享网络层与所述第一任务网络层、所述第二任务网络层分别相连接;11.所述第一任务网络层包括第一全连接层、第一分类器和第一输出层;所述第二任务网络层包括第二全连接层、第二分类器和第二输出层。12.在一种可能的实施方式中,所述共享网络层包括预训练模型;所述输入层后连接所述预训练模型,所述预训练模型后分别连接所述第一全连接层和所述第二全连接层,所述第一全连接层后连接所述第一分类器,所述第一分类器后连接所述第一输出层,所述第二全连接层后连接所述第二分类器,所述第二分类器后连接所述第二输出层。13.在一种可能的实施方式中,所述输入层后还连接所述第二全连接层,使得所述输入层的输入信息和所述预训练模型的输出信息作为所述第二全连接层的输入。14.在一种可能的实施方式中,将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得所述对象文本的属性信息和所述对象文本的地点标签信息,具体包括:15.将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入所述输入层,由所述输入层将所述字符串输入所述预训练模型,获得所述文本关联信息和所述账号信息对应的词向量;16.将所述词向量输入所述第一全连接层,得到第一特征向量,将所述第一特征向量输入所述第一分类器进行分类,获得所述对象文本的属性信息分类结果,并将所述对象文本的属性信息分类结果通过所述第一输出层输出;以及17.将所述文本关联信息和所述账号信息进行拼接后获得的字符串和所述词向量输入所述第二全连接层,得到第二特征向量,将所述第二特征向量输入所述第二分类器进行分类,获得所述对象文本的地点标签信息分类结果,并将所述对象文本的地点标签信息分类结果通过所述第二输出层输出。18.在一种可能的实施方式中,所述对象文本的文本关联信息包括所述对象文本的标题信息、所述对象文本的类别信息和所述对象文本中包含地名或具有本地属性特征的词语的对象文本片段;所述账号信息包括账号名称信息和账号属地信息。19.在一种可能的实施方式中,所述对象文本的属性信息包括:所述对象文本的内容为本地信息、所述对象文本的内容为非本地信息以及所述对象文本的内容为未知信息;20.根据所述对象文本的属性信息和所述对象文本的地点标签信息确定地点识别结果,具体包括:21.当确定所述对象文本的内容为非本地信息时,则确定所述地点识别结果为空;22.当确定所述对象文本的内容为本地信息时,则确定所述对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果,并将所述第一判定结果和概率最高的地点标签信息确定为所述地点识别结果;23.当确定所述对象文本的内容为未知信息时,则确定所述对象文本的内容为弱本地信息,得到第二判定结果,并将所述第二判定结果和所述概率最高的地点标签信息确定为所述地点识别结果。24.在一种可能的实施方式中,当确定所述对象文本的内容为本地信息时,则确定所述对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果,具体包括:25.当确定所述对象文本的内容为本地信息时,若所述对象文本的内容为本地信息的概率大于或者等于预设阈值,则确定所述对象文本的内容为强本地信息;若所述对象文本的内容为本地信息的概率小于所述预设阈值,则确定所述对象文本的内容为弱本地信息。26.在一种可能的实施方式中,通过以下方式获取所述账号属地信息:27.根据存储的账号名称信息和账号属地信息的对应关系列表获取所述账户名称信息对应的账号属地信息。28.一方面,本技术一实施例提供了一种对象文本中地点识别装置,包括:29.获取单元,用于获取待识别对象文本的文本关联信息和发布所述对象文本的账号信息;30.识别单元,用于将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得所述对象文本的属性信息和所述对象文本的地点标签信息,所述对象文本的属性表征所述对象文本的内容是否属于本地信息,所述多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布所述样本对象文本的账号信息按照预设多任务学习深度神经网络模型进行训练获得的;31.确定单元,用于根据所述对象文本的属性信息和所述对象文本的地点标签信息确定地点识别结果。32.在一种可能的实施方式中,所述多任务地点识别模型包括输入层、共享网络层、第一任务网络层和第二任务网络层;所述共享网络层与所述第一任务网络层、所述第二任务网络层分别相连接;33.所述第一任务网络层包括第一全连接层、第一分类器和第一输出层;所述第二任务网络层包括第二全连接层、第二分类器和第二输出层。34.在一种可能的实施方式中,所述共享网络层包括预训练模型;所述输入层后连接所述预训练模型,所述预训练模型后分别连接所述第一全连接层和所述第二全连接层,所述第一全连接层后连接所述第一分类器,所述第一分类器后连接所述第一输出层,所述第二全连接层后连接所述第二分类器,所述第二分类器后连接所述第二输出层。35.在一种可能的实施方式中,所述输入层后还连接所述第二全连接层,使得所述输入层的输入信息和所述预训练模型的输出信息作为所述第二全连接层的输入。36.在一种可能的实施方式中,所述识别单元,具体用于将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入所述输入层,由所述输入层将所述字符串输入所述预训练模型,获得所述文本关联信息和所述账号信息对应的词向量;37.将所述词向量输入所述第一全连接层,得到第一特征向量,将所述第一特征向量输入所述第一分类器进行分类,获得所述对象文本的属性信息分类结果,并将所述对象文本的属性信息分类结果通过所述第一输出层输出;以及38.将所述文本关联信息和所述账号信息进行拼接后获得的字符串和所述词向量输入所述第二全连接层,得到第二特征向量,将所述第二特征向量输入所述第二分类器进行分类,获得所述对象文本的地点标签信息分类结果,并将所述对象文本的地点标签信息分类结果通过所述第二输出层输出。39.在一种可能的实施方式中,所述对象文本的文本关联信息包括所述对象文本的标题信息、所述对象文本的类别信息和所述对象文本中包含地名或具有本地属性特征的词语的对象文本片段;所述账号信息包括账号名称信息和账号属地信息。40.在一种可能的实施方式中,所述对象文本的属性信息包括:所述对象文本的内容为本地信息、所述对象文本的内容为非本地信息以及所述对象文本的内容为未知信息;41.所述确定单元,具体用于当确定所述对象文本的内容为非本地信息时,则确定所述地点识别结果为空;42.当确定所述对象文本的内容为本地信息时,则确定所述对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果,并将所述第一判定结果和概率最高的地点标签信息确定为所述地点识别结果;43.当确定所述对象文本的内容为未知信息时,则确定所述对象文本的内容为弱本地信息,得到第二判定结果,并将所述第二判定结果和所述概率最高的地点标签信息确定为所述地点识别结果。44.在一种可能的实施方式中,所述确定单元,具体用于当确定所述对象文本的内容为本地信息时,若所述对象文本的内容为本地信息的概率大于或者等于预设阈值,则确定所述对象文本的内容为强本地信息;若所述对象文本的内容为本地信息的概率小于所述预设阈值,则确定所述对象文本的内容为弱本地信息。45.在一种可能的实施方式中,所述获取单元,具体用于通过以下方式获取所述账号属地信息:46.根据存储的账号名称信息和账号属地信息的对应关系列表获取所述账户名称信息对应的账号属地信息。47.一方面,本技术一实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行计算机程序时实现本技术所述的对象文本中地点识别方法。48.一方面,本技术一实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现本技术所述的对象文本中地点识别方法中的步骤。49.本技术实施例提供的对象文本中地点识别方法、装置、电子设备及存储介质,获取待识别对象文本的文本关联信息和发布该待识别对象文本的账号信息,将获取的文本关联信息和账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得该待识别对象文本的属性信息和地点标签信息,对象文本的属性表征对象文本的内容是否属于本地信息,该多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布对应样本对象文本的账户信息按照预设多任务学习深度神经网络模型进行训练获得的,进而,根据该待识别对象文本的属性信息和地点标签信息确定其地点识别结果。本技术实施例中,使用训练的多任务地点识别模型对待识别对象文本进行地点识别,将对象文本的内容是否属于本地信息和对象文本的地点标签提取两个相关任务融合到同一个神经网络模型中解决,其无需依赖于地名词典,避免了采用基于地名词典进行匹配的提取文本中地点的方式带来的误判,提高了地点识别的准确率,而且,相比于传统单任务模型的识别效果,其地点识别准确性更高。附图说明50.图1为本技术实施例提供的对象文本中地点识别方法的应用场景示意图;51.图2为本技术实施例提供的对象文本中地点识别方法的实施流程示意图;52.图3为本技术实施例提供的一多任务地点识别模型的结构图;53.图4为本技术实施例提供的又一多任务地点识别模型的结构图;54.图5为本技术实施例提供的获得待识别对象文本的属性信息和待识别对象文本的地点标签信息的实施流程示意图;55.图6为本技术实施例提供的根据待识别对象文本的属性信息和待识别文本的地点标签信息确定地点识别结果的实施流程示意图;56.图7为本技术实施例提供的对象文本中地点识别装置的结构示意图;57.图8为本技术实施例提供的电子设备的结构示意图。具体实施方式58.下面将参考若干示例性实施方式来描述本技术的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本技术,而并非以任何方式限制本技术的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。59.本领域技术人员知道,本技术的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。60.在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。61.为了方便理解,对本技术实施例中涉及的技术术语进行解释:62.1、本地新闻:指发生在某个局部区域或者与该区域有关的新闻内容。在信息流推荐时,本地新闻通常仅适合推荐给当地用户和对该地感兴趣的用户。本技术实施例中,本地新闻的区域范围最大可为一个省级行政单位,最小可为一个区县级行政单位。63.2、强本地新闻:指仅适合推荐给当地用户,而其它地区用户不关心的新闻内容。例如,这类新闻内容可为当地天气预报、市政设施建设、购房、中小学教育等资讯信息。64.3、弱本地新闻:指既可以推荐给当地用户,也可以推荐给对当地感兴趣用户的新闻内容。例如,这类新闻内容可为当地人文地理介绍、美食景点攻略、当地举办的会议、赛事报道等新闻信息。65.4、地点标签:是本地新闻特有的一种标签,在本文中,地点标签指明该新闻适合推荐的区域、以及该新闻属于强本地新闻还是弱本地新闻,地点可分为三级,级别由高到低分别代表区域所在的省(或自治区、直辖市)、市(或自治州、盟)和县(或区、旗),其中,省和自治区、直辖市属于相同级别,市和自治州、盟属于相同级别,县和区、旗属于相同级别。在输出地点识别结果时,强本地新闻可用“true”表示,弱本地新闻可用“false”表示,也可根据需要自行设定,本发明实施例对此不作限定。例如,一篇浙江省杭州市滨江区强本地新闻的地点标签可表示如下:浙江,杭州,滨江,true;非本地新闻则可以但不限于使用“null”表示。66.5、多任务学习(multi‑tasklearning,mtl):多任务学习是指同时训练两个及以上的任务,其是一种集成学习的方法。假设有多个待训练任务,各任务之间或者部分任务之间存在相互关联,多任务学习通过借助除主任务以外的部分或者全部任务的知识信息,来辅助提高主任务的效果,提升主任务的泛化能力。67.6、参数共享(parametersharing):是训练神经网络模型的一种方法,参数共享不仅可提高训练效率、减少参数规模,在一定程度上也能提升神经网络模型的泛化能力。参数共享可分为硬共享(hardsharing)、软共享(softsharing)以及共享‑私有(sharing‑private)等几种模式。参数的硬共享是指多个任务在底层使用相同的网络层参数,将输入数据映射到同一个空间,同时保留几个特定任务的输出层,在靠近输出层的位置,可针对不同的任务设计不同的网络结构,训练不同任务特定的参数。参数的软共享是指每个任务各自学习一个网络模型,不同任务的网络模型都可以获取其它任务对应网络中的信息,如向量表示和梯度信息等。参数的共享‑私有则是既包含参数共享的部分,也有各自任务私有的部分。68.7、交叉熵(crossentropy):是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性信息。在机器学习场景下,交叉熵作为一种损失函数,衡量真实数据分布与模型预测结果的相似性。在多分类问题中,损失函数为交叉熵损失函数,对于数据集中的样本点(x,y),y是真实标签,在多分类问题中其取值为标签集合(labels),假设有k个标签值,即表示任务是k分类的,且第i个样本预测为第k个标签值的概率为pi,k,共有n个样本,则该数据集的损失函数公式为:[0069][0070]其中,yi,k表示第i个样本为第k个标签值的真实概率。[0071]下面参考本技术的若干代表性实施方式,详细阐释本技术的原理和精神。[0072]发明概述[0073]本地信息是发生在某个局部区域或者与该区域有关的信息,在信息推荐领域,本地信息通常仅适合推荐给当地用户以及对该地感兴趣的用户,信息以新闻为例,相关技术中,通过在新闻文本中提取地点信息,以标注该新闻适合推荐的区域,为新闻的推荐提供依据。本技术发明人发现,相关技术中,常采用基于地名词典进行匹配的方式提取对象文本中的地点信息,其将全国几千个省、市、区及行政地区的名称加入地名词典并建立字典树,使用ac自动机多模匹配算法匹配对象文本内容,记录从对象文本中匹配到的各个地点的频数,按照频数由高到低进行排序,并结合地点的行政层级关系计算分数,取分数高的地点作为最终的地点标签,若从对象文本中未匹配到任何地点,则认为此对象文本内容是非本地信息。此种匹配方式的关键点在于字符串匹配,而全国部分城市的地名与常见名词同名,如山东省日照市、广东省中山市等,城市和城市之间也存在同名或相似的情况,如吉林省吉林市、辽宁省鞍山市与安徽省马鞍山市等,采用上述匹配方式的字符串匹配阶段易带来误判,导致地点识别不准确以及易误判为本地信息的问题。相关技术中针对上述技术方案做了改进,例如,一种改进方案如下:首先对对象文本的正文内容进行分词,仅对词性为地名的词进行匹配,还整理了一个误匹配词库,同样也构建trie树,在正向匹配的结果中再做一次过滤,以解决地名包含关系,如北京东路不会被对应到北京市,上饶师范大学不会被对应到上饶市,然而上述改进方案也依赖于分词器的准确性,此外,误匹配词库需要人工不断整理扩充,更新速度慢,效率低下,且针对同名的地名,上述改进方案也无法准确识别。[0074]基于此,为了解决上述问题,本技术提出了一种对象文本中地点识别方法、装置、电子设备及存储介质,获取待识别对象文本的文本关联信息和发布所述对象文本的账号信息;[0075]将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得所述对象文本的属性信息和所述对象文本的地点标签信息,所述对象文本的属性表征所述对象文本的内容是否属于本地信息,所述多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布所述样本对象文本的账号信息按照预设多任务学习深度神经网络模型进行训练获得的;根据所述对象文本的属性信息和所述对象文本的地点标签信息确定地点识别结果。本技术实施例中,使用训练的多任务地点识别模型对待识别对象文本进行地点识别,将对象文本的内容是否属于本地信息和对象文本的地点标签提取两个相关任务融合到同一个神经网络模型中解决,其无需依赖于地名词典,避免了采用基于地名词典进行匹配的提取文本中地点的方式带来的误判,提高了地点识别的准确率,而且,相比于传统单任务模型的识别效果,其地点识别准确性更高。[0076]在介绍了本技术的基本原理之后,下面具体介绍本技术的各种非限制性实施方式。[0077]应用场景总览[0078]参考图1,其为本技术实施例提供的对象文本中地点识别方法的应用场景示意图。该应用场景可以包括终端设备101和服务器102,终端设备101和服务器102之间通过通信网络连接。终端设备101可向服务器102发送地点识别请求,以请求服务器102对终端设备101发送的待识别对象文本进行地点识别,服务器102确定地点识别结果后,将地点识别结果返回至终端设备101,终端设备101接收到该地点识别结果后可进行显示。[0079]其中,通信网络可为局域网、广域网、移动互联网等,终端设备101可以但不限于为:智能手机、平板电脑、笔记本电脑、台式计算机等设备,服务器102可以是独立的物理服务器,也可以是提供云服务器、云数据库、云存储等基础云计算服务的云服务器,本技术实施例对此不作限定。[0080]示例性方法[0081]下面结合上述应用场景,来描述根据本技术示例性实施方式的对象文本中地点识别方法。需要注意的是,上述应用场景仅是为了便于理解本技术的精神和原理而示出,本技术的实施方式在此方面不受任何限制。相反,本技术的实施方式可以应用于适用的任何场景。[0082]参考图2,本技术实施例提供了一种对象文本中地点识别方法,可应用于图1所示的服务器102,具体可包括以下步骤:[0083]s21、获取待识别对象文本的文本关联信息和发布对象文本的账号信息。[0084]具体实施时,对象文本可以为用户通过注册的账号发布的文本,如新闻、论坛文章等等。终端设备向服务器发送地点识别请求,地点识别请求中至少携带有待识别对象文本、待识别对象文本的类别信息和发布该待识别对象文本的账号名称信息,服务器接收到所述地点识别请求后,获取待识别文本的文本关联信息和发布该待识别对象文本的账号信息,其中,待识别对象文本的文本关联信息包括待识别对象文本的标题信息、待识别对象文本的类别信息和待识别对象文本中包含地名或具有本地属性特征的词语的对象文本片段,账号信息包括发布该待识别对象文本的账号名称信息和账号属地信息。以待识别对象文本为一篇新闻为例,其中,待识别对象文本的类别信息是指该篇新闻的类别,如经济新闻、军事新闻、社会新闻等。[0085]具体地,服务器从待识别对象文本中提取待识别对象文本的标题信息,从待识别对象文本的正文中抽取包含地名或具有本地属性特征的词语的对象文本片段,在提取待识别对象文本的标题信息时,可做如下预处理:控制提取的字符数量不超过预设数量,预设数量可自行设置,如针对待识别对象文本的标题,可从前向后截取不超过40字,以xtitle表示提取的待识别对象文本的标题的字符个数,以lenghttitle表示待识别对象文本的标题的实际字符个数,则可以如下公式表示提取的标题的字符个数:[0086]xtitle=title[0:min(40,lenghttitle)][0087]在从待识别对象文本的正文中抽取包含地名或具有本地属性特征的词语的对象文本片段时,可做如下预处理:在待识别对象文本的正文中可按照出现地名或具有本地属性特征的词语的语句的句首开始从前之后截取指定数量的字符,指定数量可自行设定,例如可以设置为200字,也可以仅截取出现地名或具有本地属性特征的词语的语句,本发明实施例对此不作限定,其中,具有本地属性特征的词语可包括如“本省”、“我市”等潜在本地暗示词。[0088]在实施过程中,服务器可根据发布待识别对象文本的账号名称信息获取对应的账号属地信息。服务器预先存储账号名称信息和账户属地信息的对应关系列表,服务器根据存储的账号名称信息和账户属地信息的对应关系列表获取发布待识别对象文本的账号名称信息对应的账号属地信息。其中,账号属地信息可以为由省、市和县的格式拼接成的字符串,省还可以为和其平级的自治区或直辖市,市还可以为和其平级的自治州或盟,县还可以为和其平级的区或旗等,本发明实施例对此不作限定。[0089]具体地,可通过查询存储的账号名称信息和账户属地信息的对应关系列表,获得发布待识别对象文本的账号名称信息对应的账号属地信息,以xaccounttag表示账号属地信息,以account_table表示账号名称信息和账户属地信息的对应关系列表,以xaccount表示账号名称信息,则账号属地信息可以如下公式表示:[0090]xaccounttag=account_table[xaccount][0091]account_table[xaccount]表示账号名称信息和账户属地信息的对应关系列表account_table中账号名称信息xaccount对应的账号属地信息。[0092]s22、将文本关联信息和账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得对象文本的属性信息和对象文本的地点标签信息。[0093]具体实施时,服务器将获取的待识别对象文本的标题信息、待识别对象文本的类别信息、待识别对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布该待识别对象文本的账号名称信息和账号属地信息以[sep]符号分割后拼接成的字符串作为预先训练的多任务地点识别模型的输入,将该字符串输入多任务地点识别模型,获得待识别对象文本的属性信息和待识别对象文本的地点标签信息,其中,对象文本的属性表征对象文本的内容是否属于本地信息,多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布样本对象文本的账号信息按照预设多任务学习深度神经网络模型进行训练获得的,多任务学习深度神经网络模型可训练两个任务:识别所述样本对象文本的属性信息的任务,可记为第一任务,以及识别所述样本对象文本的地点标签信息的任务,可记为第二任务。[0094]s23、根据对象文本的属性信息和对象文本的地点标签信息确定地点识别结果。[0095]具体实施时,服务器根据获得的待识别对象文本的属性信息和待识别对象文本的地点标签信息共同确定地点识别结果。进而,将地点识别结果返回至终端设备,由终端设备将地点识别结果展示给终端用户。[0096]本技术实施例中,服务器获取待识别对象文本的文本关联信息和发布该待识别对象文本的账号信息,将获取的文本关联信息和账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得该待识别对象文本的属性信息和地点标签信息,对象文本的属性表征对象文本的内容是否属于本地信息,该多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布对应样本对象文本的账户信息按照预设多任务学习深度神经网络模型进行训练获得的,进而,根据该待识别对象文本的属性信息和地点标签信息确定其地点识别结果。本技术实施例中,使用训练的多任务地点识别模型对待识别对象文本进行地点识别,将对象文本的内容是否属于本地信息和对象文本的地点标签提取两个相关任务融合到同一个神经网络模型中解决,其无需依赖于地名词典,避免了采用基于地名词典进行匹配的提取文本中地点的方式带来的误判,提高了地点识别的准确率,而且,相比于传统单任务模型的识别效果,其地点识别准确性更高。[0097]作为一种可能的实施方式,本技术实施例中的多任务地点识别模型的结构图如图3所示,多任务地点识别模型可包括:输入层、共享网络层、第一任务网络层和第二任务网络层,共享网络层与第一任务网络层、第二任务网络层分别相连接,其中,第一任务网络层可包括第一全连接层、第一分类器和第一输出层,第二任务网络层可包括第二全连接层、第二分类器和第二输出层。共享网络层包括预训练模型,输入层后连接共享网络层,即输入层后连接所述预训练模型,预训练模型后分别连接第一全连接层和第二全连接层,第一全连接层后连接第一分类器,第一分类器后连接第一输出层,第二全连接层后连接第二分类器,第二分类器后连接第二输出层。上述多任务地点识别模型是基于样本对象文本集合根据预设多任务学习深度神经网络模型训练获得的,也就是说:训练的多任务学习深度神经网络模型的结构与多任务地点识别模型的结构相同。在训练过程中,可采用大量的新闻文本、包含资讯类信息的文本或者论坛文章文本组成的样本对象文本集合,提取样本对象文本集合中的每一样本对象文本中的文本关联信息和发布对应样本对象文本的账号信息作为多任务学习深度神经网络模型的输入,预训练模型可以但不限于采用预训练语言表征模型:ernie模型,第一全连接层和第二全连接层均可为初始时参数相同的全连接层,第一分类器和第二分类器可以均采用softmax分类器,本发明实施例对此不作限定,则第一任务的输出可以如下公式表示:[0098]y1=softmax(∑(w1*ernie(x)) b1)[0099]其中,y1表示第一任务的第一输出层的输出结果,也就是样本对象文本的内容属于本地信息的概率、样本对象文本的内容属于非本地信息的概率和样本对象文本的内容为未知的概率,样本对象文本的内容属于本地信息的概率与属于非本地信息的概率、为未知的概率之和等于1;x表示输入的字符串,即:对样本对象文本的标题信息、样本对象文本的类别信息、样本对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布该样本对象文本的账号名称信息和账号属地信息进行拼接获得的字符串;ernie(x)表示将字符串x输入到共享网络层中的预训练语言表征模型ernie模型,获得的字符串x对应的词向量,将ernie(x)的输出(即字符串x对应的词向量)作为第一全连接层的输入,将第一全连接层的输出输入第一全连接层之后连接的softmax分类器,通过softmax函数进行分类获得输出结果y1,w1表示第一全连接层的权重参数,b1表示第一全连接层的偏置参数。[0100]第二任务的输出可以如下公式表示:[0101]y2=softmax(∑(w2*ernie(x)) b2)[0102]其中,y2表示第二任务的第二输出层的输出结果,也就是预测出的样本对象文本的各个地点标签信息的概率,各个地点标签信息的概率之和等于1;x表示输入的字符串,即:对样本对象文本的标题信息、样本对象文本的类别信息、样本对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布该样本对象文本的账号名称信息和账号属地信息进行拼接获得的字符串;ernie(x)表示将字符串x输入到共享网络层中的预训练语言表征模型ernie模型,获得的字符串x对应的词向量,将ernie(x)的输出(即字符串x对应的词向量)作为第二全连接层的输入,将第二全连接层的输出输入第二全连接层之后连接的softmax分类器,通过softmax函数进行分类获得输出结果y2,w2表示第二全连接层的权重参数,b2表示第二全连接层的偏置参数。[0103]作为一种可能的实施方式,本技术实施例中,为了增强第二任务的预测效果和准确性,还可以在输入层后连接第二全连接层,使得输入层的输入信息和共享网络层(即:预训练模型)的输出信息作为第二全连接层的输入,从而形成一个残差网络结构,从而形成的多任务地点识别模型如图4所示,该残差网络结构如图4中的粗实线所示。此时,第二任务的输出可以如下公式表示:[0104]y2=softmax(∑(w2*(ernie(x) x)) b2)[0105]其中,y2表示第二任务的第二输出层的输出结果,也就是预测出的样本对象文本的各个地点标签信息的概率,各个地点标签信息的概率之和等于1;x表示输入的字符串,即:对样本对象文本的标题信息、样本对象文本的类别信息、样本对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布该样本对象文本的账号名称信息和账号属地信息进行拼接获得的字符串;ernie(x)表示将字符串x输入到共享网络层中的预训练语言表征模型ernie模型,获得的字符串x对应的词向量,将ernie(x)的输出(即字符串x对应的词向量)与输入层的输入字符串x共同作为第二全连接层的输入,将第二全连接层的输出输入第二全连接层之后连接的softmax分类器,通过softmax函数进行分类获得输出结果y2,w2表示第二全连接层的权重参数,b2表示第二全连接层的偏置参数。[0106]在对多任务学习深度神经网络模型训练过程中,第一任务和第二任务可分别采用交叉熵作为损失函数,多任务学习深度神经网络模型的损失函数可以采用第一任务的损失函数和第二任务的损失函数的加权求和,在训练过程中不断调整多任务学习深度神经网络模型的各参数,直至模型收敛,获得多任务地点识别模型。[0107]多任务学习深度神经网络模型的损失函数具体公式表示如下:[0108]loss=w1*losstask1 w2*losstask2[0109]其中,loss表示多任务学习深度神经网络模型的损失函数;[0110]losstask1表示第一任务的损失函数,w1表示losstask1的权重;[0111]losstask2表示第二任务的损失函数,w2表示losstask2的权重。[0112]其中,w1和w2的取值可根据第一任务和第二任务的重要程度自行设置,w1 w2=1。[0113]作为一种可能的实施方式,针对图4所示的多任务地点识别模型结构,可按照如图5所示的流程执行步骤s22,获得待识别对象文本的属性信息和待识别对象文本的地点标签信息,具体包括以下步骤:[0114]s31、将待识别对象文本的文本关联信息和发布待识别对象文本的账号信息进行拼接后获得的字符串输入多任务地点识别模型的输入层,由输入层将字符串输入预训练模型,获得文本关联信息和账号信息对应的词向量。[0115]具体实施时,将提取的待识别对象文本的标题信息、待识别对象文本的类别信息、待识别对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布待识别对象文本的账号名称信息和账户属地信息以[sep]符合分割后拼接成的字符串输入多任务地点识别模型的输入层,再由输入层将该字符串输入共享网络层,即:预训练模型ernie模型,获得输入的该字符串对应的词向量。[0116]s32、将词向量输入第一全连接层,得到第一特征向量,将第一特征向量输入第一分类器进行分类,获得待识别对象文本的属性信息分类结果,并将待识别对象文本的属性信息分类结果通过第一输出层输出。[0117]具体实施时,将ernie模型输出的词向量输入第一全连接层,得到第一特征向量,再将第一特征向量输入其后连接的第一分类器softmax分类器进行分类,获得待识别对象文本的属性信息分类结果,即:待识别对象文本的内容属于本地信息的概率、待识别对象文本的内容属于非本地信息的概率和待识别对象文本的内容为未知的概率,并将该分类结果通过第一输出层输出。[0118]s33、将文本关联信息和账号信息进行拼接后获得的字符串和所述词向量输入第二全连接层,得到第二特征向量,将第二特征向量输入第二分类器进行分类,获得待识别对象文本的地点标签信息分类结果,并将待识别对象文本的地点标签信息分类结果通过第二输出层输出。[0119]具体实施时,将待识别对象文本的标题信息、待识别对象文本的类别信息、待识别对象文本中包含地名或具有本地属性特征的词语的对象文本片段、发布待识别对象文本的账号名称信息和账户属地信息拼接后的字符串和ernie模型输出的词向量共同作为第二全连接层的输入,通过第二全连接层得到第二特征向量,将第二特征向量输入其后连接的第二分类器softmax分类器进行分类,获得待识别对象文本的地点标签信息分类结果,即:预测的待识别对象文本的各个地点标签信息的概率,并将该地点标签信息分类结果通过第二输出层输出。[0120]如果多任务地点识别模型的结构为图3所示的结构,则本步骤中,仅将ernie模型输出的词向量作为第二全连接层的输入,此处不作赘述。[0121]需要说明的是,步骤s32和步骤s33可并行执行。[0122]作为一种可能的实施方式,本技术实施例中可按照如图6所示的流程执行步骤s23,根据待识别对象文本的属性信息和待识别对象文本的地点标签信息确定地点识别结果,具体包括以下步骤:[0123]s41、当确定待识别对象文本的内容为非本地信息时,则确定地点识别结果为空。[0124]具体实施时,如果第一任务对应的待识别对象文本的属性信息分类结果中,待识别对象文本的内容为非本地信息的概率大于或者等于第一指定阈值,则确定待识别对象文本的内容为非本地信息,确定地点识别结果为空,可以“null”表示,则输出的地点识别结果可为“null”,其中,第一指定阈值可根据实际情况自行设定,例如,可设置为0.6,本技术实施例对此不作限定。[0125]在另一种实施方式中,当确定待识别对象文本的内容为非本地信息时,也可以输出待识别对象文本的地点标签信息分类结果以及待识别对象文本的属性信息分类结果:null,即输出第二任务预测出的待识别对象文本的地点标签信息的概率最高的地点标签信息。[0126]以待识别对象文本为一篇新闻文本为例进行说明,当待识别对象文本为新闻文本时,多任务地点识别模型的第一任务的输出结果包括:新闻文本为本地新闻的概率、新闻文本为非本地新闻的概率和新闻文本为未知新闻的概率,第二任务的输出结果包括:识别的新闻文本中包含的各个地点标签信息的概率。假设该新闻文本中的地点标签信息的概率最高的地点标签信息为:吉林省长春市朝阳区,且新闻文本为非本地新闻,则输出的地点识别结果可为“吉林,长春,朝阳,null”。[0127]s42、当确定待识别对象文本的内容为本地信息时,则确定待识对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果,并将第一判定结果和概率最高的地点标签信息确定为地点识别结果。[0128]具体实施时,按照以下方式确定待识对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果:[0129]当确定待识别对象文本的内容为本地信息时,若待识别对象文本的内容为本地信息的概率大于或者等于预设阈值,则确定待识别对象文本的内容为强本地信息;若待识别对象文本的内容为本地信息的概率小于预设阈值,则确定待识别对象文本的内容为弱本地信息。其中,预设阈值大于第一指定阈值,预设阈值可结合第一指定阈值进行设定,例如,当第一指定阈值设置为0.6时,预设阈值可设置为0.7,本技术实施例对此不作限定。强本地信息可以“true”表示,弱本地信息可以“false”表示,本技术实施例对此不作限定。[0130]在具体实施时过程中,如果第一任务对应的待识别对象文本的属性信息分类结果中,待识别对象文本的内容为本地信息的概率大于或者等于第一指定阈值,则确定待识别对象文本的内容为本地信息。[0131]进而,将第一判定结果和概率最高的地点标签信息确定为地点识别结果。[0132]仍延续上例,假设新闻文本中概率最高的地点标签信息为:浙江省杭州市滨江区,若第一判断结果为:新闻文本为强本地新闻,则输出的地点识别结果可为“浙江,杭州,滨江,true”,若第一判断结果可为:新闻文本为弱本地新闻,则输出的地点识别结果为“浙江,杭州,滨江,false”。[0133]s43、当确定待识别对象文本的内容为未知信息时,则确定待识别对象文本的内容为弱本地信息,得到第二判定结果,并将第二判定结果和概率最高的地点标签信息确定为地点识别结果。[0134]具体实施时,为避免出现漏判,如果待识别对象文本的内容为未知信息时,也将待识别对象文本的内容确定为弱本地信息。[0135]具体地,如果第一任务对应的待识别对象文本的属性信息分类结果中,待识别对象文本的内容为未知信息的概率大于或者等于第一指定阈值,则确定待识别对象文本的内容为弱本地信息,得到第二判定结果,并将第二判定结果和概率最高的地点标签信息确定为地点识别结果。[0136]仍延续上例,假设新闻文本中概率最高的地点标签信息为:浙江省杭州市滨江区,若第二判断结果为:新闻文本为未知新闻,则输出的地点识别结果可为“浙江,杭州,滨江,false”。[0137]由于本技术实施例中将对象文本的内容是否为本地信息和对象文本中的地点标签信息提取两个相关联任务,融合到同一个模型即多任务地点识别模型中解决,本技术实施例中的多任务地点识别模型所包含的参数总量小于分别建立上述两个任务的模型的参数之和,参数量的减少,提升了运算速度,节省了运算资源。并且,利用本技术实施例中的多任务地点识别模型进行地点识别时,两个任务的准确率和召回率相比于现有方法均有显著提升。[0138]其中,精确率表示预测为正例的样本中真正正例的比例,召回率表示预测为正例的真实正例占所有正例的比例。[0139]为验证本技术实施例中提出的多任务地点识别模型的识别效果,以识别批量的新闻文本中的地点为例,由于本技术更关注本地新闻,对于判定新闻文本是否为本地新闻的第一任务,发明人针对本地新闻评测了精确率和召回率,地点标签信息识别的第二任务的测评数据都是本地新闻,主要关注地点标签信息是否正确,可只评估地点标签信息的精确率。在判定新闻文本是否为本地新闻的第一任务中,本地新闻精确率表示预测为本地新闻的样本中真正的本地新闻的比例,本地新闻召回率表示预测为本地新闻的真实本地新闻占所有本地新闻的比例。本技术实施例发明人以10000篇新闻文本作为测试样本,其中,本地新闻2000篇,非本地新闻8000篇,使用多任务地点识别模型预测出本地新闻2050篇,其中,预测正确的有1950篇,也就是说预测出的2050篇本地新闻中是真正的本地新闻的有1950篇,则本地新闻精确率为:1950/2050=95.12%,本地新闻召回率为:1950/2000=97.5%,和计算本地新闻精确率类似,计算出地点标签信息的精确率为97.36%,此处不作赘述。由此可见,使用本技术实施例中提出的多任务地点识别模型进行地点识别的准确率较高。[0140]示例性设备[0141]在介绍了本技术示例性实施方式的对象文本中地点识别方法之后,接下来,对本技术示例性实施方式的对象文本中地点识别装置进行介绍。[0142]如图7所示,为本技术实施例提供的对象文本中地点识别装置50的结构示意图。在一个实施例中,对象文本中地点识别装置50包括:获取单元501、识别单元502和确定单元503。[0143]获取单元501,用于获取待识别对象文本的文本关联信息和发布所述对象文本的账号信息;[0144]识别单元502,用于将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入多任务地点识别模型,获得所述对象文本的属性信息和所述对象文本的地点标签信息,所述对象文本的属性表征所述对象文本的内容是否属于本地信息,所述多任务地点识别模型是对从样本对象文本集合中提取的每一样本对象文本中的文本关联信息和发布所述样本对象文本的账号信息按照预设多任务学习深度神经网络模型进行训练获得的;[0145]确定单元503,用于根据所述对象文本的属性信息和所述对象文本的地点标签信息确定地点识别结果。[0146]在一种可能的实施方式中,所述多任务地点识别模型包括输入层、共享网络层、第一任务网络层和第二任务网络层;所述共享网络层与所述第一任务网络层、所述第二任务网络层分别相连接;[0147]所述第一任务网络层包括第一全连接层、第一分类器和第一输出层;所述第二任务网络层包括第二全连接层、第二分类器和第二输出层。[0148]在一种可能的实施方式中,所述共享网络层包括预训练模型;所述输入层后连接所述预训练模型,所述预训练模型后分别连接所述第一全连接层和所述第二全连接层,所述第一全连接层后连接所述第一分类器,所述第一分类器后连接所述第一输出层,所述第二全连接层后连接所述第二分类器,所述第二分类器后连接所述第二输出层。[0149]在一种可能的实施方式中,所述输入层后还连接所述第二全连接层,使得所述输入层的输入信息和所述预训练模型的输出信息作为所述第二全连接层的输入。[0150]在一种可能的实施方式中,所述识别单元502,具体用于将所述文本关联信息和所述账号信息进行拼接后获得的字符串输入所述输入层,由所述输入层将所述字符串输入所述预训练模型,获得所述文本关联信息和所述账号信息对应的词向量;[0151]将所述词向量输入所述第一全连接层,得到第一特征向量,将所述第一特征向量输入所述第一分类器进行分类,获得所述对象文本的属性信息分类结果,并将所述对象文本的属性信息分类结果通过所述第一输出层输出;以及[0152]将所述文本关联信息和所述账号信息进行拼接后获得的字符串和所述词向量输入所述第二全连接层,得到第二特征向量,将所述第二特征向量输入所述第二分类器进行分类,获得所述对象文本的地点标签信息分类结果,并将所述对象文本的地点标签信息分类结果通过所述第二输出层输出。[0153]在一种可能的实施方式中,所述对象文本的文本关联信息包括所述对象文本的标题信息、所述对象文本的类别信息和所述对象文本中包含地名或具有本地属性特征的词语的对象文本片段;所述账号信息包括账号名称信息和账号属地信息。[0154]在一种可能的实施方式中,所述对象文本的属性信息包括:所述对象文本的内容为本地信息、所述对象文本的内容为非本地信息以及所述对象文本的内容为未知信息;[0155]所述确定单元503,具体用于当确定所述对象文本的内容为非本地信息时,则确定所述地点识别结果为空;[0156]当确定所述对象文本的内容为本地信息时,则确定所述对象文本的内容为强本地信息还是弱本地信息,得到第一判定结果,并将所述第一判定结果和概率最高的地点标签信息确定为所述地点识别结果;[0157]当确定所述对象文本的内容为未知信息时,则确定所述对象文本的内容为弱本地信息,得到第二判定结果,并将所述第二判定结果和所述概率最高的地点标签信息确定为所述地点识别结果。[0158]在一种可能的实施方式中,所述确定单元503,具体用于当确定所述对象文本的内容为本地信息时,若所述对象文本的内容为本地信息的概率大于或者等于预设阈值,则确定所述对象文本的内容为强本地信息;若所述对象文本的内容为本地信息的概率小于所述预设阈值,则确定所述对象文本的内容为弱本地信息。[0159]在一种可能的实施方式中,所述获取单元501,具体用于通过以下方式获取所述账号属地信息:[0160]根据存储的账号名称信息和账号属地信息的对应关系列表获取所述账户名称信息对应的账号属地信息。[0161]基于与上述对象文本中地点识别方法相同的发明构思,本技术实施例还提供了一种电子设备60。如图8所示,该电子设备60可以包括处理器601和存储器602。[0162]处理器601可以是通用处理器,例如中央处理器(cpu)、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(fieldprogrammablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本技术实施例中公开的各对象文本中地点识别方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本技术实施例所公开的对象文本中地点识别方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。[0163]存储器602作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(randomaccessmemory,ram)、静态随机访问存储器(staticrandomaccessmemory,sram)、可编程只读存储器(programmablereadonlymemory,prom)、只读存储器(readonlymemory,rom)、带电可擦除可编程只读存储器(electricallyerasableprogrammableread‑onlymemory,eeprom)、磁性存储器、磁盘、光盘等等。存储器是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本技术实施例中的存储器602还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。[0164]应当注意,尽管在上文详细描述中提及了对象文本中地点识别装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本技术的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。[0165]此外,尽管在附图中以特定顺序描述了本技术对象文本中地点识别方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。[0166]虽然已经参考若干具体实施方式描述了本技术的精神和原理,但是应该理解,本技术并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本技术旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜