一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

多标签识别方法、装置、电子设备及存储介质与流程

2022-04-16 16:01:00 来源:中国专利 TAG:


1.本技术涉及人工智能技术领域,尤其涉及一种多标签识别方法、装置、电子设备及存储介质。


背景技术:

2.目前,在对互联网用户进行画像标签时,常常采用人工标注或者机器学习的方式来对画像标签进行识别和分类。当采用人工标注方式时,往往需要经过长时间的标记处理,且出错率较高,影响识别准确性;而当采用机器学习的方式对多标签画像进行识别时,往往需要针对不同的标签类别,分别训练分类器,往往需要花费较多的时间进行模型训练,影响识别效率。因此,如何提供一种多标签识别方法,能够提高用户画像标签的识别准确性及识别效率,成为了亟待解决的技术问题。


技术实现要素:

3.本技术实施例的主要目的在于提出一种多标签识别方法、装置、电子设备及存储介质,旨在提高用户画像标签的识别准确性及识别效率。
4.为实现上述目的,本技术实施例的第一方面提出了一种多标签识别方法,所述方法包括:
5.获取原始数据,其中,所述原始数据包括用户基础数据、用户行为数据以及用户评论数据;
6.对所述用户基础数据进行归一化处理,得到用户基础特征;
7.通过预先训练的图卷积模型对所述用户行为数据进行特征提取,得到行为特征矩阵;
8.对所述用户评论数据进行分词处理,得到评论文本词段向量;
9.将所述评论文本词段向量输入至预先训练的对比学习模型中,以使所述评论文本词段向量与所述对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量;
10.对所述用户基础特征、所述行为特征矩阵以及所述评论词嵌入向量进行融合处理,得到标准画像特征向量;
11.通过预先训练的标签识别模型对所述标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值;
12.根据所述概率值与预设概率阈值的大小关系,得到目标画像标签。
13.在一些实施例,所述通过预先训练的图卷积模型对所述用户行为数据进行特征提取,得到行为特征矩阵的步骤,包括:
14.将所述用户行为数据映射到预设的向量空间,得到用户行为特征向量;
15.根据预设的课程类型和所述用户行为特征向量,构建行为特征图;
16.对所述行为特征图进行图卷积处理,得到行为度矩阵和行为邻接矩阵;
17.对所述行为度矩阵和所述行为矩阵进行做差处理,得到行为特征矩阵。
18.在一些实施例,所述对所述用户评论数据进行分词处理,得到评论文本词段向量的步骤,包括:
19.通过预设的分词器对所述用户评论数据进行分词处理,得到评论文本词段;
20.对所述评论文本词段进行编码处理,得到评论文本词段向量。
21.在一些实施例,所述将所述评论文本词段向量输入至预先训练的对比学习模型中,以使所述评论文本词段向量与所述对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量的步骤,包括:
22.将所述评论文本词段向量输入到对比学习模型中,以使所述评论文本词段向量与参考词嵌入矩阵进行矩阵相乘,得到多个基本词嵌入向量;
23.对所述基本词嵌入向量进行映射处理,得到评论词嵌入向量。
24.在一些实施例,所述通过预先训练的标签识别模型对所述标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值的步骤,包括:
25.根据预设的标签维度对所述标准画像特征向量进行重构处理,得到标签特征向量;
26.利用预设函数对所述标签特征向量进行识别处理,得到每一预设画像标签的概率值。
27.在一些实施例,所述根据所述概率值与预设概率阈值的大小关系,得到目标画像标签的步骤,包括:
28.将所述概率值大于或者等于所述预设概率阈值的画像标签纳入同一集合,得到候选画像标签集;
29.对所述候选画像标签集进行筛选处理,得到所述目标画像标签。
30.在一些实施例,在所述通过预先训练的标签识别模型对所述标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值的步骤之前,所述方法还包括预先训练所述标签识别模型,具体包括:
31.获取标注用户数据;
32.对所述标注用户数据进行特征提取,得到样本特征向量;
33.将所述样本特征向量输入到标签识别模型中;
34.通过所述标签识别模型的损失函数计算出每一画像标签类别的样本概率预测值;
35.根据所述样本概率预测值对所述标签识别模型的损失函数进行优化,以更新所述标签识别模型。
36.为实现上述目的,本技术实施例的第二方面提出了一种多标签识别装置,所述装置包括:
37.数据获取模块,用于获取原始数据,其中,所述原始数据包括用户基础数据、用户行为数据以及用户评论数据;
38.归一化模块,用于对所述用户基础数据进行归一化处理,得到用户基础特征;
39.特征提取模块,用于通过预先训练的图卷积模型对所述用户行为数据进行特征提取,得到行为特征矩阵;
40.分词模块,用于对所述用户评论数据进行分词处理,得到评论文本词段向量;
41.对比学习模块,用于将所述评论文本词段向量输入至预先训练的对比学习模型
中,以使所述评论文本词段向量与所述对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量;
42.融合模块,用于对所述用户基础特征、所述行为特征矩阵以及所述评论词嵌入向量进行融合处理,得到标准画像特征向量;
43.标签识别模块,用于通过预先训练的标签识别模型对所述标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值;
44.比较模块,用于根据所述概率值与预设概率阈值的大小关系,得到目标画像标签。
45.为实现上述目的,本技术实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现上述第一方面所述的方法。
46.为实现上述目的,本技术实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
47.本技术提出的多标签识别方法、装置、电子设备及存储介质,其通过获取原始数据,其中,原始数据包括用户基础数据、用户行为数据以及用户评论数据。进而,对用户基础数据进行归一化处理,得到用户基础特征;通过预先训练的图卷积模型对用户行为数据进行特征提取,得到行为特征矩阵;对用户评论数据进行分词处理,得到评论文本词段向量,并将评论文本词段向量输入至预先训练的对比学习模型中,以使评论文本词段向量与对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量。这样一来,能够对不同类型的数据分别进行预处理,得到用户基础特征、行为特征矩阵以及评论词嵌入向量,提高了用户数据的合理性。进而,通过对用户基础特征、行为特征矩阵以及评论词嵌入向量进行融合处理,得到标准画像特征向量。最后,通过预先训练的标签识别模型对标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值,并根据概率值与预设概率阈值的大小关系,得到目标画像标签。本技术的多标签识别方法通过一个标签识别模型能够实现对不同画像标签的识别,相较于传统技术中需要针对不同标签类别分别训练分类器,能够极大地缩短模型训练时间,提高了识别效率。同时,本技术的多标签识别方法对于不同类型的用户数据分别进行了相应的数据预处理,使得获取到的标准画像特征向量能够更加符合识别需求,能够提高用户画像标签的识别准确性。
附图说明
48.图1是本技术实施例提供的多标签识别方法的流程图;
49.图2是图1中的步骤s103的流程图;
50.图3是图1中的步骤s104的流程图;
51.图4是图1中的步骤s105的流程图;
52.图5是本技术实施例提供的多标签识别方法的另一流程图;
53.图6是图1中的步骤s107的流程图;
54.图7是图1中的步骤s108的流程图;
55.图8是本技术实施例提供的多标签识别装置的结构示意图;
56.图9是本技术实施例提供的电子设备的硬件结构示意图。
具体实施方式
57.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本技术,并不用于限定本技术。
58.需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
59.除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本技术实施例的目的,不是旨在限制本技术。
60.首先,对本技术中涉及的若干名词进行解析:
61.人工智能(artificial intelligence,ai):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
62.自然语言处理(natural language processing,nlp):nlp用计算机来处理、理解以及运用人类语言(如中文、英文等),nlp属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息检索、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
63.信息抽取(information extraction,ner):从自然语言文本中抽取指定类型的实体、关系、事件等事实信息,并形成结构化数据输出的文本处理技术。信息抽取是从文本数据中抽取特定信息的一种技术。文本数据是由一些具体的单位构成的,例如句子、段落、篇章,文本信息正是由一些小的具体的单位构成的,例如字、词、词组、句子、段落或是这些具体的单位的组合。抽取文本数据中的名词短语、人名、地名等都是文本信息抽取,当然,文本信息抽取技术所抽取的信息可以是各种类型的信息。
64.隐马尔科夫模型(hidden markov model,hmm):隐马尔科夫模型是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。在简单的马尔可夫模型(如马尔可夫链),所述状态是直接可见的观察者,因此状态转移概率是唯一的参数。在隐马尔可夫模型中,状态是不直接可见的,但输出依赖于该状态下,是可见的。每个状态通过可
能的输出记号有了可能的概率分布。因此,通过一个hmm产生标记序列提供了有关状态的一些序列的信息。注意,“隐藏”指的是,该模型经其传递的状态序列,而不是模型的参数;即使这些参数是精确已知的,我们仍把该模型称为一个“隐藏”的马尔可夫模型。隐马尔可夫模型以它在时间上的模式识别所知,如语音,手写,手势识别,词类的标记,乐谱,局部放电和生物信息学应用。
65.对比学习(contrastive learning)是自监督学习的一种,不需要依赖人工标注的类别标签信息,直接利用数据本身作为监督信息。对比学习是一种为深度学习模型描述相似和不同事物的任务的方法。利用对比学习方法,可以训练机器学习模型来区分相似和不同的图像。在图像领域的自监督学习分为两种类型:生成式自监督学习、判别式自监督学习。对比学习应用的是典型的判别式自监督学习。对比学习的核心要点是:通过自动构造相似实例和不相似实例,也就是正样本和负样本,学习将正样本和负样本在特征空间进行对比,使得相似的实例在特征空间中距离拉近,而不相似的实例在特征空间中的距离拉远,差异性变大,通过这样的学习过程得到的模型表征就可以去执行下游任务,在较小的标记数据集上进行微调,从而实现无监督的模型学习过程。对比学习的指导原则是:通过自动构造相似实例和不相似实例,通过学习得到一个学习模型,利用这个模型,使得相似的实例在投影空间中比较接近,而可不相似的实例在投影空间中距离比较远。
66.嵌入(embedding):embedding是一种向量表征,是指用一个低维的向量表示一个物体,该物体可以是一个词,或是一个商品,或是一个电影等等;这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,比如embedding(复仇者联盟)和embedding(钢铁侠)之间的距离就会很接近,但embedding(复仇者联盟)和embedding(乱世佳人)的距离就会远一些。embedding实质是一种映射,从语义空间到向量空间的映射,同时尽可能在向量空间保持原样本在语义空间的关系,如语义接近的两个词汇在向量空间中的位置也比较接近。embedding能够用低维向量对物体进行编码还能保留其含义,常应用于机器学习,在机器学习模型构建过程中,通过把物体编码为一个低维稠密向量再传给dnn,以提高效率。
67.bert(bidirectional encoder representation from transformers)模型:bert模型进一步增加词向量模型泛化能力,充分描述字符级、词级、句子级甚至句间关系特征,基于transformer构建而成。bert中有三种embedding,即token embedding,segment embedding,position embedding;其中token embeddings是词向量,第一个单词是cls标志,可以用于之后的分类任务;segment embeddings用来区别两种句子,因为预训练不光做lm还要做以两个句子为输入的分类任务;position embeddings,这里的位置词向量不是transfor中的三角函数,而是bert经过训练学到的。但bert直接训练一个position embedding来保留位置信息,每个位置随机初始化一个向量,加入模型训练,最后就得到一个包含位置信息的embedding,最后这个position embedding和word embedding的结合方式上,bert选择直接拼接。
68.batch(批量):batch大小(即批量大小)是一个超参数,用于定义在更新内部模型参数之前要处理的样本数,也就是在模型的内部参数更新之前控制训练样本的数量。训练数据集可以分为一个或多个batch,其中,当所有训练样本用于创建一个batch时,学习算法称为批量梯度下降;当批量是一个样本的大小时,学习算法称为随机梯度下降;当批量大小
超过一个样本且小于训练数据集的大小时,学习算法称为小批量梯度下降。batch大小是在更新模型之前处理的多个样本。
69.反向传播:反向传播的大致原理为:将训练集数据输入到神经网络的输入层,经过神经网络的隐藏层,最后达到神经网络的输出层并输出结果;由于神经网络的输出结果与实际结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层;在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。
70.编码(encoder):就是将输入序列转化成一个固定长度的向量;
71.下采样(subsampled):下采样是指缩小图像,也称降采样(downsampled),其主要目的在于使得图像符合显示区域的大小,以及生成对应图像的缩略图。下采样原理:对于一幅图像i尺寸为m*n,对其进行s倍下采样,即得到(m/s)*(n/s)尺寸的得分辨率图像,当然s应该是m和n的公约数才行,如果考虑的是矩阵形式的图像,就是把原始图像s*s窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值。
72.目前,在对互联网用户进行画像标签时,常常采用人工标注或者机器学习的方式来对画像标签进行识别和分类。当采用人工标注方式时,往往需要经过长时间的标记处理,且出错率较高,影响识别准确性;而当采用机器学习的方式对多标签画像进行识别时,往往需要针对不同的标签类别,分别训练分类器,往往需要花费较多的时间进行模型训练,影响识别效率。因此,如何提供一种多标签识别方法,能够提高用户画像标签的识别准确性及识别效率,成为了亟待解决的技术问题。
73.基于此,本技术实施例提供了一种多标签识别方法、装置、电子设备及存储介质,旨在提高用户画像标签的识别准确性。
74.本技术实施例提供的多标签识别方法、装置、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本技术实施例中的多标签识别方法。
75.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
76.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
77.本技术实施例提供的多标签识别方法,涉及人工智能及数字医疗技术领域。本技术实施例提供的多标签识别方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现多标签识别方法的应用等,但并不局限于以上形式。
78.本技术可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络pc、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本技术可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本技术,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
79.图1是本技术实施例提供的多标签识别方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤s101至步骤s108。
80.步骤s101,获取原始数据,其中,原始数据包括用户基础数据、用户行为数据以及用户评论数据;
81.步骤s102,对用户基础数据进行归一化处理,得到用户基础特征;
82.步骤s103,通过预先训练的图卷积模型对用户行为数据进行特征提取,得到行为特征矩阵;
83.步骤s104,对用户评论数据进行分词处理,得到评论文本词段向量;
84.步骤s105,将评论文本词段向量输入至预先训练的对比学习模型中,以使评论文本词段向量与对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量;
85.步骤s106,对用户基础特征、行为特征矩阵以及评论词嵌入向量进行融合处理,得到标准画像特征向量;
86.步骤s107,通过预先训练的标签识别模型对标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值;
87.步骤s108,根据概率值与预设概率阈值的大小关系,得到目标画像标签。
88.经过以上步骤s101至步骤s108,本技术的多标签识别方法通过一个标签识别模型能够实现对不同画像标签的识别,相较于传统技术中需要针对不同标签类别分别训练分类器,能够极大地缩短模型训练时间,提高了识别效率。同时,本技术的多标签识别方法对于不同类型的用户数据分别进行了相应的数据预处理,使得获取到的标准画像特征向量能够更加符合识别需求,能够提高用户画像标签的识别准确性。
89.在一些实施例中,在执行步骤s101时,可以通过网络爬虫的方式,从预设的多个数据源爬取原始用户数据,其中基础数据包括用户的性别、学历和年龄段等等;行为数据包括用户在课程内容展示的点击数据以及课程页面内推荐课程的点击数据等等;评论数据为用户对课程的文本评论数据等等。
90.在一些实施例中,在执行步骤s102时,可以根据预设的归一化条件,对不同类型的基础数据设置有一系列的数字,例如,基础数据包括性别、学历、年龄段,把性别分为{0,1}的集合,0代表女性,1代表男性。学历分为{1,2,3,4,5,6,7,8}的集合,1代表小学,2代表初中,3代表中专,4代表高中,5代表大专,6代表本科,7代表硕士,8代表博士。年龄段分为{5,6,7,8,9,0}的集合,5代表50后,6代表60后,依次类推。
91.请参阅图2,在一些实施例中,步骤s103可以包括但不限于包括步骤s201至步骤s204:
92.步骤s201,将用户行为数据映射到预设的向量空间,得到用户行为特征向量;
93.步骤s202,根据预设的课程类型和用户行为特征向量,构建行为特征图;
94.步骤s203,对行为特征图进行图卷积处理,得到行为度矩阵和行为邻接矩阵;
95.步骤s204,对行为度矩阵和行为矩阵进行做差处理,得到行为特征矩阵。
96.具体地,在步骤s201中,可以采用mlp网络对用户行为数据行语义空间到向量空间上的映射处理,将用户行为数据映射到预先设定的向量空间中,得到用户行为特征向量。
97.在步骤s202中,将每一预设的课程记为一个节点,对用户的行为数据进行分析,若检测到用户通过一个课程页面的推荐模块点击到另一课程,则建立这两个课程之间的边。根据这种映射关系,对每一课程类型和用户行为特征向量进行关系构建,得到一个无向图,该无向图即为行为特征图。
98.在步骤s203中,行为特征图可以表示为g=(v,e),v代表节点,e代表边。该行为特征图的拉普拉斯矩阵可以定义为l=d-a,l为拉普拉斯矩阵,d为对角度矩阵(由于对角线上的元素是顶点的度,即对角度矩阵是指元素链接的元素个数);a为邻接矩阵,表示任意两个顶点之间的邻接关系,若两个顶点之间邻接,则邻接矩阵为1,若两个顶点之间不邻接,则邻接矩阵为0;因而,通过对行为特征图进行图卷积处理,能够实现对行为特征图的拉普拉斯变换,得到行为度矩阵(即对角度矩阵d)和行为邻接矩阵(即邻接矩阵a)。
99.在步骤s204中,由于拉普拉斯矩阵与图的性质满足l=d-a,即对行为度矩阵d和行为邻接矩阵a进行做差处理,可以得到行为特征矩阵l1。
100.需要说明的是,该图卷积模型的图卷积层可以表示为公式(1)所示:
[0101][0102]
其中,y为输出值,σ为sigmoid激活函数。l是拉普拉斯矩阵,x是输入的标注行为特征图,j是拉普拉斯矩阵的行数,其中,j在一般情况下远小于行为特征图中的节点的数量。α为权重矩阵,权重矩阵的参数值在图卷积模型初始化的时候随机生成,后期可以通过对图卷积模型的训练来调整,具体地,计算标注行为特征与预测特征之间的误差,再把误差进行反向传播来更新参数值,以实现对图卷积模型的优化。
[0103]
请参阅图3,在一些实施例中,步骤s104可以包括但不限于包括步骤s301至步骤s302:
[0104]
步骤s301,通过预设的分词器对用户评论数据进行分词处理,得到评论文本词段;
[0105]
步骤s302,对评论文本词段进行编码处理,得到评论文本词段向量。
[0106]
具体地,在步骤s301中,在利用jieba分词器对用户评论数据进行分词处理时,首先通过对照jieba分词器内的词典生成该用户评论数据对应的有向无环图,再根据预设的选择模式和词典寻找有向无环图上的最短路径,根据最短路径对该用户评论数据进行截取,或者直接对该用户评论数据进行截取,得到评论文本词段。
[0107]
进一步地,对于不在词典中的评论文本词段,可以使用hmm(隐马尔科夫模型)进行新词发现。具体地,将字符在评论文本词段中的位置b、m、e、s作为隐藏状态,字符是观测状态,其中,b/m/e/s分别代表出现在词头、词中、词尾以及单字成词。使用词典文件分别存储字符之间的表现概率矩阵、初始概率向量和转移概率矩阵。再利用维特比算法对最大可能
的隐藏状态进行求解,从而得到评论文本词段。
[0108]
在步骤s302中,可以是利用预设的bert编码器对评论文本词段进行编码处理,使得评论文本词段上的每个字符都带上对应的编码,从而得到评论文本词段向量。
[0109]
在一些实施例中,在步骤s105之前,该方法还包括预先训练对比学习模型,具体可以包括但不限于包括步骤a至步骤f:
[0110]
a、获取样本用户数据;
[0111]
b、通过对比学习模型对样本用户数据进行映射处理和编码处理,得到初始嵌入数据;
[0112]
c、根据初始嵌入数据构建样本对,其中,样本对包括正例对和负例对;
[0113]
d、将样本对输入到对比学习模型中;
[0114]
e、通过对比学习模型的损失函数计算出正例对的第一相似度和负例对的第二相似度。
[0115]
f、根据第一相似度和第二相似度对对比学习模型的损失函数进行优化,以更新对比学习模型。
[0116]
具体地,执行步骤a和步骤b,首先获取样本用户数据,对样本用户数据进行编码处理,将样本用户数据映射至嵌入空间、并对样本用户数据进行向量表示,从而可以得到初始嵌入数据(即初始embedding数据),该初始嵌入数据包括正样本数据和负样本数据。
[0117]
在一些实施例的步骤c中,通过dropout mask机制对初始嵌入数据进行数据增强处理;本技术实施例通过dropout mask机制替换了传统的数据增强方法,即将同一个样本数据两次输入dropout编码器得到的两个向量作为对比学习的正例对,效果就足够好了,因为比如bert内部每次dropout都随机会生成一个不同的dropout mask,所以只需要将同一个样本数据(即本实施例的初始嵌入数据)输入至simcse模型两次,得到的两个向量就是应用两次不同dropout mask的结果了。可以理解的是,dropout mask是一种网络模型的随机,是对模型参数w的mask,起到防止过拟合的作用。
[0118]
在一个batch中,经过数据增强处理得到的数据(即第一向量和第二向量)是正例对,未经过数据增强的其他数据为负例对。本技术实施例中,可以将一个batch中的其中一部分初始嵌入数据经过数据增强处理得到正例对,另一部分初始嵌入数据作为负例对。
[0119]
进一步地,执行步骤d,将样本对输入到对比学习模型中。
[0120]
在一些实施例的步骤e中,第一相似度和第二相似度均为余弦相似度。
[0121]
在一些实施例中,步骤f可以包括但不限于包括:
[0122]
将第一相似度最大化为第一数值和将第二相似度最小化为第一数值,以对损失函数进行优化;其中,第一相似度为损失函数的分子,第一相似度和第二相似度为损失函数的分母,第一数值取值为1,第二数值取值为0。该损失函数中,分子是对应正例对的第一相似度,分母是第一相似度以及所有负例对的第二相似度,然后将分子和分母构成的分子式的值包装在-log()中,这样最大化分子且最小化分母,就能实现最小化损失函数。本公开实施例中,最小化损失函数infonce loss,就是最大化分子且最小化分母,也就是最大化正例对的第一相似度且最小化负例对的第二相似度,并对该损失函数进行最小化,实现对损失函数的优化。更具体地,损失函数为公式(2)所示:
[0123][0124]
该损失函数中,li为损失函数的损失值,正例对是《z,z

》,n是batch的大小(n是变量),该损失函数表示的是第i个样本要与batch中的每个样本计算相似度,batch里的每个样本都会按照该损失函数进行计算,因此,该损失函数表示的是样本i的损失(loss);该损失函数中,分子是正例对的相似度,分母是正例对以及所有负例对的相似度,然后将该值包装在-log()中,这样最大化分子且最小化分母,就能实现最小化损失函数。
[0125]
请参阅图4,在一些实施例中,步骤s105可以包括但不限于包括步骤s401至步骤s402:
[0126]
步骤s401,将评论文本词段向量输入到对比学习模型中,以使评论文本词段向量与参考词嵌入矩阵进行矩阵相乘,得到多个基本词嵌入向量;
[0127]
步骤s402,对基本词嵌入向量进行映射处理,得到评论词嵌入向量。
[0128]
具体地,执行步骤s401,通过训练对比模型可以使得对比模型内的参考词嵌入矩阵的数值将被完全固定下来,对比模型的其他模型参数也被固定。因而,将评论文本词段向量输入到对比模型中,可以利用固定的参考词嵌入矩阵与每一评论文本词段向量进行矩阵相乘,得到多个基本词嵌入向量。
[0129]
在步骤s402中,利用对比模型中固定的mlp网络对基本词嵌入向量进行映射处理,得到评论词嵌入向量。其中,mlp网络包括linear层、relu激活函数以及linear层。
[0130]
在一些实施例中,在执行步骤s106时,分别对基础特征数据、行为特征矩阵进行向量化处理,得到基础特征向量,行为特征向量,进而对基础特征向量,行为特征向量和词嵌入特征向量进行融合处理,得到标准特征向量。例如,标准特征向量x=[性别,学历,年龄段,[gcn],[bert]]。其中gcn为256维的向量,bert为512维的向量,x为3 256 512的向量。
[0131]
请参阅图5,在一些实施例中,在步骤s107之前,该方法还包括预先训练标签识别模型,具体可以包括但不限于包括步骤s501至步骤s505:
[0132]
步骤s501,获取标注用户数据;
[0133]
步骤s502,对标注用户数据进行特征提取,得到样本特征向量;
[0134]
步骤s503,将样本特征向量输入到标签识别模型中;
[0135]
步骤s504,通过标签识别模型的损失函数计算出每一画像标签类别的样本概率预测值;
[0136]
步骤s505,根据样本概率预测值对标签识别模型的损失函数进行优化,以更新标签识别模型。
[0137]
需要说明的是,该标签识别模型可以为textcnn模型,该标签识别模型包括embedding层,卷积层,池化层和输出层。通常经过标签识别模型的embedding层可以采用elmo,glove,word2vector,bert等算法将输入的文本数据生成一个稠密向量。进而通过标签识别模型的卷积层和池化层对该稠密向量进行卷积处理和池化处理,得到目标特征向量,进而将目标特征向量输入至输出层,通过输出层中的预设函数即可对目标特征向量进行分类操作,得到标签特征向量及每一预设类别的概率值大小。
[0138]
首先,执行步骤s501,获取标注用户数据,该标注用户数据包含用户画像类别标
签。进而,执行步骤s502,利用mlp网络对标注用户数据进行多次映射处理,得到样本特征向量。
[0139]
进而,执行步骤s503,将样本特征向量输入到标签识别模型中。
[0140]
在执行步骤s504时,通过标签识别模型的embedding层将样本特征向量生成一个稠密特征向量,进而通过卷积层和池化层对该稠密特征向量机芯卷积处理和池化处理,得到目标特征向量,进而将目标特征向量输入至输出层,通过损失函数计算出每一画像标签类别的样本概率预测值;其中,损失函数如公式(3)所示:
[0141][0142]
其中,t为目标值(target),t需要在[0,1]之间取值,由于在本技术实施例中,t作为画像标签类别,因而t取值为0或者1,o表示标签识别模型的概率预测值。
[0143]
最后,执行步骤s505,根据样本概率预测值计算标签识别模型的模型损失,即loss值,再利用梯度下降法对loss值进行反向传播,将loss值反馈回标签识别模型,修改标签识别模型的模型参数,重复上述过程,直至loss值满足预设的迭代条件,其中,预设的迭代条件是可以迭代次数达到预设值,或者是损失函数的变化方差小于预设阈值。当loss值满足预设的迭代条件时可以停止反向传播,将最后的模型参数作为最终的模型参数,完成对标签识别模型的更新。
[0144]
请参阅图6,在一些实施例,步骤s107还可以包括但不限于包括步骤s601至步骤s602:
[0145]
步骤s601,根据预设的标签维度对标准画像特征向量进行重构处理,得到标签特征向量;
[0146]
步骤s602,利用预设函数对标签特征向量进行识别处理,得到每一预设画像标签的概率值。
[0147]
具体地,首先执行步骤s601,根据预设的标签维度和编码器对标准画像特征向量进行重构处理,例如,根据自下而上的编码顺序和标签维度,对标准画像特征向量进行编码处理。例如,对标准画像特征向量进行初次编码,得到最底层的标签特征向量z1,然后逐层向上进行下采样处理,得到每一标签维度对应的标签特征向量[z2,z3

,zk]。
[0148]
在步骤s602中,预设函数为sigmoid函数,sigmoid函数可以表示为公式(4)所示:
[0149][0150]
通过sigmoid函数对标签特征向量进行识别,sigmoid函数会根据预设的画像标签类别对标签特征向量进行标签分类处理,在每一画像标签类别上创建一个概率分布,从而得到每一预设画像标签的概率值。
[0151]
请参阅图7,在一些实施例,步骤s108还可以包括但不限于包括步骤s701至步骤s702:
[0152]
步骤s701,将概率值大于或者等于预设概率阈值的画像标签纳入同一集合,得到候选画像标签集;
[0153]
步骤s702,对候选画像标签集进行筛选处理,得到目标画像标签。
[0154]
具体地,首先执行步骤s701,若概率值小于预设概率阈值,则将概率值对应的画像
标签进行过滤掉;若概率值大于或等于预设概率阈值,则将概率值对应的画像标签纳入候选画像标签集。例如,预设的概率阈值为0.6,当概率值大于或等于0.6时,则可以认为该用户拥有当前的画像标签。
[0155]
进一步地,执行步骤s702,可以采用人工复核等方式对候选画像标签集中的画像标签进行筛选,将与当前用户匹配度最高的画像标签提取出来,从而得到目标画像标签。另外,也可以根据概率值的大小,对候选画像标签集内的画像标签进行降序排列,选取处于前五位的画像标签作为当前用户的目标画像标签。还可以是采用其他方式对候选画像标签集内的画像标签进行筛选,不限于此。
[0156]
本技术实施例通过获取原始数据,其中,原始数据包括用户基础数据、用户行为数据以及用户评论数据。进而,对用户基础数据进行归一化处理,得到用户基础特征;通过预先训练的图卷积模型对用户行为数据进行特征提取,得到行为特征矩阵;对用户评论数据进行分词处理,得到评论文本词段向量,并将评论文本词段向量输入至预先训练的对比学习模型中,以使评论文本词段向量与对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量。这样一来,能够对不同类型的数据分别进行预处理,得到用户基础特征、行为特征矩阵以及评论词嵌入向量,提高了用户数据的合理性。进而,通过对用户基础特征、行为特征矩阵以及评论词嵌入向量进行融合处理,得到标准画像特征向量。最后,通过预先训练的标签识别模型对标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值,并根据概率值与预设概率阈值的大小关系,得到目标画像标签。本技术的多标签识别方法通过一个标签识别模型能够实现对不同画像标签的识别,相较于传统技术中需要针对不同标签类别分别训练分类器,能够极大地缩短模型训练时间,提高了识别效率。同时,本技术的多标签识别方法对于不同类型的用户数据分别进行了相应的数据预处理,使得获取到的标准画像特征向量能够更加符合识别需求,能够提高用户画像标签的识别准确性。
[0157]
请参阅图8,本技术实施例还提供一种多标签识别装置,可以实现上述多标签识别方法,该装置包括:
[0158]
数据获取模块801,用于获取原始数据,其中,原始数据包括用户基础数据、用户行为数据以及用户评论数据;
[0159]
归一化模块802,用于对用户基础数据进行归一化处理,得到用户基础特征;
[0160]
特征提取模块803,用于通过预先训练的图卷积模型对用户行为数据进行特征提取,得到行为特征矩阵;
[0161]
分词模块804,用于对用户评论数据进行分词处理,得到评论文本词段向量;
[0162]
对比学习模块805,用于将评论文本词段向量输入至预先训练的对比学习模型中,以使评论文本词段向量与对比学习模型中的参考词嵌入矩阵进行矩阵相乘,得到评论词嵌入向量;
[0163]
融合模块806,用于对用户基础特征、行为特征矩阵以及评论词嵌入向量进行融合处理,得到标准画像特征向量;
[0164]
标签识别模块807,用于通过预先训练的标签识别模型对标准画像特征向量进行标签识别处理,得到每一预设画像标签的概率值;
[0165]
比较模块808,用于根据概率值与预设概率阈值的大小关系,得到目标画像标签。
[0166]
该多标签识别装置的具体实施方式与上述多标签识别方法的具体实施例基本相同,在此不再赘述。
[0167]
本技术实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述多标签识别方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
[0168]
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
[0169]
处理器901,可以采用通用的cpu(centralprocessingunit,中央处理器)、微处理器、应用专用集成电路(applicationspecificintegratedcircuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本技术实施例所提供的技术方案;
[0170]
存储器902,可以采用只读存储器(readonlymemory,rom)、静态存储设备、动态存储设备或者随机存取存储器(randomaccessmemory,ram)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本技术实施例的多标签识别方法;
[0171]
输入/输出接口903,用于实现信息输入及输出;
[0172]
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信;
[0173]
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
[0174]
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
[0175]
本技术实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述多标签识别方法。
[0176]
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0177]
本技术实施例描述的实施例是为了更加清楚的说明本技术实施例的技术方案,并不构成对于本技术实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本技术实施例提供的技术方案对于类似的技术问题,同样适用。
[0178]
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本技术实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
[0179]
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
[0180]
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
[0181]
本技术的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0182]
应当理解,在本技术中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
[0183]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0184]
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0185]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0186]
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例的方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,简称rom)、随机存取存储器(random access memory,简称ram)、磁碟或者光盘等各种可以存储程序的介质。
[0187]
以上参照附图说明了本技术实施例的优选实施例,并非因此局限本技术实施例的权利范围。本领域技术人员不脱离本技术实施例的范围和实质内所作的任何修改、等同替
换和改进,均应在本技术实施例的权利范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献