一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于人工智能的宠物分类方法、装置、设备及存储介质与流程

2021-11-18 01:19:00 来源:中国专利 TAG:


1.本技术涉及生物识别的技术领域,尤其涉及一种基于人工智能的宠物分类方法、装置、设备及存储介质。


背景技术:

2.目前,用户可以给自家的宠物投保宠物险,当自己的宠物生病或出现意外时,可以向保险公司申请理赔,可以保障宠物的安全和减少自己的经济损失。投保宠物险时,需要对宠物进行身份认证和宠物类型识别,现有的dna认证、芯片认证等手段操作复杂,成本较高。为解决上述问题,可以通过神经网络模型来识别宠物类型,然而现有的神经网络模型的准确性较低。因此,如何提高宠物类型的识别准确性是目前亟待解决的问题。


技术实现要素:

3.本技术实施例提供一种基于人工智能的宠物分类方法、装置、设备及存储介质,旨在提高宠物类型的识别准确性。
4.第一方面,本技术实施例提供一种基于人工智能的宠物分类方法,包括:
5.获取宠物图像并调用目标宠物分类模型,所述目标宠物分类模型包括特征提取网络、面部框预测网络、第一宠物分类网络和第二宠物分类网络;
6.将所述宠物图像输入所述特征提取网络进行特征提取,得到多个分辨率不同的目标特征图;
7.将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的面部框的目标位置点组;
8.将所述目标特征图输入所述第一宠物分类网络进行分类,得到所述宠物图像中的宠物的类型为预设宠物类型的第一输出概率;
9.从所述宠物图像中获取所述目标位置点组对应的宠物脸图像,并将所述宠物脸图像输入所述第二宠物分类网络进行分类,得到所述宠物的类型为所述预设宠物类型的第二输出概率;
10.根据所述第一输出概率和所述第二输出概率,从各所述预设宠物类型中确定所述宠物图像中的宠物的目标类型。
11.第二方面,本技术实施例还提供一种宠物分类装置,所述宠物分类装置包括:
12.获取模块,用于获取宠物图像并调用目标宠物分类模型,所述目标宠物分类模型包括特征提取网络、面部框预测网络、第一宠物分类网络和第二宠物分类网络;
13.特征提取模块,用于将所述宠物图像输入所述特征提取网络进行特征提取,得到多个分辨率不同的目标特征图;
14.面部框预测模块,用于将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的面部框的目标位置点组;
15.第一宠物分类模块,用于将所述目标特征图输入所述第一宠物分类网络进行分
类,得到所述宠物图像中的宠物的类型为预设宠物类型的第一输出概率;
16.确定模块,用于从所述宠物图像中获取所述目标位置点组对应的宠物脸图像;
17.第二宠物分类模块,用于将所述宠物脸图像输入所述第二宠物分类网络进行分类,得到所述宠物图像中的宠物的类型为所述预设宠物类型的第二输出概率;
18.所述确定模块,还用于根据所述第一输出概率和所述第二输出概率,从各所述预设宠物类型中确定所述宠物图像中的宠物的目标类型。
19.第三方面,本技术实施例还提供一种计算机设备,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如上所述的宠物分类方法的步骤。
20.第四方面,本技术实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如上所述的宠物分类方法的步骤。
21.本技术实施例提供一种基于人工智能的宠物分类方法、装置、设备及存储介质,该方法通过对宠物图像进行特征提取,得到多个分辨率不同的目标特征图,再将多个分辨率不同的目标特征图输入面部框预测网络进行面部框预测,可以得到宠物图像的面部框的目标位置点组,同时将多个分辨率不同的目标特征图输入第一宠物分类网络进行分类,得到宠物图像中的宠物的类型为各预设宠物类型的第一输出概率,然后将宠物图像中目标位置点组对应的宠物脸图像输入第二宠物分类网络进行分类,得到宠物图像中的宠物的类型为各预设宠物类型的第二输出概率,最后通过综合考虑各预设宠物类型的第一输出概率和第二输出概率,来确定宠物图像中的宠物的目标类型,极大地提高了宠物类型的识别准确性。
附图说明
22.为了更清楚地说明本技术实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
23.图1是本技术实施例提供的一种基于人工智能的宠物分类方法的流程示意图;
24.图2是本技术实施例中的目标宠物分类模型的一层级示意图;
25.图3是本技术实施例中的目标宠物分类模型的另一层级示意图;
26.图4是本技术实施例中的目标宠物分类模型的另一层级示意图;
27.图5是本技术实施例中的第四卷积层、第五卷积层和第六卷积层的一层级示意图;
28.图6是本技术实施例提供的一种宠物分类装置的示意性框图;
29.图7是本技术实施例提供的一种计算机设备的结构示意性框图。
30.本技术目的的实现、功能特点及优点将结合实施例,参阅附图做进一步说明。
具体实施方式
31.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
32.附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
33.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
34.本技术实施例提供一种基于人工智能的宠物分类方法、装置、设备及存储介质。其中,该宠物分类方法可应用于终端设备或服务器,该终端设备可以手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content delivery network,cdn)、以及大数据和人工智能平台等基础云计算服务的云服务器。
35.下面结合附图,对本技术的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
36.请参阅图1,图1是本技术实施例提供的一种基于人工智能的宠物分类方法的流程示意图。
37.如图1所示,基于人工智能的宠物分类方法可以包括步骤s101至步骤s107。
38.步骤s101、获取宠物图像并调用目标宠物分类模型。
39.示例性的,终端设备获取拍摄装置采集到的宠物图像,由终端设备基于宠物图像和宠物分类模型进行分类。其中,终端设备上部署有预先训练好的宠物分类模型。示例性的,终端设备获取拍摄装置采集到的宠物图像,并将该宠物图像上传至服务器,由服务器基于宠物图像和宠物分类模型进行分类。其中,服务器上部署有预先训练好的宠物分类模型。目标宠物分类模型可以存储在区块链中,以提高数据的安全性。
40.如图2所示,目标宠物分类模型包括特征提取网络100、面部框预测网络200、第一宠物分类网络300和第二宠物分类网络400,且特征提取网络100分别与面部框预测网络200和第一宠物分类网络300连接,面部框预测网络200与第二宠物分类网络400连接。其中,特征提取网络100用于将宠物图像转换为多个不同分辨率的特征图,面部框预测网络200用于融合多个不同分辨率的特征图,来预测宠物图像中的宠物脸对应面部框的多个位置点组,第一宠物分类网络300用于融合多个不同分辨率的特征图,来确定宠物图像中的宠物的类型为各预设宠物类型的第一输出概率,第二宠物分类网络400用于基于宠物图像中面部框的目标位置点组对应的宠物脸图像来确定宠物图像中的宠物的类型为各预设宠物类型的第二输出概率。
41.步骤s102、将宠物图像输入特征提取网络进行特征提取,得到多个分辨率不同的目标特征图。
42.示例性的,多个分辨率不同的目标特征图至少包括第一目标特征图、第二目标特
征图和第三目标特征图。如图3所示,特征提取网络100包括第一特征提取子网络101、第一卷积层102、第一上采样层103、第一拼接层104、第二卷积层105、第二上采样层106、第二拼接层107、第三卷积层108、第四卷积层109、第五卷积层110和第六卷积层111,且第一特征提取子网络101分别与第一卷积层102、第一拼接层104和第二拼接层107连接,第一卷积层102分别与第一上采样层103和第四卷积层109连接,第一上采样层103与第一拼接层104,第一拼接层104与第二卷积层105连接,第二卷积层105分别与第二上采样层106和第五卷积层110连接,第二上采样层106与第二拼接层107连接,第二拼接层107与第三卷积层108连接,第三卷积层108与第六卷积层111,第四卷积层109、第五卷积层110和第六卷积层111均与面部框预测网络200和第一宠物分类网络300连接。
43.示例性的,将宠物图像输入第一特征提取子网络,得到第一特征图、第二特征图和第三特征图,其中,第一特征图、第二特征图和第三特征图的分辨率不同;将第一特征图输入第一卷积层进行卷积,得到第四特征图,将第四特征图输入所述第四卷积层进行卷积,得到第一目标特征图;将第四特征图输入所述第一上采样层进行上采样,得到第五特征图;将第二特征图和第五特征图输入第一拼接层进行拼接,得到第一拼接特征图;将第一拼接特征图输入第二卷积层进行卷积,得到第六特征图,将第六特征图输入第五卷积层进行卷积,得到第二目标特征图;将第六特征图输入第二上采样层进行上采样,得到第七特征图;将第三特征图与第七特征图输入第二拼接层进行拼接,得到第二拼接特征图;将第二拼接特征图输入第三卷积层进行卷积,得到第八特征图,将第八特征图输入第六卷积层进行卷积,得到第三目标特征图。其中,第一特征图的分辨率为19、第二特征图的分辨率为38,第三特征图的分辨率为76。
44.示例性的,第一特征提取子网络可以为resnet18网络,如图4所示,第一特征提取子网络101可以包括第一卷积子层1011、第一残差块(basicblock)层1012、第二残差块层1013、第三残差块层1014和第四残差块层1015,且第一卷积子层1011与第一残差块层1012连接,第一残差块层1012与第二残差块层1013连接,第二残差块层1013与第三残差块层1014连接,第三残差块层1014与第四残差块层1015连接,第四残差块层1015与第一卷积层102连接,第三残差块层1014与第一拼接层104连接,第二残差块层1013与第二拼接层107连接。其中,第一卷积子层、第一残差块层、第二残差块层、第三残差块层和第四残差块层的输出通道分别为64、128、256、512和1024。
45.示例性的,将宠物图像的尺寸调整为预设尺寸,得到目标宠物图像;将目标宠物图像输入第一卷积子层,得到第一候选特征图,将第一候选特征图输入第一残差块层,得到第二候选特征图;将第二候选特征图输入所述第二残差块层,得到第一特征图;将第一特征图输入第三残差块层,得到第二特征图;将第二特征图输入所述第四残差块层,得到第三特征图。其中,预设尺寸可基于实际情况进行设置,本实施例对此不做具体限定。例如,预设尺寸为608
×
608。
46.其中,第一拼接层与第二拼接层均为concat layer,第一上采样层和第二上采样层的上采样率可基于实际情况进行设置。第四卷积层、第五卷积层和第六卷积层包含的层级相同。例如,如图5所示,第四卷积层、第五卷积层和第六卷积层包含的层级可以包括第二卷积子层121、batchnorm层122、elu函数层123和第三卷积子层124,且第二卷积子层121与batchnorm层122连接,batchnorm层122与elu函数层123连接,elu函数层123与第三卷积子
层124连接。
47.步骤s103、将目标特征图输入面部框预测网络进行面部框预测,得到宠物图像的面部框的目标位置点组。
48.在一实施例中,将目标特征图输入面部框预测网络进行面部框预测,得到宠物图像的多个位置点组和每个位置点组的可信指数;将多个位置点组中的可信指数大于或等于预设可信指数阈值的位置点组确定为候选位置点组;根据每个候选位置点组的所述可信指数,确定平均可信指数,并确定平均可信指数与每个候选位置点组的可信指数之间的可信指数差值;将可信指数差值最小所对应的候选位置点组确定为所述宠物图像的面部框的目标位置点组。
49.示例性的,将第一目标特征图输入面部框预测网络进行面部框预测,得到面部框预测网络的第一输出结果;将第二目标特征图输入面部框预测网络进行面部框预测,得到面部框预测网络的第二输出结果;将第三目标特征图输入面部框预测网络进行面部框预测,得到面部框预测网络的第三输出结果;对第一输出结果、第二输出结果和第三输出结果进行汇总,得到面部框的多个位置点组和每个位置点组的可信指数。其中,面部框预测网络的输出结果包括面部框的多个位置点组和每个位置点组的可信指数。
50.其中,面部框的位置点组包括至少两个位置点,且至少两个位置点互为对角位置点。例如,面部框的位置点组包括面部框的左上角位置点和右下角位置点,面部框预测网络包括第七卷积层,第七卷积层的输出通道数可以为2
×
64,卷积核大小为(3,3),步长为stride(1,1)。
51.示例性的,获取各候选位置点组的坐标信息,并根据各候选位置点组的坐标信息,确定平均坐标信息;将平均坐标信息所对应的位置点组确定为宠物图像的面部框的目标位置点组。例如,候选位置点组a的坐标信息可以为(x1,y1,x2,y2),即面部框a的左上角位置点的坐标为(x1,y1),面部框a的右上角位置点的坐标为(x2,y2),候选位置点组b的坐标信息为(x3,y3,x4,y4),即面部框b的左上角位置点的坐标为(x3,y3),面部框b的右上角位置点的坐标为(x4,y4),则计算得到的平均坐标信息为((x1 x3)/2,(y1 y3)/2,(x2 x4)/2,(y2 y4)/2),因此,可以将位置点((x1 x3)/2,(y1 y3)/2)和位置点((x2 x4)/2,(y2 y4)/2)确定为面部框的目标位置点组。
52.步骤s104、将目标特征图输入第一宠物分类网络进行分类,得到宠物图像中的宠物的类型为预设宠物类型的第一输出概率。
53.示例性的,将第一目标特征图输入第一宠物分类网络进行分类,得到第一宠物分类网络的第四输出结果;将第二目标特征图输入第一宠物分类网络进行分类,得到第一宠物分类网络的第五输出结果;将第三目标特征图输入第一宠物分类网络进行分类,得到第一宠物分类网络的第六输出结果;对第四输出结果、第五输出结果和第六输出结果进行汇总,得到宠物图像中的宠物的类型为预设宠物类型的第一输出概率。其中,预设宠物类型可以包括狗、猫、鸟、兔、鱼、昆虫、猪、蜥蜴、龟、羊驼等,第一宠物分类网络的输出结果包括宠物图像中的宠物的类型为各预设宠物类型的概率,第一宠物分类网络可以包括第八卷积层,第八卷积层的输出通道数可以为n
×
64,卷积核大小为(3,3),步长为stride(1,1),n为宠物类型的总数。
54.示例性的,对第四输出结果、第五输出结果和第六输出结果进行汇总,得到宠物图
像中的宠物的类型为预设宠物类型的第一输出概率的方式可以为:将第四输出结果、第五输出结果和第六输出结果中宠物的类型为相同预设宠物类型的输出概率划分为同一个输出概率组,从而可以得到宠物的类型为各预设宠物类型的输出概率组;将输出概率组中的最大输出概率确定为宠物的类型为对应预设宠物类型的第一输出概率,或者,根据输出概率组中的每个输出概率,计算平均输出概率,并将该平均输出概率确定为宠物的类型为对应预设宠物类型的第一输出概率。
55.步骤s105、从宠物图像中获取目标位置点组对应的宠物脸图像,并将宠物脸图像输入第二宠物分类网络进行分类,得到宠物图像中的宠物的类型为预设宠物类型的第二输出概率。
56.其中,第二宠物分类网络包括第二特征提取子网络、第九卷积层、宠物分类子网络,且第二特征提取子网络与第九卷积层连接,第九卷积层与宠物分类子网络连接,第二特征提取子网络可以为resnet18网络、mobilenetv2网络、resnet50网络,第九卷积层的层级结构可以与第四卷积层的层级结构相同,宠物分类子网络包括第十卷积层,第十卷积层的输出通道数可以为n
×
64,卷积核大小为(3,3),步长为stride(1,1),n为宠物类型的总数。
57.示例性的,将宠物脸图像输入第二特征提取子网络进行特征提取,得到第三候选特征图;将第三候选特征图输入第九卷积层进行处理,得到第四目标特征图;将第四目标特征图输入宠物分类子网络进行分类,得到宠物图像中的宠物的类型为各预设宠物类型的第二输出概率。
58.步骤s106、根据第一输出概率和第二输出概率,从各预设宠物类型中确定宠物图像中的宠物的目标类型。
59.示例性的,根据宠物图像中的宠物的类型为各预设宠物类型的第一输出概率和第二输出概率,确定输出概率最大所对应的预设宠物类型,并将输出概率最大所对应的预设宠物类型确定为宠物图像中的宠物的目标类型。
60.示例性的,从各预设宠物类型中选择第一输出概率最大的预设宠物类型作为第一宠物类型;从各预设宠物类型中选择第二输出概率最大的预设宠物类型作为第二宠物类型;若第一宠物类型与第二宠物类型相同,则将第一宠物类型确定为宠物图像中的宠物的目标类型。其中,若第一宠物类型与第二宠物类型不相同,则输出宠物识别不成功的提示信息,以提示用户重新拍摄宠物图像进行宠物分类。
61.在一实施例中,从样本数据集中获取样本数据,其中,样本数据包括宠物样本图像、面部框的第一位置点组;将宠物样本图像输入待训练的宠物分类模型,得到面部框的第二位置点组、宠物样本图像中的宠物的类型为各预设宠物类型的概率;根据第一位置点组、第二位置点组、宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定模型损失值;根据模型损失值确定宠物分类模型是否收敛;若宠物分类模型未收敛,则更新宠物分类模型的参数;返回执行从样本数据集中获取样本数据的步骤,直至宠物分类模型收敛,得到目标宠物分类模型。其中,待训练的宠物分类模型的网络层级与目标宠物分类模型的网络层级相同,即待训练的宠物分类模型包括特征提取网络、面部框预测网络、第一宠物分类网络和第二宠物分类网络。
62.示例性的,将宠物样本图像输入待训练的宠物分类模型,得到面部框的第二位置点组、宠物样本图像中的宠物的类型为各预设宠物类型的概率的方式可以为:将宠物样本
图像输入特征提取网络,得到多个分辨率不同的目标特征图;将多个分辨率不同的目标特征图分别输入面部框预测网络进行预测,得到面部框的多个位置点组和每个位置点组的可信指数,并根据每个位置点组的可信指数,从面部框的多个位置点组中确定面部框的第二位置点组;将多个分辨率不同的目标特征图分别输入第一宠物分类网络,得到宠物样本图像中的宠物的类型为各预设宠物类型的第一概率;将宠物样本图像中第二位置点组所对应的宠物脸图像输入第二宠物分类网络,得到宠物样本图像中的宠物的类型为各预设宠物类型的第二概率。
63.示例性的,判断宠物样本图像中第二位置点组所对应的面部框内是否包含宠物脸,并根据判断结果确定第一损失值;根据第一位置点组和第二位置点组,确定第二损失值;根据宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定第三损失值和第四损失值;对第一损失值、第二损失值、第三损失值和第四损失值进行加权求和,得到模型损失值。
64.示例性的,若宠物样本图像中第二位置点组所对应的面部框内包含宠物脸,则第一损失值为1,若宠物样本图像中第二位置点组所对应的面部框内不包含宠物脸,则第一损失值为0。示例性的,获取第一损失函数,并基于第一损失函数,根据第一位置点组和第二位置点组,确定第二损失值。其中,第一损失函数可以为:
[0065][0066]
其中,n1为位置点的总个数,x
i
为第一位置点组中的第i个位置点,为第二位置点组中的第i个位置点。
[0067]
示例性的,根据宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定第三损失值和第四损失值的方式可以为:根据宠物样本图像中的宠物的类型为各预设宠物类型的第一概率和第二损失函数,确定第三损失值,并根据宠物样本图像中的宠物的类型为各预设宠物类型的第二概率和第二损失函数,确定第四损失值。其中,第二损失函数可以为:
[0068][0069]
其中,m为宠物类型的数量,j为各预设宠物类型中第j个预设宠物类型,p
j
是宠物样本图像中的宠物的类型为第j个预设宠物类型的第一概率或第二概率。
[0070]
示例性的,对第一损失值、第二损失值、第三损失值和第四损失值进行加权求和,得到模型损失值的方式可以为:获取第一加权系数、第二加权系数、第三加权系数和第四加权系数;对第一加权系数与第一损失值进行乘法运算,得到第一加权损失值;对第二加权系数和第二损失值进行乘法运算,得到第二加权损失值;对第三加权系数和第三损失值进行乘法运算,得到第三加权损失值,对第四加权系数与预设位置损失值进行乘法运算,得到第四加权损失值;累计第一加权损失值、第二加权损失值、第三加权损失值和第四加权损失值,得到模型损失值。其中,第一加权系数、第二加权系数、第三加权系数和第四加权系数可基于实际情况进行设置,本实施例对此不做具体限定。例如,第一加权系数为100,第二加权系数为1,第三加权系数为10,第四加权系数为8。
[0071]
上述实施例提供的宠物分类方法,通过对宠物图像进行特征提取,得到多个分辨率不同的目标特征图,再将多个分辨率不同的目标特征图输入面部框预测网络进行面部框预测,可以得到宠物图像的面部框的目标位置点组,同时将多个分辨率不同的目标特征图输入第一宠物分类网络进行分类,得到宠物图像中的宠物的类型为各预设宠物类型的第一输出概率,然后将宠物图像中目标位置点组对应的宠物脸图像输入第二宠物分类网络进行分类,得到宠物图像中的宠物的类型为各预设宠物类型的第二输出概率,最后通过综合考虑各预设宠物类型的第一输出概率和第二输出概率,来确定宠物图像中的宠物的目标类型,极大地提高了宠物类型的识别准确性。
[0072]
请参阅图6,图6是本技术实施例提供的一种宠物分类装置的示意性框图。
[0073]
如图6所示,该宠物分类装置500,包括:
[0074]
获取模块510,用于获取宠物图像并调用目标宠物分类模型,所述目标宠物分类模型包括特征提取网络、面部框预测网络、第一宠物分类网络和第二宠物分类网络;
[0075]
特征提取模块520,用于将所述宠物图像输入所述特征提取网络进行特征提取,得到多个分辨率不同的目标特征图;
[0076]
面部框预测模块530,用于将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的面部框的目标位置点组;
[0077]
第一宠物分类模块540,用于将所述目标特征图输入所述第一宠物分类网络进行分类,得到所述宠物图像中的宠物的类型为预设宠物类型的第一输出概率;
[0078]
确定模块550,用于从所述宠物图像中获取所述目标位置点组对应的宠物脸图像;
[0079]
第二宠物分类模块560,用于将所述宠物脸图像输入所述第二宠物分类网络进行分类,得到所述宠物图像中的宠物的类型为所述预设宠物类型的第二输出概率;
[0080]
所述确定模块550,还用于根据所述第一输出概率和所述第二输出概率,从各所述预设宠物类型中确定所述宠物图像中的宠物的目标类型。
[0081]
在一实施例中,所述面部框预测模块530还用于:
[0082]
将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的多个位置点组和每个位置点组的可信指数;
[0083]
将多个所述位置点组中的所述可信指数大于或等于预设可信指数阈值的位置点组确定为候选位置点组;
[0084]
根据每个所述候选位置点组的所述可信指数,确定平均可信指数,并确定所述平均可信指数与每个候选位置点组的所述可信指数之间的可信指数差值;
[0085]
将所述可信指数差值最小所对应的候选位置点组确定为所述宠物图像的面部框的目标位置点组。
[0086]
在一实施例中,所述面部框预测模块530还用于:
[0087]
获取各所述候选位置点组的坐标信息,并根据各所述候选位置点组的坐标信息,确定平均坐标信息;
[0088]
将所述平均坐标信息所对应的位置点组确定为所述宠物图像的面部框的目标位置点组。
[0089]
在一实施例中,所述确定模块550还用于:
[0090]
从各预设宠物类型中选择所述第一输出概率最大的预设宠物类型作为第一宠物
类型;
[0091]
从各预设宠物类型中选择所述第二输出概率最大的预设宠物类型作为第二宠物类型;
[0092]
若所述第一宠物类型与所述第二宠物类型相同,则将所述第一宠物类型确定为所述宠物图像中的宠物的目标类型。
[0093]
在一实施例中,该宠物分类装置500还包括模型训练模块,所述模型训练模块用于:
[0094]
从样本数据集中获取样本数据,其中,所述样本数据包括宠物样本图像、面部框的第一位置点组;
[0095]
将所述宠物样本图像输入待训练的宠物分类模型,得到面部框的第二位置点组、所述宠物样本图像中的宠物的类型为各预设宠物类型的概率;
[0096]
根据所述第一位置点组、第二位置点组、所述宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定模型损失值;
[0097]
根据所述模型损失值确定所述宠物分类模型是否收敛;
[0098]
若所述宠物分类模型未收敛,则更新所述宠物分类模型的参数;
[0099]
返回执行所述从样本数据集中获取样本数据的步骤,直至所述宠物分类模型收敛,得到目标宠物分类模型。
[0100]
在一实施例中,所述模型训练模块还用于:
[0101]
判断所述宠物样本图像中所述第二位置点组所对应的面部框内是否包含宠物脸,并根据判断结果确定第一损失值;
[0102]
根据所述第一位置点组和所述第二位置点组,确定第二损失值;
[0103]
根据所述宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定第三损失值和第四损失值;
[0104]
对所述第一损失值、所述第二损失值、所述第三损失值和所述第四损失值进行加权求和,得到模型损失值。
[0105]
在一实施例中,所述模型训练模块还用于:
[0106]
获取第一损失函数,其中,所述第一损失函数为:n1为位置点的总个数,x
i
为所述第一位置点组中的第i个位置点,为所述第二位置点组中的第i个位置点;
[0107]
基于所述第一损失函数,根据所述第一位置点组和所述第二位置点组,确定第二损失值。
[0108]
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块及单元的具体工作过程,可以参考前述宠物分类方法实施例中的对应过程,在此不再赘述。
[0109]
上述实施例提供的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图7所示的计算机设备上运行。
[0110]
请参阅图7,图7是本技术实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以为服务器或终端设备。
[0111]
如图7所示,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口,其中,存储器可以包括存储介质和内存储器。
[0112]
存储介质可存储操作系统和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器执行任意一种宠物分类方法。
[0113]
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
[0114]
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图7中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0115]
应当理解的是,处理器可以是中央处理单元(central processing unit,cpu),该处理器还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field

programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0116]
其中,在一实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
[0117]
获取宠物图像并调用目标宠物分类模型,所述目标宠物分类模型包括特征提取网络、面部框预测网络、第一宠物分类网络和第二宠物分类网络;
[0118]
将所述宠物图像输入所述特征提取网络进行特征提取,得到多个分辨率不同的目标特征图;
[0119]
将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的面部框的目标位置点组;
[0120]
将所述目标特征图输入所述第一宠物分类网络进行分类,得到所述宠物图像中的宠物的类型为预设宠物类型的第一输出概率;
[0121]
从所述宠物图像中获取所述目标位置点组对应的宠物脸图像,并将所述宠物脸图像输入所述第二宠物分类网络进行分类,得到所述宠物的类型为所述预设宠物类型的第二输出概率;
[0122]
根据所述第一输出概率和所述第二输出概率,从各所述预设宠物类型中确定所述宠物图像中的宠物的目标类型。
[0123]
在一实施例中,所述处理器在实现将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的面部框的目标位置点组时,用于实现:
[0124]
将所述目标特征图输入所述面部框预测网络进行面部框预测,得到所述宠物图像的多个位置点组和每个位置点组的可信指数;
[0125]
将多个所述位置点组中的所述可信指数大于或等于预设可信指数阈值的位置点组确定为候选位置点组;
[0126]
根据每个所述候选位置点组的所述可信指数,确定平均可信指数,并确定所述平均可信指数与每个候选位置点组的所述可信指数之间的可信指数差值;
[0127]
将所述可信指数差值最小所对应的候选位置点组确定为所述宠物图像的面部框
的目标位置点组。
[0128]
在一实施例中,所述处理器还用于实现以下步骤:
[0129]
获取各所述候选位置点组的坐标信息,并根据各所述候选位置点组的坐标信息,确定平均坐标信息;
[0130]
将所述平均坐标信息所对应的位置点组确定为所述宠物图像的面部框的目标位置点组。
[0131]
在一实施例中,所述处理器在实现根据所述第一输出概率和所述第二输出概率,从各预设宠物类型中确定所述宠物图像中的宠物的目标类型时,用于实现:
[0132]
从各预设宠物类型中选择所述第一输出概率最大的预设宠物类型作为第一宠物类型;
[0133]
从各预设宠物类型中选择所述第二输出概率最大的预设宠物类型作为第二宠物类型;
[0134]
若所述第一宠物类型与所述第二宠物类型相同,则将所述第一宠物类型确定为所述宠物图像中的宠物的目标类型。
[0135]
其中,在另一实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
[0136]
从样本数据集中获取样本数据,其中,所述样本数据包括宠物样本图像、面部框的第一位置点组;
[0137]
将所述宠物样本图像输入待训练的宠物分类模型,得到面部框的第二位置点组、所述宠物样本图像中的宠物的类型为各预设宠物类型的概率;
[0138]
根据所述第一位置点组、第二位置点组、所述宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定模型损失值;
[0139]
根据所述模型损失值确定所述宠物分类模型是否收敛;
[0140]
若所述宠物分类模型未收敛,则更新所述宠物分类模型的参数;
[0141]
返回执行所述从样本数据集中获取样本数据的步骤,直至所述宠物分类模型收敛,得到目标宠物分类模型。
[0142]
在一实施例中,所述处理器在实现根据所述第一位置点组、第二位置点组、所述宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定模型损失值时,用于实现:
[0143]
判断所述宠物样本图像中所述第二位置点组所对应的面部框内是否包含宠物脸,并根据判断结果确定第一损失值;
[0144]
根据所述第一位置点组和所述第二位置点组,确定第二损失值;
[0145]
根据所述宠物样本图像中的宠物的类型为各预设宠物类型的概率,确定第三损失值和第四损失值;
[0146]
对所述第一损失值、所述第二损失值、所述第三损失值和所述第四损失值进行加权求和,得到模型损失值。
[0147]
在一实施例中,所述处理器在实现根据所述第一位置点组和所述第二位置点组,确定第二损失值时,用于实现:
[0148]
获取第一损失函数,其中,所述第一损失函数为:n1为位置点的
总个数,x
i
为所述第一位置点组中的第i个位置点,为所述第二位置点组中的第i个位置点;
[0149]
基于所述第一损失函数,根据所述第一位置点组和所述第二位置点组,确定第二损失值。
[0150]
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的计算机设备的具体工作过程,可以参考前述宠物分类方法实施例中的对应过程,在此不再赘述。
[0151]
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例或者实施例的某些部分所述的方法。
[0152]
本技术实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序中包括程序指令,所述程序指令被执行时所实现的方法可参阅本技术宠物分类方法的各个实施例。
[0153]
其中,所述计算机可读存储介质可以是易失性的,也可以是非易失性的。所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。
[0154]
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
[0155]
本技术所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
[0156]
应当理解,在此本技术说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本技术。如在本技术说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
[0157]
还应当理解,在本技术说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
[0158]
上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献