一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种宠物识别方法、装置、设备及存储介质与流程

2021-11-22 13:53:00 来源:中国专利 TAG:


1.本发明涉及人工智能领域,特别涉及一种宠物识别方法、装置、设备及存储介质。


背景技术:

2.随着生活水平的提高,饲养宠物的家庭越来越多,宠物的管理也变成了一项必不可少的工作;有效的管理小区、家庭之中的宠物,可以减少外来宠物、流浪宠物带来的各种问题,使小区和家庭更加安全。现有技术中,识别宠物通常通过检测宠物的面部特征,对比注册宠物的面部特征进行识别,但同类型宠物相似度较高,需要很高的识别准确度,而不同类型的宠物服从性不同,对于服从性较差的宠物,难以精准捕捉到宠物的面部特征,另外多毛宠物由于面部容易被遮挡,识别精度也较差。现有技术中,还通过检测宠物鼻纹特征,对比注册宠物的鼻纹特征进行识别。宠物的鼻纹类似于人类的指纹一样,都具有唯一性,但实际应用中,由于鼻纹区域很小,采集难度较大,操作不便捷,影响实际应用效果。


技术实现要素:

3.有鉴于此,本发明的目的在于提供一种宠物识别方法、装置、设备及介质,能够提高宠物识别的准确性。其具体方案如下:第一方面,本技术公开了一种宠物识别方法,包括:获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征;利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。
4.可选的,所述从所述视频片段中提取得到步态特征,包括:获取不同条件下摄像头采集的目标宠物的行走视频并添加相应的宠物特征标签,以得到步态视频数据集;以transformer网络结构为基础进行网络构建,得到第一待训练网络;利用所述步态视频数据集对所述第一待训练网络进行训练,得到步态特征提取模型,并利用所述步态特征提取模型从所述视频片段中提取得到所述步态特征。
5.可选的,所述以transformer网络结构为基础进行网络构建,得到第一待训练网络,包括:按照transformer编解码网络、longformer网络、多层感知机的顺序进行连接,得到所述第一待训练网络;其中,所述transformer编解码网络中包括多个平行的transformer的编解码器。
6.可选的,所述从所述面部图像中提取得到面部特征,包括:
获取不同条件下摄像头采集的所述目标宠物的面部图像并添加相应的宠物特征标签,以得到面部图像数据集;以resnet网络结构为基础进行网络构建,得到第二待训练网络;利用所述面部图像数据集对所述第二待训练网络进行训练,得到面部特征提取模型,并利用所述面部特征提取模型从所述面部图像中提取得到所述面部特征。
7.可选的,所述从所述音频片段中提取得到声纹特征,包括:获取不同条件下麦克风采集的所述目标宠物的音频并添加相应的宠物特征标签,以得到音频数据集;以lstm网络结构为基础进行网络构建,得到第三待训练网络;利用所述音频图像数据集对所述第三待训练网络进行训练,得到声纹特征提取模型,并利用所述声纹特征提取模型从所述音频片段中提取得到所述声纹特征。
8.可选的,所述对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征,包括:利用预先构建的深度融合模型首先对所述步态特征、所述面部特征和所述声纹特征进行拼接融合,以得到初步融合特征;利用所述深度融合模型中的se模块对所述初步融合特征进行特征提取和融合,以得到所述融合后特征。
9.可选的,所述融合模型的构建过程,包括:按照concatenate层、串联的3个se模块、全连接网络的顺序连接,得到第四待训练网络;利用目标训练数据集和三元损失函数对所述第四待训练网络进行训练,以得到所述深度融合模型;所述目标训练集包括步态视频数据集、面部图像数据集和音频数据集。
10.第二方面,本技术公开了一种宠物识别装置,包括:信息获取模块,用于获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;特征提取模块,用于从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;特征融合模块,用于对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征;识别模块,用于利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。
11.第三方面,本技术公开了一种电子设备,包括:存储器,用于保存计算机程序;处理器,用于执行所述计算机程序,以实现前述的宠物识别方法。
12.第四方面,本技术公开了一种计算机可读存储介质,用于存储计算机程序;其中计算机程序被处理器执行时实现前述的宠物识别方法。
13.本技术中,通过获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;对所述步态特征、所
述面部特征和所述声纹特征进行特征融合,以得到融合后特征;利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。可见,通过获取待检测宠物的视频片段、面部图像和音频片段,分别提取得到步态特征、面部特征和声纹特征,然后通过融合宠物的面部、声纹、步态特征,得到融合后特征并基于此来验证宠物身份。由此一来,通过融合多模态特征的识别方法,针对不同场景下,由于各种影响因素,如采光、设备分辨率等限制条件,采集的某项特征质量较差,通过多模态特征融合在单一特征质量欠佳的情况,仍能确保识别精度。
附图说明
14.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
15.图1为本技术提供的一种宠物识别方法流程图;图2为本技术提供的一种具体的步态特征提取模型结构示意图;图3为本技术提供的一种具体的模型训练流程图;图4为本技术提供的一种具体的深度融合模型结构示意图;图5为本技术提供的一种具体的宠物识别方法流程图;图6为本技术提供的一种宠物识别装置结构示意图;图7为本技术提供的一种电子设备结构图。
具体实施方式
16.现有技术中,识别宠物通常通过检测宠物的面部特征,对比注册宠物的面部特征进行识别,但同类型宠物相似度较高,需要很高的识别准确度,而在实际应用中不同类型的宠物服从性不同,对于服从性较差的宠物,难以精准捕捉到宠物的面部特征,另外多毛宠物由于面部容易被遮挡,识别精度也较差。现有技术中,还通过检测宠物鼻纹特征,对比注册宠物的鼻纹特征进行识别。宠物的鼻纹类似于人类的指纹一样,都具有唯一性,但实际应用中,由于鼻纹区域很小,采集难度较大,操作很不便捷,影响实际应用效果。为克服上述技术问题,本技术提出一种宠物识别方法,通过融合多模态特征得到的融合后特征进行识别,提高了宠物识别的准确性。
17.本技术实施例公开了一种宠物识别方法,参见图1所示,该方法可以包括以下步骤:步骤s11:获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段。
18.本实施例中,首先可以通过监控设备采集宠物的音视频信息,包括宠物行走的视频片段、宠物面部图像以及宠物音频片段。
19.步骤s12:从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征。
20.本实施例中,采集音视频信息后,分别从视频片段、宠物面部图像以及宠物音频片
段中提取得到待检测宠物的步态特征、面部特征、声纹特征。可以理解的是,步态特征具有时序性,能够很好的表达宠物特点,同时对设备画质要求不高,只要较好的记录宠物轮廓,就能提取得到,特别是对于采光较差的场景。面部特征相较于鼻纹特征,采集难度和采集设备要求较低。宠物声纹具有唯一性,且对设备和场景的要求不高。
21.本实施例中,所述从所述视频片段中提取得到步态特征,可以包括:获取不同条件下摄像头采集的目标宠物的行走视频并添加相应的宠物特征标签,以得到步态视频数据集;以transformer网络结构为基础进行网络构建,得到第一待训练网络;利用所述步态视频数据集对所述第一待训练网络进行训练,得到步态特征提取模型,并利用所述步态特征提取模型从所述视频片段中提取得到所述步态特征。
22.本实施例中,通过基于transformer网络构建的步态特征提取模型对宠物视频进行步态特征提取。可以理解的是,现有技术中,存在针对行人的步态特征提取方法,但常常需要进行预处理,如检测人物、提取人物轮廓、视频帧人物对齐等,是整个预处理过程极其繁琐。本实施例中基于transformer(深度自注意力变换网络)技术对视频流进行步态特征提取,省略了之前繁琐的预处理过程,同时相较于以往的步态识别模型,如3d卷积模型等,transformer能够有效的理解视频帧时序上的连续,并且自注意力机制使transformer对视频中动态的物体更为敏感。
23.为了使步态特征提取模型性能符合实际场景,本实施例中根据实际情况采集数据,制作专门的数据集,以方便训练。上述不同条件包括但不限于采集位置、采集光线环境、时间、天气等。具体的,可以在不同条件下,如小区门卫处,个人门前等,放置安防摄像头,同时光照条件也各不相同,如白天、晚上、晴天、阴天、下雨天等不同情况。安排宠物在摄像头下行走,宠物步行距离大概在10米左右,每个宠物拍摄5次,每个宠物的步态视频为5段。然后随机选取部分宠物的数据作为验证集,剩下的作为训练集,以得到步态视频数据集。具体训练过程,在初始化第一待训练网络的模型参数后,使用宠物步态数据集,训练第一待训练网络模型,然后使用相应的测试集进行测试,经过不断迭代,直到验证集的精度达到要求。
24.本实施例中,所述以transformer网络结构为基础进行网络构建,得到第一待训练网络,可以包括:按照transformer编解码网络、longformer网络、多层感知机的顺序进行连接,得到所述第一待训练网络;其中,所述transformer编解码网络中包括多个平行的transformer的编解码器。其中,每个所述transformer的编解码器用于提取输入的单个视频帧的步态特征。
25.如图2所示,以视频帧序列frame (frame

1,frame

2 ... frame

n,从单个宠物的步态视频中随机截取的n帧图片)作为输入,将frame输入到transformer encoder

decoder(transformer编解码结构,在图片中使用f(x)表示)之中,对具有时序信息的frame进行编解码,提取视频帧中的步态特征序列。然后,使用longformer结构对步态特征序列进行特征提取,longformer结构可以一次性处理多帧图像,能够有效加速运算,节约内存。接着再使用多层感知机对其进行编码,最终得到步态特征,该特征为存储在系统中的步态特征,本实施例中步态特征维度为512。并在训练过程中使用分类器,得到分类结果,即宠物身份。上述多层感知机可以为两层全连接层。可见,将transformer应用到步态识别之中,形成了步态特征提取模型,并应用于宠物识别之中。相较于以前的步态识别,极大的简化了预处理过程。
26.本实施例中,所述从所述面部图像中提取得到面部特征,可以包括:获取不同条件下摄像头采集的所述目标宠物的面部图像并添加相应的宠物特征标签,以得到面部图像数据集;以resnet网络结构为基础进行网络构建,得到第二待训练网络;利用所述面部图像数据集对所述第二待训练网络进行训练,得到面部特征提取模型,并利用所述面部特征提取模型从所述面部图像中提取得到所述面部特征。可以理解的是,本实施例中使用resnet(residual
‑ꢀ
network,残差网络)从所述面部图像中提取得到所述面部特征。本实施例中,上述面部图像数据集的生成过程包括:拍摄不同角度下宠物图片,并筛选出包含面部的图片;对筛选后的图片进行面部剪裁,得到宠物的面部数据集,每个宠物的面部图片可以为5张;然后随机选取部分宠物的数据作为验证集,剩下的作为训练集,以得到面部图像数据集。具体的,上述resnet网路可以为resnet

50模型,训练过程具体可以如图3所示。
27.本实施例中,所述从所述音频片段中提取得到声纹特征,可以包括:获取不同条件下麦克风采集的所述目标宠物的音频并添加相应的宠物特征标签,以得到音频数据集;以lstm网络结构为基础进行网络构建,得到第三待训练网络;利用所述音频图像数据集对所述第三待训练网络进行训练,得到声纹特征提取模型,并利用所述声纹特征提取模型从所述音频片段中提取得到所述声纹特征。可以理解的是,本实施例中使用lstm(long short

term memory,长短期记忆网络)模型从所述音频片段中提取得到所述声纹特征。。本实施例中,上述音频数据集的生成过程可以包括:采集宠物的声音制作声纹数据集,每个宠物的音频可以为5段,然后随机选取部分宠物的数据作为验证集,剩下的作为训练集,以得到音频数据。训练时,首先初始化第三待训练网络模型参数,然后使用宠物声纹数据集训练,并使用相应的测试集测试,通过不断迭代,直到验证集的精度达到要求,训练过程具体可以如图3所示。
28.可以理解的是,由于最终使用三个不同特征进行融合,需要确保单组输入的步态、图像、声纹都属于同一个宠物,因此上述步态特征提取模型、面部特征提取模型和声纹特征提取模型分别对应的数据集,为针对相同的多个宠物同时采集的,也就是说,采集后每个宠物的数据对应着三个特征标签,分别为步态特征标签、面部特征标签和声纹标签。本实施例中目标宠物的总数量大于1000,且按照上述步骤每个宠物对应5段视频、5张面部图片以及5段音频。
29.步骤s13:对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征。
30.本实施例中,得到上述步态特征、面部特征和声纹特征后,进行特征融合,得到融合后特征。
31.本实施例中,所述对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征。可以包括:利用预先构建的深度融合模型首先对所述步态特征、所述面部特征和所述声纹特征进行拼接融合,以得到初步融合特征;利用所述深度融合模型中的se模块对所述初步融合特征进行特征提取和融合,以得到所述融合后特征。例如图5所示,对提取的三个子特征进行融合,形成初步特征,然后对初步融合特征进一步的特征提取和融合,并得到最终的深度融合特征。
32.本实施例中,所述融合模型的构建过程,可以包括:按照concatenate层、串联的3个se模块、全连接网络的顺序连接,得到第四待训练网络;利用目标训练数据集和三元损失
函数对所述第四待训练网络进行训练,以得到所述深度融合模型;所述目标训练集包括步态视频数据集、面部图像数据集和音频数据集。例如图4所示,深度融合模型主要结构,首先对步态特征、面部特征、声纹特征进行融合得到初步融合特征,若3个子特征的维度都是n=512,拼接融合变成n=3x512的特征,接着使用3个seblock(squeeze

and

excitation networks中的具有注意力机制的结构单元)对初步特征进行融合,最终输出一个n=512的深度融合特征。考虑到实际不同场景下,声纹、图像、步态动作采样的清晰度各不相同,每个子特征的重要性也有差异,需要自适应的区分不同场景下子特征的重要性,本实施例中采用了含有注意力机制的seblock,以适应实际中的复杂场景,提高识别准确性。
33.深度融合模型训练的时候,同时使用上述的宠物步态数据集、宠物面部数据集、宠物声纹数据集对网络进行优化迭代,三个数据集的标签需要一一对应。另外,深度融合模型采用了三元组损失函数,公式如下:;其中,表示特征提取过程,表示目标样本输入,表示正样本输入,负样本输入,表示范数。因此表示正样本和目标样本的距离,表示目标样本和负样本之间的距离,为间隔参数。模型训练流程如图3所示,直到超过三个子网络的识别精度为止。
34.可以理解的是, 特征融合过程直接影响最终的识别精度。不同场景下每个子特征的好坏不一,重要程度也各不相同。所以如何根据实际情况、子特征的好坏,有效的融合特征会极大的影响最终的识别准确度。本实施例中采用自适应的注意力机制,能够有效的根据特征的好坏,自动调节分配特征的权重。也就是说,考虑到实际情况中,声纹、图像、步态的采集情况有好有坏,因此通过可以自动调节的注意力机制,针对3种特征添加不同权重进行融合,更好的适应实际情况。
35.步骤s14:利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。
36.本实施例中,将融合后的深度融合特征和已存档的宠物特征进行比对,具体可以通过判断二者的相似度是否高于设定阈值进行判定是否属于注册宠物。如计算融合后特征和注册宠物特征的相似度α,当α大于某个阈值时,可以认为是注册宠物,否则为非注册宠物。可见,本实施例中不单一依赖于一种特征进行识别,而是采取多种模态的特征融合,提升识别的准确度。
37.由上可见,本实施例中通过获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征;利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。可见,通过获取待检测宠物的视频片段、面部图像和音频片段,分别提取得到步态特征、面部特征和声纹特征,然后通过融合宠物的面部、声纹、步态特征,得到融合后特征并基于此来验证宠物身份。由此一
来,通过融合多模态特征的识别方法,针对不同场景下,由于各种影响因素,如采光、设备分辨率等限制条件,采集的某项特征质量较差,通过多模态特征融合在单一特征质量欠佳的情况,仍能确保识别精度。
38.相应的,本技术实施例还公开了一种宠物识别装置,参见图6所示,该装置包括:信息获取模块11,用于获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;特征提取模块12,用于从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;特征融合模块13,用于对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征;识别模块14,用于利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。
39.由上可见,本实施例中通过获取待检测宠物的音视频信息;所述音视频信息包括所述待检测宠物的视频片段、面部图像和音频片段;从所述视频片段中提取得到步态特征,并从所述面部图像中提取得到面部特征,并从所述音频片段中提取得到声纹特征;对所述步态特征、所述面部特征和所述声纹特征进行特征融合,以得到融合后特征;利用所述融合后特征比对已存档的宠物特征,以实现对所述待检测宠物的识别。可见,通过获取待检测宠物的视频片段、面部图像和音频片段,分别提取得到步态特征、面部特征和声纹特征,然后通过融合宠物的面部、声纹、步态特征,得到融合后特征并基于此来验证宠物身份。由此一来,通过融合多模态特征的识别方法,针对不同场景下,由于各种影响因素,如采光、设备分辨率等限制条件,采集的某项特征质量较差,通过多模态特征融合在单一特征质量欠佳的情况,仍能确保识别精度。
40.在一些具体实施例中,所述特征提取模块12具体可以包括:步态视频数据集获取单元,用于获取不同条件下摄像头采集的目标宠物的行走视频并添加相应的宠物特征标签,以得到步态视频数据集;第一待训练网络构建单元,用于以transformer网络结构为基础进行网络构建,得到第一待训练网络;步态特征提取单元,用于利用所述步态视频数据集对所述第一待训练网络进行训练,得到步态特征提取模型,并利用所述步态特征提取模型从所述视频片段中提取得到所述步态特征。
41.在一些具体实施例中,所述第一待训练网络构建单元具体可以包括:网络连接单元,用于按照transformer编解码网络、longformer网络、多层感知机的顺序进行连接,得到所述第一待训练网络;其中,所述transformer编解码网络中包括多个平行的transformer的编解码器。
42.在一些具体实施例中,所述特征提取模块12具体可以包括:面部图像数据集获取单元,用于获取不同条件下摄像头采集的所述目标宠物的面部图像并添加相应的宠物特征标签,以得到面部图像数据集;第二待训练网络构建单元,用于以resnet网络结构为基础进行网络构建,得到第二待训练网络;
面部特征提取单元,用于利用所述面部图像数据集对所述第二待训练网络进行训练,得到面部特征提取模型,并利用所述面部特征提取模型从所述面部图像中提取得到所述面部特征。
43.在一些具体实施例中,所述特征提取模块12具体可以包括:音频数据集获取单元,用于获取不同条件下麦克风采集的所述目标宠物的音频并添加相应的宠物特征标签,以得到音频数据集;第三待训练网络构建单元,用于以lstm网络结构为基础进行网络构建,得到第三待训练网络;声纹特征提取单元,用于利用所述音频图像数据集对所述第三待训练网络进行训练,得到声纹特征提取模型,并利用所述声纹特征提取模型从所述音频片段中提取得到所述声纹特征。
44.在一些具体实施例中,所述特征融合模块13具体可以包括:第一融合单元,用于利用预先构建的深度融合模型首先对所述步态特征、所述面部特征和所述声纹特征进行拼接融合,以得到初步融合特征;第二融合单元,用于利用所述深度融合模型中的se模块对所述初步融合特征进行特征提取和融合,以得到所述融合后特征。
45.在一些具体实施例中,所述特征融合模块13具体可以包括:第四待训练网络构建单元,用于按照concatenate层、串联的3个se模块、全连接网络的顺序连接,得到第四待训练网络;深度融合模型生成单元,用于利用目标训练数据集和三元损失函数对所述第四待训练网络进行训练,以得到所述深度融合模型;所述目标训练集包括步态视频数据集、面部图像数据集和音频数据集。
46.进一步的,本技术实施例还公开了一种电子设备,参见图7所示,图中的内容不能被认为是对本技术的使用范围的任何限制。
47.图7为本技术实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的宠物识别方法中的相关步骤。
48.本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本技术技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
49.另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及包括音视频信息在内的数据223等,存储方式可以是短暂存储或者永久存储。
50.其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是windows server、netware、unix、linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由
电子设备20执行的宠物识别方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
51.进一步的,本技术实施例还公开了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述任一实施例公开的宠物识别方法步骤。
52.本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
53.结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd

rom、或技术领域内所公知的任意其它形式的存储介质中。
54.最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
55.以上对本发明所提供的一种宠物识别方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献