一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

活体检测方法、装置、电子设备及存储介质与流程

2022-03-19 20:39:26 来源:中国专利 TAG:


1.本公开涉及人工智能技术领域,具体为深度学习、计算机视觉技术领域,可应用于人脸识别、活体检测等场景,尤其涉及活体检测方法、装置、电子设备及存储介质。


背景技术:

2.活体检测是在一些身份验证场景确定对象真实生理特征的方法,在人脸识别应用中,活体检测能通过眨眼、张嘴、摇头、点头等组合动作,使用人脸关键点定位和人脸追踪等技术,验证用户是否为真实活体本人操作。可有效抵御照片、换脸、面具、遮挡以及屏幕翻拍等常见的攻击手段,从而保障用户的利益。


技术实现要素:

3.本公开提供了一种活体检测方法、装置、设备及存储介质。
4.根据本公开的一方面,提供了一种活体检测方法,包括:
5.通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像;
6.将所述多张图像进行融合,以生成目标融合图像;以及
7.根据所述目标融合图像进行活体检测。
8.根据本公开的另一方面,提供了一种活体检测装置,包括:
9.拍摄模块,用于通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像;
10.融合模块,用于将所述多张图像进行融合,以生成目标融合图像;以及
11.活体检测模块,用于根据所述目标融合图像进行活体检测。
12.根据本公开的另一方面,提供了一种电子设备,包括:
13.至少一个处理器;以及
14.与所述至少一个处理器通信连接的存储器;其中,
15.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行活体检测方法。
16.根据本公开的另一方面,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行活体检测方法。
17.根据本公开的另一方面,一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现活体检测方法的步骤。
18.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
19.附图用于更好地理解本方案,不构成对本公开的限定。其中:
20.图1是根据本公开一个实施例的活体检测方法的流程图;
21.图2是根据本公开另一个实施例的活体检测方法的流程图;
22.图3是根据本公开另一个实施例的活体检测方法的流程图;
23.图4是根据本公开另一个实施例的活体检测方法的流程图;
24.图5是根据本公开另一个实施例的活体检测方法的流程图;
25.图6是根据本公开一个具体实施例的活体检测方法的示意图;
26.图7是根据本公开一个实施例的活体检测装置的结构示意图;以及
27.图8是用来实现本公开实施例的活体检测方法的电子设备的框图。
具体实施方式
28.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
29.下面参考附图描述本公开实施例的活体检测方法、装置、电子设备及存储介质。
30.人工智能是研究使用计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术领域也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术包括计算机视觉技术、语音识别技术、自然语言处理技术以及深度学习、大数据处理技术、知识图谱技术等几大方向。
31.深度学习是机器学习领域中一个新的研究方向。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
32.计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取

信息’的人工智能系统。这里所指的信息指香农定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。
33.本公开实施例提供的活体检测方法,可以由电子设备来执行,该电子设备可为pc(personal computer,个人计算机)电脑、平板电脑、掌上电脑或服务器等,此处不做任何限定。
34.在本公开实施例中,电子设备中可以设置有处理组件、存储组件和驱动组件。可选的,该驱动组件和处理组件可以集成设置,该存储组件可以存储操作系统、应用程序或其他程序模块,该处理组件通过执行存储组件中存储的应用程序来实现本公开实施例提供的活体检测方法。
35.图1为本公开实施例提供的一种活体检测方法的流程示意图。
36.本公开实施例的活体检测方法,还可由本公开实施例提供的活体检测装置执行,该装置可配置于电子设备中,以实现通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像,并将多张图像进行融合,以生成目标融合图像,而后根据目标融合图像进行活体检测,从而能够提高活体检测的准确性。
37.作为一种可能的情况,本公开实施例的活体检测方法还可以在服务器端执行,该服务器可以为云服务器,可以在云端执行该活体检测方法。
38.如图1所示,该活体检测方法,可包括:
39.步骤101,通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像。其中,该实施例所描述的摄像头可为变焦摄像头,例如,可以是手机、平板电脑或变焦相机等电子设备具有的变焦摄像头。应说明的是,该实施例中所描述的目标对象可以为人脸或者动物的面部,此处不做任何限定。
40.在本公开实施例中,电子设备(例如,手机)可通过安装于自身的摄像头,以不同的焦距对目标对象(例如,人脸)的多个不同部位(例如,人脸的鼻尖、人脸的下巴和人脸的额头等)进行拍摄,以得到多张图像。
41.具体地,电子设备(例如,手机)可通过调整摄像头的焦距对目标对象的不同部位进行拍摄,以得到目标对象不同部位的图像,其中,每个焦距可拍摄一张图像,以得到多张不同焦距的图像。
42.举例而言,若目标对象为人脸,手机可通过摄像头(即,变焦摄像头)进行人脸关键点(部位)检测,以得到人脸的多个(例如,72)关键点,而后可通过调整摄像头的焦距分别至人脸不同的关键点部位进行拍摄,例如,聚焦于人脸的鼻尖、聚焦于人脸的下巴和聚焦于人脸的额头进行拍摄,以得到多张不同的人脸图像。
43.作为一种可能的情况,电子设备(例如,手机)在通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像之后,可将该多张图像发送至相关的服务器,由该服务器进行后续的活体检测。
44.步骤102,将多张图像进行融合,以生成目标融合图像。
45.在本公开实施例中,电子设备得到上述多张图像后,可先将不同焦距的图像两两拼接(融合),以生成多张不同的拼接图像。
46.具体地,若电子设备得到焦距各不相同的n张图像:图像1、图像2、图像3、
……
、图像n,即该n张图像为目标对象不同部位的图像,则可将该n张图像两两拼接(不可重复),以生成多张不同的拼接图像,例如,可将图像1和图像2融合,图像2和图像3融合,
……
,图像n和图像1融合。而后将该多张不同的拼接图像进行融合,以得到目标融合图像。
47.进一步地,在本公开实施例中,可通过预设的图像融合算法对多张图像进行融合,以生成目标融合图像。其中,预设的图像融合算法可根据实际情况和需求进行标定。应说明的是,该实施例中所描述的预设的图像融合算法可预先存储在电子设备的存储空间中,以方便调取应用,其中,该存储空间不仅限于基于实体的存储空间,例如,硬盘,该存储空间还可以是连接电子设备的网络硬盘的存储空间(云存储空间)。
48.具体地,电子设备在得到上述多张图像后,可从自身的存储空间中调出预设的图像融合算法,并通过该预设的图像融合算法对该多张图像进行两两拼接处理,以生成多张不同的拼接图像,以及将该多张不同的拼接图像进行融合,以得到目标融合图像。
49.作为一种可能的情况,还可通过图像融合模型对多张图像进行融合,以生成目标融合图像。应说明的是,该实施例中所描述的图像融合模型可以是提前训练好的,并将其预存在电子设备的存储空间中,以方便调取应用。
50.其中,该图像融合模型的训练与生成均可由相关的训练服务器执行,该训练服务器可以是云端服务器,也可以是一台电脑的主机,该训练服务器与可执行本公开实施例提供的活体检测方法的电子设备之间,建立有通信连接,该通信连接可以是无线网络连接和有线网络连接的至少一种。该训练服务器可将训练完成的图像融合模型发送给该电子设备,以便该电子设备在需要时调用,从而大大减少该电子设备的计算压力。
51.具体地,电子设备在得到上述多张图像后,可从自身的存储空间中调出图像融合模型,并将该多张图像输入至该图像融合模型,从而通过该图像融合模型先对该多张图像进行两两拼接处理,得到多张不同的拼接图像,而后将该多张不同的拼接图像再进行融合处理,以得到该图像融合模型输出的目标融合图像。
52.作为另一种可能的情况,电子设备还可使用图像融合工具(例如,插件等),对多张图像进行融合,以生成目标融合图像。
53.作为另一种可能的情况,电子设备还可通过活体检测模型对多张图像进行融合,以生成目标融合图像。应说明的是,该实施例中所描述的活体检测模型可以是提前训练好的,并将其预存在电子设备的存储空间中,以方便调取应用。
54.具体地,电子设备在得到上述多张图像后,可从自身的存储空间中调出活体检测模型,并将该多张图像输入至该活体检测模型,从而通过该活体检测模型先对该多张图像进行两两拼接处理,得到多张不同的拼接图像,而后将该多张不同的拼接图像再进行融合处理,以生成目标融合图像。
55.需要说明的是,该实施例中所描述目标融合图像可以是在活体检测模型内部生成的,并不会作为活体检测模型的结果输出。
56.在本公开其它实施例中,电子设备在得到上述多张图像后,还可直接根据预设的图像融合算法、图像融合模型、图像融合工具或活体检测模型直接对该多张图像进行融合,以得到目标融合图像。
57.步骤103,根据目标融合图像进行活体检测。
58.在本公开实施例中,可通过活体检测模型对上述的目标融合图像进行活体检测。
59.具体地,若上述的目标融合图像是通过图像融合算法、图像融合模型或图像融合工具得到的,则电子设备可从自身的存储空间中调出活体检测模型,并将该目标融合图像输入至该活体检测模型,从而通过该活体检测模型对该目标融合图像进行活体检测,并输出的活体检测结果。
60.作为一种可能的情况,若上述的目标融合图像是通过活体检测模型生成的,则电子设备可直接通过活体检测模型对该目标融合图像进行活体检测。
61.具体地,电子设备在得到多张图像,并通过活体检测模型对该多张图像进行融合,生成(得到)目标融合图像后,可继续通过该活体检测模型对该目标融合图像进行活体检测,并最终输出活体检测结果。
62.在本公开实施例中,首先通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像,然后将多张图像进行融合,以生成目标融合图像,最后根据目标融合图像进
行活体检测。由此,能够实现目标对象的活体检测,并能够在活体检测的过程中获取到更多的检测信息,从而提高活体检测的准确性。
63.在本公开的一个实施例中,如图2所示,多张图像可包括第一图像、第二图像和第三图像,将多张图像融合,以生成目标融合图像,可包括:
64.步骤201,对第一图像和第二图像进行拼接,以生成第一拼接图像。
65.步骤202,对第二图像和第三图像进行拼接,以生成第二拼接图像。
66.步骤203,对第一图像和第三图像进行拼接,以生成第三拼接图像。
67.在本公开实施例中,电子设备可分别通过摄像头的第一焦距、第二焦距和第三焦距对目标对象的三个不同的部位进行拍摄,以获取相应第一图像、第二图像和第三图像。其中,第一焦距、第二焦距和第三焦距可根据实际情况和需求进行标定,且第一焦距、第二焦距和第三焦距不同。
68.具体地,电子设备在获取到上述的第一图像、第二图像和第三图像后,可将第一图像和第二图像在通道(channel)维度方向进行拼接(或相加),生成第一拼接图像;将第二图像和第三图像在通道维度方向进行拼接,生成第二拼接图像;将第一图像和第三图像在通道维度方向进行拼接,生成第三拼接图像。
69.步骤204,将第一拼接图像、第二拼接图像和第三拼接图像进行融合,以生成目标融合图像。
70.在本公开实施例中,电子设备可基于预设的融合策略将第一拼接图像、第二拼接图像和第三拼接图像进行融合,以生成目标融合图像。其中,预设的融合策略可根据实际情况和需求进行标定。
71.具体地,在生成上述的第一拼接图像、第二拼接图像和第三拼接图像后,电子设备可基于预设的融合策略将该第一拼接图像、第二拼接图像和第三拼接图像进行融合,以生成目标融合图像。
72.由此,能够实现对目标对象聚焦不同部位拍摄的图像进行两两拼接,并将拼接后的图像进行融合,从而能够在进行活体检测的过程中获取到更多的检测信息,进而提高活体检测的准确性。
73.为了清楚说明上一实施例,在本公开的一个实施例中,如图3所示,将第一拼接图像、第二拼接图像和第三拼接图像进行融合,以生成目标融合图像,可包括:
74.步骤301,将第一拼接图像输入第一卷积网络,以融合得到第一融合图像。
75.步骤302,将第二拼接图像输入第二卷积网络,以融合得到第二融合图像。
76.步骤303,将第三拼接图像输入第三卷积网络,以融合得到第三融合图像。
77.需要说明的是,上述实施例中所描述的第一卷积网络、第二卷积网络和第三卷积网络可以是相同的卷积网络,也可以是不同的卷积网络,另外,该第一卷积网络、第二卷积网络和第三卷积网络还可以是模型(例如,活体检测模型)的卷积层,此处不做任何限定。
78.步骤304,将第一融合图像、第二融合图像和第三融合图像进行融合,以生成目标融合图像。
79.具体地,电子设备得到上述第一拼接图像、第二拼接图像和第三拼接图像后,可将该第一拼接图像输入第一卷积网络,从而通过该第一卷积网络对该第一拼接图像进行融合处理,以得到该第一卷积网络输出的第一融合图像;并将该第二拼接图像输入第二卷积网
络,从而通过该第二卷积网络对该第二拼接图像进行融合处理,以得到该第二卷积网络输出的第二融合图像;以及将该第三拼接图像输入第三卷积网络,从而通过该第三卷积网络对该第三拼接图像进行融合处理,以得到该第三卷积网络输出的第三融合图像,然后,可将该第一融合图像、第二融合图像和第三融合图像进行融合,生成目标融合图像。
80.由此,能够将多张图像融合成一张图像,从而丰富图像中的用于活体检测的信息。
81.为了清楚说明上一实施例,在本公开的一个实施例中,将第一融合图像、第二融合图像和第三融合图像进行融合,以生成目标融合图像,可包括将第一融合图像、第二融合图像和第三融合图像进行拼接,以得到目标融合图像。
82.具体地,电子设备得到上述第一融合图像、第二融合图像和第三融合图像后,可将该第一融合图像、第二融合图像和第三融合图像在通道维度方向进行拼接或相加,以得到目标融合图像。
83.由此,能够将多张图像融合成一张图像,从而丰富图像中的用于活体检测的信息。
84.进一步地,在本公开的一个实施例中,如图4所示,将第一融合图像、第二融合图像和第三融合图像进行融合,以生成目标融合图像,还可包括:
85.步骤401,将第一融合图像、第二融合图像和第三融合图像进行拼接,以得到目标拼接图像。
86.步骤402,将目标拼接图像输入第四卷积网络,以融合得到目标融合图像。
87.具体地,电子设备得到上述第一融合图像、第二融合图像和第三融合图像后,将该第一融合图像、第二融合图像和第三融合图像在通道维度方向进行拼接或相加,以得到目标拼接图像,然后可将该目标拼接图像输入第四卷积网络,从而通过该第四卷积网络对该目标拼接图像进行融合处理,以得到第四卷积网络输出的目标融合图像。
88.需要说明的是,该实施例中所描述的第四卷积网络可以是与第一卷积网络、第二卷积网络和第三卷积网络相同的网络,也可以是与第一卷积网络、第二卷积网络和第三卷积网络不相同的网络,还可以是模型(例如,活体检测模型)的卷积层,此处不做任何限定。
89.由此,能够将多张图像融合成一张图像,从而丰富图像中的用于活体检测的信息。
90.在本公开的一个实施例中,如图5所示,根据目标融合图像进行活体检测,可包括:
91.步骤501,采用活体检测模型中的特征提取层,对目标融合图像进行特征提取,以得到目标特征图。
92.在本公开实施例中,可采用活体检测模型中的特征提取层,对目标融合图像进行特征特征提取,得到目标特征图。其中,特征提取层可为活体检测模型中的主干网络(backbone),例如cnn(convolutional neural network,卷积神经网络)、残差网络resnet等。
93.步骤502,采用活体检测模型中的预测层对目标特征图进行分类,以得到目标对象的分类概率。
94.在本公开实施例中,可采用活体检测模型中的预测层,对目标特征图进行分类,得到目标对象的分类概率。
95.其中,预测层可包括分类器,可通过分类器对目标特征图进行分类,得到目标对象的分类概率。
96.步骤503,根据分类概率,确定目标对象是否为活体。
97.在本公开实施例中,电子设备得到上述分类概率后,可判断该分类概率是否大于概率阈值,以确定该目标对象是否为活体。应说明的是,该实施例中所描述的概率阈值可根据实际情况和需求进行标定,此处不做任何限定。
98.具体地,电子设备在得到上述目标融合图像后,可通过活体检测模型中的特征提取层对该目标融合图像进行特征提取,以得到该特征提取层输出的目标特征图,而后再通过该活体检测模型中的预测层对该目标特征图进行分类,以得到该预测层输出的目标对象的分类概率,最后可判断该分类概率是否大于概率阈值(例如,0.5),若是,则该目标对象为活体;若否,则该目标对象为非活体。
99.由此,能够实现对目标对象的活体检测,且在进行活体检测的过程中使用了目标对象聚焦不同部位拍摄的图像,而非单一部位图像,提高了活体检测模型的鲁棒性和泛化能力,并提高了活体检测的准确性。
100.为了使得本领域技术人员更清晰地了解本公开,图6是以人脸为目标检测对象的活体检测示意图。如图6所示,首先将摄像头的焦距分别聚焦在人脸鼻尖处、人脸下巴处和人脸额头处,以得到相应部位的图1、图2和图3,并分别将图1和图2、图2和图3以及图3和图1串联(拼接)成图a1、图a2和图a3,然后分别将图a1、图a2和图a3输入第一卷积网络、第二卷积网络和第三卷积网络,进行融合处理,以得到融合后的图像:图b1、图b2和图b3,然后将图b1、图b2和图b3进行融合,并通过模型网络(regnet)对融合后的图像进行特征提取,以获取特征图,最后通过分类器(softmax)对特征图进行分类处理,以得到二分类结果,根据该二分类结果可判断目标对象是否为活体目标。
101.需要说明的是,该实施例中所描述图1、图2和图3可为3通道图像,在经过上述的串联(拼接)得到的图a1、图a2和图a3可为6通道图像。另外该实施例中所描述的卷积网络的内核大小可为3,通道(channel)可为32。
102.图7为本公开实施例提供的一种活体检测装置的结构示意图。本公开实施例的活体检测装置,可配置于电子设备中,以实现通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像,并将多张图像进行融合,以生成目标融合图像,而后根据目标融合图像进行活体检测,从而能够提高活体检测的准确性。
103.如图7所示,该活体检测装置700,可包括:拍摄模块710、融合模块720和活体检测模块730。
104.其中,拍摄模块710,用于通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像。其中,该实施例所描述的摄像头可为变焦摄像头,例如,可以是手机、平板电脑或变焦相机等电子设备具有的摄像头。应说明的是,该实施例中所描述的目标对象可以为人脸或者动物的面部,此处不做任何限定。
105.在本公开实施例中,拍摄模块710可通过安装于电子设备的摄像头,以不同的焦距对目标对象(例如,人脸)的多个不同部位(例如,人脸的鼻尖、人脸的下巴和人脸的额头等)进行拍摄,以得到多张图像。
106.具体地,拍摄模块710可通过调整摄像头的焦距对目标对象的不同部位进行拍摄,以得到目标对象不同部位的图像,其中,每个焦距可拍摄一张图像,以得到多张不同焦距的图像。
107.举例而言,若目标对象为人脸,拍摄模块710可通过摄像头(即,变焦摄像头)进行
人脸关键点(部位)检测,以得到人脸的多个(例如,72)关键点,而后可通过调整摄像头的焦距分别至人脸不同的关键点部位进行拍摄,例如,聚焦于人脸的鼻尖、聚焦于人脸的下巴和聚焦于人脸的额头进行拍摄,以得到多张不同的人脸图像。
108.作为一种可能的情况,拍摄模块710在通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像之后,可将该多张图像发送至相关的服务器,由该服务器进行后续的活体检测。
109.融合模块720,用于将多张图像进行融合,以生成目标融合图像。
110.在本公开实施例中,拍摄模块710得到上述多张图像后,可通过融合模块720先将不同焦距的图像两两拼接(融合),以生成多张不同的拼接图像。
111.具体地,若拍摄模块710得到焦距各不相同的n张图像:图像1、图像2、图像3、
……
、图像n,即该n张图像为目标对象不同部位的图像,则通过融合模块720可将该n张图像两两拼接(不可重复),以生成多张不同的拼接图像,例如,可将图像1和图像2融合,图像2和图像3融合,
……
,图像n和图像1融合。而后将该多张不同的拼接图像进行融合,以得到目标融合图像。
112.进一步地,在本公开实施例中,融合模块720可通过预设的图像融合算法对多张图像进行融合,以生成目标融合图像。其中,预设的图像融合算法可根据实际情况和需求进行标定。应说明的是,该实施例中所描述的预设的图像融合算法可预先存储在电子设备的存储空间中,以方便调取应用,其中,该存储空间不仅限于基于实体的存储空间,例如,硬盘,该存储空间还可以是连接电子设备的网络硬盘的存储空间(云存储空间)。
113.具体地,拍摄模块710在得到上述多张图像后,融合模块720可从电子设备的存储空间中调出预设的图像融合算法,并通过该预设的图像融合算法对多张图像进行两两拼接处理,以生成多张不同的拼接图像,以及该多张不同的拼接图像进行融合,以得到目标融合图像。
114.作为一种可能的情况,融合模块720还可通过图像融合模型对多张图像进行融合,以生成目标融合图像。应说明的是,该实施例中所描述的图像融合模型可以是提前训练好的,并将其预存在电子设备的存储空间中,以方便调取应用。
115.其中,该图像融合模型的训练与生成均可由相关的训练服务器执行,该训练服务器可以是云端服务器,也可以是一台电脑的主机,该训练服务器与可执行本公开实施例提供的活体检测方法的电子设备之间,建立有通信连接,该通信连接可以是无线网络连接和有线网络连接的至少一种。该训练服务器可将训练完成的图像融合模型发送给该电子设备,以便该电子设备在需要时调用,从而大大减少该电子设备的计算压力。
116.具体地,拍摄模块710在得到上述多张图像后,融合模块720可从电子设备的存储空间中调出图像融合模型,并将该多张图像输入至该图像融合模型,从而通过该图像融合模型先对该多张图像进行两两拼接处理,得到多张不同的拼接图像,而后将该多张不同的拼接图像再进行融合处理,以得到该图像融合模型输出的目标融合图像。
117.作为另一种可能的情况,融合模块720还可使用图像融合工具(例如,插件等),对多张图像进行融合,以生成目标融合图像。
118.作为另一种可能的情况,融合模块720还可通过活体检测模型对多张图像进行融合,以生成目标融合图像。应说明的是,该实施例中所描述的活体检测模型可以是提前训练
好的,并将其预存在电子设备的存储空间中,以方便调取应用。
119.具体地,拍摄模块710在得到上述多张图像后,融合模块720可从电子设备的存储空间中调出活体检测模型,并将该多张图像输入至该活体检测模型,从而通过该活体检测模型先对该多张图像进行两两拼接处理,得到多张不同的拼接图像,而后将该多张不同的拼接图像再进行融合处理,以生成目标融合图像。
120.需要说明的是,该实施例中所描述目标融合图像可以是在活体检测模型内部生成的,并不会作为活体检测模型的结果输出。
121.在本公开其它实施例中,在拍摄模块710得到上述多张图像后,还可通过融合模块720直接根据预设的图像融合算法、图像融合模型、图像融合工具或活体检测模型直接对该多张图像进行融合,以得到目标融合图像。
122.活体检测模块730,用于根据目标融合图像进行活体检测。
123.在本公开实施例中,活体检测模块730可通过活体检测模型对上述目标融合图像进行活体检测。
124.具体地,若上述的目标融合图像是通过图像融合算法、图像融合模型或图像融合工具得到的,则活体检测模块730可从电子设备的存储空间中调出活体检测模型,并将该目标融合图像输入至该活体检测模型,从而通过该活体检测模型对该目标融合图像进行活体检测,并输出的活体检测结果。
125.作为一种可能的情况,若上述的目标融合图像是通过活体检测模型生成的,则活体检测模块730可直接通过活体检测模型对该目标融合图像进行活体检测。
126.具体地,在拍摄模块710得到上述多张图像,并通过融合模块720对该多张图像进行融合,生成(得到)目标融合图像后,可继续通过活体检测模型对该目标融合图像进行活体检测,并最终输出活体检测结果。
127.本公开实施例的活体检测装置,首先通过拍摄模块通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像,然后通过融合模块将多张图像进行融合,以生成目标融合图像,最后通过活体检测模块根据目标融合图像进行活体检测。由此,能够实现目标对象的活体检测,并能够在活体检测的过程中获取到更多的检测信息,从而提高活体检测的准确性。
128.在本公开的一个实施例中,多张图像包括第一图像、第二图像和第三图像,融合模块720,可包括:第一拼接单元721、第二拼接单元722、第三拼接单元723和融合单元724。
129.其中,第一拼接单元721,用于对第一图像和第二图像进行拼接,以生成第一拼接图像。
130.第二拼接单元722,用于对第二图像和第三图像进行拼接,以生成第二拼接图像。
131.第三拼接单元723,用于对第一图像和第三图像进行拼接,以生成第三拼接图像。
132.融合单元724,用于将第一拼接图像、第二拼接图像和第三拼接图像进行融合,以生成目标融合图像。
133.在本公开的一个实施例中,融合单元724,可包括:第一融合子单元10、第二融合子单元20、第三融合子单元30和第四融合子单元40。
134.其中,第一融合子单元10,用于将第一拼接图像输入第一卷积网络,以融合得到第一融合图像。
135.第二融合子单元20,用于将第二拼接图像输入第二卷积网络,以融合得到第二融合图像。
136.第三融合子单元30,用于将第三拼接图像输入第三卷积网络,以融合得到第三融合图像。
137.第四融合子单元40,用于将第一融合图像、第二融合图像和第三融合图像进行融合,以生成目标融合图像。
138.在本公开的一个实施例中,第四融合子单元40,具体用于将第一融合图像、第二融合图像和第三融合图像进行拼接,以得到目标融合图像。
139.在本公开的一个实施例中,第四融合子单元40,还具体用于将第一融合图像、第二融合图像和第三融合图像进行拼接,以得到目标拼接图像;将目标拼接图像输入第四卷积网络,以融合得到目标融合图像。
140.在本公开的一个实施例中,第四融合子单元40,还具体用于将第一融合图像、第二融合图像和第三融合图像进行拼接,以得到目标拼接图像;将目标拼接图像输入第四卷积网络,以融合得到目标融合图像。
141.在本公开的一个实施例中,活体检测模块730,具体用于采用活体检测模型中的特征提取层,对目标融合图像进行特征提取,以得到目标特征图;采用活体检测模型中的预测层对目标融合图像进行分类,以得到目标对象的分类概率;根据分类概率,确定目标对象是否为活体。
142.需要说明的是,前述对活体检测方法实施例的解释说明也适用于该实施例的活体检测装置,此处不再赘述。
143.本公开实施例的装置,通过拍摄模块通过摄像头分别以不同的焦距对目标对象进行拍摄,以得到多张图像,并通过融合模块将多张图像进行融合,以生成目标融合图像,然后通过活体检测模块根据目标融合图像进行活体检测。由此,提高活体检测的准确性。
144.本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
145.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
146.图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
147.如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(rom)802中的计算机程序或者从存储单元808加载到随机访问存储器(ram)803中的计算机程序,来执行各种适当的动作和处理。在ram 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、rom 802以及ram 803通过总线804彼此相连。输入/输出(i/o)接口805也连接至总线804。
148.设备800中的多个部件连接至i/o接口805,包括:输入单元806,例如键盘、鼠标等;
输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
149.计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如活体检测方法。例如,在一些实施例中,活体检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由rom 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到ram 803并由计算单元801执行时,可以执行上文描述的活体检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行活体检测方法。
150.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
151.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
152.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
153.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用
任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
154.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)、互联网和区块链网络。
155.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务("virtual private server",或简称"vps")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
156.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
157.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献