一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像处理方法、装置和系统与流程

2022-08-17 09:06:39 来源:中国专利 TAG:


1.本技术涉及数据处理领域,具体而言,涉及一种图像处理方法、装置和系统。


背景技术:

2.人脸表情是人类交流的主要途径。相关技术中可以通过人脸表情数据集对神经网络模型进行训练,从而可以通过训练好的模型进行人脸表情识别,人脸表情识别的准确度受到人脸表情数据集中表情标签的影响,表情标签越准确,人脸表情识别的准确度越高。人脸表情数据集中表情标签往往采用人工标注的方式进行标注,但是,为了确保标注结果的准确性,往往需要大量人工实现,导致人工成本较大,因此,相关技术中无法通过人工标注的方式对海量人脸表情数据进行标注,导致人脸表情数据集的数量较少,进而导致人脸表情识别的准确度较低。
3.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

4.本技术实施例提供了一种图像处理方法、装置和系统,以至少解决相关技术中图像处理方法识别人脸图像的表情的准确度较低的技术问题。
5.根据本技术实施例的一个方面,提供了一种图像处理方法,包括:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
6.根据本技术实施例的另一方面,还提供了一种图像处理方法,包括:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
7.根据本技术实施例的另一方面,还提供了一种图像处理方法,包括:显示目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
8.根据本技术实施例的另一方面,还提供了一种图像处理方法,包括:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情;基于第二表情,确定目标人脸图像的考勤结果。
9.根据本技术实施例的另一方面,还提供了一种图像处理装置,包括:获取模块,用于获取目标人脸图像,以及目标人脸图像对应的第一表情;编码模块,用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块,用于在第一表情与目标编码对应
的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
10.根据本技术实施例的另一方面,还提供了一种图像处理装置,包括:获取模块,用于获取目标人脸图像;识别模块,用于对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;编码模块,用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块,用于在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
11.根据本技术实施例的另一方面,还提供了一种图像处理装置,包括:第一显示模块,用于显示目标人脸图像,以及目标人脸图像对应的第一表情;编码模块,用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;第二显示模块,用于显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
12.根据本技术实施例的另一方面,还提供了一种图像处理装置,包括:获取模块,用于获取目标人脸图像;识别模块,用于对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;编码模块,用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块,用于在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情;确定模块,用于基于第二表情,确定目标人脸图像的考勤结果。
13.根据本技术实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质包括存储的程序,其中,在程序运行时控制计算机可读存储介质所在设备执行上述的图像处理方法。
14.根据本技术实施例的另一方面,还提供了一种处理器,处理器用于运行程序,其中,程序运行时执行上述的图像处理方法。
15.根据本技术实施例的另一方面,还提供了一种图像处理系统,包括:处理器;以及存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
16.在本技术实施例中,在获取到目标人脸图像,以及目标人脸图像对应的第一表情之后,可以对目标人脸图像进行编码,得到目标人脸图像对应的目标编码,并在第一表情与目标编码对应的表情不同的情况下,可以对第一表情进行调整,得到目标人脸图像的第二表情,实现了人脸表情自动纠正的目的。容易注意到的是,由于可以通过目标编码对应的表情对目标人脸图像对应的第一表情进行自动纠正,因此,可以采用较少人工成本对大量人脸表情数据集进行标注,并通过目标编码对应的表情对标注结果记性自动纠正,从而达到了减少人工标注成本,提高人脸表情数据集的标注结果的准确性,进而提升识别人脸图像的表情的准确度的技术效果,进而解决了相关技术中图像处理方法识别人脸图像的表情的准确度较低的技术问题。
附图说明
17.此处所说明的附图用来提供对本技术的进一步理解,构成本技术的一部分,本申
请的示意性实施例及其说明用于解释本技术,并不构成对本技术的不当限定。在附图中:
18.图1是根据本技术实施例的一种用于实现图像处理方法的计算机终端(或移动设备)的硬件结构框图;
19.图2是根据本技术实施例的第一种图像处理方法的流程图;
20.图3是根据本技术实施例的一种可选的交互界面的示意图;
21.图4是根据本技术实施例的一种可选的au编码和表情的对应关系的示意图;
22.图5是根据本技术实施例的一种可选的图像处理方法的流程图;
23.图6是根据本技术实施例的第二种图像处理方法的流程图;
24.图7是根据本技术实施例的第三种图像处理方法的流程图;
25.图8是根据本技术实施例的第四种图像处理方法的流程图;
26.图9是根据本技术实施例的第一种图像处理装置的示意图;
27.图10是根据本技术实施例的第二种图像处理装置的示意图;
28.图11是根据本技术实施例的第三种图像处理装置的示意图;
29.图12是根据本技术实施例的第三种图像处理装置的示意图;
30.图13是根据本技术实施例的一种计算机终端的结构框图。
具体实施方式
31.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分的实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本技术保护的范围。
32.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
33.首先,在对本技术实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
34.action unit:人脸肌肉运动单元,简称为au,可以是一种衡量人脸肌肉运动的编码,是一种衡量人脸表情的客观指标,由于需要通过专家进行标记,导致au数据集的规模较小。
35.lbp:local binary patterns,局部二值模式,可以是一种用来描述图像局部纹理特征的算子,具有旋转不变性和灰度不变性等显著的特点。
36.目前,基于传统方法,例如lbp等方法提取的人脸特征大多数是人脸的纹理信息,纹理信息中更多包含的是人脸的id信息而不是面部肌肉变化的表情信息。为了确保传统方法对于人脸表情识别的准确度,需要确保人脸表情数据集中表情标签的准确度。由于表情
标签的准确度较低,为了提高准确度,可以采用如下方案实现:第一种方案可以通人工方式手动过滤人脸表情数据集,第二种方案可以利用多个数据集训练的模型相互打分的方式实现。但是,第一种方案耗时耗力,仍然存在人工成本较高的问题;第二种方案由于不同数据集中表情标签也存在错误,无法合理判断当前数据集中表情标签的具体情况。
37.为了解决上述技术问题,本技术提供了如下技术方案:
38.实施例1
39.根据本技术实施例,还提供了一种图像处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
40.本技术实施例所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现图像处理方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,
……
,102n来示出)处理器102(处理器102可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输装置106。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为bus总线的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
41.应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本技术实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
42.存储器104可用于存储应用软件的软件程序以及模块,如本技术实施例中的图像处理方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的图像处理方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
43.传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(network interface controller,nic),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(radio frequency,rf)模块,其用于通过无线方式与互联网进行通讯。
44.显示器可以例如触摸屏式的液晶显示器(lcd),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
45.此处需要说明的是,在一些可选实施例中,上述图1所示的计算机设备(或移动设备)可以包括硬件元件(包括电路)、软件元件(包括存储在计算机可读介质上的计算机代码)、或硬件元件和软件元件两者的结合。应当指出的是,图1仅为特定具体实例的一个实例,并且旨在示出可存在于上述计算机设备(或移动设备)中的部件的类型。
46.在上述运行环境下,本技术提供了如图2所示的图像处理方法。图2是根据本技术实施例的第一种图像处理方法的流程图。如图2所示,该方法可以包括如下步骤:
47.步骤s202,获取目标人脸图像,以及目标人脸图像对应的第一表情;
48.上述步骤中的目标人脸图像可以是用户提供的需要进行表情识别的人脸图像,也可以是训练表情识别模型所需要的人脸表情数据集中的人脸图像,但不仅限于此。
49.上述步骤中的第一表情可以是利用训练好的表情识别模型对目标人脸图像进行识别所得到的表情,也可以是通过人工标注的方式对目标人脸图像进行标注的表情,但不仅限于此。第一表情可以包括但不限于:高兴、悲伤、厌恶、惊讶、愤怒和恐惧,可以根据实际表情识别需要进行确定。
50.在一种可选的实施例中,当用户需要进行表情识别时,用户可以将需要进行表情识别的目标人脸图像上传至服务器,由服务器利用预先训练好的表情识别模型进行识别,确定该目标人脸图像对应的第一表情,或者,直接选择需要进行表情识别的目标人脸图像,由客户端利用预先训练好的表情识别模型进行识别,确定该目标人脸图像对应的第一表情。
51.为了方便用户上传目标人脸图像,可以提供给用户一个交互界面,如图3所示,用户可以通过点击“选择图像”按钮从已存储的图像中选择一个人脸图像作为目标人脸图像,并通过点击“上传”按钮将选中的人脸图像上传至云服务器进行处理。另外,为了方便用户确认选中的人脸图像是否为需要识别的人脸图像,可以在“图像显示”区域中显示用户选中的人脸图像,在用户确认无误之后,可以通过点击“上传”按钮进行数据上传。
52.例如,对于人脸考勤机的应用场景,可以预先将训练好的表情识别网络存储在云服务器中,当用户需要进行考勤时,人脸考勤机可以拍摄用户的人脸图像作为目标人脸图像,并上传至云服务器,由云服务器利用存储的表情识别模型对目标人脸图像进行识别,得到用户表情(即上述的第一表情)。
53.例如,对于安防领域中门禁的应用场景,可以预先将训练好的表情识别模型存储在云服务器中,当用户需要开启门禁时,门禁识别设备可以拍摄用户的人脸图像作为目标人脸图像,并上传至云服务器,由云服务器利用存储的表情识别模型对目标人脸图像进行识别,得到用户表情(即上述的第一表情)。
54.例如,对于线下零售领域或金融领域中人脸支付的应用场景,可以预先将训练好的表情识别模型存储在云服务器中,当用户需要进行人脸支付时,支付设备可以拍摄用户的人脸图像作为目标人脸图像,并上传至云服务器,由云服务器利用存储的表情识别模型对目标人脸图像进行识别,得到用户表情(即上述的第一表情)。
55.例如,对于教育应用场景,可以预先将训练好的表情识别模型存储在云服务器中,在教师或虚拟教师进行授课的过程中,可以拍摄教师的人脸图像作为目标人脸图像,或获取虚拟教师的人脸图像作为目标人脸图像,并上传至云服务器,由云服务器利用存储的表情识别模型对目标人脸图像进行识别,得到用户表情(即上述的第一表情)。
56.例如,对于会议应用场景,可以预先将训练好的表情识别模型存储在云服务器中,在会议开始之前或会议进行过程中,会议设备可以拍摄会议室中用户的人脸图像作为目标人脸图像,并上传至云服务器,由云服务器利用存储的表情识别模型对目标人脸图像进行识别,得到用户表情(即上述的第一表情)。
57.在另一种可选的实施例中,当用户需要训练表情识别模型进行表情识别时,用户可以将训练请求发送至服务器,服务器基于训练请求获取人脸表情数据集,该数据集中包含的所有人脸图像均可以作为目标人脸图像,每张人脸图像的表情标签可以作为第一表情。
58.步骤s204,对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;
59.在本技术实施例中,可以利用人脸肌肉运动编码模型对目标人脸图像进行编码,此处的人脸肌肉运动编码模型可以是预先通过au数据集训练得到的网络,该网络的具体结构可以采用现有结构,也可以采用根据不同识别需求所构建的特定结构,本技术对此不作具体限定。
60.需要说明的是,由于au数据集需要专家进行标注,因此,au数据集的规模较小,au数据集中人脸图像的差异性较小,如果使用au数据集对表情识别模型进行训练,则训练得到的表情识别模型同样存在识别准确度降低的问题,因此无法直接使用au数据集训练表情识别模型。
61.在一种可选的实施例中,可以预先利用au数据集训练人脸肌肉运动编码模型,并将其部署在服务器或客户端中,从而在获取到目标人脸图像之后,可以利用人脸肌肉运动编码模型得到目标人脸图像的au编码(即上述的目标编码)。
62.步骤s206,在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
63.可选的,可以基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
64.在一种可选的实施例中,可以预先基于au数据集中每张人脸图像的au编码和表情标签,构建au编码和人脸表情之间的对应关系,得到如图4所示的预设映射关系,从而在确定目标人脸图像的au编码之后,可以基于预设映射关系确定该au编码对应的表情,也即,确定目标人脸图像的参考表情。进一步地,通过将第一表情和参考表情进行比较,可以确定是否需要对第一表情进行调整,如果两个表情相同,则确定无需对第一表情进行调整;如果两个表情不同,则确定需要进行对第一表情调整,调整后的第二表情为目标人脸图像的实际表情。
65.例如,假设人脸图像a,相应的表情为悲伤,也即,目标人脸图像为人脸图像a,第一表情为悲伤。在将人脸图像a输入至au网络之后,可以得到相应的au编码:au12,此时,目标编码为au12,进一步地结合如图4所示的映射关系,可以确定目标编码对应的表情为高兴,因此,可以确定第一表情与目标编码对应的表情不同,需要对第一表情进行调整,调整后得到的第二表情为悲伤。
66.例如,对于人脸考勤机的应用场景,可以预先将训练好的人脸肌肉运动编码模型存储在云服务器中,在获取到目标人脸图像之后,云服务器可以利用存储的人脸肌肉运动编码模型得到目标人脸图像的au编码,进而将该au编码对应的表情与识别出的表情进行比
较,如果两个表情不同,则对识别出的表情进行调整,得到调整后的新表情(即上述的第二表情),最终利用调整后的新表情完成考勤操作。
67.例如,对于安防领域中门禁的应用场景,可以预先将训练好的人脸肌肉运动编码模型存储在云服务器中,在获取到目标人脸图像之后,云服务器可以利用存储的人脸肌肉运动编码模型得到目标人脸图像的au编码,进而将该au编码对应的表情与识别出的表情进行比较,如果两个表情不同,则对识别出的表情进行调整,得到调整后的新表情(即上述的第二表情),最终利用调整后的新表情完成门禁操作。
68.例如,对于线下零售领域或金融领域中人脸支付的应用场景,可以预先将训练好的人脸肌肉运动编码模型存储在云服务器中,在获取到目标人脸图像之后,云服务器可以利用存储的人脸肌肉运动编码模型得到目标人脸图像的au编码,进而将该au编码对应的表情与识别出的表情进行比较,如果两个表情不同,则对识别出的表情进行调整,得到调整后的新表情(即上述的第二表情),最终利用调整后的新表情完成支付操作。
69.例如,对于教育应用场景,可以预先将训练好的人脸肌肉运动编码模型存储在云服务器中,在获取到目标人脸图像之后,云服务器可以利用存储的人脸肌肉运动编码模型得到目标人脸图像的au编码,进而将该au编码对应的表情与识别出的表情进行比较,如果两个表情不同,则对识别出的表情进行调整,得到调整后的新表情(即上述的第二表情),最终利用调整后的新表情对教师或虚拟教师进行表征控制,根据实际场景需要进行实时表情调整,提高学生上课积极性。
70.例如,对于会议应用场景,可以预先将训练好的人脸肌肉运动编码模型存储在云服务器中,在获取到目标人脸图像之后,云服务器可以利用存储的人脸肌肉运动编码模型得到目标人脸图像的au编码,进而将该au编码对应的表情与识别出的表情进行比较,如果两个表情不同,则对识别出的表情进行调整,得到调整后的新表情(即上述的第二表情),最终利用调整后的新表情完成会议签到操作。
71.通过本技术上述实施例提供的方案,在获取到目标人脸图像,以及目标人脸图像对应的第一表情之后,可以对目标人脸图像进行编码,得到目标人脸图像对应的目标编码,并在第一表情与目标编码对应的表情不同的情况下,可以对第一表情进行调整,得到目标人脸图像的第二表情,实现了人脸表情自动纠正的目的。容易注意到的是,由于可以通过目标编码对应的表情对目标人脸图像对应的第一表情进行自动纠正,因此,可以采用较少人工成本对大量人脸表情数据集进行标注,并通过目标编码对应的表情对标注结果记性自动纠正,从而达到了减少人工标注成本,提高人脸表情数据集的标注结果的准确性,进而提升识别人脸图像的表情的准确度的技术效果,进而解决了相关技术中图像处理方法识别人脸图像的表情的准确度较低的技术问题。
72.在本技术上述实施例中,对第一表情进行调整,得到目标人脸图像的第二表情包括:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
73.上述步骤中的第一图像集可以是训练表情识别模型所需要的人脸表情数据集,也可以是利用表情识别模型进行识别过的历史人脸图像,但不仅限于此。在第一图像集是人
脸表情数据集,且目标人脸图像是人脸表情数据集中的人脸图像的情况下,目标人脸图像可以是第一图像集中的任意一张人脸图像。
74.需要说明的是,第一人脸图像的编码同样可以利用人脸肌肉运动编码模型对第一人脸图像进行编码得到,第一人脸图像的表情可以是通过人工标注的方式对第一人脸图像进行标注的表情,也可以是利用表情识别模型识别出的表情。
75.在一种可选的实施例中,对于第一表情与目标编码对应的表情不同的情况,可以在人脸表情数据集中找到该目标编码对应的所有第一人脸图像,然后通过对所有第一人脸图像的表情进行投票,并将投票数最多的表情作为目标人脸图像的实际表情(即上述的第二表情)。
76.例如,假设人脸图像a,相应的表情为悲伤,在确定第一表情为悲伤,目标编码对应的表情为高兴的情况下,确定可以需要对第一表情进行调整,可以获取人脸表情数据集,并从该数据集中筛选出au编码为au12的所有人脸图像,分别为人脸图像1-10,相应的表情分别为高兴、悲伤、愤怒、悲伤、高兴、悲伤、悲伤、悲伤、惊讶和高兴,因此,可以确定第二表情为悲伤。
77.通过上述方案,可以简化第一表情的调整方法,采用人脸表情数据集中相同au编码进行投票的方式,使得第一表情的调整方法可靠且风险较低。
78.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的数量;确定最大数量对应的表情为第二表情。
79.在一种可选的实施例中,为了简化第一表情的调整方法,可以统计目标编码对应的所有第一人脸图像的表情,确定每种不同类型的表情的数量,并确定最大数量的表情为第二表情。
80.例如,假设人脸图像a,相应的表情为悲伤,筛选出的au编码为au12的所有人脸图像为人脸图像1-10,相应的表情分别为高兴、悲伤、愤怒、悲伤、高兴、悲伤、悲伤、悲伤、惊讶和高兴,此时,通过统计可以得到高兴表情的数量为3,悲伤表情的数量为5,愤怒表情的数量为1,惊讶表情的数量为1,因此,可以确定最大数量的表情为悲伤,从而可以确定第二表情为悲伤。
81.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表情为第二表情。
82.在一种可选的实施例中,为了简化第一表情的调整方法,可以统计目标编码对应的所有第一人脸图像的表情,确定每种不同类型的表情的数量,进一步结合不同表情的权重值,确定每种不同类型的表情的得分,最终可以确定最高得分的表情为第二表情。
83.例如,假设人脸图像a,相应的表情为悲伤,筛选出的au编码为au12的所有人脸图像为人脸图像1-10,相应的表情分别为高兴、悲伤、愤怒、悲伤、高兴、悲伤、悲伤、悲伤、惊讶和高兴,此时,通过统计可以得到高兴表情的数量为3,悲伤表情的数量为5,愤怒表情的数量为1,惊讶表情的数量为1,进一步地结合每种表情的权重值,其中,高兴表情的权重值为0.3,悲伤表情的权重值为0.4,愤怒表情的权重值为0.1,惊讶表情的权重值为0.1,从而可以确定每种表情的得分,高兴表情的得分为0.9,悲伤表情的得分为2,愤怒表情的得分为
0.1,惊讶表情的得分为0.1,因此,可以确定最高得分的表情为悲伤,从而可以确定第二表情为悲伤。
84.在本技术上述实施例中,在确定第二表情之后,该方法还包括:输出第二表情;接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
85.为了确保第二表情的准确性,云服务器在确定出第二表情之后,可以通过网络将第二表情下发至用户的计算机终端,并显示在如图3所示的交互界面的“识别结果显示”区域中。用户在查看到第二表情之后,可以直接在交互界面中对第二表情进行修改,得到修改后的第二表情,也即上述的确认结果。在用户修改结束之后,可以通过计算机终端将修改后的第二表情上传至云服务器,由云服务器基于修改后的第二表情调整确定的第二表情,进而基于调整后的表情对表情识别模型和人脸肌肉运动编码模型进行再次训练,达到提升云服务器性能提升的目的。
86.在本技术上述实施例中,获取第一图像集包括:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
87.在一种可选的实施例中,当需要对第一表情进行调整时,可以获取多张第一人脸图像,并分别利用au网络和表情识别模型,确定第一人脸图像的au编码和表情。
88.需要说明的是,但不仅限于此,无论是人脸表情数据集,还是利用表情识别模型进行识别过的历史人脸图像,都需要利用au网络进行编码,得到au编码,但是,对于人脸表情数据集,由于表情是人工标注的,则无需利用表情识别模型进行识别。
89.在本技术上述实施例中,该方法还包括:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
90.上述步骤中的第二图像集可以是au数据集,该数据集中的人脸图像可以通过专家进行标注,确定相应的表情。
91.在一种可选的实施例中,对于au数据集中的人脸图像,可以利用au网络进行编码,得到相应的au编码,进一步对au数据集中所有人脸图像进行统计,确定每种表情对应的au编码,并基于相同au编码包含的人脸图像的数量,确定au编码的重要程度,进而构建au编码与表情之间的预设映射关系,如图4所示。
92.在本技术上述实施例中,获取目标人脸图像对应的第一表情包括:利用表情识别模型对目标人脸图像进行识别,得到第一表情。
93.上述步骤中的表情识别模型可以是预先利用人脸表情数据集训练得到的网络,该网络的具体结构可以采用现有结构,也可以采用根据不同识别需求所构建的特定结构,本技术对此不作具体限定。
94.在一种可选的实施例中,可以预先利用人脸表情数据集训练表情识别模型,并将其部署在服务器或客户端中,从而在获取到目标人脸图像之后,可以利用表情识别模型得到目标人脸图像的表情(即上述的第一表情)。
95.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,在对第一表情进行调整,得到目标人脸图像的第二表情之后,该方法还包括:基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,
表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
96.在一种可选的实施例中,在目标人脸图像为人脸表情数据集中的人脸图像的情况下,可以经过迭代和学习,对人脸表情数据集中所有人脸图像的表情标签进行自动纠正,达到降低噪声样本的影响。在自动纠正完成之后,可以将纠正后的人脸表情数据集作为最终的训练集,并利用该训练集进行表情识别模型的训练,从而得到识别准确度较高的表情识别模型。
97.在本技术上述实施例中,在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情调整目标人脸图像对应的目标对象的表情。
98.上述步骤中的目标对象可以是拍摄人脸图像的用户,或者在不同领域中的虚拟形象,例如,电商直播领域中的虚拟主播、教育领域中的虚拟老师等,但不仅限于此。
99.在一种可选的实施例中,云服务器在对第一表情进行调整,得到第二表情之后,可以基于第二表情进行表情控制,实时调整目标对象的当前表情。
100.例如,以电商直播领域为例,在确定第二表情之后,如果主播或虚拟主播的第二表情是悲伤等消极表情,这样的表情可能会影响观众的观看体验,因此,可以提醒主播调整表情,或者直接对虚拟主播的表情进行调整,确保调整后的表情为积极表情。
101.例如,以教育领域为例,在确定第二表情之后,如果教师或虚拟教师的第二表情是悲伤等消极表情,这样的表情可能会影响学生的上课体验,因此,可以提醒教师调整表情,或者直接对虚拟教师的表情进行调整,确保调整后的表情为积极表情。
102.下面结合图5对本技术一种优选的实施例进行详细说明。如图5所示,该方法执行流程如下:
103.步骤s51,对于需要进行自动纠正的人脸图像,可以分别输入至au模型和人脸表情识别模型中抽取特征,其中,au模型可以输出该人脸图像的au编码,人脸表情识别模型可以输出该人脸图像的表情,该表情为自然。
104.可选的,au模型处理过程可以分为au编码器和解码器,人脸表情识别模型处理过程可以分为向量化和输出。
105.步骤s52,可以基于如图4所示的au编码和人脸表情的对应关系,确定au模型输出的au编码对应的表情为高兴。
106.步骤s53,对于au编码对应的表情与表情识别模型输出的表情类型不一致的人脸图像,可以在人脸表情数据集中找到相同au编码的人脸图像的表情标签,例如,图像a的标签为高兴,图像b的标签为自然,图像c的标签为高兴,图像d的标签为高兴等。
107.步骤s54,可以利用相同au的人脸图像的表情标签进行投票,并选取票数最多的类别作为au编码对应的表情与表情识别模型输出的表情类型不一致的人脸图像的新标签。
108.需要说明的是,对于人脸表情数据集中的每张人脸图像,经过迭代和学习,可以自己纠正有不可靠的标签的样本,从而达到降低噪声样本的影响。
109.通过上述步骤,通过使用au编码实现了在学习中主动纠正表情标签的目的,通过相同au编码的多个样本进行投票达到提升标签纠正准确度的效果,从而通过自动纠正后的人脸表情数据集进行深度学习,使得深度学习特征的鲁棒性更高。
110.需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为
依据本技术,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本技术所必须的。
111.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本技术各个实施例所述的方法。
112.实施例2
113.根据本技术实施例,还提供了一种图像处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
114.图6是根据本技术实施例的第二种图像处理方法的流程图。如图6所示,该方法可以包括如下步骤:
115.步骤s602,获取目标人脸图像;
116.步骤s604,对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;
117.步骤s606,对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;
118.步骤s608,在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
119.在本技术上述实施例中,对第一表情进行调整,得到目标人脸图像的第二表情包括:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
120.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的数量;确定最大数量对应的表情为第二表情。
121.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表情为第二表情。
122.在本技术上述实施例中,在确定第二表情之后,该方法还包括:输出第二表情;接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
123.在本技术上述实施例中,获取第一图像集包括:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
124.在本技术上述实施例中,基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
125.在本技术上述实施例中,该方法还包括:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
126.在本技术上述实施例中,利用表情识别模型对目标人脸图像进行识别,得到第一表情。
127.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,在对第一表情进行调整,得到目标人脸图像的第二表情之后,该方法还包括:基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
128.在本技术上述实施例中,在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情调整目标人脸图像对应的目标对象的表情。
129.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
130.实施例3
131.根据本技术实施例,还提供了一种图像处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
132.图7是根据本技术实施例的第三种图像处理方法的流程图。如图7所示,该方法可以包括如下步骤:
133.步骤s702,显示目标人脸图像,以及目标人脸图像对应的第一表情;
134.在一种可选的实施例中,如图3所示,可以在客户端的交互界面上显示用户上传或选中的需要进行表情识别的目标人脸图像,或者,在交互界面上显示获取到的人脸表情数据集中的所有人脸图像。另外,可以在交互界面上,利用第一表情对目标人脸图像进行标记。
135.步骤s704,对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;
136.步骤s706,显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
137.在一种可选的实施例中,如图3所示,可以在客户端的交互界面上,利用第二表情对目标人脸图像进行重新标记。
138.在本技术上述实施例中,对第一表情进行调整包括:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
139.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的数量;确定最大数量对应的表情为第二表情。
140.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表
情为第二表情。
141.在本技术上述实施例中,在显示目标人脸图像的第二表情之后,该方法还包括:接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
142.在本技术上述实施例中,获取第一图像集包括:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
143.在本技术上述实施例中,基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
144.在本技术上述实施例中,该方法还包括:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
145.在本技术上述实施例中,利用表情识别模型对目标人脸图像进行识别,得到第一表情。
146.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该方法还包括:基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
147.在本技术上述实施例中,在显示目标人脸图像的第二表情之后,基于第二表情调整目标人脸图像对应的目标对象的表情。
148.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
149.实施例4
150.根据本技术实施例,还提供了一种图像处理方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
151.图8是根据本技术实施例的第四种图像处理方法的流程图。如图8所示,该方法可以包括如下步骤:
152.步骤s802,获取目标人脸图像。
153.上述步骤中的目标人脸图像可以是用户进行考勤时,由人脸考勤机拍摄到的用户的人脸图像。
154.在一种可选的实施例中,为了降低人脸考勤机的计算量,人脸考勤机在拍摄到人脸图像之后,可以通过网络上传至云服务器,由云服务器进行识别。
155.步骤s804,对目标人脸图像进行识别,得到目标人脸图像对应的第一表情。
156.在一种可选的实施例中,云服务器在接收到人脸图像之后,可以利用预先训练好的表情识别模型对人脸图像进行识别,识别出人脸图像中的用户表情(即上述的第一表情)。
157.步骤s806,对目标人脸图像进行编码,得到目标人脸图像对应的目标编码。
158.在一种可选的实施例中,云服务器在接收到人脸图像之后,可以利用预先训练好
的人脸肌肉运动编码模型对人脸图像进行处理,得到相应的au编码(即上述的目标编码)。
159.步骤s808,在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
160.在一种可选的实施例中,云服务器可以将识别出的用户表情与au编码对应的参考表情进行比较,如果两个表情不同,则确定需要对第一表情进行调整,调整后的第二表情可以作为用户的实际表情。
161.步骤s810,基于第二表情,确定目标人脸图像的考勤结果。
162.在一种可选的实施例中,在识别出较为准确的第二表情之后,可以将第二表情与预设表情进行比较,此处的预设表情可以是预先设定的一个固定表情,也可以是采集用户的人脸图像之前随机指定的一个表情。如果第二表情与预设表情相同,则确定用户打卡成功,也即,该用户相应的考勤结果为考勤成功;如果第二表情与预设表情不同,则确定用户打卡失败,也即,该用户相应的考勤结果为考勤失败。
163.在本技术上述实施例中,对第一表情进行调整包括:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
164.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的数量;确定最大数量对应的表情为第二表情。
165.在本技术上述实施例中,基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表情为第二表情。
166.在本技术上述实施例中,在确定第二表情之后,该方法还包括:输出第二表情;接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
167.在本技术上述实施例中,获取第一图像集包括:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
168.在本技术上述实施例中,基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
169.在本技术上述实施例中,该方法还包括:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
170.在本技术上述实施例中,利用表情识别模型对目标人脸图像进行识别,得到第一表情。
171.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该方法还包括:基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
172.在本技术上述实施例中,在获取目标人脸图像之前,输出第一提示信息,其中,第
一提示信息用于提示预设表情。
173.上述步骤中的预设表情可以是预先设定的一个固定表情,例如,高兴,也可以是随机从不同的表情中确定的一个表情,例如,高兴、悲伤、兴奋、愤怒等。
174.在一种可选的实施例中,为了方便用户确定当前需要做出怎样的表情,人脸考勤机可以通过文字显示或语音播报的方式输出第一提示信息,例如,在人脸考勤机上显示“请做出高兴表情”的第一提示信息,但不仅限于此。
175.在本技术上述实施例中,在第二表情与预设表情不同的情况下,输出第三提示信息,其中,第二提示信息用于提示调整目标人脸图像的表情。
176.在一种可选的实施例中,当检测到用户当前表情与需要做出的表情(即上述的预设表情)不一致时,为了避免考勤失败,人脸考勤机可以通过文字显示或语音播报的方式输出第二提示信息,例如,在人脸考勤机上显示“请重新做出高兴表情”的第二提示信息,但不仅限于此,从而用户可以调整自己的表情。
177.在本技术上述实施例中,在对第一表情进行调整,得到目标人脸图像的第二表情之后,该方法还包括:基于第二表情,确定第二表情的得分;输出第二表情的得分。
178.在一种可选的实施例中,在对人脸图像进行识别之后,云服务器可以结合第二表情的权重值,确定第二表情的得分,进而人脸考勤机可以通过文字显示或语音播报的方式输出第二表情的得分。
179.在本技术上述实施例中,在基于第二表情,确定第二表情的得分之后,输出第三提示信息,其中,第三提示信息与第二表情的得分相对应。
180.在一种可选的实施例中,在确定第二表情的得分之后,云服务器可以根据得分的高低提醒用户,例如,上述的第三提示信息可以是“您今天很开心,请保持哦”或者“美好的一天开始了,要微笑哦”等,但不仅限于此。进而人脸考勤机可以通过文字显示或语音播报的方式输出第三提示信息。
181.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
182.实施例5
183.根据本技术实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图9所示,该装置900包括:获取模块902、编码模块904和调整模块906。
184.其中,获取模块902用于获取目标人脸图像,以及目标人脸图像对应的第一表情;编码模块904用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块906用于在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
185.此处需要说明的是,上述获取模块902、编码模块904和调整模块906对应于实施例1中的步骤s202至步骤s206,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
186.在本技术上述实施例中,调整模块包括:第一获取单元、第一确定单元、第二获取单元和第二确定单元。
187.其中,第一获取单元用于获取第一图像集,其中,第一图像集包括:多张第一人脸
图像,多张第一人脸图像的编码和表情;第一确定单元用于确定多张第一人脸图像的编码中,与目标编码相同的编码;第二获取单元用于获取与目标编码相同的编码对应的至少一张第一人脸图像;第二确定单元用于基于至少一张第一人脸图像对应的表情,确定第二表情。
188.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的表情中,每种表情的数量,并确定最大数量对应的表情为第二表情。
189.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的表情中,每种表情的得分,并确定最高得分对应的表情为第二表情。
190.在本技术上述实施例中,该装置还包括:输出模块、接收模块和更新模块。
191.其中,输出模块用于输出第二表情;接收模块用于接收第二表情对应的确认结果;更新模块用于基于确认结果对第二表情进行更新。
192.在本技术上述实施例中,第一获取单元包括:获取子单元、编码子单元和识别子单元。
193.其中,获取子单元用于获取多张第一人脸图像;编码子单元用于对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;识别子单元用于对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
194.在本技术上述实施例中,该装置还包括:确定模块。
195.其中,确定模块用于基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
196.在本技术上述实施例中,该装置还包括:第一构建模块。
197.其中,获取模块还用于获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;编码模块还用于对第二图像集进行编码,得到多张第二人脸图像对应的编码;第一构建模块用于基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
198.在本技术上述实施例中,获取模块包括:识别单元。
199.其中,识别单元用于利用表情识别模型对目标人脸图像进行识别,得到第一表情。
200.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该装置还包括:第二构建模块和训练模块。
201.其中,第二构建模块用于基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;训练模块用于利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
202.在本技术上述实施例中,调整模块还用于基于第二表情调整目标人脸图像对应的目标对象的表情。
203.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
204.实施例6
205.根据本技术实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图10所示,该装置1000包括:获取模块1002、识别模块1004、编码模块1006和调整模块1008。
206.其中,获取模块1002用于获取目标人脸图像;识别模块1004用于对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;编码模块1006用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块1008用于在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
207.此处需要说明的是,上述获取模块1002、识别模块1004、编码模块1006和调整模块1008对应于实施例2中的步骤s602至步骤s608,四个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
208.在本技术上述实施例中,调整模块包括:第一获取单元、第一确定单元、第二获取单元和第二确定单元。
209.其中,第一获取单元用于获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;第一确定单元用于确定多张第一人脸图像的编码中,与目标编码相同的编码;第二获取单元用于获取与目标编码相同的编码对应的至少一张第一人脸图像;第二确定单元用于基于至少一张第一人脸图像对应的表情,确定第二表情。
210.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的表情中,每种表情的数量,并确定最大数量对应的表情为第二表情。
211.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的表情中,每种表情的得分,并确定最高得分对应的表情为第二表情。
212.在本技术上述实施例中,该装置还包括:输出模块、接收模块和更新模块。
213.其中,输出模块用于输出第二表情;接收模块用于接收第二表情对应的确认结果;更新模块用于基于确认结果对第二表情进行更新。
214.在本技术上述实施例中,第一获取单元包括:获取子单元、编码子单元和识别子单元。
215.其中,获取子单元用于获取多张第一人脸图像;编码子单元用于对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;识别子单元用于对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
216.在本技术上述实施例中,该装置还包括:确定模块。
217.其中,确定模块用于基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
218.在本技术上述实施例中,该装置还包括:第一构建模块。
219.其中,获取模块还用于获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;编码模块还用于对第二图像集进行编码,得到多张第二人脸图像对应的编码;第一构建模块用于基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
220.在本技术上述实施例中,识别模块还用于利用表情识别模型对目标人脸图像进行识别,得到第一表情。
221.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该装置还包括:第二构建模块和训练模块。
222.其中,第二构建模块用于基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;训练模块用于利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
223.在本技术上述实施例中,调整模块还用于基于第二表情调整目标人脸图像对应的目标对象的表情。
224.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
225.实施例7
226.根据本技术实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图11所示,该装置1100包括:第一显示模块1102、编码模块1104和第二显示模块1106。
227.其中,第一显示模块1102用于显示目标人脸图像,以及目标人脸图像对应的第一表情;编码模块1104用于对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;第二显示模块1106用于显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
228.此处需要说明的是,上述第一显示模块1102、编码模块1104和第二显示模块1106对应于实施例3中的步骤s702至步骤s706,三个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
229.在本技术上述实施例中,该装置还包括:第一获取模块、第一确定模块、第二获取模块和第二确定模块。
230.其中,第一获取模块用于获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;第一确定模块用于确定多张第一人脸图像的编码中,与目标编码相同的编码;第二获取模块用于获取与目标编码相同的编码对应的至少一张第一人脸图像;第二确定模块用于基于至少一张第一人脸图像对应的表情,确定第二表情。
231.在本技术上述实施例中,第二确定模块还用于确定至少一张第一人脸图像对应的表情中,每种表情的数量,并确定最大数量对应的表情为第二表情。
232.在本技术上述实施例中,第二确定模块还用于确定至少一张第一人脸图像对应的表情中,每种表情的得分,并确定最高得分对应的表情为第二表情。
233.在本技术上述实施例中,该装置还包括:接收模块和更新模块。
234.其中,接收模块用于接收第二表情对应的确认结果;更新模块用于基于确认结果对第二表情进行更新。
235.在本技术上述实施例中,第一获取模块包括:获取单元、编码单元和识别单元。
236.其中,获取单元用于获取多张第一人脸图像;编码单元用于对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;识别单元用于对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
237.在本技术上述实施例中,该装置还包括:第三确定模块。
238.其中,第三确定模块用于基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
239.在本技术上述实施例中,该装置还包括:第三获取模块和第一构建模块。
240.其中,第三获取模块用于获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;编码模块还用于对第二图像集进行编码,得到多张第二人脸图像对应的编码;第一构建模块用于基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
241.在本技术上述实施例中,该装置还包括:识别模块。
242.其中,识别模块用于利用表情识别模型对目标人脸图像进行识别,得到第一表情。
243.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该装置还包括:第二构建模块和训练模块。
244.其中,第二构建模块用于基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;训练模块用于利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
245.在本技术上述实施例中,该装置还包括:调整模块。
246.其中,调整模块用于基于第二表情调整目标人脸图像对应的目标对象的表情。
247.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
248.实施例8
249.根据本技术实施例,还提供了一种用于实施上述图像处理方法的图像处理装置,如图12所示,该装置1200包括:获取模块1202、识别模块1204、编码模块1206、调整模块1208和确定模块1210。
250.其中,获取模块1202用于获取目标人脸图像;识别模块1204用于对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;编码模块1206用于对人脸图像进行编码,得到目标人脸图像对应的目标编码;调整模块1208用于在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情;确定模块1210用于基于第二表情,确定目标人脸图像的考勤结果。
251.此处需要说明的是,上述获取模块1202、识别模块1204、编码模块1206、调整模块1208和确定模块1210对应于实施例4中的步骤s802至步骤s810,五个模块与对应的步骤所实现的实例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在实施例1提供的计算机终端10中。
252.在本技术上述实施例中,调整模块包括:第一获取单元、第一确定单元、第二获取单元和第二确定单元。
253.其中,第一获取单元用于获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;第一确定单元用于确定多张第一人脸图像的编码中,与目标编码相同的编码;第二获取单元用于获取与目标编码相同的编码对应的至少一张第一人脸图像;第二确定单元用于基于至少一张第一人脸图像对应的表情,确定第二表情。
254.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的表情中,每种表情的数量,并确定最大数量对应的表情为第二表情。
255.在本技术上述实施例中,第二确定单元还用于确定至少一张第一人脸图像对应的
表情中,每种表情的得分,并确定最高得分对应的表情为第二表情。
256.在本技术上述实施例中,该装置还包括:输出模块、接收模块和更新模块。
257.其中,输出模块用于输出第二表情;接收模块用于接收第二表情对应的确认结果;更新模块用于基于确认结果对第二表情进行更新。
258.在本技术上述实施例中,第一获取单元包括:获取子单元、编码子单元和识别子单元。
259.其中,获取子单元用于获取多张第一人脸图像;编码子单元用于对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;识别子单元用于对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
260.在本技术上述实施例中,该装置还包括:确定模块。
261.其中,确定模块用于基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
262.在本技术上述实施例中,该装置还包括:第一构建模块。
263.其中,获取模块还用于获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;编码模块还用于对第二图像集进行编码,得到多张第二人脸图像对应的编码;第一构建模块用于基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
264.在本技术上述实施例中,识别模块还用于利用表情识别模型对目标人脸图像进行识别,得到第一表情。
265.在本技术上述实施例中,在获取到多张目标人脸图像的情况下,该装置还包括:第二构建模块和训练模块。
266.其中,第二构建模块用于基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;训练模块用于利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
267.在本技术上述实施例中,确定模块包括:比较单元、第三确定单元和第四确定单元。
268.其中,比较单元用于将第二表情与预设表情进行比较;第三确定单元用于在第二表情与预设表情相同的情况下,确定考勤结果为考勤成功;第四确定单元用于在第二表情与预设表情不同的情况下,确定考勤结果为考勤失败。
269.在本技术上述实施例中,该装置还包括:输出模块。
270.其中,输出模块用于输出第一提示信息,其中,第一提示信息用于提示预设表情。
271.在本技术上述实施例中,该装置还包括:输出模块。
272.其中,输出模块用于在第二表情与预设表情不同的情况下,输出第三提示信息,其中,第二提示信息用于提示调整目标人脸图像的表情。
273.在本技术上述实施例中,该装置还包括:输出模块。
274.其中,确定模块还用于基于第二表情,确定第二表情的得分;输出模块用于输出第二表情的得分。
275.在本技术上述实施例中,输出模块还用于输出第三提示信息,其中,所述第三提示信息与所述第二表情的得分相对应。
276.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
277.实施例9
278.根据本技术实施例,还提供了一种图像处理系统,包括:
279.处理器;以及
280.存储器,与处理器连接,用于为处理器提供处理以下处理步骤的指令:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
281.需要说明的是,本技术上述实施例中涉及到的优选实施方案与实施例1提供的方案以及应用场景、实施过程相同,但不仅限于实施例1所提供的方案。
282.实施例10
283.本技术的实施例可以提供一种计算机终端,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
284.可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
285.在本实施例中,上述计算机终端可以执行图像处理方法中以下步骤的程序代码:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
286.可选地,图13是根据本技术实施例的一种计算机终端的结构框图。如图13所示,该计算机终端a可以包括:一个或多个(图中仅示出一个)处理器1302、以及存储器1304。
287.其中,存储器可用于存储软件程序以及模块,如本技术实施例中的图像处理方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的图像处理方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端a。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
288.处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
289.可选的,上述处理器还可以执行如下步骤的程序代码:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
290.可选的,上述处理器还可以执行如下步骤的程序代码:基于至少一张第一人脸图
像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的数量;确定最大数量对应的表情为第二表情。
291.可选的,上述处理器还可以执行如下步骤的程序代码:基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表情为第二表情。
292.可选的,上述处理器还可以执行如下步骤的程序代码:输出第二表情;接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
293.可选的,上述处理器还可以执行如下步骤的程序代码:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
294.可选的,上述处理器还可以执行如下步骤的程序代码:基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
295.可选的,上述处理器还可以执行如下步骤的程序代码:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
296.可选的,上述处理器还可以执行如下步骤的程序代码:利用表情识别模型对目标人脸图像进行识别,得到第一表情。
297.可选的,上述处理器还可以执行如下步骤的程序代码:在获取到多张目标人脸图像的情况下,基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
298.可选的,上述处理器还可以执行如下步骤的程序代码:在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情调整目标人脸图像对应的目标对象的表情。
299.处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
300.处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:显示目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
301.处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情;基于第二表情,确定目标人脸图像的考勤结果。
302.可选的,上述处理器还可以执行如下步骤的程序代码:将第二表情与预设表情进
行比较;在第二表情与预设表情相同的情况下,确定考勤结果为考勤成功;在第二表情与预设表情不同的情况下,确定考勤结果为考勤失败。
303.可选的,上述处理器还可以执行如下步骤的程序代码:在获取目标人脸图像之前,输出第一提示信息,其中,第一提示信息用于提示预设表情。
304.可选的,上述处理器还可以执行如下步骤的程序代码:在第二表情与预设表情不同的情况下,输出第三提示信息,其中,第二提示信息用于提示调整目标人脸图像的表情。
305.可选的,上述处理器还可以执行如下步骤的程序代码:在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情,确定第二表情的得分;输出第二表情的得分。
306.可选的,上述处理器还可以执行如下步骤的程序代码:在基于第二表情,确定第二表情的得分之后,输出第三提示信息,其中,第三提示信息与第二表情的得分相对应。
307.采用本技术实施例,提供了一种人脸表情自动纠正的方案。通过目标编码对应的表情可以准确确定第一表情是否存在错误,并自动进行纠正,从而达到了提高第一表情判断准确性,进而提升识别人脸图像的表情的准确度的技术效果,进而解决了相关技术中图像处理方法识别人脸图像的表情的准确度较低的技术问题。
308.本领域普通技术人员可以理解,图13所示的结构仅为示意,计算机终端也可以是智能手机(如android手机、ios手机等)、平板电脑、掌上电脑以及移动互联网设备(mobile internet devices,mid)、pad等终端设备。图13其并不对上述电子装置的结构造成限定。例如,计算机终端a还可包括比图13中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图13所示不同的配置。
309.本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(read-only memory,rom)、随机存取器(random access memory,ram)、磁盘或光盘等。
310.实施例11
311.本技术的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于保存上述实施例所提供的图像处理方法所执行的程序代码。
312.可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
313.可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
314.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:获取第一图像集,其中,第一图像集包括:多张第一人脸图像,多张第一人脸图像的编码和表情;确定多张第一人脸图像的编码中,与目标编码相同的编码;获取与目标编码相同的编码对应的至少一张第一人脸图像;基于至少一张第一人脸图像对应的表情,确定第二表情。
315.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表
情中,每种表情的数量;确定最大数量对应的表情为第二表情。
316.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:基于至少一张第一人脸图像对应的表情,确定第二表情包括:确定至少一张第一人脸图像对应的表情中,每种表情的得分;确定最高得分对应的表情为第二表情。
317.可选的,上述处理器还可以执行如下步骤的程序代码:输出第二表情;接收第二表情对应的确认结果;基于确认结果对第二表情进行更新。
318.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:获取多张第一人脸图像;对多张第一人脸图像进行编码,得到多张第一人脸图像对应的编码;对多张第一人脸图像进行识别,得到多张第一人脸图像对应的表情。
319.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:基于预设映射关系,确定目标编码对应的表情,其中,预设映射关系用于表征编码和表情之间的对应关系。
320.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:获取第二图像集,其中,第二图像集包括:多张第二人脸图像,以及多张第二人脸图像对应的表情;对第二图像集进行编码,得到多张第二人脸图像对应的编码;基于多张第二人脸图像对应的表情和编码,构建预设映射关系。
321.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:利用表情识别模型对目标人脸图像进行识别,得到第一表情。
322.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在获取到多张目标人脸图像的情况下,基于多张目标人脸图像,以及每张目标人脸图像的第二表情,构建训练集;利用训练集对表情识别模型进行训练,其中,表情识别模型用于对人脸图像进行识别,得到人脸图像对应的表情。
323.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情调整目标人脸图像对应的目标对象的表情。
324.可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情。
325.可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:显示目标人脸图像,以及目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;显示目标人脸图像的第二表情,其中,第二表情是在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整得到的表情。
326.可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:获取目标人脸图像;对目标人脸图像进行识别,得到目标人脸图像对应的第一表情;对目标人脸图像进行编码,得到目标人脸图像对应的目标编码;在第一表情与目标编码对应的表情不同的情况下,对第一表情进行调整,得到目标人脸图像的第二表情;基于第二表情,确定目标人脸图像的考勤结果。
327.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:将第二表
情与预设表情进行比较;在第二表情与预设表情相同的情况下,确定考勤结果为考勤成功;在第二表情与预设表情不同的情况下,确定考勤结果为考勤失败。
328.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在获取目标人脸图像之前,输出第一提示信息,其中,第一提示信息用于提示预设表情。
329.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在第二表情与预设表情不同的情况下,输出第三提示信息,其中,第二提示信息用于提示调整目标人脸图像的表情。
330.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在对第一表情进行调整,得到目标人脸图像的第二表情之后,基于第二表情,确定第二表情的得分;输出第二表情的得分。
331.可选的,上述存储介质还被设置为存储用于执行以下步骤的程序代码:在基于第二表情,确定第二表情的得分之后,输出第三提示信息,其中,第三提示信息与第二表情的得分相对应。
332.上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。
333.在本技术的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
334.在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
335.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
336.另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
337.所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
338.以上所述仅是本技术的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应
视为本技术的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献