一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

曝光调整方法及相关设备与流程

2022-02-20 05:47:49 来源:中国专利 TAG:


1.本技术涉及终端技术领域,尤其涉及一种曝光调整方法及相关设备。


背景技术:

2.目前,在网络直播、线上课程、视频通话等需要利用手机等电子设备拍摄人脸的场景下,当被拍摄对象进行快速低头、抬头、转头等动作时,由于人脸图像区域的亮度统计过程及亮度统计数据传输过程会产生时间延迟,电子设备可能会将背景图像、被拍摄对象的头发图像等误判为人脸图像,从而导致电子设备显示的图像亮度出现不必要的大幅度变化,用户体验差。


技术实现要素:

3.本技术实施例提供了一种曝光调整方法及相关设备,可以优化电子设备拍摄画面亮度变化的稳定性,提高用户体验。
4.第一方面,本技术实施例提供了一种曝光调整方法,应用于包括显示屏、摄像头的电子设备,所述方法包括:所述电子设备在所述显示屏上先后显示来自所述摄像头的第一图像和第二图像,所述第一图像包括第一人脸,所述第一图像具有第一亮度,所述第二图像具有第二亮度;其中,在显示所述第一图像之后,所述电子设备在所述第一亮度的基础上确定所述第二亮度,所述第一图像和第二图像中所述第一人脸的五官特征点数量差距越大,所述第二亮度越接近所述第一亮度。
5.本技术实施例通过提供一种曝光调整方法,电子设备可以基于预存的五官特征点判断预览框中人脸图像的五官特征点是否缺失,若是,则电子设备可以对人脸图像的亮度变化做平滑处理,这样,在被拍摄对象进行快速转头、低头、抬头等动作时,可以避免预览框中的图像的亮度发生大幅度变化,增加拍摄过程中图像亮度变化的稳定性,提高用户体验。
6.在一种可能的实现方式中,所述第一图像和第一图像中所述第一人脸的五官特征点数量变化包括以下任意一项:所述第一人脸从所述第一图像到所述第二图像呈现向右转头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现向左转头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现低头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现抬头的趋势。这样,在用户出现向右转头、向左转头、低头、抬头动作时,五官特征点数量发送变化。
7.在一种可能的实现方式中,在所述电子设备显示所述第二图像之前,所述方法还包括:所述电子设备获取并保存所述第一曝光值。这样,电子设备可以将该第一曝光值用于后续处理过程。
8.在一种可能的实现方式中,在所述电子设备显示所述第一图像之前,所述方法还包括:
9.所述电子设备获取并保存第二曝光值,所述第二曝光值用于确定所述第一亮度。这样,电子设备可以将该第二曝光值用于后续处理过程。
10.在一种可能的实现方式中,所述电子设备在所述第一亮度的基础上确定所述第二亮度,具体包括:所述电子设备基于所述第二图像中所述第一人脸的五官特征点数量确定五官特征点缺失比例;所述电子设备基于所述五官特征点缺失比例确定所述第一曝光值的权重;所述电子设备基于所述五官特征点缺失比例和所述第一曝光值的权重确定第三曝光值,所述第三曝光值用于确定所述第二亮度。这样,可以实现对图像亮度进行平滑处理。
11.在一种可能的实现方式中,所述电子设备基于所述第二图像中所述第一人脸的五官特征点数量确定五官特征点缺失比例,具体包括:所述电子设备将所述第二图像中所述第一人脸的五官特征点数量与预存的五官特征点数量相除,得到所述五官特征点缺失比例。这样,可以确定五官特征点缺失比例。
12.在一种可能的实现方式中,所述电子设备基于所述五官特征点缺失比例确定所述第一曝光值的权重,具体包括:所述电子设备确定所述五官特征点缺失比例在第一预设范围内;所述电子设备基于所述第一预设范围确定所述第一曝光值的权重。这样,可以确定五官特征点缺失比例与第一曝光值的权重之间的关系。
13.在一种可能的实现方式中,所述电子设备基于所述五官特征点缺失比例和所述第一曝光值的权重确定第三曝光值,具体包括:所述电子设备利用如下公式计算所述第三曝光值:
14.ev
face
=w*curev
face
(1-w)*lastev
face
15.其中,ev
face
是所述第三曝光值,curev
face
是所述第一曝光值,lastev
face
是所述第二曝光值,w是所述第一曝光值的权重。这样,可以实现对图像亮度进行平滑处理。
16.第二方面,本技术实施例提供了一种电子设备,电子设备包括显示屏、摄像头,电子设备用于:在所述显示屏上先后显示来自所述摄像头的第一图像和第二图像,所述第一图像包括第一人脸,所述第一图像具有第一亮度,所述第二图像具有第二亮度;其中,在显示所述第一图像之后,所述电子设备在所述第一亮度的基础上确定所述第二亮度,所述第一图像和第二图像中所述第一人脸的五官特征点数量差距越大,所述第二亮度越接近所述第一亮度。
17.在一种可能的实现方式中,所述第一图像和第一图像中所述第一人脸的五官特征点数量变化包括以下任意一项:所述第一人脸从所述第一图像到所述第二图像呈现向右转头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现向左转头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现低头的趋势;所述第一人脸从所述第一图像到所述第二图像呈现抬头的趋势。
18.在一种可能的实现方式中,在所述电子设备用于显示所述第二图像之前,所述电子设备还用于:获取并保存所述第一曝光值。
19.在一种可能的实现方式中,在所述电子设备用于显示所述第一图像之前,所述电子设备还用于:获取并保存第二曝光值,所述第二曝光值用于确定所述第一亮度。
20.在一种可能的实现方式中,所述电子设备用于在所述第一亮度的基础上确定所述第二亮度,具体包括:基于所述第二图像中所述第一人脸的五官特征点数量确定五官特征点缺失比例;基于所述五官特征点缺失比例确定所述第一曝光值的权重;基于所述五官特征点缺失比例和所述第一曝光值的权重确定第三曝光值,所述第三曝光值用于确定所述第二亮度。
21.在一种可能的实现方式中,所述电子设备用于基于所述第二图像中所述第一人脸的五官特征点数量确定五官特征点缺失比例,具体包括:将所述第二图像中所述第一人脸的五官特征点数量与预存的五官特征点数量相除,得到所述五官特征点缺失比例。
22.在一种可能的实现方式中,所述电子设备用于基于所述五官特征点缺失比例确定所述第一曝光值的权重,具体包括:确定所述五官特征点缺失比例在第一预设范围内;基于所述第一预设范围确定所述第一曝光值的权重。
23.在一种可能的实现方式中,所述电子设备用于基于所述五官特征点缺失比例和所述第一曝光值的权重确定第三曝光值,具体包括:利用如下公式计算所述第三曝光值:
24.ev
face
=w*curev
face
(1-w)*lastev
face
25.其中,ev
face
是所述第三曝光值,curev
face
是所述第一曝光值,lastev
face
是所述第二曝光值,w是所述第一曝光值的权重。
26.第三方面,本技术实施例提供了一种电子设备,包括:摄像头、一个或多个处理器、一个或多个存储器;其中,一个或多个存储器与一个或多个处理器耦合,一个或多个存储器用于存储计算机程序代码,计算机程序代码包括计算机指令,当一个或多个处理器在执行计算机指令时,使得电子设备执行上述第一方面任一项可能的实现方式中的方法。
27.第四方面,本技术实施例提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述第一方面任一项可能的实现方式中的方法。
28.第五方面,本技术实施例提供了一种计算机存储介质,计算机存储介质存储有计算机程序,计算机程序包括程序指令,当程序指令在电子设备上运行时,使得电子设备执行上述第一方面任一项可能的实现方式中的方法。
附图说明
29.图1是本技术实施例提供的一种电子设备的结构示意图;
30.图2是本技术实施例提供的一种电子设备的软件架构示意图;
31.图3是本技术实施例提供的一个用户界面示意图;
32.图4a-图4g是本技术实施例提供的一组用户界面示意图;
33.图5是本技术实施例提供的一种电子设备的部分软硬件协作示意图;
34.图6是本技术实施例提供的另一种电子设备的结构示意图。
具体实施方式
35.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述。其中,在本技术实施例的描述中,除非另有说明,“/”表示或的意思,例如,a/b可以表示a或b;文本中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况,另外,在本技术实施例的描述中,“多个”是指两个或多于两个。
36.应当理解,本技术的说明书和权利要求书及附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选
地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
37.在本技术中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本技术的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本技术所描述的实施例可以与其它实施例相结合。
38.目前,在利用手机等电子设备进行网络直播、线上课程、视频通话等场景下,电子设备通常利用自动曝光(automatic exposure,ae)算法来调整预览框中的图像亮度。ae算法可以基于电子设备获取到的预览框中的图像的亮度统计值来调节相应的曝光参数,得到合适的曝光量,从而使得预览框中的图像亮度达到一个合适的值。当电子设备的预览框中出现人脸图像时,电子设备会使得ae算法进入人脸自动曝光(face automatic exposure,face ae)模式,face ae模式可以基于电子设备获取到的预览框中的人脸图像的亮度统计值来调节相应的曝光参数,得到合适的曝光量,从而使得预览框中的人脸图像亮度达到一个合适的值。在逆光的情况下,人脸图像的亮度往往远低于背景图像的亮度,为达到更好的图像效果,电子设备通常会将预览框中的图像整体(包括人脸图像、背景图像等)的亮度进行提升,在保证人脸图像的亮度合适的情况下,可以允许背景图像过度曝光。当电子设备的预览框中的人脸图像消失若干帧之后,电子设备会使得ae算法退出face ae模式,而进入普通ae模式,为调整预览框中过度曝光区域的亮度,电子设备通常会降低曝光(例如降低曝光时间、降低曝光量等),恢复更多图像细节。
39.然而,当电子设备拍摄到人脸时,由于人脸图像区域的亮度统计过程及亮度统计数据传输过程会产生时间延迟,例如,电子设备在第n帧图像出现时检测到人脸图像,在第n 1帧才能获取到人脸识别框并对人脸图像区域进行亮度统计,在第n m帧(其中,m为大于1的正整数)才能利用ae算法基于亮度统计数据来调整图像的亮度,因此,当被拍摄对象进行快速转头、低头、抬头等动作时,由于时间延迟,电子设备可能会将背景图像、被拍摄者的头发图像等误判为人脸图像,从而导致电子设备预览框中的图像亮度出现不必要的大幅度变化,用户体验差。
40.本技术实施例提供了一种曝光调整方法,电子设备可以基于预存的五官特征点判断预览框中人脸图像的五官特征点是否缺失,若是,则电子设备可以对人脸图像的亮度变化做平滑处理,这样,在被拍摄对象进行快速转头、低头、抬头等动作时,可以避免预览框中的图像的亮度发生大幅度变化,增加拍摄过程中图像亮度变化的稳定性,提高用户体验。
41.本技术实施例提供的方法适用于多种场景,例如网络直播、线上课程、拍照预览、录像预览、录像、视频通话等等,在此不作限定。
42.本技术实施例中,“预览框”(也可以称为取景框)可以是指电子设备在显示屏上显示摄像头所采集的图像的区域。
43.本技术实施例中,“五官特征点缺失”是指电子设备检测到预览框中人脸图像的五官特征点的数量少于预存的五官特征点的数量,其中,“缺”是指电子设备检测到预览框中存在人脸图像的五官特征点,但是该人脸图像的五官特征点的数量少于预存的五官特征点的数量;“失”是指电子设备检测到预览框中不存在人脸图像的五官特征点,即人脸图像的五官特征点的数量为0。
44.本技术实施例中的电子设备可以是手机、平板电脑、可穿戴设备、车载设备、增强
现实(augmented reality,ar)/虚拟现实(virtual reality,vr)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,umpc)、上网本、个人数字助理(personal digital assistant,pda)或专门的照相机(例如单反相机、卡片式相机)等,本技术实施例对电子设备的具体类型不作任何限制。
45.首先介绍本技术实施例提供的一种电子设备100的结构。
46.图1示例性示出了本技术实施例中提供的一种电子设备100的结构。
47.如图1所示,电子设备100可以包括:处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,usb)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170a,受话器170b,麦克风170c,耳机接口170d,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,sim)卡接口195等。其中传感器模块180可以包括压力传感器180a,陀螺仪传感器180b,气压传感器180c,磁传感器180d,加速度传感器180e,距离传感器180f,接近光传感器180g,指纹传感器180h,温度传感器180j,触摸传感器180k,环境光传感器180l,骨传导传感器180m等。
48.可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本技术另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
49.处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,ap),调制解调处理器,图形处理器(graphics processing unit,gpu),图像信号处理器(image signal processor,isp),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,dsp),基带处理器,和/或神经网络处理器(neural-network processing unit,npu)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
50.其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
51.处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
52.在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,i2c)接口,集成电路内置音频(inter-integrated circuit sound,i2s)接口,脉冲编码调制(pulse code modulation,pcm)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,uart)接口,移动产业处理器接口(mobile industry processor interface,mipi),通用输入输出(general-purpose input/output,gpio)接口,用户标识模块(subscriber identity module,sim)接口,和/或通用串行总线(universal serial bus,usb)接口等。
53.i2c接口是一种双向同步串行总线,包括一根串行数据线(serial data line,sda)和一根串行时钟线(derail clock line,scl)。在一些实施例中,处理器110可以包含
多组i2c总线。处理器110可以通过不同的i2c总线接口分别耦合触摸传感器180k,充电器,闪光灯,摄像头193等。例如:处理器110可以通过i2c接口耦合触摸传感器180k,使处理器110与触摸传感器180k通过i2c总线接口通信,实现电子设备100的触摸功能。
54.i2s接口可以用于音频通信。在一些实施例中,处理器110可以包含多组i2s总线。处理器110可以通过i2s总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过i2s接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
55.pcm接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过pcm总线接口耦合。在一些实施例中,音频模块170也可以通过pcm接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。i2s接口和pcm接口都可以用于音频通信。
56.uart接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,uart接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过uart接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过uart接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
57.mipi接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。mipi接口包括摄像头串行接口(camera serial interface,csi),显示屏串行接口(display serial interface,dsi)等。在一些实施例中,处理器110和摄像头193通过csi接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过dsi接口通信,实现电子设备100的显示功能。
58.gpio接口可以通过软件配置。gpio接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,gpio接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。gpio接口还可以被配置为i2c接口,i2s接口,uart接口,mipi接口等。
59.usb接口130是符合usb标准规范的接口,具体可以是mini usb接口,micro usb接口,usb type c接口等。usb接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如ar设备等。
60.可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本技术另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
61.充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过usb接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备100供电。
62.电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储
器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
63.电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
64.天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
65.移动通信模块150可以提供应用在电子设备100上的包括2g/3g/4g/5g等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,lna)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
66.调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170a,受话器170b等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
67.无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wireless local area networks,wlan)(如无线保真(wireless fidelity,wi-fi)网络),蓝牙(bluetooth,bt),全球导航卫星系统(global navigation satellite system,gnss),调频(frequency modulation,fm),近距离无线通信技术(near field communication,nfc),红外技术(infrared,ir)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
68.在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。无线通信技术可以包括全球移动通讯系统(global system for mobile communications,gsm),通用分组无线服务(general packet radio service,gprs),码分多址接入(code division multiple access,cdma),宽带码分多址(wideband code division multiple access,wcdma),时分码分多址(time-division code division multiple access,td-scdma),长期演进(long term evolution,lte),bt,gnss,wlan,nfc,fm,和/或ir技术等。gnss可以包括全球卫星定位系统(global positioning system,gps),全球导航卫星系统
(global navigation satellite system,glonass),北斗卫星导航系统(beidou navigation satellite system,bds),准天顶卫星系统(quasi-zenith satellite system,qzss)和/或星基增强系统(satellite based augmentation systems,sbas)。
69.电子设备100通过gpu,显示屏194,以及应用处理器等实现显示功能。gpu为图像处理的微处理器,连接显示屏194和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。
70.显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,lcd),有机发光二极管(organic light-emitting diode,oled),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organic light emitting diode的,amoled),柔性发光二极管(flex light-emitting diode,fled),miniled,microled,micro-oled,量子点发光二极管(quantum dot light emitting diodes,qled)等。在一些实施例中,电子设备100可以包括1个或n个显示屏194,n为大于1的正整数。
71.电子设备100可以通过isp,摄像头193,视频编解码器,gpu,显示屏194以及应用处理器等实现拍摄功能。
72.isp用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给isp处理,转化为肉眼可见的图像。isp还可以对图像的噪点,亮度,肤色进行算法优化。isp还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,isp可以设置在摄像头193中。
73.摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,ccd)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的rgb,yuv等格式的图像信号。在一些实施例中,电子设备100可以包括1个或n个摄像头193,n为大于1的正整数。
74.数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
75.视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,mpeg)1,mpeg2,mpeg3,mpeg4等。
76.npu为神经网络(neural-network,nn)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过npu可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
77.外部存储器接口120可以用于连接外部存储卡,例如micro sd卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
78.内部存储器121可以用于存储计算机可执行程序代码,可执行程序代码包括指令。
处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,ufs)等。
79.电子设备100可以通过音频模块170,扬声器170a,受话器170b,麦克风170c,耳机接口170d,以及应用处理器等实现音频功能。例如音乐播放,录音等。
80.音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
81.扬声器170a,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170a收听音乐,或收听免提通话。
82.受话器170b,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170b靠近人耳接听语音。
83.麦克风170c,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170c发声,将声音信号输入到麦克风170c。电子设备100可以设置至少一个麦克风170c。在另一些实施例中,电子设备100可以设置两个麦克风170c,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170c,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
84.耳机接口170d用于连接有线耳机。耳机接口170d可以是usb接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,omtp)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the usa,ctia)标准接口。
85.压力传感器180a用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180a可以设置于显示屏194。压力传感器180a的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180a,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180a检测触摸操作强度。电子设备100也可以根据压力传感器180a的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
86.陀螺仪传感器180b可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180b确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180b可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180b检测电子设备100抖
动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180b还可以用于导航,体感游戏场景。
87.气压传感器180c用于测量气压。在一些实施例中,电子设备100通过气压传感器180c测得的气压值计算海拔高度,辅助定位和导航。
88.磁传感器180d包括霍尔传感器。电子设备100可以利用磁传感器180d检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180d检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
89.加速度传感器180e可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备100姿态,应用于横竖屏切换,计步器等应用。
90.距离传感器180f,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180f测距以实现快速对焦。
91.接近光传感器180g可以包括例如发光二极管(led)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180g检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180g也可用于皮套模式,口袋模式自动解锁与锁屏。
92.环境光传感器180l用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180l也可用于拍照时自动调节白平衡。环境光传感器180l还可以与接近光传感器180g配合,检测电子设备100是否在口袋里,以防误触。
93.指纹传感器180h用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
94.温度传感器180j用于检测温度。在一些实施例中,电子设备100利用温度传感器180j检测的温度,执行温度处理策略。例如,当温度传感器180j上报的温度超过阈值,电子设备100执行降低位于温度传感器180j附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
95.触摸传感器180k,也称“触控面板”。触摸传感器180k可以设置于显示屏194,由触摸传感器180k与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180k用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180k也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
96.骨传导传感器180m可以获取振动信号。在一些实施例中,骨传导传感器180m可以获取人体声部振动骨块的振动信号。骨传导传感器180m也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180m也可以设置于耳机中,结合成骨传导耳机。音
频模块170可以基于骨传导传感器180m获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于骨传导传感器180m获取的血压跳动信号解析心率信息,实现心率检测功能。
97.按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
98.马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
99.指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
100.sim卡接口195用于连接sim卡。sim卡可以通过插入sim卡接口195,或从sim卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或n个sim卡接口,n为大于1的正整数。sim卡接口195可以支持nano sim卡,micro sim卡,sim卡等。同一个sim卡接口195可以同时插入多张卡。多张卡的类型可以相同,也可以不同。sim卡接口195也可以兼容不同类型的sim卡。sim卡接口195也可以兼容外部存储卡。电子设备100通过sim卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用esim,即:嵌入式sim卡。esim卡可以嵌在电子设备100中,不能和电子设备100分离。
101.应当理解的是,图1所示电子设备100仅是一个范例,并且电子设备100可以具有比图1中所示的更多的或者更少的部件,可以组合两个或多个的部件,或者可以具有不同的部件配置。图1中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
102.下面介绍本技术实施例提供的一种电子设备100的软件架构。
103.图2示例性示出了本技术实施例中提供的一种电子设备100的软件架构。
104.如图2所示,电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本技术实施例以分层架构的android系统为例,示例性说明电子设备100的软件结构。
105.分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(android runtime)和系统库,以及内核层。
106.应用程序层可以包括一系列应用程序包。
107.如图2所示,应用程序包可以包括相机,图库,设置,通话,地图,导航,wlan,蓝牙,网络直播,视频,短信息等应用程序。
108.应用程序框架层为应用程序层的应用程序提供应用编程接口(application programming interface,api)和编程框架。应用程序框架层包括一些预先定义的函数。
109.如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
110.窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
111.内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
112.视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
113.电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
114.资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
115.通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以快速停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
116.android runtime包括核心库和虚拟机。android runtime负责安卓系统的调度和管理。
117.核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
118.应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
119.系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(media libraries),三维图形处理库(例如:opengl es),2d图形引擎(例如:sgl)等。
120.表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2d和3d图层的融合。
121.媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:mpeg4,h.264,mp3,aac,amr,jpg,png等。
122.三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
123.2d图形引擎是2d绘图的绘图引擎。
124.内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
125.下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
126.当触摸传感器180k接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。以该触摸操作是触摸单击操作,该单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通
过摄像头193捕获静态图像或视频。
127.下面介绍电子设备100提供的一些示例性用户界面(user interface,ui)。
128.本技术的说明书和权利要求书及附图中的术语“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(graphic user interface,gui),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口、控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、widget等可视的界面元素。
129.图3示例性示出了电子设备100上的用于展示电子设备100安装的应用程序的示例性用户界面300。
130.用户界面300可包括:状态栏301,日历指示符302,天气指示符303,具有常用应用程序图标的托盘304,导航栏305,以及其他应用程序图标等。其中:
131.状态栏301可包括:移动通信信号(又可称为蜂窝信号)的一个或多个信号强度指示符301a、运营商名称(例如“中国移动”)301b、无线高保真(wireless fidelity,wi-fi)信号的一个或多个信号强度指示符301c,电池状态指示符301d、时间指示符301e。
132.日历指示符302可用于指示当前时间,例如日期、星期几、时分信息等。
133.天气指示符303可用于指示天气类型,例如多云转晴、小雨等,还可以用于指示气温等信息。
134.具有常用应用程序图标的托盘304可展示:电话图标304a、联系人图标304b、短信图标304c、相机图标304d。
135.导航栏305可包括:返回键305a、主屏幕键305b、多任务键305c等系统导航键。当检测到用户点击返回键305a时,电子设备100可显示当前页面的上一个页面。当检测到用户点击主屏幕键305b时,电子设备100可显示主界面。当检测到用户点击多任务键305c时,电子设备100可显示用户最近打开的任务。各导航键的命名还可以为其他,本技术对此不做限制。不限于虚拟按键,导航栏305中的各导航键也可以实现为物理按键。
136.其他应用程序图标可例如:邮箱的图标306、网络直播的图标307、图库的图标308、设置的图标309。用户界面300还可包括页面指示符310。其他应用程序图标可分布在多个页面,页面指示符310可用于指示用户当前浏览的是哪一个页面中的应用程序。用户可以左右滑动其他应用程序图标的区域,来浏览其他页面中的应用程序图标。
137.在一些实施例中,图3示例性所示的用户界面300可以为主界面(home screen)。
138.在其他一些实施例中,电子设备100还可以包括实体的主屏幕键。该主屏幕键可用于接收用户的指令,将当前显示的ui返回到主界面,这样可以方便用户随时查看主屏幕。上述指令具体可以是用户单次按下主屏幕键的操作指令,也可以是用户在短时间内连续两次按下主屏幕键的操作指令,还可以是用户在预定时间内长按主屏幕键的操作指令。在本技术其他一些实施例中,主屏幕键还可以集成指纹识别器,以便用于在按下主屏幕键的时候,随之进行指纹采集和识别。
139.可以理解的是,图3仅仅示例性示出了电子设备100上的用户界面,不应构成对本技术实施例的限定。
140.图4a-图4e是本技术实施例提供的网络直播的示例性用户界面400。该用户界面
400可以是直播类应用程序提供的。在一些实施例中,该用户界面400可以是电子设备100响应于图3中的直播类应用程序的图标上的用户操作而打开的用户界面,还可以是用户通过语音唤起的用户界面。
141.示例性地,电子设备100可以检测到用户针对如图3所示的网络直播的图标307的操作(例如点击操作),响应于该操作,电子设备100可以显示如图4a所示的用户界面400。
142.如图4a所示,用户界面400可以包括:状态栏401、当前页面指示符402、直播图像显示区域403、评论显示区域404、控件405a-控件405d。在一些实施例中,该用户界面400还可以包括可隐藏的导航栏(图中未示出),该导航栏可以参照图3中的导航栏305。
143.状态栏401可以参照图3所示的用户界面300中的状态栏301,在此不再赘述。
144.当前页面符402可以用于指示当前页面,例如图4a中所示的文本“xx直播间”。
145.直播图像显示区域403可以用于显示电子设备100通过网络接收到的直播图像。
146.在本技术实施例中,直播图像显示区域403也可以称为预览框或取景框。
147.评论显示区域404可以用于显示一个或多个本端用户或者其他用户发布的评论。
148.控件405a可以用于监听用户操作(例如触摸操作),响应于该用户操作,电子设备100可以在用户界面400上显示评论看以供用户输入评论。
149.控件405b可以用于监听用户操作(例如触摸操作),响应于该用户操作,电子设备100可以在用户界面400上显示本端用户接收到的消息(例如私信)。
150.控件405c可以用于监听用户操作(例如触摸操作),响应于该用户操作,电子设备100可以在用户界面400上显示本端用户的直播好友。
151.控件405d可以用于监听用户操作(例如触摸操作),响应于该用户操作,电子设备100可以将该用户界面400的链接分享至其他电子设备。
152.需要说明的是,本技术实施例仅仅示出了网络直播的用户界面,用于后续以网络直播场景为例对本技术实施例提供的曝光调整方法进行说明,不限于此,本技术实施例提供的曝光调整方法还适用于其他多个应用场景,例如,拍照、录像、视频通话、线上课程等等,本技术实施例对此不作限定。
153.下面详细介绍本技术实施例提供的曝光调整方法及其实现原理。
154.本技术实施例提供的曝光调整方法首先是电子设备100基于预存的五官特征点来计算预览框中人脸图像的五官特征点缺失比例r,然后基于五官特征点缺失比例r来确定本次人脸图像亮度统计值(也可以称为人脸图像的曝光值)的权重w,并进一步完成对人脸图像的亮度变化做平滑处理。具体计算过程如下公式1所示:
155.ev
face
=w*curev
face
(1-w)*lastev
face
156.其中,ev
face
是电子设备100平滑处理后的第n次人脸图像的曝光值(exposure value,ev),curev
face
是电子设备100第n次统计的人脸图像的曝光值,lastev
face
是电子设备100第n-1次统计的人脸图像的曝光值,其中,n为大于1的正整数。容易理解,若n=1,则ev
face
=w*curev
face

157.在本技术实施例中,第一图像可以是lastev
face
下显示的图像(具有第一亮度的图像),第二图像可以是ev
face
下显示的图像(具有第二亮度的图像)。
158.表1示例性示出了五官特征点缺失比例r与人脸图像亮度统计值的权重w之间的映射关系。其中,五官特征点缺失比例r为五官特征点缺失数量与预存的五官特征点数量之间
的比值。
159.如下表1所示,容易看出,在五官特征点缺失比例r在0%到10%之间时(即五官特征点齐全或接近齐全时),人脸图像亮度统计值的权重w可以为1,此时,ev
face
=curev
face
,也就是说,平滑处理后的第n次人脸图像的曝光值就是第n次统计的人脸图像的曝光值;在五官特征点缺失比例r在10%到25%、25%到40%、40%到60%之间时(即五官特征点部分缺失时),人脸图像亮度统计值的权重w可以依次为0.9、0.6、0.3,此时,平滑处理后的第n次人脸图像的曝光值是第n次统计的人脸图像的曝光值与第n-1次统计的人脸图像的曝光值进行加权计算得到的,也就是说,平滑处理后的第n次人脸图像的曝光值是由第n次统计的人脸图像的曝光值与第n-1次统计的人脸图像的曝光值这两个曝光值综合计算确定的;在五官特征点缺失比例r在60%到100%之间时(即五官特征点绝大部分缺失时),人脸图像亮度统计值的权重w可以为0,此时,ev
face
=lastev
face
,也就是说,平滑处理后的第n次人脸图像的曝光值就是第n-1次统计的人脸图像的曝光值。
160.在一些实施例中,也可以不计算五官特征点缺失比例r,而是直接将五官特征点缺失数量与人脸图像亮度统计值的权重w建立映射关系,容易理解,将表1中的五官特征点缺失比例r乘上预存的五官特征点数量即可得到五官特征点缺失数量与人脸图像亮度统计值的权重w之间的映射关系。本技术实施例仅仅以五官特征点缺失比例r为例,不应构成对本技术的限定。
161.需要说明的是,表1中的五官特征点缺失比例r与人脸图像亮度统计值的权重w的映射关系仅仅是一个示例,五官特征点缺失比例r的区间数值(也可以成为第一预设范围)与对应的人脸图像亮度统计值的权重w数值也可以设置为其他,例如,r在25%到40%之间时,人脸图像亮度统计值的权重w可以为0.5,r在40%到60%之间时,人脸图像亮度统计值的权重w可以为0.2;又例如,r在0%到100%之间可以设置更多区间:0%≤r《10%、10%≤r《20%、20%≤r《30%、30%≤r《40%、40%≤r《50%、50%≤r《60%、60%≤r《70%、70%≤r《80%、80%≤r《100%,人脸图像亮度统计值的权重w可以依次为1、0.9、0.8、0.7、0.6、0.5、0.4、0.3、0;等等,本技术实施例对此不作限定。
[0162][0163]
表1
[0164]
下面以网络直播场景为例详细介绍本技术实施例提供的曝光调整方法。
[0165]
(1)、电子设备100检测到即五官特征点齐全或接近齐全(即被拍摄对象的脸部正对摄像头)
[0166]
如图3所示,电子设备100可以检测到用户针对网络直播的图标307的操作(例如点击操作),响应于该操作,电子设备100可以显示如图4a所示的用户界面400。
[0167]
如图4a所示,电子设备100可以检测到被拍摄对象的人脸图像所在区域的位置及大小,并基于人脸图像所在区域的位置及大小来输出人脸图像亮度统计值curev
face
,同时,电子设备100可以将预存的五官特征点(即被拍摄对象的脸部正对摄像头时的五官特征点)
与图4a所示用户界面400中显示的被拍摄对象的人脸图像的五官特征点进行比对,计算被拍摄对象的人脸图像的五官特征点缺失比例r。
[0168]
容易看出,图4a中被拍摄对象的脸部是正对摄像头的,因此,电子设备100可以检测到被拍摄对象的脸部正对摄像头,从而电子设备100可以计算出五官特征点缺失比例r为0%或接近0%(例如五官特征点缺失比例r在表1所示的0%到10%之间),也即是说,被拍摄对象的人脸图像的五官特征点齐全或接近齐全(可能会由于被拍摄对象的头发遮挡少部分五官特征点,例如,被拍摄对象的刘海儿可能会遮挡眉毛处的少部分特征点)。
[0169]
进一步地,电子设备100确定在被拍摄对象的人脸图像的五官特征点齐全或接近齐全的情况下,人脸图像亮度统计值的权重w可以为1。
[0170]
之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0171]
容易理解,在被拍摄对象的人脸图像的五官特征点齐全或接近齐全的情况下,电子设备100计算得到的ev
face
即为电子设备100输出的人脸图像亮度统计值curev
face

[0172]
(2)、电子设备100检测到被拍摄对象五官特征点缺失
[0173]
在某些情况下,例如被拍摄对象快速向右转头、向左转头、低头或抬头等,被拍摄对象的五官特征点部分或绝大部分在摄像头或取景框汇中缺失;在另一些情况下,例如被拍摄对象转身或离开,被拍摄对象的五官特征点全部消失在摄像头或取景框中;在另一些情况下,例如被拍摄对象看键盘、看书,使得被拍摄对象微微低头或短暂低头,被拍摄对象的五官特征点少部分在摄像头或取景框中缺失。
[0174]
在被拍摄对象向右转头/向左转头/低头/抬头等等情况下,人脸图像的五官特征点必然发生缺失,在电子设备100依然可以检测到人脸图像的情况下,电子设备100可以判定被拍摄对象的脸部朝向发生变化。在被拍摄对象的脸部朝向发生变化时,电子设备100可以对人脸图像的亮度变化做平滑处理,从而可以避免用户界面400中显示图像的亮度发生大幅度变化,增加图像亮度变化的稳定性,提高用户体验。
[0175]
情况1、快速向右转头
[0176]
如图4b所示,用户界面400中显示有被拍摄对象的人脸图像,电子设备100可以检测到被拍摄对象的人脸图像所在区域的位置及大小,并基于人脸图像所在区域的位置及大小来输出人脸图像亮度统计值curev
face
,同时,电子设备100可以将预存的五官特征点(即被拍摄对象的脸部正对摄像头时的五官特征点)与图4b所示用户界面400中显示的被拍摄对象的人脸图像的五官特征点进行比对,计算被拍摄对象的人脸图像的五官特征点缺失比例r。
[0177]
容易看出,图4b中被拍摄对象处于向右转头的状态,因此,电子设备100可以检测到被拍摄对象的右侧脸部的五官特征点发生缺失,从而电子设备100可以计算出五官特征点缺失比例r,进一步地,电子设备100可以基于五官特征点缺失比例r确定人脸图像亮度统计值的权重w。
[0178]
示例性地,在被拍摄对象处于图4b所示向右转头的状态时,电子设备100计算出的五官特征点的缺失比例r可以在如表1所示的40%到60%之间,则人脸图像亮度统计值的权重w可以为0.3。
[0179]
在实际应用场景中,相比于被拍摄对象的脸部正对摄像头来说,被拍摄对象向右转头的幅度可能比图4b所示的向右转头的幅度要更大或更小,那么五官特征点的缺失比例r也会有所变化。例如,在被拍摄对象向右转头的幅度比图4b所示的向右转头的幅度更小的情况下,五官特征点的缺失比例r可以在如表1所示的10%到25%或25%到40%之间;又例如,在被拍摄对象向右转头的幅度比图4b所示的向右转头的幅度更大的情况下,五官特征点的缺失比例r可以在如表1所示的60%到100%之间。
[0180]
在确定五官特征点的缺失比例r和人脸图像亮度统计值的权重w之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0181]
其中,上述公式1中的lastev
face
为电子设备100检测到被拍摄对象快速向右转头之前最近一次计算的人脸图像亮度统计值。例如,若电子设备100检测到被拍摄对象快速向右转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象的脸部正对摄像头时的人脸亮度统计值,即被拍摄对象脸部正对摄像头之后又快速向右转头,则上述公式1中的lastev
face
为被拍摄对象的脸部正对摄像头时的人脸亮度统计值;又例如,若电子设备100检测到被拍摄对象快速向右转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象上一次向右转头时的人脸亮度统计值,即被拍摄对象快速向右转头之后又继续快速向右转头,则上述公式1中的lastev
face
为被拍摄对象上一次向右转头时的人脸亮度统计值;再例如,若电子设备100检测到被拍摄对象快速向右转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象向左转头/低头/抬头时的人脸亮度统计值,即被拍摄对象快速向左转头/低头/抬头之后又快速向右转头,则上述公式1中的lastev
face
为被拍摄对象向左转头/低头/抬头时的人脸亮度统计值。
[0182]
情况2、快速向左转头
[0183]
如图4c所示,用户界面400中显示有被拍摄对象的人脸图像,电子设备100可以检测到被拍摄对象的人脸图像所在区域的位置及大小,并基于人脸图像所在区域的位置及大小来输出人脸图像亮度统计值curev
face
,同时,电子设备100可以将预存的五官特征点(即被拍摄对象的脸部正对摄像头时的五官特征点)与图4c所示用户界面400中显示的被拍摄对象的人脸图像的五官特征点进行比对,计算被拍摄对象的人脸图像的五官特征点缺失比例r。
[0184]
容易看出,图4c中被拍摄对象处于向左转头的状态,因此,电子设备100可以检测到被拍摄对象的左侧脸部的五官特征点发生缺失,从而电子设备100可以计算出五官特征点缺失比例r,进一步地,电子设备100可以基于五官特征点缺失比例r确定人脸图像亮度统计值的权重w。
[0185]
示例性地,在被拍摄对象处于图4c所示向左转头的状态时,电子设备100计算出的五官特征点的缺失比例r可以在如表1所示的40%到60%之间,则人脸图像亮度统计值的权重w可以为0.3。
[0186]
在实际应用场景中,相比于被拍摄对象的脸部正对摄像头来说,被拍摄对象向左转头的幅度可能比图4c所示的向左转头的幅度要更大或更小,那么五官特征点的缺失比例r也会有所变化。例如,在被拍摄对象向左转头的幅度比图4c所示的向左转头的幅度更小的情况下,五官特征点的缺失比例r可以在如表1所示的10%到25%或25%到40%之间;又例
如,在被拍摄对象向左转头的幅度比图4c所示的向左转头的幅度更大的情况下,五官特征点的缺失比例r可以在如表1所示的60%到100%之间。
[0187]
在确定五官特征点的缺失比例r和人脸图像亮度统计值的权重w之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0188]
其中,上述公式1中的lastev
face
为电子设备100检测到被拍摄对象快速向左转头之前最近一次计算的人脸图像亮度统计值。例如,若电子设备100检测到被拍摄对象快速向左转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象的脸部正对摄像头时的人脸亮度统计值,即被拍摄对象脸部正对摄像头之后又快速向左转头,则上述公式1中的lastev
face
为被拍摄对象的脸部正对摄像头时的人脸亮度统计值;又例如,若电子设备100检测到被拍摄对象快速向左转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象上一次向左转头时的人脸亮度统计值,即被拍摄对象快速向左转头之后又继续快速向左转头,则上述公式1中的lastev
face
为被拍摄对象上一次向左转头时的人脸亮度统计值;再例如,若电子设备100检测到被拍摄对象快速向左转头之前最近一次计算的人脸图像亮度统计值是被拍摄对象向右转头/低头/抬头时的人脸亮度统计值,即被拍摄对象快速向右转头/低头/抬头之后又快速向左转头,则上述公式1中的lastev
face
为被拍摄对象向右转头/低头/抬头时的人脸亮度统计值。
[0189]
情况3、快速抬头
[0190]
如图4d所示,用户界面400中显示有被拍摄对象的人脸图像,电子设备100可以检测到被拍摄对象的人脸图像所在区域的位置及大小,并基于人脸图像所在区域的位置及大小来输出人脸图像亮度统计值curev
face
,同时,电子设备100可以将预存的五官特征点(即被拍摄对象的脸部正对摄像头时的五官特征点)与图4d所示用户界面400中显示的被拍摄对象的人脸图像的五官特征点进行比对,计算被拍摄对象的人脸图像的五官特征点缺失比例r。
[0191]
容易看出,图4d中被拍摄对象处于抬头的状态,因此,电子设备100可以检测到被拍摄对象的上侧脸部的五官特征点发生缺失,从而电子设备100可以计算出五官特征点缺失比例r,进一步地,电子设备100可以基于五官特征点缺失比例r确定人脸图像亮度统计值的权重w。
[0192]
示例性地,在被拍摄对象处于图4d所示抬头的状态时,电子设备100计算出的五官特征点的缺失比例r可以在如表1所示的40%到60%之间,则人脸图像亮度统计值的权重w可以为0.3。
[0193]
在实际应用场景中,相比于被拍摄对象的脸部正对摄像头来说,被拍摄对象抬头的幅度可能比图4d所示的抬头的幅度要更大或更小,那么五官特征点的缺失比例r也会有所变化。例如,在被拍摄对象抬头的幅度比图4d所示的抬头的幅度更小的情况下,五官特征点的缺失比例r可以在如表1所示的10%到25%或25%到40%之间;又例如,在被拍摄对象抬头的幅度比图4d所示的抬头的幅度更大的情况下,五官特征点的缺失比例r可以在如表1所示的60%到100%之间。
[0194]
在确定五官特征点的缺失比例r和人脸图像亮度统计值的权重w之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公
式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0195]
其中,上述公式1中的lastev
face
为电子设备100检测到被拍摄对象快速抬头之前最近一次计算的人脸图像亮度统计值。例如,若电子设备100检测到被拍摄对象快速抬头之前最近一次计算的人脸图像亮度统计值是被拍摄对象的脸部正对摄像头时的人脸亮度统计值,即被拍摄对象脸部正对摄像头之后又快速抬头,则上述公式1中的lastev
face
为被拍摄对象的脸部正对摄像头时的人脸亮度统计值;又例如,若电子设备100检测到被拍摄对象快速抬头之前最近一次计算的人脸图像亮度统计值是被拍摄对象上一次抬头时的人脸亮度统计值,即被拍摄对象快速抬头之后又继续快速抬头,则上述公式1中的lastev
face
为被拍摄对象上一次抬头时的人脸亮度统计值;再例如,若电子设备100检测到被拍摄对象快速抬头之前最近一次计算的人脸图像亮度统计值是被拍摄对象向右转头/向左转头/低头时的人脸亮度统计值,即被拍摄对象快速向右转头/向左转头/低头之后又快速抬头,则上述公式1中的lastev
face
为被拍摄对象向右转头/向左转头/低头时的人脸亮度统计值。
[0196]
情况4、快速低头
[0197]
如图4e所示,用户界面400中显示有被拍摄对象的人脸图像,电子设备100可以检测到被拍摄对象的人脸图像所在区域的位置及大小,并基于人脸图像所在区域的位置及大小来输出人脸图像亮度统计值curev
face
,同时,电子设备100可以将预存的五官特征点(即被拍摄对象的脸部正对摄像头时的五官特征点)与图4e所示用户界面400中显示的被拍摄对象的人脸图像的五官特征点进行比对,计算被拍摄对象的人脸图像的五官特征点缺失比例r。
[0198]
容易看出,图4e中被拍摄对象处于低头的状态,因此,电子设备100可以检测到被拍摄对象的下侧脸部的五官特征点发生缺失,从而电子设备100可以计算出五官特征点缺失比例r,进一步地,电子设备100可以基于五官特征点缺失比例r确定人脸图像亮度统计值的权重w。
[0199]
示例性地,在被拍摄对象处于图4e所示低头的状态时,电子设备100计算出的五官特征点的缺失比例r可以在如表1所示的40%到60%之间,则人脸图像亮度统计值的权重w可以为0.3。
[0200]
在实际应用场景中,相比于被拍摄对象的脸部正对摄像头来说,被拍摄对象低头的幅度可能比图4e所示的低头的幅度要更大或更小,那么五官特征点的缺失比例r也会有所变化。例如,在被拍摄对象低头的幅度比图4e所示的低头的幅度更小的情况下(例如被拍摄对象看键盘、看书,使得被拍摄对象微微低头或短暂低头,则被拍摄对象的五官特征点会少部分在摄像头或取景框中缺失),五官特征点的缺失比例r可以在如表1所示的10%到25%或25%到40%之间;又例如,在被拍摄对象低头的幅度比图4e所示的低头的幅度更大的情况下,五官特征点的缺失比例r可以在如表1所示的60%到100%之间。
[0201]
在确定五官特征点的缺失比例r和人脸图像亮度统计值的权重w之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0202]
其中,上述公式1中的lastev
face
为电子设备100检测到被拍摄对象快速低头之前最近一次计算的人脸图像亮度统计值。例如,若电子设备100检测到被拍摄对象快速低头之前最近一次计算的人脸图像亮度统计值是被拍摄对象的脸部正对摄像头时的人脸亮度统
计值,即被拍摄对象脸部正对摄像头之后又快速低头,则上述公式1中的lastev
face
为被拍摄对象的脸部正对摄像头时的人脸亮度统计值;又例如,若电子设备100检测到被拍摄对象快速低头之前最近一次计算的人脸图像亮度统计值是被拍摄对象上一次低头时的人脸亮度统计值,即被拍摄对象快速低头之后又继续快速低头,则上述公式1中的lastev
face
为被拍摄对象上一次低头时的人脸亮度统计值;再例如,若电子设备100检测到被拍摄对象快速低头之前最近一次计算的人脸图像亮度统计值是被拍摄对象向右转头/向左转头/抬头时的人脸亮度统计值,即被拍摄对象快速向右转头/向左转头/抬头之后又快速低头,则上述公式1中的lastev
face
为被拍摄对象向右转头/向左转头/抬头时的人脸亮度统计值。
[0203]
情况5、转身或离开画面
[0204]
图4f是被拍摄对象处于转身状态下的示意图,图4g是被拍摄对象处于离开画面状态下的示意图。可以看出,在图4f和图4g中,用户界面400不再显示有被拍摄对象的人脸图像,即电子设备100检测到被拍摄对象的五官特征点全部消失,从而电子设备100可以计算出五官特征点缺失比例r为100%,进一步地,电子设备100可以基于五官特征点缺失比例r确定人脸图像亮度统计值的权重w为1。
[0205]
在确定五官特征点的缺失比例r和人脸图像亮度统计值的权重w之后,电子设备100可以基于计算出的五官特征点的缺失比例r和人脸图像亮度统计值的权重w利用上述公式1计算得到ev
face
,并在用户界面400中显示人脸图像的曝光值为ev
face
时的图像。
[0206]
容易理解,在被拍摄对象转身或离开画面的情况下,ev
face
=lastev
face

[0207]
其中,lastev
face
为电子设备100检测到被拍摄对象转身或离开画面之前最近一次计算的人脸图像亮度统计值。例如,若电子设备100检测到被拍摄对象转身或离开画面之前最近一次计算的人脸图像亮度统计值是被拍摄对象的脸部正对摄像头时的人脸亮度统计值,即被拍摄对象脸部正对摄像头之后又转身或离开画面,则lastev
face
为被拍摄对象的脸部正对摄像头时的人脸亮度统计值;又例如,若电子设备100检测到被拍摄对象快速转身或离开画面之前最近一次计算的人脸图像亮度统计值是被拍摄对象快速向左转头/向右转头/低头/抬头时的人脸亮度统计值,即被拍摄对象快速向左转头/向右转头/低头/抬头之后又转身或离开画面,则lastev
face
为被拍摄对象快速向左转头/向右转头/低头/抬头时的人脸亮度统计值。
[0208]
通过实施本技术实施例提供的上述曝光调整方法,在被拍摄对象进行快速转头、低头、抬头等动作时,可以避免电子设备显示的图像的亮度发生大幅度变化,增加图像亮度变化的稳定性,提高用户体验。
[0209]
需要说明的是,本技术实施例中仅仅以一个人脸为例对上述曝光调整方法进行说明的,不限于此,本技术实施例提供的方法也适用于多个人脸的场景。例如,电子设备100可以基于画面中最大的一个人脸图像来执行上述曝光调整方法;又例如,电子设备100可以基于每一个人脸图像来分别执行上述曝光调整方法;再例如,电子设备100可以对全部人脸图像的五官特征点缺失比例取平均值之后再利用上述公式1来对每一个人脸图像的亮度变化做平滑处理;这样,可以实现图像亮度平滑稳定变化,避免出现图像亮度不必要的大幅度变化。
[0210]
下面从电子设备软硬件协作的视角,结合图5说明前述图4a-图4e实施例的具体实现。
[0211]
如图5所示,摄像头用于采集图像,当被拍摄对象的反射光通过镜头,在镜片上折射后,汇聚在图像传感器上,图像传感器可以将光学图像转换成模拟电信号,再经过数模转换器输出摄像头采集的原始数字图像。
[0212]
图像信号处理器isp可以包括人脸检测模块、五官检测模块、ae模块、亮度统计模块、i/o控制接口等。isp用于将来自摄像头的原始数字图像进行相关处理生成待显示的图像发送给显示屏进行显示。
[0213]
显示屏用于接收isp发送的待显示的图像,还可以通过ui监听用户针对显示屏的各种操作(例如监听用户作用于图3中网络直播图标307的触控操作等)。
[0214]
下面详细介绍图4a-图4e实施例的具体实现:
[0215]
如图5所示,摄像头可以将原始数字图像分别发送至isp的人脸检测模块、五官检测模块、ae模块和亮度统计模块。人脸检测模块接收到原始数字图像后,可以检测该图像中是否存在人脸图像,若存在人脸图像,人脸检测模块可以向ae模块和五官检测模块发送人脸图像信息(包括人脸图像的位置、大小)。同时,五官检测模块在接收到原始数字图像后,可以基于人脸检测模块发送的人脸图像信息获取到人脸图像的五官特征点,并将其与预存的五官特征点进行比对,计算人脸图像的五官特征点缺失比例,之后五官检测模块可以向ae模块发送计算出的五官特征点缺失比例信息。ae模块在接收到人脸检测模块发送的人脸图像信息之后,可以将接收到的人脸图像信息发送给亮度统计模块,亮度统计模块可以基于人脸图像信息统计人脸图像区域的亮度,并将亮度统计后的人脸图像亮度信息(即人脸图像的亮度统计值)发送给ae模块,ae模块接收到亮度统计模块发送的人脸图像亮度信息之后可以对其进行保存,之后,ae模块可以基于五官检测模块发送的五官特征点缺失比例信息来确定本次接收到的亮度统计模块发送的人脸图像亮度信息的权重,进一步地,ae模块可以利用前述实施例所述的公式1对人脸图像的亮度变化做平滑处理,合理调整图像的亮度,并将亮度调整后的图像通过i/o控制接口发送给显示屏。
[0216]
下面介绍本技术实施例提供的另一种电子设备100的结构。
[0217]
图6示例性示出了本技术实施例中提供的另一种电子设备100的结构。
[0218]
如图6所示,电子设备100可以包括一个或多个处理器601、存储器602。
[0219]
存储器602与一个或多个处理器601耦合,存储器602可以用于存储计算机程序代码,计算机程序代码可以包括计算机指令。
[0220]
一个或多个处理器601可以用于调用上述计算机指令以使得电子设备执行上述实施例中的曝光调整方法。
[0221]
例如,处理器601可以基于预存的五官特征点来计算预览框中人脸图像的五官特征点缺失比例r,然后基于五官特征点缺失比例r来确定本次人脸图像亮度统计值的权重w,并进一步完成对人脸图像的亮度变化做平滑处理。
[0222]
关于电子设备100的功能和工作原理的更多细节,可以参照上述各个实施例中的相关内容,在此不再赘述。
[0223]
应当理解的是,图6所示电子设备100仅是一个范例,并且电子设备100可以具有比图6中所示的更多的或者更少的部件,可以组合两个或多个的部件,或者可以具有不同的部件配置。图6中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
[0224]
本技术实施例还提供一种计算机存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行上述实施例中的曝光调整方法。
[0225]
本技术实施例还提供一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述实施例中的曝光调整方法。
[0226]
可以理解的是,上述电子设备为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本技术实施例能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
[0227]
本技术实施例可以根据上述方法示例对上述电子设备等进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
[0228]
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0229]
在本技术实施例各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0230]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:快闪存储器、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
[0231]
以上实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献