一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像自动白平衡的方法及装置与流程

2021-10-19 23:12:00 来源:中国专利 TAG:
1.本技术涉及人工智能领域,尤其涉及摄影
技术领域
:的图像自动白平衡的方法及装置。
背景技术
::2.随着手机芯片的快速发展,手机的拍照功能变得越来越丰富,用户对于手机拍摄出的图片的基础质量(颜色,清晰度等)提出了更高的要求。其中,颜色是评价手机拍照质量好坏的重要因素之一,而自动白平衡(autowhitebalance,awb)又是图片颜色形成的重要一环。3.人类视觉系统具有颜色恒常性特点,即人的视觉系统可以抵制这种光源颜色变化,从而恒定的感知物体的颜色。但是图像传感器(sensor)在不同光线下,物体呈现的颜色不同,例如,在自然环境下,同一物体在不同颜色的光的照射下会呈现不同的颜色,比如绿色的树叶在晨光照射下偏黄色,而在傍晚时分却偏蓝色。为了消除光源对于图像传感器成像的影响,模拟人类视觉系统的颜色恒常性,保证在任何场景下看到的白色是真正的白色,需要引入自动白平衡技术。4.白平衡是描述显示屏中红、绿、蓝三基色混合生成后白色精确度的一项指标,自动白平衡技术主要用于解决不同光源下图像偏色的问题,使得图像中景物的影像符合人眼的色彩视觉习惯。自动白平衡处理中的计算性颜色恒常正是致力于解决这一问题,它的主要目的是计算任意一幅图像所表征的未知光源的颜色,然后用该光源颜色对输入图像进行颜色校正,实现在标准的白光下的显示。5.目前,如何实现高要求的awb是一种亟待解决的技术挑战。技术实现要素:6.本技术实施例提供了图像自动白平衡的方法及装置,能够提高电子设备的图像白平衡的准确性和稳定性,提升用户使用体验。7.第一方面,本技术实施例提供了一种图像自动白平衡的方法,该方法应用于包括第一摄像头的电子设备,包括:获取所述第一摄像头拍摄原始raw域图像时采用的拍摄参数;获取所述原始raw域图像对应的多通道图像;将输入数据输入第一神经网络模型得到白平衡的第一增益值;所述输入数据至少包括所述第一摄像头的拍摄参数和所述多通道图像;对所述多通道图像进行第一处理,得到目标图像;其中,所述第一处理包括基于所述多通道图像和所述第一增益值的白平衡处理。8.其中,原始raw域图像可简称raw图像,raw图像可以是cmos或者ccd图像传感器将摄像头捕捉到的光源信号转化为数字信号的原始数据。9.拍摄参数表示执行拍摄时采用的参数,例如摄像头、图像传感器等等采用的拍摄参数。或者,拍摄参数还可以理解为执行拍摄时处理器对摄像头、图像传感器进行控制时产生的控制参数。拍摄参数优选的可包括曝光值,可选的还可包括曝光时间(快门时间)、iso感光度、光圈大小等中的一者或多者。10.多通道图像是指每个像素点可以用多个图像通道的值(或颜色分量)来表示的图像。图像通道在rgb色彩模式下就是指在下就是指那单独的红色r、绿色g、蓝色b部分。11.本技术可利用拍摄参数为光源颜色估计提供拍摄配置上的参考,以辅助白平衡的处理过程。所述处理包括利用神经网络模型实现的白平衡处理,神经网络模型用于至少根据所述拍摄参数和所述多通道图像获得白平衡的增益值或者白平衡处理所需的图像光源值(增益值与图像光源值互为倒数关系)。本技术实施例中描述的神经网络模型从类型上将可以是单个神经网络模型,也可以是两个或多个神经网络模型的组合。12.输出增益值或图像光源值后,电子设备可利用该增益值或图像光源值对通道图像进行白平衡处理,从而实现对光源色温引起的图像色差的校正,以使得图像中物体的颜色接近其原本的颜色,图像整体呈现出的效果符合人眼的视觉习惯和认知习惯。13.可以看到,本技术实施例利用了raw图像对应的多通道图像作为神经网络模型的输入,为awb神经网络模型提供了更多的颜色信息。又增加了拍摄参数作为awb神经网络模型的输入,为光源估计提供了拍摄配置信息,能提高awb神经网络模型针对不同光源场景的辨别能力,保证了良好的光源估计精度。所以实施本技术有利于提高电子设备的白平衡准确性,提高单帧拍照以及视频场景的awb的稳定性,以及在多光源等歧义场景下的倾向稳定性。14.基于第一方面,在可能的实施例中,神经网络模型可以是基于深度学习的方式构建的模型,例如可以是深度神经网络(deepneuralnetwork,dnn)模型、卷积神经网络(convolutionalneuronnetwork,cnn)、长短期记忆网络(longshort-termmemory,lstm)或者循环神经网络(recurrentneuralnetwork,rnn)中的一种,或多种的融合,等等。15.基于第一方面,在一种模型实现方式中,所述第一神经网络模型是通过融合第一摄像头的拍摄参数和所述多通道图像的图像特征来实现对所述第一增益值的预测的。16.一种实施例中,所述第一神经网络模型可包括第一特征提取网络、特征融合网络和光源预测网络;相应的,通过所述第一神经网络模型获得所述第一增益值的过程具体包括:通过所述第一特征提取网络对所述多通道图像进行特征提取(例如通过卷积处理实现对通道图像的像素的统计操作),获得第一特征;通过所述特征融合网络融合(融合方式例如可以是concat函数处理、conv2d函数处理、元素乘处理、元素加处理等操作中的一种或多种组合)第一摄像头的拍摄参数和所述第一特征,获得融合后的特征;通过所述光源预测网络根据所述融合后的特征进行预测,获得所述第一增益值或者图像光源值,用于后续的白平衡处理过程。17.本技术实施例中awb神经网络模型可适用于全场景,在模型训练时使用了大量的训练数据,训练数据中包含了在亮光场景下获得的数据和在暗光场景下获得的数据。在海量数据中,神经网络很难在全场景下实现高精度的拟合,而加入的摄像参数可以为拍摄场景提供先验信息,帮助神经网络区分亮光场景和暗光场景,从而提升这两类场景的光源估计精度。实施本技术有利于提高电子设备的白平衡准确性,提高单帧拍照以及视频场景的awb的稳定性,以及在多光源等歧义场景下的倾向稳定性。18.基于上述模型实现方式,在可能的实施例中,本技术方案可应用于独立的电子设备,神经网络模型可配置在该电子设备中。相应的,所述第一处理具体包括:根据所述第一摄像头的拍摄参数和所述多通道图像,通过配置在所述电子设备的第一神经网络模型获得所述第一增益值;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。从而,在电子设备具备足够计算资源的情况下,充分利用电子设备的计算能力进行神经网络计算,提高处理效率,降低白平衡处理时延。19.基于上述模型实现方式,在可能的实施例中,本技术方案可应用于端-云系统中的电子设备,神经网络模型可配置在端-云系统中的云端服务器中。相应的,所述第一处理具体包括:将所述第一摄像头的拍摄参数和所述多通道图像发送到服务器;接收来自所述服务器的所述第一增益值,所述第一增益值是通过配置在所述服务器的第一神经网络模型获得的;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。从而,在电子设备计算能力不够强的情况下,也能够利用云端服务器的计算能力进行神经网络模型计算,保证白平衡处理的准确性和稳定性,使得本技术方案能够适用于不同类型的设备,提升用户体验。20.基于第一方面,在又一种模型实现方式中,所述输入数据还包括由所述多通道图像表征的场景语义信息;所述第一神经网络模型具体是通过融合所述第一摄像头的拍摄参数、所述多通道图像的图像特征和所述多通道图像表征的场景语义信息来实现对所述第一增益值的预测的。21.一种实施例中,所述第一神经网络模型包括第一特征提取网络、第二特征提取网络、特征融合网络和光源预测网络;相应的,通过所述第一神经网络获得所述第一增益值的过程具体包括:通过所述第一特征提取网络对所述多通道图像进行特征提取(例如通过卷积处理实现对通道图像的像素的统计操作),获得第一特征;通过所述第二特征提取网络对所述场景语义信息进行特征提取(例如通过卷积处理实现对通道图像的场景信息的解析/感知),获得第二特征;通过所述特征融合网络融合(融合方式例如可以是concat函数处理、conv2d函数处理、元素乘处理、元素加处理等操作中的一种或多种组合)拍摄参数、所述第一特征和所述第二特征,获得融合后的特征;通过所述光源预测网络根据所述融合后的特征进行预测,获得所述第一增益值或者图像光源值,用于后续的白平衡处理过程。22.其中,场景语义信息表示由图像所表征的与拍摄场景相关的语义特征。具体实现中,可以定义多种形式的拍摄场景类型。例如,可将拍摄场景基于光源类型进行分类,例如分类为冷光源场景、暖光源场景、单光源场景、多光源场景,等等。又例如,可将拍摄场景基于图像内容进行分类,例如分类为人像拍摄场景、非人像拍摄场景、物体拍摄场景、景观拍摄场景,等等。场景语义信息可以很大程度的为图像提供先验的语义信息,帮助awb神经网络对不同场景做以区分,进而提升awb神经网络的整体精度。23.例如,在模型训练时,对于海量训练数据,神经网络很难在全场景下实现高精度的拟合。比如人脸在不同光源条件下,网络出值不稳,影响肤色感官,这时如果加入了人脸检测信息作为场景语义信息输入神经网络,神经网络在训练过程中会提升人脸区域的注意力,从而提升网络在人脸场景下的拟合精度。24.基于上述模型实现方式,在可能的实施例中,本技术方案可应用于独立的电子设备,神经网络模型可配置在该电子设备中。所述第一处理具体包括:对所述多通道图像进行场景语义信息的提取;根据所述第一摄像头的拍摄参数、所述多通道图像和所述场景语义信息,通过配置在所述电子设备的第一神经网络模型获得所述第一增益值;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。25.基于上述模型实现方式,本技术方案可应用于端-云系统中的电子设备,神经网络模型可配置在端-云系统中的云端服务器中,所述处理具体包括:将所述第一摄像头的拍摄参数、所述多通道图像和所述场景语义信息发送到服务器;接收来自所述服务器的所述第一增益值,所述第一增益值是通过配置在所述服务器的第一神经网络模型获得的;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。26.基于第一方面,在可能的实施例中,对所述多通道图像进行场景语义信息的提取,包括:对所述多通道图像执行物体检测、场景分类、图像场景分割、人像分割、或人脸检测中的至少一种操作,以获得所述场景语义信息。27.比如,通过场景分类算法实现人脸与非人脸的分类、单光源与多光源的分类、光源色温分类、或室内外场景分类,等等。28.又比如,可使用图像场景分割算法对图片进行分割,生成蒙版图;可选的也可以使用场景分类算法、物体检测算法、人脸检测算法、肤色分割算法等技术生成蒙版图。该蒙版图可以为本技术提供的awb神经网络模型提供单帧图像以外更多的与拍摄场景相关的信息,从而提升awb神经网络对不同拍摄场景的注意力,帮助神经网络拟合收敛,达到更高的预测精度。29.基于第一方面,在可能的实施例中,所述获取所述原始raw域图像对应的多通道图像,包括:对所述原始raw域图像进行预处理获得所述多通道图像,所述预处理包括去马赛克处理。用简化的去马赛克操作会使多通道图像的长宽尺寸是下采样的raw图像长宽的一半,可提升后续算法运算速度。30.基于第一方面,在可能的实施例中,所述预处理过程还可包括黑电平校正(blacklevelcorrection,blc)和镜头阴影校正(lensshadecorrection,lsc),通过blc处理可减少暗电流对图像信号的影响,通过lsc处理可消除渐晕现象给图像带来的影响。可选的,还可包括图像下采样处理和降噪处理。31.基于第一方面,在可能的实施例中,对白平衡处理后的图像还可以通过一些图像增强算法来实现后处理,以进一步提升图像的质量,得到最后用于显示的目标图像,输出到电子设备的显示屏进行显示。图像增强算法例如可包括伽马矫正、对比度增强、动态范围增强或图像锐化等操作。32.基于第一方面,在可能的实施例中,所述多通道图像为三通道图像或者四通道图像。33.基于第一方面,在可能的实施例中,一种对神经网络模型的训练过程可以是:训练数据包括对图像的光源颜色的标注、由raw图进行预处理获得的多通道图像、拍摄参数、可选的还包括场景语义信息。训练数据输入到模型后,模型输出光源颜色信息。基于输出的光源颜色信息与标注的光源颜色进行比较,确定损失函数,利用损失函数对模型进行反向传播出来,从而更新模型参数,实现了模型的训练。34.基于第一方面,在可能的实施例中,训练神经网络模型使用的图像,可以不是单帧图像,而是采用标注的视频序列。在awb神经网络模型中可引入lstm、rnn等网络结构,模型训练时也可采用时域相关的策略。也就是说,可以利用视频序列作为训练数据,awb神经网络模型增加当前图像的前后帧的图像作为模型输入。通过利用视频序列训练、增加连续前后帧的输入、引入lstm,rnn等结构以及增加时域相关的训练策略等,可以增加awb神经网络模型光源估计的稳定性,减小相同光源下白平衡跳动的概率。从而可以扩展在视频功能中使用,增加了白平衡的稳定性,提升用户使用体验。35.第二方面,本技术实施例提供一种图像自动白平衡的方法,方法应用于包括至少两个摄像头的电子设备,所述至少两个摄像头包括第一摄像头和第二摄像头,所述方法包括:根据用户的拍摄指令从所述至少两个摄像头中选择目标摄像头;所述拍摄指令包括拍摄倍率;当所述目标摄像头为所述第二摄像头时,获取所述第二摄像头拍摄第二原始raw域图像时采用的拍摄参数和所述第二原始raw域图像对应的第二多通道图像;对所述第二多通道图像进行颜色迁移,获得契合所述第一摄像头的迁移图像;至少将所述第二摄像头的拍摄参数和所述迁移图像输入第一神经网络模型,得到白平衡的第一增益值;所述第一神经网络模型与所述第一摄像头相关联,具体的,所述第一神经网络模型是根据所述第一摄像头采集的数据以及所述第一摄像头的拍摄参数训练得到的;将所述第一增益值处理成所述第二摄像头对应的第二增益值;对所述第二多通道图像进行第一处理,得到第二目标图像;其中,所述第一处理包括基于所述第二多通道图像和所述第二增益值的白平衡处理。36.其中,本技术实施例中,电子设备所配置的摄像头的数量并不做限定。在两个或多个摄像头的场景下,对各个摄像头的类型不做限定。例如所谓“类型不同”可以是拍摄倍率(或变焦倍率)或焦距不同的摄像头,例如可以是主摄像头、长焦摄像头、广角摄像头、中长焦摄像头、超长焦摄像头、或超广角摄像头等等。又例如所谓“类型不同”可以是各个摄像头对应的图像传感器不同,比如广角摄像头对应的图像传感器是rggb的模组,常规摄像头对应的图像传感器是ryyb的模组。37.又例如,当所述第一摄像头和所述第二摄像头为主摄像头、长焦摄像头和广角摄像头中的两者时,以下至少一项成立:所述长焦摄像头对应的图像传感器包括rggb的模组;所述主摄像头对应的图像传感器包括ryyb的模组;所述广角摄像头对应的图像传感器包括rggb的模组;所述长焦摄像头的拍摄倍率大于所述主摄像头的拍摄倍率;所述主摄像头的拍摄倍率大于所述广角摄像头的拍摄倍率。38.本技术实施例中,对所述第二多通道图像进行颜色迁移,获得契合所述第一摄像头的迁移图像,包括:基于所述第二摄像头与所述第一摄像头之间的差异,对所述第二多通道图像进行颜色迁移操作,以获得契合所述第一摄像头对应的图像传感器的感光特性的迁移图像。这样,迁移后的图像(可简称为迁移图像)配合第二摄像头的摄像参数作为第一awb神经网络的输入,计算得到符合第一摄像头的拍摄特点的光源颜色值,在这基础上,进一步对该光源颜色值进行迁移操作,从而将该光源颜色值迁移至第二摄像头对应的光源颜色值。39.现在的手机等电子设备都具备多摄像头,用户在进行拍摄行为时会进行放大缩小的操作或者选择摄像头的操作,而多个摄像头对应的图像传感器或摄像头的类型存在差异,相同场景下拍摄的raw图值域可能存在着较大差异(同类型的图像传感器件可能差异较小)。本技术描述的自动白平衡方法可以使得神经网络模型同时兼容两个或多个摄像头的情况,拓展了可应用的场景,提升了对多镜头的适配能力,大大提升用户使用体验。40.基于第二方面,在可能的实施例中,当所述目标摄像头为所述第一摄像头时,所述方法还包括:获取所述第一摄像头拍摄第一原始raw域图像时采用的拍摄参数和所述第一原始raw域图像对应的第一多通道图像;至少将所述第一摄像头的拍摄参数和所述第一多通道图像输入所述第一神经网络模型,得到白平衡的第三增益值;根据所述第一多通道图像和所述第三增益值进行白平衡处理,以获得第一目标图像。41.基于第二方面,在可能的实施例中,所述拍摄参数包括曝光值、快门时间、光圈大小、或iso感光度中的至少一个。42.基于第二方面,在可能的实施例中,所述多通道图像为三通道图像或者四通道图像。43.第三方面,本技术实施例提供一种图像自动白平衡的方法,所述方法应用于包括至少两个摄像头的电子设备,所述至少两个摄像头包括第一摄像头和第二摄像头,所述方法包括:44.根据用户的拍摄指令从所述至少两个摄像头中选择目标摄像头;所述拍摄指令包括拍摄倍率;获取所述目标摄像头拍摄原始raw域图像时采用的拍摄参数和所述原始raw域图像对应的多通道图像;确定所述目标摄像头对应的神经网络模型;其中,所述第一摄像头与第一神经网络模型关联,所述第二摄像头与第二神经网络模型关联,具体的,所述第一神经网络模型是根据所述第一摄像头采集的数据以及所述第一摄像头的拍摄参数训练得到的,所述第二神经网络模型是根据所述第二摄像头采集的数据以及所述第二摄像头的拍摄参数训练得到的;将输入数据输入所述神经网络模型得到白平衡的增益值;其中,所述输入数据至少包括所述目标摄像头的拍摄参数和所述多通道图像;对所述多通道图像进行第一处理,得到目标图像;其中,所述第一处理包括基于所述多通道图像和所述增益值的白平衡处理。45.其中,所述第一摄像头和所述第二摄像头各自的倍率不同,或者,所述第一摄像头和所述第二摄像头各自对应的图像传感器不同。或者所述第一摄像头和所述第二摄像头各自的摄像头类型不同,所述摄像头类型包括主摄像头、长焦摄像头、广角摄像头、中长焦摄像头、超长焦摄像头、超广角摄像头。46.可以看到,实施该方案,可以为不同摄像头分别配置不同的神经网络模型,例如第一摄像头对应第一神经网络模型,所述第二摄像头对应第二神经网络模型;第一神经网络模型可以是由第一摄像头(或同款设备,或类似于第一摄像头的设备)采集的数据训练得到的,第二神经网络模型可以是由第二摄像头(或同款设备,或类似于第二摄像头的设备)采集的数据训练得到的。这样,可以使得不同摄像头的数据能分别得到独立处理,提升神经网络模型的针对性和精确性。47.基于第三方面,在可能的实施例中,所述拍摄参数包括曝光值、快门时间、光圈大小、或iso感光度中的至少一个。48.基于第三方面,在可能的实施例中,所述多通道图像为三通道图像或者四通道图像。49.第四方面,本技术实施例提供一种实现图像自动白平衡的装置,包括:参数获取模块,用于获取所述第一摄像头拍摄原始raw域图像时采用的拍摄参数;图像获取模块,用于获取所述原始raw域图像对应的多通道图像;处理模块,用于将输入数据输入第一神经网络模型得到白平衡的第一增益值;所述输入数据至少包括所述第一摄像头的拍摄参数和所述多通道图像;还用于对所述多通道图像进行第一处理,得到目标图像;其中,所述第一处理包括基于所述多通道图像和所述第一增益值的白平衡处理。50.其中,该装置的不同功能模块可互相配合以实现本技术第一方面任意实施例描述的方法。51.第五方面,本技术实施例提供一种电子设备,所述电子设备包括摄像头、存储器和处理器,可选的还包括显示屏,所述显示屏用于显示图像;其中:所述摄像头用于拍摄图像;所述存储器用于存储程序;所述处理器用于执行所述存储器存储的程序,当所述处理器执行所述存储器存储的程序时,具体用于执行本技术第一方面任意实施例描述的方法。52.第六方面,本技术实施例提供一种电子设备,所述电子设备包括至少两个摄像头、存储器和处理器,所述至少两个摄像头包括第一摄像头和第二摄像头,可选的还包括显示屏,所述显示屏用于显示图像。其中:所述至少两个摄像头均用于拍摄图像;所述存储器用于存储程序;所述处理器用于执行所述存储器存储的程序,当所述处理器执行所述存储器存储的程序时,具体用于执行本技术第二方面的任意实施例描述的方法。53.第七方面,本技术实施例提供一种电子设备,所述电子设备包括至少两个摄像头、存储器和处理器,所述至少两个摄像头包括第一摄像头和第二摄像头,可选的还包括显示屏,所述显示屏用于显示图像。其中:所述至少两个摄像头均用于拍摄图像;所述存储器用于存储程序;所述处理器用于执行所述存储器存储的程序,当所述处理器执行所述存储器存储的程序时,具体用于执行本技术第三方面的任意实施例描述的方法。54.第八方面,本技术实施例提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如第一方面或第二方面或第三方面的任意实施例描述的方法。55.第九方面,本发明实施例提供了又一种非易失性计算机可读存储介质;所述计算机可读存储介质用于存储第一方面或第二方面或第三方面的任意实施例描述的方法的实现代码。所述程序代码被计算设备执行时能够实现第一方面或第二方面或第三方面的任意实施例描述的方法。56.第十方面,本发明实施例提供了一种计算机程序产品;该计算机程序产品包括程序指令,当该计算机程序产品被计算设备执行时,执行前述第一方面或第二方面或第三方面的任意实施例描述的方法。该计算机程序产品可以为一个软件安装包,可以下载该计算机程序产品并在控制器上执行该计算机程序产品,以实现第一方面或第二方面或第三方面的任意实施例描述的方法。附图说明57.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。58.图1是本技术实施例提供的一种电子设备的示例图;59.图2是本技术实施例提供的一种电子设备的结构示意图;60.图3是本技术实施例提供的一种端云交互场景的示例图;61.图4是本技术实施例提供的一种端云交互场景的设备结构示意图;62.图5是本技术实施例提供的一种芯片的设备结构示意图;63.图6是本技术实施例提供的一种系统架构示意图;64.图7是本技术实施例提供的又一种系统架构示意图;65.图8是本技术实施例提供的一种图像自动白平衡方法的流程示意图;66.图9是本技术实施例提供的一种raw图像与三通道图像的示例图;67.图10是本技术实施例提供的又一种图像自动白平衡方法的流程示意图;68.图11是本技术实施例提供的一种神经网络模型的结构与处理流程示意图;69.图12是本技术实施例提供的又一种图像自动白平衡方法的流程示意图;70.图13是本技术实施例提供的又一种神经网络模型的结构与处理流程示意图;71.图14是本技术实施例提供的又一种图像自动白平衡方法的流程示意图;72.图15是本技术实施例提供的一种图像预处理过程的示例图;73.图16是本技术实施例提供的一种图像后处理过程的示例图;74.图17是本技术实施例提供的又一种图像自动白平衡方法的流程示意图;75.图18是本技术实施例提供的一种用户操作场景的示意图;76.图19是本技术实施例的终端的一种可能的软件结构框图;77.图20是本技术实施例提供的一些模型训练过程的示例图;78.图21是本技术实施例提供的一种在多摄像头场景下的处理流程示例图;79.图22是本技术实施例提供的又一种在多摄像头场景下的处理流程示例图;80.图23是本技术实施例提供的一种在不同拍摄倍率下的目标图像示例图;81.图24是本技术实施例提供的一种装置结构示意图。具体实施方式82.下面结合本技术实施例中的附图对本技术实施例进行描述。在本技术实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。需要说明的是,当在本说明书和所附权利要求书中使用时,术语“包括”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列单元/器件的系统、产品或者装置没有限定于已列出的单元/器件,而是可选地还包括没有列出的单元/器件,或者还可选地包括这些产品或者装置固有的其他单元/器件。83.还需要说明的是,本说明书和权利要求书中的术语“第一”“第二”“第三”等用于区别不同的对象,而并非用于描述特定的顺序或者特定的含义。84.本技术的实施方式部分使用的术语仅用于对本技术的具体实施例进行解释,而非旨在限定本技术。85.在拍摄场景下,不同的光源具有不同的光谱成分和分布,在色度学上也可将光源颜色称为色温。示例性地,以3200k时黑体发出的颜色定义为白色,以5600k黑体发出的颜色定义为蓝色,等等。在成像中,环境中的物体(包括人、物、景等)通过反射入射光到图像传感器而呈现其颜色,所以环境中光源的颜色将会影响物体成像的颜色,直接或间接地改变了物体本身的颜色,形成色差。例如白色物体在低色温光线(例如白炽灯,蜡烛,日出日落等光源场景)照射下会偏红,在高色温光线(例如阴天、雪天、树荫等光源场景)照射下会偏蓝。86.自动白平衡(autowhitebalance,awb)就是对摄像头拍摄的图像的颜色进行自动修正,所谓“白平衡”就是对不同色温引起的色差进行校正,以使得白色物体能呈现出原本的白色,而其他颜色物体也尽量接近其原本的颜色,从而使图像整体呈现出的效果符合人眼的视觉习惯和认知习惯。87.例如,可以基于lambert反射模型实现白平衡处理。一种实施例中,白平衡处理的处理算法如下式①所示:88.r=i/lꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ①89.其中,r代表经过白平衡处理后的图像对应的像素值(rr,gr,br),r接近或者等于被拍摄物体在中性光下的呈现的颜色。90.i代表由电子设备拍摄获得的图像(ri,gi,bi),该图像可以是本技术实施例描述的多通道图像91.l可代表光源颜色信息(rl,gl,bl),例如具体可以是本技术实施例描述的图像光源值。需要说明的是,此处l是广义概念,在摄像头成像中,l还可包含了图像感光器件对物体颜色产生的偏置。92.该白平衡处理的任务是通过i以及可能的额外输入去估算l,进一步求得物体在中性光下的颜色r,以尽量消除光源影响的成像色差,使得白色在不同光源下都要呈现出白色,而其他颜色物体也尽量接近其原本的颜色。93.在又一种实施例中,白平衡处理的处理算法如下式②所示:94.r=i*gꢀꢀꢀ②95.其中,r代表经过白平衡处理后的图像对应的像素值(rr,gr,br),r接近或者等于被拍摄物体在中性光下的呈现的颜色。96.i代表由电子设备拍摄获得的图像(ri,gi,bi),该图像可以是本技术实施例描述的多通道图像97.g代表白平衡的增益值(1/rl,1/gl,1/bl),通过比较上述①和②可以看到,该增益值与光源颜色信息可以是如下倒数关系:98.g=1/lꢀꢀꢀ③99.该白平衡处理的任务是通过i以及可能的额外输入去估算g,进一步求得物体在中性光下的颜色r,以尽量消除光源影响的成像色差,使得白色在不同光源下都要呈现出白色,而其他颜色物体也尽量接近其原本的颜色。100.需要说明的是,为了描述方便,本文在白平衡处理中主要是以光源颜色信息为例进行方案的描述,而关于增益值方案的实现方式可类似实现,例如基于神经网络模型直接获得白平衡的增益值,或者基于神经网络模型获得图像颜色信息,根据图像颜色信息进一步获得白平衡的增益值。本文将不再展开描述。101.现有技术提出了一些方法来确定光源颜色,例如通过灰度世界(grayworld)算法、完美反射(perfectreflector)算法、或动态阈值算法来确定光源颜色,或者利用图像的颜色直方图来确定光源颜色,等等。102.现在我们对自动白平衡算法和方法提出了更高的要求,更高的要求体现在以下一者或多者:(1)awb需要在各类场景下表现出更高的光源估计的精度;(2)在多光源等歧义场景下无法通过估算一个光源值来满足图像中的所有光源区域,需要awb算法在歧义场景表现出稳定的倾向;(3)相同光照条件下拍摄的照片,白平衡要尽量的稳定,避免颜色跳变;(4)awb算法的计算性能开销须足够的小以满足实时性的要求。103.本技术实施例提供了一种基于深度学习的可用于图像/视频的自动白平衡方法,能够克服上述技术缺陷,提高在全场景下的awb的准确性,提高图像/视频的awb的稳定性,以及保证在多光源等歧义场景下稳定性的倾向,满足实时性的要求。104.下面介绍本技术描述方法可能的应用场景。105.参见图1,一种应用场景中,本技术描述方法可应用于独立的电子设备10。106.其中,上述电子设备10可以为移动的或固定的,例如,该电子设备10可以是具有图像处理功能的移动电话(手机)、平板个人电脑(tabletpersonalcomputer,tpc)、笔记本电脑、媒体播放器、智能电视、笔记本电脑(laptopcomputer,lc)、个人数字助理(personaldigitalassistant,pda)、个人计算机(personalcomputer,pc)、照相机、单反、摄像机、智能手表、监控设备、增强现实(augmentedreality,ar)设备、虚拟现实(virtualreality,vr)设备,可穿戴式设备(wearabledevice,wd)或者车载设备等,本技术实施例对此不作限定。107.请参考图2以更好理解电子设备10的内部结构示意图。如图2所示,该电子设备10包括:至少一个通用处理器13,存储器15(一个或多个计算机可读存储介质),以及图像采集装置11,图像信号处理器(imagesignalprocessor,isp)12和显示装置14,这些部件可在一个或多个通信总线上通信。其中:108.图像采集装置11中可包括有摄像头111、图像传感器(sensor)112等元件,用于采集拍摄场景的图像或视频,图像采集装置11所采集的图像可以是一张或多张的原始raw域图像,本文中原始raw域图像可简称为raw图像。其中所述多张的原始raw域图像可形成图像帧序列。109.其中,摄像头111在具体中可以是单目摄像头或双目摄像头,设置于电子设备10机身主体的壳体上面的前方位置(即前置摄像头)或后方位置(即后置摄像头),110.图像传感器112是一种感光元件,本技术不限定该感光元件的类型,例如可以是金属氧化物半导体元件(complementarymetal-oxidesemiconductor,cmos)或电荷耦合元件(chargecoupleddevice,ccd)。图像传感器112的作用是对摄像头111采集的光学图像进行捕获并转换成后端isp12可用的电信号。111.图像传感器112可提供实际拍摄所需的拍摄参数,拍摄参数例如包括曝光值、快门时间、光圈大小、或iso感光度中的至少一个。其中iso感光度即国际标准化组织(internationalstandardsorganization,iso)规定的感光度,又称为iso值,用于衡量传感器对于光的灵敏程度。112.isp12主要作用是对前端图像传感器112输出的信号进行处理,本技术实施例中isp12包含的算法主要包括自动白平衡(autowhitebalance,awb)算法,此外,还可包括但不限于以下的一种或多种处理算法:自动曝光控制(automaticexposurecontrol,aec)、自动增益控制(automaticgaincontrol,agc)、色彩校正、镜头矫正、噪声去除/降噪、坏点去除、线性纠正、颜色插值、图像下采样、电平补偿,等等。此外在一些实例,还可包括一些图像增强算法,例如伽马(gamma)矫正、对比度增强和锐化、在yuv色彩空间上彩噪去除与边缘加强、色彩加强、色彩空间转换(例如rgb转换为yuv)等等。113.需要说明是,在可能的实现中,也可以将上述isp12中描述的一些算法集成至其他的元件中进行处理,举例来说,可将图像增强算法集成到现场可编程逻辑门阵列(fieldprogrammablegatearray,fpga)或数字信号处理器(digitalsignalprocessor,dsp)中,配合isp12共同完成图像的处理过程。114.通用处理器13可以是能够处理电子指令的任何类型的装置,本技术中电子设备10可包括一个或者多个通用处理器13,例如包括中央处理器(centralprocessingunit,cpu)131和神经网络处理器(neural-networkprocessingunit,npu)132中的一个或两个。此外,还可以包括图形处理器(graphicsprocessingunit,gpu)、微处理器、微控制器、主处理器、控制器以及asic(applicationspecificintegratedcircuit,专用集成电路)等等中的一个或多个。通用处理器13执行各种类型的数字存储指令,例如存储在存储器813中的软件或者固件程序,它能使计算节点800提供较宽的多种服务。例如,处理器811能够执行程序或者处理数据,以执行本文讨论的方法的至少一部分。115.其中,cpu131的功能主要是解析计算机指令以及处理计算机软件中的数据,实现对电子设备10整体上的控制,对电子设备10的所有硬件资源(如存储资源、通信资源、i/0接口等)进行控制调配。116.npu132是基于神经网络算法与加速的新型处理器总称,npu专门为人工智能而设计,用于加速神经网络的运算,解决传统芯片在神经网络运算时效率低下的问题。117.需要说明的是,npu132的名称并不构成对本技术的限定,例如在其他应用场景中,npu132也可以变形、替换为其他类似功能的处理器,例如张量处理器(tensorprocessingunit,tpu),深度学习处理器(deeplearningprocessingunit,dpu),等等。118.本技术一种实施例中,当存在npu132时,npu132可承担与神经网络计算相关的任务。例如可利用npu132根据isp12提供的图像信息(如多通道图像)和图像采集装置提供的信息(如拍摄参数)进行awb神经网络的计算,得到光源颜色信息,进而将该光源颜色信息反馈到isp12,以便于isp12进一步完成awb过程。119.本技术又一种实施例中,当存在cpu131且不存在npu132时,可由cpu131承担与神经网络计算相关的任务。即cpu131根据isp12提供的图像信息(如多通道图像)和图像采集装置提供的信息(如拍摄参数)进行awb神经网络的计算,得到光源颜色信息,进而将该光源颜色信息反馈到isp12,以便于isp12进一步完成awb过程。120.显示装置14,用于显示用户需要进行拍摄时当前预览的拍摄场景、拍摄界面、或用于显示经过白平衡处理后的目标图像。显示装置14还可用于显示需要用户操作的信息或提供给用户的信息以及电子设备10的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。121.显示装置14具体可包括显示屏(显示面板),可选的,可以采用液晶显示器(liquidcrystaldisplay,lcd)、有机发光二极管(organiclight-emittingdiode,oled)等形式来配置显示面板。122.显示装置14还可以是触控面板(触摸屏、触控屏),触控面板可包括显示屏和触敏表面,当触敏表面检测到在其上或附近的触摸操作后,传送给cpu131以确定触摸事件的类型,随后cpu131根据触摸事件的类型在显示装置14上提供相应的视觉输出。123.存储器15可以包括易失性存储器(volatilememory),例如随机存取存储器(randomaccessmemory,ram)、高速缓存cache;存储器也可以包括非易失性存储器(non-volatilememory),例如只读存储器(read-onlymemory,rom)、快闪存储器(flashmemory)、硬盘(harddiskdrive,hdd)或固态硬盘(solid-statedrive,ssd);存储器604还可以包括上述种类的存储器的组合。存储器15可用于存储图像采集装置11所采集的raw图像、白平衡处理后的目标图像、前后帧图像信息、拍摄参数、场景语义信息等数据;存储器15还可用于存储程序指令,以供处理器调用并执行本技术描述的图像自动白平衡的方法。124.基于电子设备10的上述部件,可通过以下过程来实现图像的自动白平衡:电子设备10执行拍摄时,外界环境中的物体(人、物、景等)通过摄像头111采集的光学图像投射到图像传感器112表面上,转化成电信号,电信号经过模数转换(a/d转换)后变为数字图像信号,该数字图像信号为raw图像(例如bayer格式)。图像传感器112将raw图像送到isp12中进行加工处理。在isp12需要进行awb时,isp12将图像信息(例如多通道图像)发给通用处理器13,图像采集装置11将拍摄参数发给通用处理器13。通用处理器13(例如cpu131或npu132)可利用输入信息计算神经网络模型,获得图像对应的光源颜色信息。进而将光源颜色信息反馈回给isp12,isp12根据光源颜色信息完成awb,以及执行其他方面的图像处理,得到目标图像,目标图像例如是yuv或者rgb格式的图像。然后,isp12将目标图像通过i/o接口传输到cpu131,cpu131再将目标图像送到显示装置14进行显示。125.本领域技术人员应当理解的是,电子设备10还可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。图2中示出的设备结构并不构成对电子设备10的限定。126.参见图2,又一种应用场景中,本技术描述方法可应用于端-云交互的场景。如图2所示,端-云系统包括电子设备20和云端服务器30。电子设备20与云端服务器30之间可进行通信,通信方式不限于有线或无线的方式。127.其中,电子设备20可以为移动的或固定的,例如,该电子设备10可以是具有图像处理功能的移动电话(手机)、平板个人电脑、笔记本电脑、媒体播放器、智能电视、笔记本电脑、个人数字助理、个人计算机、照相机、单反、摄像机、智能手表、监控设备、增强现实设备、虚拟现实设备,可穿戴式设备或者车载设备等,本技术实施例不作限定。128.云端服务器30可以包括一个或多个服务器,或者包括一个或多个处理节点,或者包括运行于服务器的一个或多个虚拟机,云端服务器30还可以被称为服务器集群、管理平台、数据处理中心等等,本技术实施例不做限定。129.请参考图4以更好理解端-云系统下的设备内部结构。如图4所示,端-云系统包括电子设备20和云端服务器30。该电子设备20包括:至少一个通用处理器23、存储器25、图像采集装置21、图像信号处理器isp22、显示装置24和通信装置26,这些部件可在一个或多个通信总线上通信以实现电子设备20的功能。云端服务器30包括存储器33、神经网络处理器npu31和通信装置32,这些部件可在一个或多个通信总线上通信以实现云端服务器30的功能。电子设备20通过通信装置26与云端服务器30的通信装置32之间建立通信连接,通信方式不限于有线或者无线的方式。例如,通信装置26和通信装置32可用于相互发送和接收无线信号,无线通信方式包括但不限于:射频(radiofrequency,rf)方式、数据通信方式、蓝牙方式、wifi方式等等中的一个或多个。130.可以看到,该端-云系统与前文所述图2中的电子设备10相比,主要区别在于,电子设备10在本地实现对神经网络的计算功能,而端-云系统中将该功能放在云端服务器30上实现,即由云端服务器30的npu31执行神经网络计算。所以端-云系统中电子设备20可以不包括npu。本技术实施例充分利用了云端服务器的计算资源,有利于降低电子设备20的运行负担和配置需求,提升用户使用体验。131.基于端-云系统的上述部件,可通过以下过程来实现图像的自动白平衡:电子设备20执行拍摄时,外界环境中的物体(人、物、景等)通过图像采集装置21中的摄像头采集的光学图像投射到图像采集装置21中的图像传感器上,转化成电信号,电信号经过模数转换(a/d转换)后变为数字图像信号,该数字图像信号为raw图像(例如bayer格式)。图像采集装置21将raw图像送到isp22中进行加工处理。在isp22需要进行awb时,isp22将图像信息(例如多通道图像)发给通用处理器23,图像采集装置21将拍摄参数发给通用处理器23。通用处理器23(例如cpu231)可进一步通过通信装置26将上述信息发给云端服务器30。云端服务器30通过通信装置32收到上述信息后,通过npu31利用上述输入信息(多通道图像、拍摄参数等)计算神经网络模型,获得图像对应的光源颜色信息。进而将光源颜色信息通过通信装置32反馈回给电子设备20,该光源颜色信息被送到isp22,isp22根据光源颜色信息完成awb,以及执行其他方面的图像处理,得到目标图像,目标图像例如是yuv或者rgb格式的图像。然后,isp22将目标图像通过i/o接口又传输到cpu231,cpu231再将目标图像送到显示装置24进行显示。132.需要说明的是,端-云系统中电子设备20的相关部件的功能可类似参考图2中电子设备10的相关部件的描述,为了说明书的简洁,本文不再赘述。133.本领域技术人员应当理解的是,电子设备20和云端服务器30还可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。图2中示出的设备结构并不构成对对本技术的限定。134.图5是本技术实施例提供的一种芯片的硬件结构,该芯片包括神经网络处理器npu300。135.在一种实现中,该npu300可以被设置在如图2所示的电子设备10中,用于完成神经网络的计算工作,此时npu300即为图2所描述的npu132。136.在又一种实现中,该npu300可以被设置在如图4所示的云端服务器30中,用于完成神经网络的计算工作,此时npu300即为图4所描述的npu31。137.npu300可作为协处理器挂载到主中央处理器(centralprocessingunit,cpu)上,由主cpu分配任务。npu300的核心部分为运算电路303,通过控制器304控制运算电路303提取存储器中的矩阵数据并进行乘法运算。138.在一些实现中,运算电路303内部包括多个处理单元(processengine,pe)。在一些实现中,运算电路303是二维脉动阵列;运算电路303还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路303是通用的矩阵处理器。139.举例来说,假设有输入矩阵a,权重矩阵b,输出矩阵c;运算电路303从权重存储器302中取矩阵b相应的数据,并缓存在运算电路303中每一个pe上;运算电路303从输入存储器301中取矩阵a数据与矩阵b进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器308(accumulator)中。140.向量计算单元307可以对运算电路303的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元307可以用于神经网络中非卷积/非fc层的网络计算,如池化(pooling),批归一化(batchnormalization),局部响应归一化(localresponsenormalization)等。141.在一些实现种,向量计算单元能307将经处理的输出的向量存储到统一存储器306。例如,向量计算单元307可以将非线性函数应用到运算电路303的输出,例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元307生成归一化的值、合并值,或二者均有。142.在一些实现中,处理过的输出的向量能够用作到运算电路303的激活输入,例如用于在神经网络中的后续层中的使用。143.统一存储器306用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(directmemoryaccesscontroller,dmac)305将外部存储器中的输入数据存入到输入存储器401和/或统一存储器406、将外部存储器中的权重数据存入权重存储器302,以及将统一存储器306中的数据存入外部存储器。144.总线接口单元310(businterfaceunit,biu),用于通过总线实现主cpu、dmac和取指存储器309之间进行交互。145.与控制器304连接的取指存储器(instructionfetchbuffer)309用于存储控制器304使用的指令;控制器304用于调用取指存储器309中缓存的指令,实现控制该运算加速器的工作过程。146.一般地,统一存储器306,输入存储器301,权重存储器302以及取指存储器309均为片上(on-chip)存储器,外部存储器为该npu外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(doubledataratesynchronousdynamicrandomaccessmemory,ddrsdram)、高带宽存储器(highbandwidthmemory,hbm)或其他可读可写的存储器。147.具体的,本技术实施例描述的神经网络模型(即后文描述的awb神经网络模型)中各层的运算可以由运算电路303或向量计算单元307执行。148.由于本技术实施例涉及神经网络的应用,为了更好理解本技术实施例描述的神经网络的工作原理,下面描述本技术中上神经网路的实现过程。149.首先对本技术实施例涉及的神经网络的相关术语和概念进行介绍。150.(1)神经网络模型151.本文中神经网络和神经网络模型可以视为同一概念,两者基于表达上的便利而选择性地使用。本技术实施例描述的神经网络模型可以是由神经单元组成的,神经单元可以是指以xs和截距1为输入的运算单元,该运算单元的输出可以为:[0152][0153]其中,s=1、2、……n,n为大于1的自然数,ws为xs的权重,b为神经单元的偏置。f为神经单元的激活函数(activationfunctions),用于将非线性特性引入神经网络中,来将神经单元中的输入信号转换为输出信号。该激活函数的输出信号可以作为下一层的输入。激活函数可以是sigmoid函数。神经网络是将许多个上述单一的神经单元联结在一起形成的网络,即一个神经单元的输出可以是另一个神经单元的输入。每个神经单元的输入可以与前一层的局部接受域相连,来提取局部接受域的特征,局部接受域可以是由若干个神经单元组成的区域。[0154]本技术实施例中,神经网络模型可以是基于深度学习的方式构建的模型,例如可以是深度神经网络(deepneuralnetwork,dnn)模型、卷积神经网络(convolutionalneuronnetwork,cnn)或者循环神经网络(recurrentneuralnetwork,rnn)中的一种,或多种的融合,等等。[0155]示例性地,以卷积神经网络模型为例,卷积神经网络(convolutionalneuronnetwork,cnn)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元可以共享权重。卷积核可以以随机大小的矩阵的形式初始化,也可以采用全零初始化或者其他通用的初始化方法,这里不做限定。在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。[0156]本技术中,关于神经网络模型的一些具体实现方式可参考后文描述的awb神经网络模型。[0157](2)损失函数[0158]在训练神经网络模型的过程中,因为希望神经网络模型的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为神经网络模型中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断地调整,直到神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(lossfunction)或目标函数(objectivefunction),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。[0159](3)反向传播算法[0160]神经网络可以采用误差反向传播(backpropagation,bp)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。[0161]参见图6,图6示出了本技术实施例提供的一种用于神经网络模型训练的系统架构100。[0162]在图6中,数据采集设备160用于采集训练数据。针对本技术实施例的方法来说,可以通过训练数据对神经网络模型(即后文描述的awb神经网络模型)进行进一步训练。[0163]一种示例中,在本技术实施例中训练神经网络模型的训练数据可以包括原始raw域图像对应的多通道图像、原始raw域图像对应的拍摄参数、以及对原始raw域图像标注的光源颜色信息。[0164]又一种示例中,在本技术实施例中训练神经网络模型的训练数据可以包括原始raw域图像对应的多通道图像、由多通道图像提取的场景语义信息、原始raw域图像对应的拍摄参数、以及对原始raw域图像标注的光源颜色信息。[0165]需要说明的是,训练数据中的图像可以是单帧图像,也可以是视频帧序列的多帧图像。[0166]在采集到训练数据之后,数据采集设备160将这些训练数据存入数据库130,训练设备120基于数据库130中维护的训练数据训练得到目标模型101(例如本技术实施例中的awb神经网络模型)。训练设备120将训练数据输入目标模型101,直到训练目标模型101输出的预测的光源颜色信息与图像标注的光源颜色信息之间的差异程度满足预设条件。例如,可以是两者对应的颜色向量的角度误差小于预设阈值,或者保持不变,或者不再减少,从而完成目标模型101的训练。[0167]需要说明的是,在实际的应用中,所述数据库130中维护的训练数据不一定都来自于数据采集设备160的采集,也有可能是从其他设备接收得到的。[0168]另外需要说明的是,训练设备120也不一定完全基于数据库130维护的训练数据进行目标模型101的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本技术实施例的限定。[0169]根据训练设备120训练得到的目标模型101可以应用于不同的系统或设备中,如应用于图5所示的执行设备110。执行设备110可利用目标模型101执行神经网络计算,以实现对光源颜色信息的预测。[0170]在图1所示的独立电子设备的应用场景下,所述执行设备110可以是前文描述的电子设备10。所述执行设备110的输入数据可来源于数据存储系统150,数据存储系统150可以是置于执行设备110中的存储器,也可以是独立于执行设备110的外部存储器。所述输入数据在本技术实施例中例如可以包括:多通道图像和拍摄参数;或者,可以包括多通道图像、由图像提取的场景语义信息和拍摄参数。从而,所述执行设备110基于输入数据实现对光源颜色信息的预测。[0171]在图3所示的端-云应用场景下,所述执行设备110可以是前文描述的端-云系统中的云端服务器30。此时,执行设备110配置输入/输出(input/output,i/o)接口112,用于与外部设备进行数据交互,例如用户可以通过客户设备140向i/o接口212输入数据,客户设备140例如可以是端-云系统中的电子设备20。在一种情况下,客户设备140可以自动地向i/o接口112发送输入数据。如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。所述输入数据在本技术实施例中例如可以包括:多通道图像和拍摄参数;或者,可以包括多通道图像、由图像提取的场景语义信息和拍摄参数。从而,所述执行设备110基于输入数据实现对光源颜色信息的预测。后续可通过i/o接口112将预测的光源颜色信息返回给客户设备140。[0172]关联功能模块113可用于根据输入数据进行相关处理,例如在本技术一种实施例中,关联功能模块113可实现根据多通道图像提取出场景语义信息。[0173]值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型101,该相应的目标模型101即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。例如可用于训练如下文图11或图13实施例描述的awb神经网络模型。[0174]在一种实现中,执行设备110中可配置如图5所示的芯片,用以完成计算模块111的计算工作。[0175]又一种实现中,训练设备120也可以配置如图5所示的芯片,用以完成训练设备120的训练工作并输出训练好的目标模型101到执行设备110。[0176]值得注意的是,图6仅是本技术实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制。[0177]参见图7,图7所示是本技术实施例提供了又一种系统架构400。该系统架构包括本地设备420、本地设备430以及执行设备410和数据存储系统450,其中,本地设备420和本地设备430通过通信网络440与执行设备410连接。[0178]示例性地,执行设备410可以由一个或多个服务器实现。[0179]可选的,执行设备410可以与其它计算设备配合使用。例如:数据存储器、路由器、负载均衡器等设备。执行设备410可以布置在一个物理站点上,或者分布在多个物理站点上。执行设备410可以使用数据存储系统450中的数据,或者调用数据存储系统450中的程序代码来实现本技术实施例的图像处理方法。[0180]需要说明的是,上述执行设备410也可以为云端服务器,此时执行设备410可以部署在云端,执行设备410可以是前文图3实施例描述的云端服务器30,此时本地设备420/本地设备430可以是前文图3实施例描述的电子设备20。[0181]在一种可能的实现方式中,本技术实施例的自动白平衡方法可以是由本地设备420或者本地设备430独立执行。例如,本地设备420、本地设备430可以从执行设备410获取到上述神经网络模型的相关参数,将神经网络模型部署在本地设备420、本地设备430上,利用该神经网络模型实现awb过程。[0182]在又一种可能的实现方式中,本技术实施例的自动白平衡方法可以是由本地设备420或者本地设备430通过与执行设备410交互而协同完成的。例如,用户可以操作各自的用户设备(例如,本地设备420和本地设备430)与执行设备410进行交互。[0183]每个本地设备可以表示任何计算设备,例如,个人计算机、计算机工作站、智能手机、平板电脑、相机、智能摄像头、智能车载设备或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等。[0184]每个用户的本地设备可以通过任何通信机制/通信标准的通信网络与执行设备410进行交互,通信网络可以是广域网、局域网、点对点连接等方式,或它们的任意组合。[0185]应理解,上述为对应用场景的举例说明,并不对本技术的应用场景作任何限定。[0186]基于上文描述的应用场景、设备及系统,下面描述本技术实施例提供的一些自动白平衡方法。[0187]参见图8,图8是本技术实施例提供的一种图像自动白平衡的方法的流程示意图,所述方法可应用于电子设备,所述电子设备包括摄像头和显示屏,该方法包括但不限于以下步骤:[0188]s501、获取所摄像头拍摄原始raw域图像时采用的拍摄参数。[0189]本文中原始raw域图像可简称raw图像。raw图像可以是cmos或者ccd图像传感器将摄像头捕捉到的光源信号转化为数字信号的原始数据,该原始数据尚未经过图像信号处理器(isp)处理。该raw图像具体可以是采用拜耳(bayer)格式的bayer图像。[0190]拍摄参数表示执行拍摄时采用的参数,例如摄像头、图像传感器等等采用的拍摄参数。或者,拍摄参数还可以理解为执行拍摄时处理器对摄像头、图像传感器进行控制时产生的控制参数。[0191]拍摄参数优选的可包括曝光值,可选的还可包括曝光时间(快门时间)、iso感光度、光圈大小等中的一者或多者。[0192]电子设备的摄像头、图像传感器在相同环境下采用不一样的拍摄参数配置获取的图像,颜色特性会呈现出差异,因而拍摄参数为图像提供了拍摄时的物理条件。本技术可利用拍摄参数为光源颜色估计提供拍摄配置上的参考。[0193]s502、获取所述原始raw域图像对应的多通道图像。[0194]电子设备获取到raw图像后,可将raw图像处理为多通道图像,如图9所示。多通道(multichannel)图像是指每个像素点可以用多个图像通道的值(或颜色分量)来表示的图像。图像通道在rgb色彩模式下就是指在下就是指那单独的红色r、绿色g、蓝色b部分。[0195]例如,在一个示例中,所述多通道图像具体可以是彩色三通道图像,例如rgb三多通道图像。[0196]在又一个示例中,所述多通道图像具体可以是四通道图像,例如,可以是指rggb四通道图像;或者,bggr四通道图像;或者,ryyb四通道图像。[0197]s503、对所述多通道图像进行处理,获得用于在所述显示屏显示的目标图像。具体的,可将输入数据输入神经网络模型得到白平衡的增益值,所述输入数据至少包括摄像头的拍摄参数和多通道图像;对所述多通道图像进行第一处理,得到目标图像;其中,所述第一处理包括基于所述多通道图像和所述第一增益值的白平衡处理。[0198]其中,所述神经网络模型用于至少根据所述拍摄参数和所述多通道图像获得所述白平衡处理所需的增益值或者光源颜色信息。[0199]本技术实施例中描述的神经网络模型从类型上将可以是单个神经网络模型,也可以是两个或多个神经网络模型的组合。[0200]例如,神经网络模型可以是基于深度学习的方式构建的模型,例如可以是深度神经网络(deepneuralnetwork,dnn)模型、卷积神经网络(convolutionalneuronnetwork,cnn)、长短期记忆网络(longshort-termmemory,lstm)或者循环神经网络(recurrentneuralnetwork,rnn)中的一种,或多种的融合,等等。[0201]本技术实施例提供的神经网络模型能够根据拍摄参数和多通道图像获得白平衡处理中所需的光源颜色信息,例如图像光源值(r/g,1,b/g)。输出光源颜色信息后,电子设备可通过自身配置的isp利用该光源颜色信息对通道图像进行白平衡处理,从而实现对光源色温引起的图像色差的校正,以使得图像中物体的颜色接近其原本的颜色,图像整体呈现出的效果符合人眼的视觉习惯和认知习惯。[0202]可以看到,本技术实施例利用了raw图像对应的多通道图像作为awb神经网络模型的输入,为awb神经网络模型提供了更多的颜色信息。又增加了拍摄参数作为awb神经网络模型的输入,为光源估计提供了拍摄配置信息,能提高awb神经网络模型针对不同光源场景的辨别能力,保证了良好的光源估计精度。所以实施本技术有利于提高电子设备的白平衡准确性,提高单帧拍照以及视频场景的awb的稳定性,以及在多光源等歧义场景下的倾向稳定性。[0203]参见图10,图10是本技术实施例提供的一种具体的图像自动白平衡的方法的流程示意图,所述方法可应用于电子设备,该方法包括但不限于以下步骤:[0204]s601、拍摄至少一张原始raw域图像。在单帧拍摄时可以是拍照场景,在多帧拍摄时可以是视频录像场景或者延时拍摄场景。[0205]本文中原始raw域图像可简称raw图像。raw图像可以是cmos或者ccd图像传感器将摄像头捕捉到的光源信号转化为数字信号的原始数据,该原始数据尚未经过图像信号处理器(isp)处理。该raw图像具体可以是采用拜耳(bayer)格式的bayer图像。[0206]s602、获取拍摄raw图像采用的拍摄参数。[0207]具体的,所述拍摄参数表示执行拍摄时采用的拍摄参数,例如摄像头、图像传感器等等采用的参数。或者,拍摄参数还可以理解为执行拍摄时处理器对摄像头、图像传感器进行控制时产生的控制参数。[0208]拍摄参数优选的可包括曝光值,可选的还可包括曝光时间(快门时间)、iso感光度、光圈大小等中的一者或多者。[0209]电子设备的摄像头、图像传感器在相同环境下采用不一样的拍摄参数配置获取的图像,颜色特性会呈现出差异,因而拍摄参数为图像提供了拍摄时的物理条件。本技术可利用拍摄参数为光源颜色估计提供拍摄配置上的参考。[0210]s603、将raw图像处理为多通道图像。[0211]多通道图像是指每个像素点可以用多个图像通道的值(或颜色分量)来表示的图像。图像通道在rgb色彩模式下就是指在下就是指那单独的红色r、绿色g、蓝色b部分。[0212]例如,在一个示例中,所述多通道图像具体可以是彩色三通道图像,例如rgb三多通道图像。[0213]在又一个示例中,所述多通道图像具体可以是四通道图像,例如,可以是指rggb四通道图像;或者,bggr四通道图像;或者,ryyb四通道图像。[0214]s604、将多通道图像和拍摄参数输入到神经网络模型,获得光源颜色信息。[0215]也就是说,该神经网络模型能够根据所述拍摄参数和多通道图像获得白平衡处理中所需的光源颜色信息。[0216]其中,本技术实施例中描述的神经网络模型从类型上将可以是单个神经网络模型,也可以是两个或多个神经网络模型的组合。[0217]参见图11,所述神经网络模型可以为图11所示的awb神经网络模型。该awb神经网络模型具体包括第一特征提取网络、特征融合网络和光源预测网络。[0218]第一特征提取网络用于对raw图像对应的通道图像进行特征提取,获得第一特征;所述第一特征用于表征该通道图像的颜色信息。具体实现中,第一特征提取网络可包括一个或多个卷积核,通过卷积处理实现对通道图像的像素的统计操作,从而获得所述第一特征。[0219]特征融合网络用于对所述第一特征和所述拍摄参数进行融合,获得融合后的特征。融合方式不限于concat函数处理、conv2d函数处理、元素乘(elementwisemultiply)处理、元素加(elementwiseadd)处理等操作中的一种或多种组合。例如,可以对上述二路信息(第一特征和拍摄参数)进行加权处理,获得融合后的特征。[0220]需要说明的是,在特征融合网络实现融合过程中,可以将拍摄参数进行扩充变成多维数组的形式,以匹配第一特征的数组形式,从而使二路数据的数学形式一致,以便于数据融合处理。[0221]光源预测网络用于根据所述融合后的特征进行预测,获得光源颜色信息。光源颜色信息可用于指示光源的色温或者图像的色差,所以光源颜色信息可用于后续的awb处理过程。[0222]例如,融合后的特征经光源预测网络处理后,光源预测网络输出图像光源值(r/g,1,b/g),该图像光源值可用于后续的awb处理过程。[0223]由上可以看到,awb神经网络模型是通过融合通道图像的特征和拍摄参数来实现对光源颜色信息的预测的。[0224]在前述图1所示的独立的电子设备的应用场景下,awb神经网络模型可配置在该电子设备中,利用电子设备中的处理器(例如cpu或者npu)实现神经网络模型计算,从而获得该光源颜色信息。从而,在电子设备具备足够计算资源的情况下,充分利用电子设备的计算能力进行神经网络计算,提高处理效率,降低白平衡处理时延。具体硬件实现过程已在前文做了详细描述,这里不再赘述。[0225]在前述图3所示的端-云应用场景下,awb神经网络模型可配置在端-云系统中的云端服务器中。电子设备可以将多通道图像、由图像提取的场景语义信息和拍摄参数发给云端服务器,利用云端服务器中的处理器(例如cpu或者npu)实现神经网络模型计算,从而获得该光源颜色信息,云端服务器再将光源颜色信息反馈到电子设备。从而,在电子设备计算能力不够强的情况下,也能够利用云端服务器的计算能力进行神经网络模型计算,保证白平衡处理的准确性和稳定性,使得本技术方案能够适用于不同类型的设备,提升用户体验。具体实现过程已在前文做了详细描述,这里不再赘述。[0226]s605、根据所述光源颜色信息对多通道图像进行白平衡处理,获得目标图像并通过显示屏进行显示。[0227]具体的,awb神经网络模型输出光源颜色信息(例如图像光源值)后,电子设备可通过自身配置的isp利用该光源颜色信息对通道图像进行白平衡处理,从而实现对光源色温引起的图像色差的校正,以使得图像中物体的颜色接近其原本的颜色,图像整体呈现出的效果符合人眼的视觉习惯和认知习惯。[0228]可以看到,本技术实施例利用了raw图像对应的多通道图像而非统计特征作为awb神经网络模型的输入,为awb神经网络模型提供了更多的颜色信息。又增加了拍摄参数作为awb神经网络模型的输入,例如快门速度,曝光时间,曝光值,iso,光圈大小等参数等等中的一个或多个,为光源估计提供了拍摄配置信息,为拍摄获得的raw图提供了拍照条件的参考。以拍摄参数作为神经网络模型的输入可以帮助网络提升光源预测的准确性。能提高awb神经网络模型针对不同光源场景的辨别能力,保证了良好的光源估计精度。[0229]例如,本技术实施例中awb神经网络模型可适用于全场景,在模型训练时使用了大量的训练数据,训练数据中包含了在亮光场景下获得的数据和在暗光场景下获得的数据。在海量数据中,神经网络很难在全场景下实现高精度的拟合,而加入的摄像参数可以为拍摄场景提供先验信息,帮助神经网络区分亮光场景和暗光场景,从而提升这两类场景的光源估计精度。[0230]需要说明的是,以上仅仅提供了一种示例作为说明,摄像参数不仅仅可以用于区分亮光场景和暗光场景,还可以用于区别其他的场景,例如可以用来区分室外室内,白天夜晚等不同类别属性的场景。所以加入摄像参数作为神经网络的输入,可以有效提神模型在这些类别场景下的光源估计精度,从而提升总体的光源估计精度。[0231]另外,模型输入中,对于快门速度、曝光时间、曝光值、iso、光圈大小等摄像参数中选择哪些参数,可以根据电子设备的实际可获取信息作为选择的基础。以上的提到的摄像参数中的一者或多者皆可为图像提供拍摄条件的参考,均对提升网络精度有一定的帮助,实际运用需要根据硬件软件条件弹性做出选择。[0232]所以,实施本技术有利于提高电子设备的白平衡准确性,提高单帧拍照以及视频场景的awb的稳定性,以及在多光源等歧义场景下的倾向稳定性。[0233]参见图12,图12是本技术实施例提供的又一种图像自动白平衡的方法的流程示意图,所述方法可应用于电子设备,该方法与前述图10描述方法的主要区别在于,神经网络模型的计算过程还利用了场景语义信息,以进一步提高光源颜色信息预测的准确性。该方法包括但不限于以下步骤:[0234]s701、拍摄至少一帧原始raw域图像。[0235]s702、获取拍摄raw图像时采用的拍摄参数。[0236]s703、对raw图进行处理,获得多通道图像。[0237]上述s701-s703的实现过程可类似参考前文步骤s601-s603的描述,这里不再赘述。[0238]s704、提取多通道图像的场景语义信息。[0239]在不同的拍摄场景下,光源颜色可能有所不同,例如对于在室内人像拍摄场景,光源可能是白炽灯。对于室外景观拍摄场景,光源可能是太阳或路灯。本技术实施例为了进一步提高光源颜色信息预测的准确性,可利用场景语义信息为光源颜色估计提供拍摄场景上的参考。[0240]本技术实施例中,场景语义信息表示由图像所表征的与拍摄场景相关的语义特征。具体实现中,可以定义多种形式的拍摄场景类型。[0241]例如,可将拍摄场景基于光源类型进行分类,例如分类为冷光源场景、暖光源场景、单光源场景、多光源场景,等等。[0242]又例如,可将拍摄场景基于图像内容进行分类,例如分类为人像拍摄场景、非人像拍摄场景、物体拍摄场景、景观拍摄场景,等等。[0243]此外,拍摄场景还可以是上述多种场景的综合。另外,还可以基于实际应用需要定义其他形式的拍摄场景,本技术实施例对此不做限定。[0244]具体的,可以通过一种或多种预设提取算法对多通道图像进行场景语义信息的提取。[0245]例如,所述预设提取算法可以是场景分类算法、图像场景分割算法、物体检测算法、人像分割算法、人脸检测算法、人体检测算法、肤色分割算法、或物体检测算法等等中的一种或多种组合。[0246]比如,通过场景分类算法实现人脸与非人脸的分类、单光源与多光源的分类、光源色温分类、或室内外场景分类,等等。[0247]又比如,可使用图像场景分割算法对图片进行分割,生成蒙版图;可选的也可以使用场景分类算法、物体检测算法、人脸检测算法、肤色分割算法等技术生成蒙版图。该蒙版图可以为本技术提供的awb神经网络模型提供单帧图像以外更多的与拍摄场景相关的信息,从而提升awb神经网络对不同拍摄场景的注意力,帮助神经网络拟合收敛,达到更高的预测精度。[0248]又比如,对图像的场景信息的提取可以不采用场景分割技术,而是采用物体检测算法提取场景语义信息,将生成的物体类别框生成场景类别蒙版图送入awb神经网络。这样,可以利用物体检测技术代替场景分割进行场景语义信息的提取,简化了场景信息提取的复杂度,提升了运算速度,降低了运算复杂度,减小了性能开销。[0249]需要说明的是,以上实施例中,场景语义信息作为辅助输入不一定是蒙版图的形式,还可以是其他形式,例如,采用场景分类算法对图像进行处理后,输出的可以是一串分类置信度(向量),以向量的形式作为神经网络模型的输入。[0250]s705、将多通道图像、场景语义信息和拍摄参数输入到神经网络模型,获得光源颜色信息。[0251]也就是说,该神经网络模型能够根据所述拍摄参数、场景语义信息和多通道图像获得白平衡处理中所需的光源颜色信息。[0252]其中,本技术实施例中描述的神经网络模型从类型上将可以是单个神经网络模型,也可以是两个或多个神经网络模型的组合。[0253]参见图13,所述神经网络模型可以为图13所示的awb神经网络模型。该awb神经网络模型具体包括第一特征提取网络、第二特征提取网络、特征融合网络和光源预测网络。[0254]第一特征提取网络用于对raw图像对应的通道图像进行特征提取,获得第一特征;所述第一特征用于表征该通道图像的颜色信息。[0255]在可选的实施例中,第一特征提取网络可包括一个或多个小卷积核,通过卷积处理实现对通道图像的像素的统计操作,从而获得所述第一特征。[0256]第二特征提取网络用于对场景语义信息进行特征提取,获得第二特征,所述第二特征用于表征该通道图像对应的场景信息。[0257]在可选的实施例中,第二特征提取网络可包括一个或多个大卷积核,通过卷积处理实现对通道图像的场景信息的解析/感知,从而获得所述第二特征。[0258]需要注意的是,所谓的“大卷积核”和“小卷积核”在概念上是彼此相对而言的,也就是说,在可选的方案中,可以设置第二特征提取网络中的卷积核的规模大于第一特征提取网络中的卷积核,以实现对图像更大范围的感知能力,以便于获得更加准确的场景信息。[0259]特征融合网络用于对所述第一特征、所述第二特征和所述拍摄参数进行融合,获得融合后的特征。融合方式不限于concat函数处理、conv2d函数处理、元素乘(elementwisemultiply)处理、元素加(elementwiseadd)处理等操作中的一种或多种组合。例如,可以对上述三路信息(第一特征、第二特征和拍摄参数)进行加权处理,获得融合后的特征。[0260]需要说明的是,在特征融合网络实现融合过程中,可以将拍摄参数进行扩充变成多维数组的形式,以匹配第一特征、第二特征的数组形式,从而使三路数据的数学形式一致,以便于数据融合处理。[0261]光源预测网络用于根据所述融合后的特征进行预测,获得光源颜色信息。光源颜色信息可用于指示光源的色温或者图像的色差,所以光源颜色信息可用于后续的awb处理过程。[0262]例如,融合后的特征经光源预测网络处理后,光源预测网络输出图像光源值(r/g,1,b/g),该图像光源值可用于后续的awb处理过程。[0263]由上可以看到,awb神经网络模型是通过融合通道图像的特征、场景语义信息的特征和拍摄参数来实现对光源颜色信息的预测的。[0264]在前述图1所示的独立的电子设备的应用场景下,awb神经网络模型可配置在该电子设备中,利用电子设备中的处理器(例如cpu或者npu)实现神经网络模型计算,从而获得该光源颜色信息。具体硬件实现过程已在前文做了详细描述,这里不再赘述。[0265]在前述图3所示的端-云应用场景下,awb神经网络模型可配置在端-云系统中的云端服务器中。电子设备可以将多通道图像、由图像提取的场景语义信息和拍摄参数发给云端服务器,利用云端服务器中的处理器(例如cpu或者npu)实现神经网络模型计算,从而获得该光源颜色信息,云端服务器再将光源颜色信息反馈到电子设备。具体实现过程已在前文做了详细描述,这里不再赘述。[0266]s706、根据光源颜色信息对多通道图像进行白平衡处理,获得目标图像并通过显示屏进行显示。具体可类似参考前述步骤s605的描述,这里不再赘述。[0267]可以看到,本技术实施例利用了raw图像对应的多通道图像而非统计特征作为awb神经网络模型的输入,为awb神经网络模型提供了更多的颜色信息。又增加了场景语义信息和拍摄参数作为awb神经网络模型的输入,为光源估计提供了更多有效的先验知识(拍摄配置信息和场景信息),大大增强了awb神经网络模型针对不同光源场景的辨别能力,提升了整体的光源估计精度,能有效帮助神经网络收敛拟合。[0268]其中,场景语义信息可以很大程度的为图像提供先验的语义信息,帮助awb神经网络对不同场景做以区分,进而提升awb神经网络的整体精度。[0269]例如,在模型训练时,对于海量训练数据,神经网络很难在全场景下实现高精度的拟合。比如人脸在不同光源条件下,网络出值不稳,影响肤色感官,这时如果加入了人脸检测信息作为场景语义信息输入神经网络,神经网络在训练过程中会提升人脸区域的注意力,从而提升网络在人脸场景下的拟合精度。[0270]又例如,如果神经网络在蓝天、草地等场景下表现不好,可以引入图像分割技术,将分割得到的天空区域草地区域作为场景信息输入神经网络,神经网络就会增加在天空场景以及草地场景的注意力,从而提升该场景下的光源估计精度。[0271]需要说明的是,本技术实施例中提供了很多种形式的场景语义信息,而在实际应用中,具体采取哪些类型的场景语义信息可根据awb在不同场景下的需求决定,本技术不做特别限定,包括场景语义信息的具体内容以及获得方式均不做限定,比如可以使用图像分割、实例分割、人脸检测、人体检测、骨架检测、场景分类等等提取技术中的一种或多做来获得场景语义信息作为awb神经网络的输入。[0272]所以,实施本技术能够提高电子设备在全场景下拍摄的白平衡准确性,提高单帧拍照以及视频场景的awb的稳定性,以及在多光源等歧义场景下的倾向稳定性。[0273]为了更好理解本技术上述实施例提供的方法,下面描述一种更加详细的实施例,参见图14,该方法可应用于电子设备,包括但不限于以下步骤:[0274]s801、拍摄至少一张raw图像。[0275]s802、获取拍摄raw图像采用的拍摄参数。[0276]当用户在终端的交互界面上进行拍照,在进行拍照动作时,手机采集一帧bayer格式的raw图,同时获取到拍摄该图片时对应的拍摄参数。[0277]拍摄参数的选用可以选择曝光值,快门时间,光圈大小,iso感光度等参数。因为手机的传感器在相同环境不一样的参数配置下获取的图片,颜色特性会呈现出差异,因而拍摄参数为图像提供了拍摄时的条件,为光源估计算法提供了参考。[0278]s803、对raw图进行预处理,获得彩色三通道图像,例如rgb三多通道图像,对于rgb三多通道图像,每个像素都有红绿蓝三个分量。[0279]参见图15,对raw图进行预处理过程例如可由电子设备的isp执行,预处理过程包括了生成彩色三通道图像所经历的所有图像处理环节。[0280]具体的,图15示出了一种预处理过程的示例,该过程可包括黑电平校正(blacklevelcorrection,blc)和镜头阴影校正(lensshadecorrection,lsc),通过blc处理可减少暗电流对图像信号的影响,通过lsc处理可消除渐晕现象给图像带来的影响。可选的,还包括图像下采样处理和降噪处理。一种具体的实现过程描述如下:[0281]可以先将raw图下采样至适合网络输入的尺寸大小,以提升后续的运算速度。再对下采样后的图进行简单的降噪处理(降噪处理过程尽量避免影响图像颜色)。之后再进行blc处理和lsc处理,以消除图像传感器的电平偏置和摄像头的凸透镜成像带来的亮度以及颜色不均匀的影响。经过上述处理之后的raw图是bayer格式,需要经过去马赛克的操作得到彩色三通道图像。为了不影响颜色,去马赛克的操作可以简化成平均绿色通道,并对红蓝绿进行重新的排布,从而获得彩色三通道图像。[0282]用简化的去马赛克操作会使彩色三通道图像的长宽尺寸是下采样的raw图像长宽的一半(参考前图9所示),可提升后续算法运算速度。[0283]需要说明的是,预处理的过程还可以包括其他的处理算法,本技术其他实施例对此不作限制。[0284]s804、提取多通道图像的场景语义信息。[0285]s805、将多通道图像、场景语义信息和拍摄参数输入到神经网络模型,获得光源颜色信息。[0286]上述s804-s805的具体实现可类似参考s704-705的描述,这里不再赘述。[0287]s806、利用光源颜色信息对图像进行白平衡处理。[0288]具体的,awb神经网络模型输出光源颜色信息(例如图像光源值)后,电子设备可通过自身配置的isp利用该光源颜色信息对通道图像进行白平衡处理,从而实现对光源色温引起的图像色差的校正,以使得图像中物体的颜色接近其原本的颜色,图像整体呈现出的效果符合人眼的视觉习惯和认知习惯。[0289]s807、对白平衡处理后的图像进一步进行图像增强处理,得到最后用于显示的目标图像。[0290]参见图15,对raw图进行图像增强处理的过程例如可由电子设备的isp执行,也可以由电子设备的其他器件执行,例如由现场可编程逻辑门阵列(fieldprogrammablegatearray,fpga)或数字信号处理器(digitalsignalprocessor,dsp)执行。[0291]本技术实施例中,对白平衡处理后的图像还可以通过一些图像增强算法来实现后处理,以进一步提升图像的质量,得到最后用于显示的目标图像,输出到电子设备的显示屏进行显示。[0292]其中,图像增强算法例如可包括伽马矫正、对比度增强、动态范围增强或图像锐化等操作。[0293]需要说明的是,后处理过程还可以根据实际应用需要采用其他的处理算法,本技术其他实施例对此不作限制。[0294]为了更好理解本技术方案,下面以图2所示的电子设备10的结构为例对方案做一种示例性的描述:[0295]在用户使用电子设备10执行拍摄时,cpu131控制摄像头111采集拍摄环境的光信号,图像传感器112将摄像头111捕捉到的光信号转化为数字信号,从而获得一张或多张raw图像,raw图像进一步被送到isp12。isp12执行预处理将所述raw图像处理为彩色三通道图像,并提取所述彩色三通道图像的场景语义信息。所述彩色三通道图像和所述场景语义信息被进一步输入到npu132,以及,cpu131对摄像头111、图像传感器112的控制参数(快门,曝光时间,光圈大小等)也被送入到npu132。npu132根据输入数据,执行awb神经网络模型的计算,获得光源颜色值(r/g,1,b/g);并将光源颜色值返回给isp12。isp12根据光源颜色值执行白平衡处理,并对白平衡处理后的图像采用图像增强算法进一步优化,获得目标图像。目标图像通过cpu131进一步被送到显示装置14进行显示。[0296]可以看到,本技术实施例相比图12所示的实施例而言,在实现较佳的awb的基础上,还提供了图像预处理过程的细化实现方式和图像后处理阶段的细化实现方式。通过预处理过程的引入,不仅便于快速、高效地生成多通道图像,以便于实现本技术的awb方法的实现,还有利于提升图像质量(例如减少暗电流影响、降噪、消除渐晕现象等等)和神经网络算法运算速度。通过后处理过程的引入,能够进一步提升图像的质量,满足用户的应用需求,提升用户的观感体验。[0297]为了更全面理解本技术方案,下面从电子设备(例如手机)的应用程序角度更加显性地对awb方案进行描述。结合参见图17和图18,该方案包括但不限于以下步骤:[0298]s901、检测到用户指示所述摄像头执行拍摄的操作。[0299]其中,所述指示执行拍摄的操作例如可以是触摸、点击、声控、键控、遥控等等用于触发电子设备拍摄的方式。例如用户用于指示拍摄行为的操作可以包括按下电子设备的相机中的拍摄按钮,也可以包括用户设备通过语音指示电子设备进行拍摄行为,或者,也可以是指用户通过快捷键指示电子设备进行拍摄行为,还可以包括用户其它的指示电子设备进行拍摄行为。本技术不做具体限定。[0300]在一种可能的实现方式中,在步骤s901之前还包括:检测到用户用于打开相机的操作;响应于该操作,在电子设备的显示屏上显示拍摄界面。[0301]例如,电子设备可以检测到用户点击桌面上的相机应用(application,app)的图标的操作后,可以启动相机应用,显示拍摄界面。[0302]如图18中的(a)示出了手机的一种拍摄界面91的图形用户界面(graphicaluserinterface,gui),该拍摄界面91包括拍摄控件93,以及其它拍摄选项。在电子设备检测到用户点击拍摄控件93后,手机执行拍摄流程。[0303]示例性地,该拍摄界面91上还可以包括取景框92;电子设备在启动相机后,在预览状态下,该取景框92内可以实时显示预览图像。可以理解的是,在拍照模式和录像模式下,取景框的大小可以不同。例如,取景框可以为拍照模式下的取景框。在录像模式下,取景框可以为整个显示屏。在预览状态下即可以是用户打开相机且未按下拍照/录像按钮之前,该取景框内可以实时显示预览图像。[0304]s902、响应于所述操作,在显示屏上显示目标图像。[0305]其中,所述目标图像是利用神经网络模型实现白平衡处理后获得的,所述神经网络模型用于根据输入数据获得所述白平衡处理所需的光源颜色信息。[0306]示例性地,如图18所示,响应于用户的指示操作,手机在后台执行拍摄流程,包括:通过摄像头进行拍摄,获得raw图像;通过isp执行预处理将所述raw图像处理为彩色三通道图像;利用执行awb神经网络模型根据输入数据进行计算,获得光源颜色信息,并基于光源颜色信息实现白平衡处理,后续还可以采用图像增强算法进一步优化,获得目标图像。目标图像通过显示屏进行显示。例如图18中的(b)示出了一种基于相册的显示界面94的gui,该显示界面94中可显示目标图像95。[0307]在一种实施例中,模型的输入数据包括拍摄参数和多通道图像。模型的结构和执行计算的过程可类似参考前述图11实施例的描述,这里不再赘述。[0308]在又一种方式中,模型的输入数据包括拍摄参数、多通道图像和由多通道图像提取的场景语义信息。模型的结构和执行计算的过程可类似参考前述图13实施例的描述,这里不再赘述。[0309]应理解,上述方法的具体实现过程可类似参考前文图8-图16实施例的描述,即前文图8-图16中的相关内容的扩展、限定、解释和说明也适用于图17、图18中相同的内容,此处不再赘述。[0310]下面进一步描述可用于实现图17、图18所示方法的电子设备的软件系统架构。软件系统可以采用分层架构、事件驱动架构、微核架构、微服务架构、或云架构。下面以分层架构的安卓(android)系统为例进行说明。参见图19,图19是本技术实施例中电子设备的一种可能的软件结构框图。[0311]如图所示,分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(androidruntime)和系统库,以及内核层。[0312]应用程序层可以包括一系列应用程序包。如图所示,应用程序包可以包括相机app,图像美化app,相册app等应用程序。[0313]应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramminginterface,api)和编程框架。应用程序框架层包括一些预先定义的函数。如图3所示,应用程序框架层可以包括窗口管理器,内容提供器,资源管理器,视图系统,等。其中:[0314]窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕等。[0315]内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括图像数据,视频数据等。[0316]资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。[0317]视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序的显示界面。[0318]举例来说,通过视图系统呈现的一种拍照app的拍摄界面如图18中的(a)所示,拍摄界面91包括拍摄控件93、预览框92,以及其他一些相关控件,如图像浏览控件,前后摄像头切换控件等。预览框92用于预览所要拍摄的场景图像。[0319]当用户点击或触摸前后摄像头切换控件,可指示电子设备选择前置摄像头或后置摄像头进行拍摄。[0320]当用户点击或触摸拍摄控件93,电子设备将驱动摄像装置发起拍摄操作,指示下层的系统库对图像进行加工处理,保存到相册中。[0321]当用户点击或触摸图像浏览控件,电子设备可调用相册app并显示经过本技术提出的自动白平衡方法处理后的图像。[0322]举例来说,通过视图系统呈现的一种相册app的显示界面如图18中的(b)所示。显示界面94中可显示目标图像95。[0323]安卓运行时(androidruntime)安卓系统的调度和管理,可包括核心库和虚拟机。核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。[0324]应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。[0325]系统库可以包括多个功能模块。例如:表面管理器(surfacemanager),媒体库(medialibraries),图形引擎等。[0326]表面管理器用于对显示子系统进行管理,并且为多个应用程序提供图层融合功能。[0327]媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:mpeg4,h.264,mp3,aac,amr,jpg,png等。[0328]内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动等。其中,摄像头驱动可用于驱动电子设备的摄像头进行拍摄,显示驱动可用于将经处理后的图像显示在显示屏的显示面板上。[0329]图形引擎是用于进行图像加工处理的绘图引擎。本技术实施例中,图形引擎例如可用于实现将所述raw图像处理为彩色三通道图像;提取所述彩色三通道图像的场景语义信息;将所述彩色三通道图像、拍摄参数和所述场景语义信息输入到神经网络,获得光源颜色信息;根据所述光源颜色信息对所述彩色三通道图像进行白平衡处理,获得用于显示的图像。[0330]需要说明的是,awb神经网络模型所涉及的训练过程可以有多种实现形式,例如,由图20示出了两种示例性的训练过程。[0331]一种对awb神经网络模型的训练过程可以是:训练数据包括对图像的光源颜色的标注、由raw图进行预处理获得的多通道图像、拍摄参数、可选的还包括场景语义信息。训练数据输入到模型后,模型输出光源颜色信息。基于输出的光源颜色信息与标注的光源颜色进行比较,确定损失函数,利用损失函数对模型进行反向传播出来,从而更新模型参数,实现了模型的训练。当通过大量的模型训练使得模型符合应用指标时,即可输出目标模型。[0332]又一种对awb神经网络模型的训练过程可以是:训练数据包括对图像的光源颜色的标注、由raw图进行预处理和图像增强算法处理获得的目标图像、拍摄参数、可选的还包括场景语义信息。训练数据输入模型后,模型输出光源颜色信息。基于输出的光源颜色信息与标注的光源颜色进行比较,确定损失函数,利用损失函数对模型进行反向传播出来,从而更新模型参数,实现了模型的训练。当通过大量的模型训练使得模型符合应用指标时,即可输出目标模型。[0333]另外需要说明的是,在一种可能的实现中,训练awb神经网络模型使用的图像,可以不是单帧图像,而是采用标注的视频序列。在awb神经网络模型中可引入lstm、rnn等网络结构,模型训练时也可采用时域相关的策略。也就是说,可以利用视频序列作为训练数据,awb神经网络模型增加当前图像的前后帧的图像作为模型输入。通过利用视频序列训练、增加连续前后帧的输入、引入lstm,rnn等结构以及增加时域相关的训练策略等,可以增加awb神经网络模型光源估计的稳定性,减小相同光源下白平衡跳动的概率。从而可以扩展在视频功能中使用,增加了白平衡的稳定性,提升用户使用体验。[0334]另外,本技术实施例中,电子设备所配置的摄像头的数量并不做限定。在两个或多个摄像头的场景下,对各个摄像头的类型不做限定。例如所谓“类型不同”可以是摄像头的倍率(拍摄倍率或变焦倍率)或焦距不同的摄像头,例如可以是常规摄像头、主摄像头、长焦摄像头、广角摄像头、中长焦摄像头、超长焦摄像头、或超广角摄像头等等。又例如所谓“类型不同”可以是各个摄像头对应的图像传感器不同,比如广角摄像头对应的图像传感器可以是rggb的模组,主摄像头对应的图像传感器可以是ryyb的模组,长焦摄像头对应的图像传感器可以是rggb的模组。[0335]现在的手机等电子设备都具备多摄像头,用户在进行拍摄行为时会进行放大缩小的操作或者选择摄像头的操作,而多个摄像头对应的图像传感器或摄像头的类型存在差异,相同场景下拍摄的raw图值域可能存在着较大差异(同类型的图像传感器件可能差异较小)。在两个或多个摄像头的情况下,本技术描述的自动白平衡方法(或者图像光源信息的获得方式)可以有多种方式的调整和适配。[0336]例如,一种拍摄场景如图23所示,用户在进行拍照行为时会进行取景的操作。用户可以对取景设备(手机屏幕)进行放大或缩小的操作,以实现场景拉近拉远的效果。几种目标图像的示例效果分别如图23中的(1)(2)(3)所示。其中,对于(1),当用户需要拍摄远景细节时,要进行图片放大动作,当时放大到10倍(10x)及以上时,主摄像头的焦段不足以提供很清晰的效果,这时会切换至长焦镜头进行取景拍摄。长焦镜头可能采用rggb模组,感光性和光谱的响应曲线都会与主摄存在差异。对于(2),在一般的拍摄中,取景要是在1x到10x的区间,主摄像头的焦段足以提供清晰的效果,这时会根据焦段对主摄采集的raw图进行裁切以实现放大的效果。主摄可能采用ryyb模组,其感光性更佳,光谱的响应曲线都会与rggb模组存在差异。对于(3),取景若小于1x,目前主摄的焦段不足以提供更大的视野(filedofview,fov),如果有广角镜头,相机设备将切换至广角摄像头以提供更大的视角。广角摄像头可能采用rggb模组,广角摄像头也可能采用不同于主摄或长焦的感光模组,感光性和光谱响应会与以上两种摄像头存在差异。[0337]参见图21,图21示出了一种可能的拍摄流程,该场景以电子设备配置第一摄像头和第二摄像头为例,第一摄像头和第二摄像头可以是类型不同的摄像头。这两个摄像头共用神经网络模型,在该场景中,电子设备配置了第一awb神经网络模型,第一awb神经网络模型可以是由第一摄像头(或同款设备,或类似于第一摄像头的设备)采集的数据训练得到的。[0338]如图21所示,在实际拍摄时,若用户选择了第一摄像头进行拍摄,则获得的第一摄像头的raw图像经预处理得到多通道图像,该多通道图像可配合第一摄像头的摄像参数作为第一awb神经网络的输入,计算得到第一摄像头对应的光源颜色值(或者增益值)。[0339]若用户选择了第二摄像头进行拍摄,则获得的第二摄像头的raw图像经预处理得到多通道图像,此外,电子设备还根据该多通道图像进行图像迁移操作,即将该多通道图像的图像颜色迁移至符合第一摄像头的拍摄特点的图像颜色,具体的,可基于所述第二摄像头与所述第一摄像头之间的差异,对第二摄像头对应的多通道图像进行颜色迁移操作,以获得契合第一摄像头对应的图像传感器的感光特性的迁移图像。然后,迁移图像配合第二摄像头的摄像参数作为第一awb神经网络的输入,计算得到符合第一摄像头的拍摄特点的光源颜色值(或者增益值),在这基础上,进一步对该光源颜色值(或者增益值)进行迁移操作,从而将该光源颜色值(或者增益值)迁移至第二摄像头对应的光源颜色值(或者增益值)。[0340]需要说明的是,在针对第一awb神经网络进行模型训练时,可以使用第一摄像头(或同款的设备,或类似于第一摄像头的设备)采集的图像数据、第一摄像头的摄像参数等作为训练数据应用于模型训练。也可以使用第二摄像头或其他摄像头采集的图像数据及摄像参数等,但是需要将采集的图像数据迁移至第一摄像头才可参与训练。[0341]还需要说明的是,当第一awb神经网络模型由第二摄像头采集的数据训练得到时,相当于上述图21实施例中第一摄像头和第二摄像头的角色做了调换,其实现方式将类似上述实现过程,这里不再赘述。[0342]参见图22,图22示出了又一种可能的拍摄流程,该场景同样以电子设备配置第一摄像头和第二摄像头为例,第一摄像头和第二摄像头可以是类型不同的摄像头。这两个摄像头分别对应不同的神经网络模型,例如第一摄像头对应第一awb神经网络模型,所述第二摄像头对应第二awb神经网络模型;第一awb神经网络模型可以是由第一摄像头(或同款设备,或类似于第一摄像头的设备)采集的数据训练得到的,第二awb神经网络模型可以是由第二摄像头(或同款设备,或类似于第二摄像头的设备)采集的数据训练得到的。[0343]如图21所示,在实际拍摄时,若用户选择了第一摄像头进行拍摄,则获得的第一摄像头的raw图经预处理得到多通道图像,该多通道图像配合第一摄像头摄像参数作为第一awb神经网络的输入,从而计算得到第一摄像头对应的光源颜色值(或者增益值)。[0344]若用户选择了第二摄像头进行拍摄,则获得的第二摄像头的raw图经预处理得到多通道图像,该多通道图像配合第二摄像头摄像参数作为第二awb神经网络的输入,计算得到第二摄像头对应的光源颜色值(或者增益值)。[0345]需要说明的是,在针对第一awb神经网络进行模型训练时,可以使用第一摄像头(或同款的设备,或类似于第一摄像头的设备)采集的图像数据、第一摄像头的摄像参数等作为训练数据应用于模型训练。也可以使用第二摄像头或其他摄像头采集的图像数据及摄像参数等,但是需要将采集的图像数据迁移至第一摄像头才可参与训练。[0346]同理,在针对第二awb神经网络进行模型训练时,可以使用第二摄像头(或同款的设备,或类似于第二摄像头的设备)采集的图像数据、第二摄像头的摄像参数等作为训练数据应用于模型训练。也可以使用第一摄像头或其他摄像头采集的图像数据及摄像参数等,但是需要将采集的图像数据迁移至第二摄像头才可参与训练。[0347]上文图21和图22实施例仅用于解释本技术的方案而非限定,例如实际应用中上述流程可类似推广至多个(两个以上)摄像头的情况;或者实际应用中模型的训练以及模型的使用还需要利用到场景语义信息,具体实现方式可以结合前文图12、图13实施例的描述,这里不再赘述。[0348]基于相同申请构思,本技术实施例还提供了一种用于实现图像自动白平衡的装置,参见图24,图24是本技术实施例提供的一种图像自动白平衡的装置的结构示意图。该装置包括:参数获取模块1001,图像获取模1002和处理模块1003。在一种示例中,上述功能模块可运行于具有摄像头(例如可称为第一摄像头)的电子设备的处理器中。其中:[0349]参数获取模块1001,用于获取所述第一摄像头拍摄原始raw域图像时采用的拍摄参数。[0350]图像获取模块1002,用于获取所述原始raw域图像对应的多通道图像。[0351]处理模块1003,用于将输入数据输入第一神经网络模型得到白平衡的第一增益值;所述输入数据至少包括所述第一摄像头的拍摄参数和所述多通道图像;还用于对所述多通道图像进行第一处理,得到目标图像;其中,所述第一处理包括基于所述多通道图像和所述第一增益值的白平衡处理。[0352]在一些可能的实施例中,所述拍摄参数包括曝光值、快门时间、光圈大小、或iso感光度中的至少一个。[0353]在一些可能的实施例中,所述第一神经网络模型是通过融合所述第一摄像头的拍摄参数和所述多通道图像的图像特征来实现对所述第一增益值的预测的。[0354]在一些可能的实施例中,所述处理模块具体用于:根据所述第一摄像头的拍摄参数和所述多通道图像,通过配置在所述电子设备的第一神经网络模型获得所述第一增益值;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。[0355]在一些可能的实施例中,所述处理模块具体用于:将所述第一摄像头的拍摄参数和所述多通道图像发送到服务器;接收来自所述服务器的所述第一增益值,所述第一增益值是通过配置在所述服务器的第一神经网络模型获得的;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。[0356]在一些可能的实施例中,所述第一神经网络模型包括第一特征提取网络、特征融合网络和光源预测网络;所述处理模块具体用于:通过所述第一特征提取网络对所述多通道图像进行特征提取,获得第一特征;通过所述特征融合网络融合所述第一摄像头的拍摄参数和所述第一特征,获得融合后的特征;通过所述光源预测网络根据所述融合后的特征进行预测,获得所述第一增益值。[0357]在一些可能的实施例中,所述输入数据还包括由所述多通道图像表征的场景语义信息;所述第一神经网络模型具体是通过融合所述第一摄像头的拍摄参数、所述多通道图像的图像特征和所述多通道图像表征的场景语义信息来实现对所述增益值的预测的。[0358]在一些可能的实施例中,所述处理模块具体用于:对所述多通道图像进行场景语义信息的提取;根据所述第一摄像头的拍摄参数、所述多通道图像和所述场景语义信息,通过配置在所述电子设备的第一神经网络模型获得所述第一增益值;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。[0359]在一些可能的实施例中,所述处理模块具体用于:将所述第一摄像头的拍摄参数、所述多通道图像和所述场景语义信息发送到服务器;接收来自所述服务器的所述第一增益值,所述第一增益值是通过配置在所述服务器的第一神经网络模型获得的;利用所述第一增益值对所述多通道图像进行白平衡处理;对所述白平衡处理后的图像进行后处理,获得所述目标图像。[0360]在一些可能的实施例中,所述第一神经网络模型包括第一特征提取网络、第二特征提取网络、特征融合网络和光源预测网络;所述处理模块具体用于:通过所述第一特征提取网络对所述多通道图像进行特征提取,获得第一特征;通过所述第二特征提取网络对所述场景语义信息进行特征提取,获得第二特征;通过所述特征融合网络融合所述拍摄参数、所述第一特征和所述第二特征,获得融合后的特征;通过所述光源预测网络根据所述融合后的特征进行预测,获得所述第一增益值。[0361]在一些可能的实施例中,所述处理模块具体用于:对所述多通道图像执行物体检测、场景分类、图像场景分割、人像分割、或人脸检测中的至少一种操作,以获得所述场景语义信息。[0362]在一些可能的实施例中,所述图像获取模块具体用于:对所述原始raw域图像进行预处理获得所述多通道图像,所述预处理包括去马赛克处理。[0363]在一些可能的实施例中,所述多通道图像为三通道图像或者四通道图像。[0364]需要说明的,通过前述图8-图16实施例的详细描述,本领域技术人员可以清楚的知道该装置所包含的各个功能模块的实现方法,所以为了说明书的简洁,在此不再详述。[0365]基于相同的发明构思,本技术实施例还提供又一种电子设备,所述电子设备包括摄像头、显示屏、存储器和处理器,其中:所述摄像头用于拍摄图像;所述显示屏用于显示图像;所述存储器用于存储程序;所述处理器用于执行所述存储器存储的程序,当所述处理器执行所述存储器存储的程序时,具体用于执行图8、图10、图12、图14、图17所述方法实施例中的任意实施例描述的方法步骤。[0366]基于相同的发明构思,本技术实施例还提供又一种电子设备,所述电子设备包括至少两个摄像头、存储器和处理器,所述至少两个摄像头包括第一摄像头和第二摄像头,其中:所述至少两个摄像头均用于拍摄图像;所述存储器用于存储程序;所述处理器用于执行所述存储器存储的程序,当所述处理器执行所述存储器存储的程序时,可用于执行图21或图22所述方法实施例中的任意实施例描述的方法步骤。或者可用于执行具体用于执行图8、图10、图12、图14、图17所述方法实施例中的任意实施例描述的方法步骤。[0367]本技术实施例还提供一种芯片,该芯片包括收发单元和处理单元。其中,收发单元可以是输入输出电路、通信接口;处理单元为该芯片上集成的处理器或者微处理器或者集成电路。该芯片可以执行上述图8、图10、图12、图14、图17、图21或图22方法实施例中的任意实施例描述的方法步骤。[0368]本技术实施例还提供一种计算机可读存储介质,其上存储有指令,该指令被执行时执行上述图8、图10、图12、图14、图17、图21或图22方法实施例中的任意实施例描述的方法步骤。[0369]本技术实施例还提供一种包含指令的计算机程序产品,该指令被执行时执行上述图8、图10、图12、图14、图17、图21或图22方法实施例中的任意实施例描述的方法步骤[0370]应理解,在本技术的各种方法实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限定。[0371]本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。[0372]在上述实施例中,对各个实施例的描述各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。[0373]所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本技术所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。[0374]另外,在本技术各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。[0375]上述实施例仅用以说明本技术的技术方案,而非对其限制。尽管参照上述实施例对本技术进行了详细的说明,本领域的普通技术人员还应当理解的是:任何基于对上述各实施例所记载的技术方案进行的改动、变形、或者对其中部分技术特征进行的等同替换均应属于本技术各实施例技术方案的精神和范围。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜