一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

视频处理方法、装置、电子设备和存储介质与流程

2021-12-18 02:04:00 来源:中国专利 TAG:

1.本技术涉及视频拍摄
技术领域
,特别涉及一种视频处理方法、装置、电子设备和存储介质。
背景技术
:2.随着技术的发展,用户对通过手机等终端所拍摄的视频效果和风格的要求越来越高,然而,目前的手机中拍摄视频所使用的滤镜通常沿用拍照模式下的滤镜原理,经过滤镜处理的视频无法满足较高的调色要求。技术实现要素:3.一种视频处理方法、装置、电子设备和存储介质,可以基于lut的特性使电子设备所拍摄的视频具有不同的风格效果,以满足更高的调色要求。4.第一方面,提供一种视频处理方法,包括:在多个视频风格模板中确定一个视频风格模板,每个视频风格模板对应一个预设的颜色查找表lut;获取通过摄像头拍摄的视频;将通过摄像头拍摄的视频转换为广色域的色彩空间的视频;通过摄像头当前的感光度iso所对应的对数log曲线对广色域的色彩空间的视频进行处理,得到log视频;基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频。5.在一种可能的实施方式中,通过摄像头当前的感光度iso所对应的对数log曲线对广色域的色彩空间的视频进行处理,得到log视频的过程包括:若广色域的色彩空间的视频的线性区数据大于预设值cut,则根据公式c×log10(a×x b) d对广色域的色彩空间的视频的线性区数据进行转换,其中,cut、c、a和b为log曲线参数,x为转换之前的广色域的色彩空间的视频的线性区数据;若广色域的色彩空间的视频的线性区数据不大于预设值cut,则根据公式e×x f对广色域的色彩空间的视频的线性区数据进行转换,其中,e和f为log曲线参数。6.在一种可能的实施方式中,将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程包括:将通过摄像头拍摄的视频通过色彩校正矩阵ccm转换为广色域的色彩空间的视频;7.m为预设的补偿矩阵。8.在一种可能的实施方式中,在基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:将log视频由rgb色彩空间的log视频转换为yuv色彩空间的log视频;对yuv色彩空间的log视频进行yuv去噪处理,得到去噪后的log视频。由于通过log曲线对视频进行处理得到的log视频会引入噪声,因此可以将log视频转换为yuv色彩空间之后,进行yuv去噪处理,通过算法降噪,以改善视频图像质量。9.在一种可能的实施方式中,在基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:将去噪后的log视频由yuv色彩空间的log视频转换为rgb色彩空间的log视频;在基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之后,还包括:将rgb色彩空间的与所确定的视频风格模板对应的视频转换为yuv色彩空间的视频。10.在一种可能的实施方式中,在基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:保存log视频。保存未经lut处理的log视频,可以提高后期编辑的能力。11.在一种可能的实施方式中,在基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:将log视频转换为rec.709色彩标准的视频;保存rec.709色彩标准的视频。12.在一种可能的实施方式中,在第一视频处理流程中执行通过对数log曲线对通过摄像头拍摄的视频进行处理,得到log视频的过程、以及基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程;视频处理方法还包括第二视频处理流程,第二视频处理流程包括:通过对数log曲线对通过摄像头拍摄的视频进行处理,得到log视频;基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频;视频处理方法还包括:将第一视频处理流程中与所确定的视频风格模板对应的视频进行保存;基于第二视频处理流程中与所确定的视频风格模板对应的视频进行预览。在第一视频处理流程中对需要保存的视频进行lut处理,以及在第二视频处理流程中对需要预览的视频进行lut处理,可以使预览视频和最终得到的视频具有相同的视觉效果,便于用户直接基于调色后的风格进行视频预览。13.第二方面,提供一种视频处理装置,包括:处理器和存储器,存储器用于存储至少一条指令,指令由所述处理器加载并执行时以实现上述的视频处理方法。14.第三方面,提供一种电子设备,包括:摄像头;上述的视频处理装置。15.第四方面,提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述的视频处理方法。16.本技术实施例中的视频处理方法、装置、电子设备和存储介质,在视频录制过程中,利用电影行业的lut技术,基于所确定的视频风格模板对应的lut对log视频进行处理,使所录制的视频具有所确定的视频风格模板对应的风格效果,以满足较高的调色要求,使所录制的视频具有电影感。并且由于log视频是基于广色域的色彩空间的视频处理后得到,因此,可以更加有效地利用log曲线的特点,更多地记录摄像头传感器所捕获的信息,进一步提高视频录制效果。附图说明17.图1为本技术实施例中一种电子设备的结构框图;18.图2为本技术实施例中一种视频处理方法的流程图;19.图3为本技术实施例中一种电影模式下用户界面的示意图;20.图4为本技术实施例中一种log曲线的示意图;21.图5为图2中步骤104的一种具体流程示意图;22.图6为本技术实施例中一种立方体插值空间中立方体和四面体关系的示意图;23.图7为本技术实施例中另一种视频处理方法的流程图;24.图8为uv平面示意图;25.图9为本技术实施例中一种电子设备的另一种结构框图;26.图10为本技术实施例中一种电子设备的软件结构框图;27.图11为本技术实施例中一种专业模式下用户界面的示意图。具体实施方式28.本技术的实施方式部分使用的术语仅用于对本技术的具体实施例进行解释,而非旨在限定本技术。29.在介绍本技术实施例之前,首先对本技术实施例所涉及的电子设备进行介绍,如图1所示,电子设备100可以包括处理器110,摄像头193,显示屏194等。可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本技术另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。30.处理器110可以包括一个或多个处理单元,例如:处理器110可以包括图形处理器(graphicsprocessingunit,gpu),图像信号处理器(imagesignalprocessor,isp),控制器,视频编解码器,数字信号处理器(digitalsignalprocessor,dsp)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。处理器110中还可以设置存储器,用于存储指令和数据。31.电子设备100通过gpu,显示屏194,以及应用处理器等实现显示功能。gpu为图像处理的微处理器,连接显示屏194和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。32.电子设备100可以通过isp,摄像头193,视频编解码器,gpu,显示屏194以及应用处理器等实现拍摄功能。33.isp用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给isp处理,转化为肉眼可见的图像。isp还可以对图像的噪点,亮度,肤色进行算法优化。isp还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,isp可以设置在摄像头193中。34.摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(chargecoupleddevice,ccd)或互补金属氧化物半导体(complementarymetal‑oxide‑semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的rgb,yuv等格式的图像信号。在一些实施例中,电子设备100可以包括1个或n个摄像头193,n为大于1的正整数。35.数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。36.视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpictureexpertsgroup,mpeg)1,mpeg2,mpeg3,mpeg4等。37.如图2所示,本技术实施例提供一种视频处理方法,该视频处理方法的执行主体可以为处理器110,具体可以为isp或者isp与其他处理器的组合,该视频处理方法包括:38.步骤101、在多个视频风格模板中确定一个视频风格模板,每个视频风格模板对应一个预设的颜色查找表(lookuptable,lut);39.其中,lut的本质为数学转换模型,利用lut可以将一组rgb值输出为另一组rgb值,从而改变画面的曝光与色彩。因此,可以预先生成对应不同视频风格的lut,在电子设备录制视频之前,首先确定出一个视频风格模板,例如可以基于用户的选择来确定视频风格模板,或者基于人工智能(artificialintelligence,ai),根据当前摄像头获取的图像所对应的场景自动确定视频风格模板。例如,假设电子设备为手机,在一种可能的实施方式中,如图3所示,用户操作手机进入拍摄界面,拍摄界面包括电影模式选项,当用户进一步选择电影模式选项进入电影模式,在对应的电影模式界面中,包括多个视频风格模板选项,例如包括《a》电影风格模板、《b》电影风格模板和《c》电影风格模板,图3所示的用户界面中仅显示了一个《a》电影风格模板,可以理解地,用户界面中可以并排显示多个不同的电影风格模板,不同的电影风格模板所对应的lut可以是预先基于对应电影配色风格所生成的,lut的颜色转换具有对应电影所具有的风格特点,例如《a》电影的配色风格为互补色,互补色是指两种对应的颜色形成对比效果,以暖色系与冷色系的两种颜色来强调对比度以提升鲜艳、突出的效果,通常两种对比的色彩象征冲突行为,透过外在的互补色彩的呈现来表达角色内心正处于矛盾或是身心交瘁的状态,《a》电影风格模板所对应的lut即用于将颜色映射转换之后,更明显地呈现互补色,以模拟《a》电影的配色风格。在一种可能的实施方式中,如图3所示,用户操作手机进入电影模式,手机会通过获取当前摄像头所拍摄的画面,并基于ai算法确定画面所对应的场景并确定与该场景对应的推荐的视频风格模板,例如若识别到当前所拍摄的画面主体为年轻女性人物,根据算法确定对应的推荐的视频风格模板为《c》电影风格模板,《c》电影为以年轻女性人物为主题的电影,其对应的lut可以模拟《c》电影的配色风格;例如若识别到当前所拍摄的画面为城市街道,根据算法确定对应的视频风格模板为《b》电影风格模板,《b》电影为以城市街道为主要场景的电影,其对应的lut可以模拟《b》电影的配色风格。这样,可以自动为用户推荐符合当前场景的视频风格模板。可以预先从电影风格中提取,产生适合移动电子设备的lut。40.步骤102、获取通过摄像头拍摄的视频,例如,在步骤101确定了视频风格模板之后,如果用户点击拍摄选项,则手机开始获取通过摄像头拍摄的视频;41.步骤1020、将通过摄像头拍摄的视频转换为广色域的色彩空间的视频;42.步骤103、通过摄像头当前的感光度iso所对应的对数(logarithm,log)曲线对广色域的色彩空间的视频进行处理,得到log视频;43.其中,log曲线是基于场景的曲线,不同iso下log曲线略有不同。随着iso的增加,log曲线最大值也在增加。当iso提高到一定程度,高光处有肩部形状,保持高光不过曝。如图4所示,图4示意了一种log曲线,其中横坐标为线性信号,以16比特bit编码值codevalue表示,纵坐标为经过log曲线处理后的log信号,以10bit编码值表示。通过log曲线处理,可以利用摄像头的信号输入,将暗部区间的信息编码到中间调(如图4中曲线陡峭的部分),形成10bit的信号输出,符合人眼对光线log感应规则,最大化的保留了暗部信息,log视频可以利用有限的bit深度最大化的保留阴影和高光的细节。由于步骤104中通过log曲线所处理的视频属于广色域的色彩空间,因此,可以更加有效地利用log曲线的特点,更多地记录摄像头传感器所捕获的信息,以提高视频录制效果。图4中的asa即为感光度,不同的asa即对应不同的iso,两者属于不同制式。44.步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频。45.具体地,在得到log视频之后,以log视频作为输入,应用在步骤101中所确定的视频风格模板对应的lut,对log视频图像进行映射转换处理,在处理之后,既可以得到与所确定的视频风格模板对应的视频。基于lut对log视频进行处理后输出的可以是rec.709色彩标准的视频,也可以是高动态范围图像(high‑dynamicrange,hdr)10标准的视频,即可以通过lut对log视频的处理,将视频转换为hdr10标准。46.不同的lut应用在电子设备上,可以对电子设备中相关的模块进行适配,以适应不同风格的lut,例如,如果在步骤101中所确定的视频风格模板为灰色调视频风格模板,灰色调画面的特点为使画面中纹理感较强、饱和度较低、除了人物皮肤的颜色,没有更多的颜色干扰、暗部较冷,基于这些特点,电子设备在录制视频的过程中,可以对相关的模块参数进行调整,保持画面中的纹理,不做很强的去噪和锐化,适当降低画面的饱和度,保持画面中的皮肤颜色真实还原,使画面的暗部向冷色调整。47.本技术实施例中的视频处理方法,在视频录制过程中,利用电影行业的lut技术,基于所确定的视频风格模板对应的lut对log视频进行处理,使所录制的视频具有所确定的视频风格模板对应的风格效果,以满足较高的调色要求,使所录制的视频具有电影感。并且由于log视频是基于广色域的色彩空间的视频处理后得到,因此,可以更加有效地利用log曲线的特点,更多地记录摄像头传感器所捕获的信息,进一步提高视频录制效果。48.在一种可能的实施方式中,上述步骤103、通过摄像头当前的感光度iso所对应的对数log曲线对广色域的色彩空间的视频进行处理,得到log视频的过程包括:若广色域的色彩空间的视频的线性区数据大于预设值cut,则根据公式c×log10(a×x b) d对广色域的色彩空间的视频的线性区数据进行转换,其中,cut、c、a和b为log曲线参数,x为转换之前的广色域的色彩空间的视频的线性区数据;若广色域的色彩空间的视频的线性区数据不大于所述预设值cut,则根据公式e×x f对所述广色域的色彩空间的视频的线性区数据进行转换,其中,e和f为log曲线参数。线性区数据即图4中所示的线性信号,即通过log曲线进行处理的输入信号为线性的,通过log曲线进行处理之后的输出信号为log的。对于一个特定的被编码的图像来说,cut、c、a、b、e和f依赖于线性区的bit深度和曝光指数。通过对log曲线的适配,在对视频进行处理的过程中,拉伸暗部到中间调,保护亮区不过曝,在摄像头传感器有限的动态范围内,最大化地记录信息,以增加后续处理的空间。其他过程中可以配合log曲线的特点进行调整,例如调整自动曝光(automaticexposure,ae)参数、色彩校正矩阵(colorcorrectionmatrix,ccm)参数、去噪参数、锐化参数等。49.在一种可能的实施方式中,上述步骤1020、将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程包括:50.将通过摄像头拍摄的视频通过色彩校正矩阵ccm转换为广色域的色彩空间的视频;51.m为预设的补偿矩阵。52.具体地,从广色域的rgb色彩空间转换为xyz色彩空间的转换矩阵为:[0053][0054]从xyz色彩空间转换为标准rgb色彩空间srgb’的转换矩阵为:[0055][0056]根据上述两个转换矩阵,即可以得到上述ccm,其中,m为与摄像头传感器相关的,为了补偿人眼和摄像头传感器对于色彩响应的差异而进行色彩校正的3×3的矩阵,该矩阵可以通过相应的工具经过特定图像标定得到。[0057]在一种可能的实施方式中,如图5所示,上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程包括:[0058]步骤1041、基于lut建立立方体插值空间,lut为三维3d‑lut;[0059]其中,3d‑lut的实现是在rgb域进行的,3d‑lut为电影工业中常用的调色映射关系,可以将任意输入的rgb像素值转换为对应的其他rgb像素值,例如输入12bit的rgb视频图像,经过lut处理映射之后输出12bit的rgb视频图像。在步骤1041中,将整个rgb色彩空间均匀地分为例如33×33×33的立方体,对应lut,每个立方体的边长step_size例如为2(12‑5)=27。[0060]步骤1042、确定log视频中每个像素点在立方体插值空间中所属的立方体,立方体中被划分为6个四面体;[0061]其中,log视频作为lut处理过程中的输入,对log视频画面中每个像素点得到通过lut处理映射后的像素点,既可以实现通过lut对log视频进行处理的过程,在步骤1042中,需要确定每个作为输入的log视频中每个像素点在上述立方体插值空间中所属的立方体,立方体被划分为6个四面体。[0062]步骤1043、确定log视频中每个像素点所属的四面体;[0063]步骤1044、对于对应立方体顶点的像素点,将像素值转换为经过lut处理后的像素值,对于不对应立方体顶点的像素点,根据每个像素点所属的四面体进行插值,将像素值转换为经过lut处理后的像素值。[0064]具体地,对于输入的像素点来说,如果像素点位于立方体的顶点,根据顶点的索引以及3d‑lut,可以直接获取映射后的rgb像素值,即可以直接通过lut将其像素值映射转换为对应的像素值,而如果像素点位于立方体的顶点之间,则根据像素点所属的四面体进行插值。[0065]在一种可能的实施方式中,如图6所示,立方体中具有第0至第7顶点,在图6中分别以数字0~7表示,第0顶点至第1顶点的方向为蓝色b通道的坐标轴方向,第0顶点至第4顶点的方向为红色r通道的坐标轴方向,第0顶点至第2顶点的方向为绿色g通道的坐标轴方向,第0顶点、第1顶点、第2顶点和第3顶点位于同一平面,第1顶点、第3顶点、第5顶点和第7顶点位于同一平面,第4顶点、第5顶点、第6顶点和第7顶点位于同一平面,第0顶点、第2顶点、第4顶点和第6顶点位于同一平面;第0顶点、第1顶点、第5顶点和第7顶点形成第一个四面体,第0顶点、第1顶点、第3顶点和第7顶点形成第二个四面体,第0顶点、第2顶点、第3顶点和第7顶点形成第三个四面体,第0顶点、第4顶点、第5顶点和第7顶点形成第四个四面体,第0顶点、第4顶点、第6顶点和第7顶点形成第五个四面体,第0顶点、第2顶点、第6顶点和第7顶点形成第六个四面体;其中,第i顶点的坐标为(ri,gi,bi),i的取值为0、1、2、3、…、7,第i顶点经过lut处理后的像素值为ve(ri,gi,bi),其中e取r、g和b;[0066]上述步骤1044中,对于不对应立方体顶点的像素点,根据每个像素点所属的四面体进行插值,将像素值转换为经过lut处理后的像素值的过程包括:[0067]根据当前像素点(r,g,b)生成经过lut处理后的e通道像素值ve(r,g,b),e取r、g和b,当前像素点是指输入的log视频中的当前待进行插值计算的像素点;[0068]ve(r,g,b)=ve(r0,g0,b0) (delta_valuer_e×deltar delta_valueg_e×deltag delta_valueb_e×deltab (step_size>>1))/(step_size);[0069]ve(r0,g0,b0)为第0顶点(r0,g0,b0)经过lut处理后的e通道像素值,e取r、g和b;[0070]delta_valuer_e为当前像素点所属四面体对应r通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,delta_valueg_e为当前像素点所属四面体对应g通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,delta_valueb_e为当前像素点所属四面体对应b通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差;[0071]deltar为当前像素点(r,g,b)中的r值与第0顶点(r0,g0,b0)中的r0值之差,deltag为当前像素点(r,g,b)中的g值与第0顶点(r0,g0,b0)中的g0值之差,deltab为当前像素点(r,g,b)中的b值与第0顶点(r0,g0,b0)中的b0值之差;[0072]step_size为立方体的边长。[0073]其中,>>表示右移运算,(step_size>>1)即step_size右移一位。[0074]具体地,例如,对于输入的当前像素点(r,g,b),计算deltar、deltag和deltab,deltar、deltag和deltab表示当前像素点(r,g,b)与第0顶点的距离,deltar=r‑r0,deltag=g‑g0,deltab=b‑b0,在上述步骤1043中,可以根据deltar、deltag以及deltab之间的关系判断当前像素点属于哪个四面体。如果deltab≥deltar且deltar≥deltag,则确定当前像素点属于第一个四面体;如果deltab≥deltag且deltag≥deltar,则确定当前像素点属于第二个四面体;如果deltag≥deltab且deltab≥deltar,则确定当前像素点属于第三个四面体;如果deltar≥deltab且deltab≥deltag,则确定当前像素点属于第四个四面体;如果deltar≥deltag且deltag≥deltab,则确定当前像素点属于第五个四面体;如果deltar、deltag以及deltab之间的关系不属于上述第一~第五个四面体的条件,则确定当前像素点属于第六个四面体。假设当前像素点(r,g,b)属于第一个四面体,该像素点经过lut处理后的r通道像素值vr(r,g,b)的计算过程中,delta_valuer_e为当前像素点所属四面体对应r通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_r=vr(r5,g5,b5)‑vr(r1,g1,b1),delta_valueg_r=vr(r7,g7,b7)‑vr(r5,g5,b5),delta_valueb_r=vr(r1,g1,b1)‑vr(r0,g0,b0),vr(r,g,b)=vr(r0,g0,b0) (delta_valuer_r×deltar delta_valueg_r×deltag delta_valueb_r×deltab (step_size>>1))/(step_size);该像素点经过lut处理后的g通道像素值vg(r,g,b)的计算过程中,delta_valueg_e为当前像素点所属四面体对应g通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_g=vr(r5,g5,b5)‑vr(r1,g1,b1),delta_valueg_g=vg(r7,g7,b7)‑vg(r5,g5,b5),delta_valueb_g=vg(r1,g1,b1)‑vg(r0,g0,b0),vg(r,g,b)=vg(r0,g0,b0) (delta_valuer_g×deltar delta_valueg_g×deltag delta_valueb_g×deltab (step_size>>1))/(step_size);该像素点经过lut处理后的b通道像素值vg(r,g,b)的计算过程中,delta_valueb_e为当前像素点所属四面体对应b通道的坐标轴方向上的两个顶点经过lut处理后的e通道像素值之差,即delta_valuer_b=vb(r5,g5,b5)‑vb(r1,g1,b1),delta_valueg_b=vb(r7,g7,b7)‑vb(r5,g5,b5),delta_valueb_b=vb(r1,g1,b1)‑vb(r0,g0,b0),vb(r,g,b)=vb(r0,g0,b0) (delta_valuer_b×deltar delta_valueg_b×deltag delta_valueb_b×deltab (step_size>>1))/(step_size)。对于当前像素点(r,g,b)属于其他四面体的情况,计算过程类似,区别在于delta_valuer_e的计算,例如对于第二个四面体,delta_valuer_r=vr(r7,g7,b7)‑vr(r3,g3,b3),delta_valueg_r=vr(r3,g3,b3)‑vr(r1,g1,b1),delta_valueb_r=vr(r1,g1,b1)‑vr(r0,g0,b0),基于其他四面体的具体计算过程在此不再赘述。[0075]在一种可能的实施方式中,如图7所示,在上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:步骤105、将log视频由rgb色彩空间的log视频转换为yuv色彩空间的log视频;步骤106、对yuv色彩空间的log视频进行yuv去噪处理,得到去噪后的log视频,在步骤104中应用lut的log视频即为在步骤106中经过yuv去噪后的log视频。由于步骤103中得到的log视频,能够体现暗部细节,但是同时会将暗部噪声放大,即会引入噪声,因此可以将log视频转换为yuv色彩空间之后,进行yuv去噪处理,通过算法降噪,以改善视频图像质量。[0076]在一种可能的实施方式中,如图7所示,在上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:步骤107、将去噪后的log视频由yuv色彩空间的log视频转换为rgb色彩空间的log视频;在上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之后,还包括:步骤108、将rgb色彩空间的与所确定的视频风格模板对应的视频转换为yuv色彩空间的视频。由于步骤104中基于lut对log视频进行处理的过程是基于rgb色彩空间实现的,因此,因此,在步骤104之前先将yuv色彩空间的视频转换为rgb色彩空间的视频,在步骤104之后,再将rgb色彩空间的视频重新转换为yuv色彩空间的视频。[0077]yuv(亦称ycbcr)是欧洲电视系统采用的一种颜色编码方法。在现代彩色电视系统中,通常采用三管彩色摄像机或彩色ccd摄影机进行取像,然后把取得的彩色图像信号经分色、分别放大校正后得到rgb信号,再经过矩阵变换电路得到亮度信号y和两个色差信号b‑y(即u)、r‑y(即v),最后发送端将三个信号分别进行编码后用同一信道发送出去。这种色彩表示方法就是yuv颜色空间。ycbcr是yuv模型的具体实现,其实是yuv经过缩放和偏移的翻版。其中y与yuv中的y含义一致,cb和cr同样都指色彩,只是在表示方法上不同而已。在yuv家族中,ycbcr是在计算机系统中应用最多的成员,其应用领域很广泛,jpeg、mpeg均采用此格式。一般人们所讲的yuv大多是指ycbcr。uv平面如图8所示。[0078]rgb和yuv颜色空间的相互转换可以通过3x3的矩阵实现:[0079][0080]yuv主要有4种采样格式:ycbcr4:2:0、ycbcr4:2:2、ycbcr4:1:1和ycbcr4:4:4。[0081]在一种可能的实施方式中,如图9所示,电子设备具体可以包括摄像头193、反马赛克demosaic模块21、变形模块22、融合模块23、噪声处理模块24、色彩校正矩阵(colorcorrectionmatrix,ccm)模块25、全局色调映射(globaltonemapping,gtm)模块26、缩放scaler模块27、yuv去噪模块28和lut处理模块29,例如,在视频录制的过程中,摄像头193拍摄得到长曝光帧视频图像和短曝光帧视频图像,长曝光帧视频图像所对应的曝光时间大于短曝光帧视频图像所对应的曝光时间,长曝光帧视频图像和短曝光帧视频图像分别通过反马赛克模块21的处理,使图像从raw域转换为rgb域,之后两路视频图像分别通过变形warp模块22的处理,通过对视频图像的变形实现对齐、防抖的效果,之后两路视频图像通过融合模块23处理,将两种视频图像融合为同一个,融合之后的数据再分流为两路,视频处理方法包括第一视频处理流程s1和第二视频处理流程s2,通过融合模块23处理之后的其中一路进入第一视频处理流程s1,另外一路进入第二视频处理流程s2。[0082]在第一视频处理流程s1中执行上述步骤1020、将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程、上述步骤103、通过对数log曲线对广色域的色彩空间的视频进行处理,得到log视频的过程、以及上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程。[0083]例如,第一视频处理流程s1包括,将来自于融合模块23的通过摄像头193拍摄的视频通过噪声处理模块24进行去噪处理,然后通过ccm模块25处理,将视频转换为rgb广色域的色彩空间,然后通过gtm模块26执行上述步骤103,通过log曲线对视频进行处理,得到log视频,然后通过缩放模块27对视频进行缩放处理,然后通过yuv去噪模块28执行上述步骤106,对视频进行yuv去噪,然后通过lut处理模块29执行上述步骤104,通过lut对视频进行处理,得到与所确定的视频风格模块对应的视频。在第一视频处理流程s1之后,将第一视频处理流程s1中与所确定的视频风格模板对应的视频进行保存,保存为录像1,即可以得到具有风格的视频。[0084]第二视频处理流程s2包括:将来自于融合模块23的通过摄像头193拍摄的视频通过噪声处理模块24进行去噪处理,然后通过ccm模块25处理,将视频转换为rgb广色域的色彩空间,即上述步骤1020、将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程,然后通过gtm模块26执行上述步骤103,通过log曲线对视频进行处理,得到log视频,然后通过缩放模块27对视频进行缩放处理,然后通过yuv去噪模块28执行上述步骤106,对视频进行yuv去噪,然后通过lut处理模块29执行上述步骤104,通过lut对视频进行处理,得到与所确定的视频风格模块对应的视频。基于第二视频处理流程s2中与所确定的视频风格模板对应的视频进行预览。[0085]也就是说,在视频录制过程中,会基于两路视频流分别在第一视频处理流程s1和第二视频处理流程s2中进行处理,两路视频流分别挂在两套相同的算法,均包含步骤103中的基于log曲线的处理和步骤104中基于lut的处理,其中一路视频流用于编码保存,另一路视频流用于预览。[0086]以下对raw和yuv的相关内容进行说明:[0087]拜耳域:数码相机上的每个镜头都带有一个光传感器,用以测量光线的明亮程度,但若要获得一幅全彩图像,一般需要有三个光传感器分别获得红、绿、蓝三基色信息,而为了降低数码相机的成本与体积,生产厂商通常会采用ccd或cmos图像传感器,通常的,cmos图像传感器输出的原始图像为拜尔域rgb格式,单个像素点只包含一种颜色值,要得到图像的灰度值,需要先插补完整各像素点的颜色信息,再计算各像素点的灰度值。也就是说拜耳域是指数码相机内部的一种原始图片格式。[0088]raw域或称raw格式,是指未经加工图像。进一步地,所述raw图像可以理解为,就是相机的感光元件比如互补金属氧化物半导体(complementarymetaloxidesemiconductor,cmos)或者电荷耦合器件(charge‑coupleddevice,ccd)将捕捉到的光源信号转化为数字信号的原始数据。raw文件是一种记录了数码相机传感器的原始信息,同时记录了由相机拍摄所产生的一些元数据(metadata,如感光度iso(internationalorganizationforstandardization,国际标准化组织)的设置、快门速度、光圈值、白平衡等)的文件。raw域是未经isp非线性处理、也未经压缩的格式。raw格式的全称是rawimageformat。[0089]yuv是一种颜色编码方法,常使用在各个视频处理组件中。yuv在对照片或视频编码时,考虑到人类的感知能力,允许降低色度的带宽。yuv是编译true‑color颜色空间(colorspace)的种类,y'uv、yuv、ycbcr、ypbpr等专有名词都可以称为yuv,彼此有重叠。其中“y”表示明亮度(luminance或luma),也就是灰阶值,“u”和“v”表示色度(chrominance或chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。一般yuv分成两种格式,一种是:紧缩格式(packedformats),将y、u、v值存储成macropixels数组,和rgb的存放方式类似。另一种是:平面格式(planarformats),将y、u、v的三个分量分别存放在不同的矩阵中。平面格式(planarformats)是指每y分量,u分量和v分量都是以独立的平面组织的,也就是说所有的u分量都在y分量后面,而v分量在所有的u分量后面。[0090]在一种可能的实施方式中,如图9所示,在上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:保存log视频,即保存录像2。也就是说,在步骤103中得到log视频之后,分流一路log视频直接保存,即保存一份无风格的log视频,即录像2,另外一路log视频在步骤104中基于lut处理之后保存,即保存一份对应视频风格模板的视频,即录像1,例如在录制过程中,同时编码保存两份视频文件在临时文件夹,基于用户的选择,确定其中一个视频作为最终的视频文件,如果用户希望直接录制生成《b》电影风格的视频文件,则将录像1作为最终的视频文件,如果用户希望保存原始素材,以便于提高后期编辑的能力,则将录像2作为最终的视频文件。需要说明的是,保存log视频的分流过程可以在通过缩放模块27对视频进行缩放处理的过程之后,在通过lut处理模块29执行上述步骤104的过程之前。[0091]在一种可能的实施方式中,如图9所示,在上述步骤104、基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程之前,还包括:将log视频转换为rec.709色彩标准的视频;保存rec.709色彩标准的视频,即录像2。也就是说,在步骤103中得到log视频之后,分流一路log视频转换为原色视频并保存为录像2,该视频没有经过调色,另外一路log视频在步骤104中基于lut处理之后保存,即保存一份对应视频风格模板的视频,即保存为录像1,例如在录制过程中,同时编码保存两份视频文件在临时文件夹,基于用户的选择,确定其中一个视频作为最终的视频文件,如果用户希望直接录制生成《b》电影风格的视频文件,则将对应视频风格模板的视频,即将录像1作为最终的视频文件,如果用户希望保存未经调色的视频,则将未经调色的log视频转换为标准视频文件并保存为最终的视频文件,即将录像2作为最终的视频文件。需要说明的是,未经调色的视频分流过程可以在通过缩放模块27对视频进行缩放处理的过程之后,在通过lut处理模块29执行上述步骤104的过程之前。[0092]以下结合软件架构对本技术实施例进行说明,本技术实施例以分层架构的android系统为例,示例性说明电子设备100的软件结构。图10是本技术实施例的电子设备100的软件结构框图。[0093]分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将android系统分为五层,从上至下分别为应用程序application层、应用程序框架framework层、系统库library、硬件抽象层(hardwareabstractionlayer,hal)以及内核层。[0094]应用程序层可以包括相机等应用程序。[0095]应用程序框架层可以包括相机应用程序编程接口(applicationprogramminginterface,api)、媒体录制mediarecorder和表面视图surfaceview等。媒体录制用来录制视频或图片数据,并使这些数据可以被应用程序访问。表面视图用来显示预览画面。[0096]系统库可以包括多个功能模块。例如:相机服务camerasevice等。[0097]硬件抽象层用于提供接口支持,例如包括相机流程camerapipeline以供相机服务调用call。[0098]内核层是硬件和软件之间的层。内核层包含显示驱动,摄像头驱动等。[0099]结合捕获视频的一种具体场景,hal上报同时录制两段视频的能力信息,应用程序层下发捕获请求capturerequest,请求对应一个录像1的流、一个录像2的流和一个预览流,同时创建两个媒体编解码器mediacodec示例,接收两个录像流的编码。hal按照上述的数据流dataflow,回调三路流。其中,预览流送显示,两个录像流分别送mediacodec。[0100]本技术实施例提供的录像视频处理方法可以表现为两种拍摄模式下的多个功能,其中这两种拍摄模式可以是指:电影模式、专业模式。[0101]电影模式是一种与电影主题相关的拍摄模式,在该模式下,电子设备100显示的图像能够从感官上给用户一种观看电影的效果,电子设备100还提供多个与电影主题相关的视频风格模板,用户可以利用这些视频风格模板获得色调调整后的图像或视频,这些图像或视频的色调与电影的色调类似或相同。在本技术以下实施例中,电影模式至少可提供用户触发lut功能、hdr10功能的接口。具体关于lut功能、hdr10功能的描述可以参见以下实施例。[0102]例如,假设电子设备100为手机,在一种可能的实施方式中,如图3所示,电子设备可以响应用户的操作进入电影模式。例如,电子设备100可以检测到用户作用于相机应用程序的触控操作,响应于该操作,电子设备100显示相机应用程序的默认拍照界面。默认拍照界面可包括:预览框、拍摄模式列表、图库快捷键、快门控件等。其中:[0103]预览框可用于显示摄像头193实时采集的图像。电子设备100可以实时刷新其中的显示内容,以便于用户预览摄像头193当前采集的图像。[0104]拍摄模式列表中可以显示有一个或多个拍摄模式选项。这一个或多个拍摄模式选项可以包括:人像模式选项、录像模式选项、拍照模式选项、电影模式选项、专业选项。这一个或多个拍摄模式选项在界面上可以表现为文字信息,例如“人像”、“录像”、“拍照”、“电影”、“专业”。不限于此,这一个或多个拍摄模式选项在界面上还可以表现为图标或者其他形式的交互元素(interactiveelement,ie)。[0105]图库快捷键可用于开启图库应用程序。图库应用程序是智能手机、平板电脑等电子设备上的一款图片管理的应用程序,又可以称为“相册”,本实施例对该应用程序的名称不做限制。图库应用程序可以支持用户对存储于电子设备100上的图片进行各种操作,例如浏览、编辑、删除、选择等操作。[0106]快门控件可用于监听触发拍照的用户操作。电子设备100可以检测到作用于快门控件的用户操作,响应于该操作,电子设备100可以将预览框中的图像保存为图库应用程序中的图片。另外,电子设备100还可以在图库快捷键中显示所保存的图像的缩略图。也即是说,用户可以点击快门控件来触发拍照。其中,快门控件可以是按钮或者其他形式的控件。[0107]电子设备100可以检测到用户作用于电影模式选项的触控操作,响应于该操作,电子设备显示如图3所示的用户界面。[0108]在一些实施例中,电子设备100可以在启动相机应用程序后默认开启电影模式。不限于此,电子设备100还可以通过其他方式开启电影模式,例如电子设备100还可以根据用户的语音指令开启电影模式,本技术实施例对此不作限制。[0109]电子设备100可以检测到用户作用于电影模式选项的触控操作,响应于该操作,电子设备显示如图3所示的用户界面。[0110]如图3示出的用户界面中包括功能选项,功能选项包括hdr10选项、闪光灯选项、lut选项、设置选项。这多个功能选项都可以检测到用户的触控操作,并响应于该操作,开启或关闭对应的拍摄功能,例如,hdr10功能、闪光灯功能、lut功能、设置功能。[0111]电子设备可以开启lut功能,该lut功能可以改变预览图像的显示效果。实质上,lut功能引入了颜色查找表,颜色查找表相当于一个颜色转换模型,该颜色转换模型能够根据输入的色彩值,输出调整后的色彩值。摄像头采集的图像的色彩值相当于输入值,不同的色彩值经过颜色转换模型后,都可以对应得到一个输出值。最终,显示在预览框中的图像即为经过颜色转换模型调整后的图像。电子设备100利用该lut功能,显示经过颜色转换模型调整后的色彩值组成的图像,达到调整图像色调的效果。开启lut功能之后,电子设备100可以提供多个视频风格模板,一个视频风格模板对应一个颜色转换模型,不同的视频风格模板可以给预览图像带来不同的显示效果。并且,这些视频风格模板可以与电影主题相关联,视频风格模板给预览图像带来的色调调整效果可以和电影中的色调接近或相同,为用户营造拍摄电影的氛围感。[0112]另外,在电子设备100开启lut功能之后,电子设备100可以根据当前预览视频画面,在多个视频风格模板中确定一个视频风格模板,所确定的视频风格模板可以显示在界面中,以便于用户了解当前所确定的视频风格模板,例如多个视频风格模板包括《a》电影风格模板、《b》电影风格模板和《c》电影风格模板,不同的电影风格模板所对应的lut可以是预先基于对应电影配色风格所生成的,lut的颜色转换具有对应电影所具有的风格特点。可以预先从电影风格中提取,产生适合移动电子设备的lut。lut功能的开启会改变预览视频画面的色调。如图3中示意的,电子设备100确定《a》电影风格模板并进行显示。[0113]在一些实施例中,电子设备100可以根据用户的滑动操作来选择视频风格模板。具体地,当电子设备100检测到用户开启lut功能的用户操作,显示lut预览窗口之后,电子设备100可以默认选择位于lut预览窗口中的第一个视频风格模板,作为电子设备100选中的视频风格模板。之后,电子设备100可以检测到用户作用于lut预览窗口的左右滑动操作,移动lut预览窗口中各视频风格模板的位置,当电子设备100不再检测到用户的滑动操作时,电子设备100将lut预览窗口中显示的第一个视频风格模板作为电子设备100选中的视频风格模板。[0114]在一些实施例中,电子设备100除了可以使用视频风格模板改变预览图像的显示效果,还可以在添加视频风格模板之后,检测到开始录制视频的用户操作,响应于该操作,电子设备100开始录制视频,从而获得使用视频风格模板调整显示效果后的视频。另外,在录制视频的过程中,电子设备100还可以检测到拍摄照片的用户操作,响应于该操作,电子设备100将预览框中添加了视频风格模板的预览图像保存成图片,从而获得使用视频风格模板调整显示效果后的图像。[0115]电子设备可以开启hdr10功能,hdr10模式中,hdr即为高动态范围图像(high‑dynamicrange,hdr),相比于普通的图像,hdr可以提供更多的动态范围和图像细节,能够更好地反映出真实环境中的视觉效果,hdr10中的10即为10比特,hdr10可以以10位高动态范围录制视频。[0116]电子设备100可以检测到用户作用于专业模式选项的触控操作,进入专业模式。如图11所示,电子设备处于专业模式时,用户界面中可以包括的功能选项例如为:log选项、闪光灯选项、lut选项、设置选项,另外,用户界面还包括参数调节选项,例如为:测光m选项、iso选项、快门s选项、曝光补偿ev选项、对焦方式af选项和白平衡wb选项。[0117]在一些实施例中,电子设备100可以在启动相机应用程序后默认开启专业模式。不限于此,电子设备100还可以通过其他方式开启专业模式,例如电子设备100还可以根据用户的语音指令开启专业模式,本技术实施例对此不作限制。[0118]电子设备100可以检测到用户作用于log选项的用户操作,响应于该操作,电子设备100开启log功能。其中,log功能能够将对数函数应用到曝光曲线上,最大限度地保留摄像头采集的图像中,高光和阴影部分的细节,使最终呈现出来的预览图像的饱和度较低。其中,使用log功能录制的视频称为log视频。[0119]电子设备100通过专业模式除了可以录制添加了视频风格模板的视频,还可以在录制未添加视频风格模板的视频后,为该视频添加视频风格模板,或者,在开启log功能后,录制log视频,之后再为该log视频添加视频风格模板。这样,电子设备100不仅可以在录制视频的之前调整画面的显示效果,还可以在视频录制完成之后,调整录制的视频的显示效果,增加了图像调整的灵活性和自由度。[0120]如图9所示,本技术实施例还提供一种视频处理装置,包括:视频风格确定模块,用于在多个视频风格模板中确定一个视频风格模板,每个视频风格模板对应一个预设的三维颜色查找表lut;视频获取模块,用于获取通过摄像头拍摄的视频;ccm模块25,用于将通过摄像头拍摄的视频转换为广色域的色彩空间的视频;第一处理模块,用于通过摄像头当前的感光度iso所对应的对数log曲线对广色域的色彩空间的视频进行处理,得到log视频;第二处理模块,用于基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频。[0121]该视频处理装置可以应用上述的视频处理方法,具体过程和原理在此不再赘述,其中,第一处理模块具体可以为上述实施例中的gtm模块26,第二处理模块具体可以为上述实施例中的lut处理模块29。[0122]在一种可能的实施方式中,第一处理模块具体用于:基于lut建立立方体插值空间,lut为三维3d‑lut;确定log视频中每个像素点在立方体插值空间中所属的立方体,立方体中被划分为6个四面体;确定log视频中每个像素点所属的四面体;对于对应立方体顶点的像素点,将像素值转换为经过lut处理后的像素值;对于不对应立方体顶点的像素点,根据每个像素点所属的四面体进行插值,将像素值转换为经过lut处理后的像素值。[0123]在一种可能的实施方式中,第一处理模块具体用于,若广色域的色彩空间的视频的线性区数据大于预设值cut,则根据公式c×log10(a×x b) d对广色域的色彩空间的视频的线性区数据进行转换,其中,cut、c、a和b为log曲线参数,x为转换之前的广色域的色彩空间的视频的线性区数据;若广色域的色彩空间的视频的线性区数据不大于预设值cut,则根据公式e×x f对广色域的色彩空间的视频的线性区数据进行转换,其中,e和f为log曲线参数。[0124]在一种可能的实施方式中,ccm模块25具体用于,将通过摄像头拍摄的视频通过色彩校正矩阵ccm转换为广色域的色彩空间的视频;[0125]m为预设的补偿矩阵。[0126]在一种可能的实施方式中,视频处理装置还包括:转换模块,用于将log视频由rgb色彩空间的log视频转换为yuv色彩空间的log视频,该转换模块具体可以位于图9中的缩放模块27和yuv去噪模块28之间,图9中未示出转换模块;yuv去噪模块28,用于对yuv色彩空间的log视频进行yuv去噪处理,得到去噪后的log视频。[0127]在一种可能的实施方式中,视频处理装置还包括:第一转换模块,用于将去噪后的log视频由yuv色彩空间的log视频转换为rgb色彩空间的log视频,该第一转换模块可以位于图9中的yuv去噪模块28和lut处理模块29之间;第二转换模块,用于将rgb色彩空间的与所确定的视频风格模板对应的视频转换为yuv色彩空间的视频,该第二转换模块可以位于图9中的lut处理模块29和保存录像1的过程之间,图9中未示出第一转换模块和第二转换模块。[0128]在一种可能的实施方式中,视频处理装置还包括:第一保存模块,用于保存与所确定的视频风格模板对应的视频;第二保存模块,用于保存log视频。[0129]在一种可能的实施方式中,视频处理装置还包括:第一保存模块,用于保存与所确定的视频风格模板对应的视频;备份转换模块,用于将log视频转换为rec.709色彩标准的视频;第二保存模块,用于保存rec.709色彩标准的视频。[0130]在一种可能的实施方式中,在第一视频处理流程中执行将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程、通过对数log曲线对广色域的色彩空间的视频进行处理,得到log视频的过程、以及基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程;视频处理方法还包括第二视频处理流程,第二视频处理流程包括:将通过摄像头拍摄的视频转换为广色域的色彩空间的视频的过程、通过对数log曲线对广色域的色彩空间的视频进行处理,得到log视频的过程;基于所确定的视频风格模板对应的lut对log视频进行处理,得到与所确定的视频风格模板对应的视频的过程;视频处理方法还包括:第一保存模块,用于将第一视频处理流程中与所确定的视频风格模板对应的视频进行保存;预览模块,用于基于第二视频处理流程中与所确定的视频风格模板对应的视频进行预览。[0131]在一种可能的实施方式中,立方体中具有第0至第7顶点,第0顶点至第1顶点的方向为蓝色b通道的坐标轴方向,第0顶点至第4顶点的方向为红色r通道的坐标轴方向,第0顶点至第2顶点的方向为绿色g通道的坐标轴方向,第0顶点、第1顶点、第2顶点和第3顶点位于同一平面,第1顶点、第3顶点、第5顶点和第7顶点位于同一平面,第4顶点、第5顶点、第6顶点和第7顶点位于同一平面,第0顶点、第2顶点、第4顶点和第6顶点位于同一平面;第0顶点、第1顶点、第5顶点和第7顶点形成第一个四面体,第0顶点、第1顶点、第3顶点和第7顶点形成第二个四面体,第0顶点、第2顶点、第3顶点和第7顶点形成第三个四面体,第0顶点、第4顶点、第5顶点和第7顶点形成第四个四面体,第0顶点、第4顶点、第6顶点和第7顶点形成第五个四面体,第0顶点、第2顶点、第6顶点和第7顶点形成第六个四面体;第一处理模块具体用于,根据当前像素点(r,g,b)生成经过lut处理后的e通道像素值ve(r,g,b),e取r、g和b;ve(r,g,b)=ve(r0,g0,b0) (delta_valuer_e×deltar delta_valueg_e×deltag delta_valueb_e×deltab (step_size>>1))/(step_size);ve(r0,g0,b0)为第0顶点(r0,g0,b0)经过lut处理后的e通道像素值,e取r、g和b;delta_valuer为当前像素点所属四面体对应r通道的坐标轴方向上的两个顶点经过lut处理后的r通道像素值之差,delta_valueg为当前像素点所属四面体对应g通道的坐标轴方向上的两个顶点经过lut处理后的g通道像素值之差,delta_valueb为当前像素点所属四面体对应b通道的坐标轴方向上的两个顶点经过lut处理后的b通道像素值之差;deltar为当前像素点(r,g,b)中的r值与第0顶点(r0,g0,b0)中的r0值之差,deltag为当前像素点(r,g,b)中的g值与第0顶点(r0,g0,b0)中的g0值之差,deltab为当前像素点(r,g,b)中的b值与第0顶点(r0,g0,b0)中的b0值之差;step_size为立方体的边长。[0132]应理解以上视频处理装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块以软件通过处理元件调用的形式实现,部分模块通过硬件的形式实现。例如,视频风格确定模块、视频获取模块、ccm模块、第一处理模块和第二处理模块中的任意一者可以为单独设立的处理元件,也可以集成在视频处理装置中,例如集成在视频处理装置的某一个芯片中实现,此外,也可以以程序的形式存储于视频处理装置的存储器中,由视频处理装置的某一个处理元件调用并执行以上各个模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。[0133]例如,视频风格确定模块、视频获取模块、ccm模块、第一处理模块和第二处理模块这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(applicationspecificintegratedcircuit,asic),或,一个或多个微处理器(digitalsingnalprocessor,dsp),或,一个或者多个现场可编程门阵列(fieldprogrammablegatearray,fpga)等。再如,当以上某个模块通过处理元件调度程序的形式实现时,该处理元件可以是通用处理器,例如中央处理器(centralprocessingunit,cpu)或其它可以调用程序的处理器。再如,这些模块可以集成在一起,以片上系统(system‑on‑a‑chip,soc)的形式实现。[0134]本技术实施例还提供一种视频处理装置,包括:处理器和存储器,存储器用于存储至少一条指令,指令由处理器加载并执行时以实现上述任意实施例中的视频处理方法。[0135]该视频处理装置可以应用上述的视频处理方法,具体过程和原理在此不再赘述。[0136]处理器的数量可以为一个或多个,处理器和存储器可以通过总线或者其他方式连接。存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本技术实施例中的视频处理装置对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行各种功能应用以及数据处理,即实现上述任意方法实施例中的方法。存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;以及必要数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。[0137]如图1所示,本技术实施例还提供一种电子设备,包括:摄像头193和上述的视频处理装置,视频处理装置包括处理器110。[0138]视频处理装置的具体原理和工作过程与上述实施例相同,在此不再赘述。该电子设备可以是例如手机、电视、平板电脑、手表、手环等任何具有视频拍摄功能的产品或部件。[0139]本技术实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行上述任意实施例中的视频处理方法。[0140]在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本技术所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,dvd)、或者半导体介质(例如固态硬盘solidstatedisk)等。[0141]本技术实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示单独存在a、同时存在a和b、单独存在b的情况。其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a‑b,a‑c,b‑c,或a‑b‑c,其中a,b,c可以是单个,也可以是多个。[0142]以上仅为本技术的优选实施例而已,并不用于限制本技术,对于本领域的技术人员来说,本技术可以有各种更改和变化。凡在本技术的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本技术的保护范围之内。当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献