一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像处理方法、智能终端及存储介质与流程

2022-03-16 05:12:05 来源:中国专利 TAG:
1.本技术涉及图像处理
技术领域
:,具体涉及一种图像处理方法、智能终端及存储介质。
背景技术
::2.随着互联网技术和移动客户端的飞速发展,越来越多用户使用智能终端进行学习、娱乐等等,不仅丰富用户生活,还给用户带来便利。智能终端(例如手机、平板电脑等)的功能也越来越强大,例如使用智能终端进行拍照,摄像等。现在的终端对自拍技术的要求越来越高,例如自拍清晰度、对焦、美白、磨皮、图像增强等成为当前手机自拍技术的关键因数。3.在构思及实现本技术过程中,发明人发现至少存在如下问题:一些实现中的美颜方式智能化程度低,美颜模式相对单一,只能够按照预设的美颜方式对用户提供的图片进行美颜处理,而不能提供个性化的美颜需求。例如,在对图片进行美颜时普遍是对于静态图像的全局进行美颜,但是这种方式往往不能满足不同用户对不同人物进行单独美颜的个性化需求,手动美颜又需要非常繁琐的步骤,用户体验较差。4.前面的叙述在于提供一般的背景信息,并不一定构成现有技术。技术实现要素:5.针对上述技术问题,本技术提供一种图像处理方法、智能终端及存储介质,可以根据用户的外貌特征、表情和妆容中的至少一种来自动的进行个性化美颜,从而提升图像处理的多样性以及使用效率。6.为解决上述技术问题,本技术提供一种图像处理方法,可选地,应用于智能终端,包括以下步骤:7.s10:获取初始图像中的至少一目标人像;8.s20:对所述目标人像进行分析,得到所述目标人像的关键信息;9.s30:根据所述关键信息,对所述初始图像进行预设处理,得到目标图像。10.可选地,所述s10步骤包括:11.检测所述初始图像中的至少一个人像;12.分别获取每个人像的人像位置和/或人脸面积;13.根据所述人像位置和/或人脸面积在所述至少一个人像中确定路人人像,对所述路人人像进行剔除后得到所述至少一个目标人像。14.可选地,所述目标人像的关键信息包括性别信息和/或年龄信息,所述s20步骤,包括:15.获取所述目标人像的特征点信息,根据所述特征点信息确定所述目标人像的性别信息;和/或,16.获取所述目标人像的皮肤表层特征信息,根据所述皮肤表层特征信息确定所述目标人像的年龄信息。17.可选地,所述目标人像的关键信息包括人种信息,所述s20步骤,包括:18.获取所述目标人像的肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓;19.根据所述肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓在预设人种信息库中进行匹配,以确定所述目标人像的人种信息。20.可选地,所述s20步骤包括:21.获取所述目标人像的面部图像,在所述面部图像中提取五官形态特征和/或肌肉形态特征;22.根据所述五官形态特征和/或肌肉形态特征确定所述目标人像的关键信息。23.可选地,所述s20步骤包括:24.获取所述目标人像的面部图像,在所述面部图像中提取眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值;25.根据所述眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值确定所述目标人像的关键信息。26.可选地,所述s30步骤还包括:27.将所述关键信息输入至预设网络模型;28.获取所述预设网络模型输出的预测美颜参数。29.可选地,所述s30步骤包括:30.对所述初始图像进行分割处理,分别得到人像图像以及场景图像;31.对所述场景图像进行识别,得到场景类型,对所述人像图像进行识别,得到光线类型;32.根据所述场景类型和光线类型在预设滤镜库中匹配目标滤镜;33.根据所述目标滤镜对所述场景图像进行第一处理,根据所述美颜参数对所述人像图像进行第二处理;34.将经过所述第一处理和第二处理的图像进行合成,得到所述目标图像。35.可选地,所述方法还包括:36.监测终端的内存占用值和/或cpu温度和/或单位时间耗电量;37.若所述内存占用值大于第一预设值和/或cpu温度大于第二预设值和/或单位时间耗电量大于第三预设值,则调整所述美颜参数并根据调整后的美颜参数对所述初始图像进行处理,得到目标图像,和/或,38.减少所述目标人像的数量,并根据减少后的目标人像以及美颜参数对所述初始图像进行处理,得到目标图像。39.为解决上述技术问题,本技术还提供一种图像处理方法,可选地,应用于智能终端,包括以下步骤:40.s10:检测初始图像中的至少一个目标人像,获取所述目标人像的外貌特征信息;41.s20:对所述目标人像进行面部分析,得到所述目标人像的表情信息和/或妆容信息;42.s30:根据所述外貌特征信息、表情信息和妆容信息中的至少一种确定所述目标人像的美颜参数;43.s40:根据所述美颜参数对所述初始图像进行处理,得到目标图像。44.可选地,所述s10步骤包括:45.检测所述初始图像中的至少一个人像;46.分别获取每个人像的人像位置和/或人脸面积;47.根据所述人像位置和/或人脸面积在所述至少一个人像中确定路人人像,对所述路人人像进行剔除后得到所述至少一个目标人像。48.可选地,所述目标人像的外貌特征信息包括性别信息和/或年龄信息,获取所述目标人像的性别信息和/或年龄信息的步骤,包括:49.获取所述目标人像的特征点信息,根据所述特征点信息确定所述目标人像的性别信息;和/或,50.获取所述目标人像的皮肤表层特征信息,根据所述皮肤表层特征信息确定所述目标人像的年龄信息。51.可选地,所述目标人像的外貌特征信息包括人种信息,获取所述目标人像的人种信息的步骤,包括:52.获取所述目标人像的肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓;53.根据所述肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓在预设人种信息库中进行匹配,以确定所述目标人像的人种信息。54.可选地,所述s20步骤包括:55.获取所述目标人像的面部图像,在所述面部图像中提取五官形态特征和/或肌肉形态特征;56.根据所述五官形态特征和/或肌肉形态特征确定所述目标人像的表情信息。57.可选地,所述s20步骤包括:58.获取所述目标人像的面部图像,在所述面部图像中提取眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值;59.根据所述眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值确定所述目标人像的妆容信息。60.可选地,所述s30步骤包括:61.将所述外貌特征信息、表情信息和妆容信息中的至少一种输入至预设网络模型,可选地,所述预设网络模型为以用户历史目标图像作为样本集训练得到的神经网络模型;62.获取所述预设网络模型输出的预测美颜参数。63.可选地,所述s40步骤包括:64.对所述初始图像进行分割处理,分别得到人像图像以及场景图像;65.对所述场景图像进行识别,得到场景类型,对所述人像图像进行识别,得到光线类型;66.根据所述场景类型和光线类型在预设滤镜库中匹配目标滤镜;67.根据所述目标滤镜对所述场景图像进行第一处理,根据所述美颜参数对所述人像图像进行第二处理;68.将经过所述第一处理和第二处理的图像进行合成,得到所述目标图像。69.可选地,所述方法还包括:70.监测终端的内存占用值和/或cpu温度和/或单位时间耗电量;71.若所述内存占用值大于第一预设值和/或cpu温度大于第二预设值和/或单位时间耗电量大于第三预设值,则调整所述美颜参数并根据调整后的美颜参数对所述初始图像进行处理,得到目标图像,和/或72.减少所述目标人像的数量,并根据减少后的目标人像以及美颜参数对所述初始图像进行处理,得到目标图像。73.本技术还提供一种智能终端,包括:存储器、处理器,其中,所述存储器上存储有图像处理程序,所述图像处理程序被所述处理器执行时实现如上任一所述方法的步骤。74.本技术还提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。75.如上所述,本技术的图像处理方法,应用于智能终端,可以检测初始图像中的至少一个目标人像,获取所述目标人像的外貌特征信息,对所述目标人像进行面部分析,得到所述目标人像的表情信息和/或妆容信息,根据所述外貌特征信息、表情信息和妆容信息中的至少一种确定所述目标人像的美颜参数,根据所述美颜参数对所述初始图像进行处理,得到目标图像。本技术可以根据用户的外貌特征、表情和妆容中的至少一种来自动的进行个性化美颜,从而提升图像处理的多样性以及使用效率。附图说明76.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。为了更清楚地说明本技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。77.图1为实现本技术各个实施例的一种智能终端的硬件结构示意图;78.图2为本技术实施例提供的一种通信网络系统架构图;79.图3为本技术实施例提供的图像处理方法的第一种流程示意图;80.图4为本技术实施例提供的图像处理方法的第二种流程示意图;81.图5为本技术实施例提供的图像处理方法中确定目标人像的场景示意图;82.图6为本发明实施例提供的图像处理方法中特征点集合的一种示例图;83.图7为本发明实施例提供的图像处理方法中特征点集合的另一示例图;84.图8为本技术实施例提供的图像处理方法的第三种流程示意图;85.图9为本技术实施例提供的图像处理方法中图像分割的场景示意图;86.图10为本技术实施例提供的图像处理装置的结构示意图;87.图11为本技术实施例提供的另一种图像处理装置的结构示意图。88.本技术目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。通过上述附图,已示出本技术明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本技术构思的范围,而是通过参考特定实施例为本领域技术人员说明本技术的概念。具体实施方式89.这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本技术的一些方面相一致的装置和方法的例子。90.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素,此外,本技术不同实施例中具有同样命名的部件、特征、要素可能具有相同含义,也可能具有不同含义,其具体含义需以其在该具体实施例中的解释或者进一步结合该具体实施例中上下文进行确定。91.应当理解,尽管在本文可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本文范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语"如果"可以被解释成为"在……时"或"当……时"或"响应于确定"。再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。本技术使用的术语“或”、“和/或”、“包括以下至少一个”等可被解释为包括性的,或意味着任一个或任何组合。例如,“包括以下至少一个:a、b、c”意味着“以下任一个:a;b;c;a和b;a和c;b和c;a和b和c”,再如,“a、b或c”或者“a、b和/或c”意味着“以下任一个:a;b;c;a和b;a和c;b和c;a和b和c”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。92.应该理解的是,虽然本技术实施例中的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。93.取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。94.需要说明的是,在本文中,采用了诸如s10、s20等步骤代号,其目的是为了更清楚简要地表述相应内容,不构成顺序上的实质性限制,本领域技术人员在具体实施时,可能会先执行s20后执行s10等,但这些均应在本技术的保护范围之内。95.应当理解,此处所描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。96.在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或者“单元”的后缀仅为了有利于本技术的说明,其本身没有特定的意义。因此,“模块”、“部件”或者“单元”可以混合地使用。97.智能终端可以以各种形式来实施。例如,本技术中描述的智能终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(personaldigitalassistant,pda)、便捷式媒体播放器(portablemediaplayer,pmp)、导航装置、可穿戴设备、智能手环、计步器等移动终端,在其他实施例中还可以包括诸如数字tv、台式计算机等固定终端。98.后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本技术的实施方式的构造也能够应用于固定类型的终端。99.请参阅图1,其为实现本技术各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:rf(radiofrequency,射频)单元101、wifi模块102、音频输出单元103、a/v(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。100.下面结合图1对移动终端的各个部件进行可选地介绍:101.射频单元101可用于收发信息或通话过程中,信号的接收和发送,可选地,将基站的下行信息接收后,给处理器110处理;可选地,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于gsm(globalsystemofmobilecommunication,全球移动通讯系统)、gprs(generalpacketradioservice,通用分组无线服务)、cdma2000(codedivisionmultipleaccess2000,码分多址2000)、wcdma(widebandcodedivisionmultipleaccess,宽带码分多址)、td-scdma(timedivision-synchronouscodedivisionmultipleaccess,时分同步码分多址)、fdd-lte(frequencydivisionduplexing-longtermevolution,频分双工长期演进)、tdd-lte(timedivisionduplexing-longtermevolution,分时双工长期演进)和5g等。102.wifi属于短距离无线传输技术,移动终端通过wifi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了wifi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。103.音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或wifi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。104.a/v输入单元104用于接收音频或视频信号。a/v输入单元104可以包括图形处理器(graphicsprocessingunit,gpu)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或wifi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。105.移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。可选地,光传感器包括环境光传感器及接近传感器,可选地,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。106.显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(liquidcrystaldisplay,lcd)、有机发光二极管(organiclight-emittingdiode,oled)等形式来配置显示面板1061。107.用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。可选地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。可选地,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。可选地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。108.可选地,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。109.接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(i/o)端口、视频i/o端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。110.存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,可选地,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。111.处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,可选地,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。112.移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。113.尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。114.为了便于理解本技术实施例,下面对本技术的移动终端所基于的通信网络系统进行描述。115.请参阅图2,图2为本技术实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的lte系统,该lte系统包括依次通讯连接的ue(userequipment,用户设备)201,e-utran(evolvedumtsterrestrialradioaccessnetwork,演进式umts陆地无线接入网)202,epc(evolvedpacketcore,演进式分组核心网)203和运营商的ip业务204。116.可选地,ue201可以是上述移动终端100,此处不再赘述。117.e-utran202包括enodeb2021和其它enodeb2022等。可选地,enodeb2021可以通过回程(backhaul)(例如x2接口)与其它enodeb2022连接,enodeb2021连接到epc203,enodeb2021可以提供ue201到epc203的接入。118.epc203可以包括mme(mobilitymanagemententity,移动性管理实体)2031,hss(homesubscriberserver,归属用户服务器)2032,其它mme2033,sgw(servinggateway,服务网关)2034,pgw(pdngateway,分组数据网络网关)2035和pcrf(policyandchargingrulesfunction,政策和资费功能实体)2036等。可选地,mme2031是处理ue201和epc203之间信令的控制节点,提供承载和连接管理。hss2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过sgw2034进行发送,pgw2035可以提供ue201的ip地址分配以及其它功能,pcrf2036是业务数据流和ip承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。119.ip业务204可以包括因特网、内联网、ims(ipmultimediasubsystem,ip多媒体子系统)或其它ip业务等。120.虽然上述以lte系统为例进行了介绍,但本领域技术人员应当知晓,本技术不仅仅适用于lte系统,也可以适用于其他无线通信系统,例如gsm、cdma2000、wcdma、td-scdma以及未来新的网络系统(如5g)等,此处不做限定。121.基于上述移动终端硬件结构以及通信网络系统,提出本技术各个实施例。122.请参阅图3,图3是本技术实施例提供的图像处理方法的第一种流程示意图。该图像处理方法的流程可以包括:123.s11、检测初始图像中的至少一个目标人像,获取目标人像的外貌特征信息。124.本技术实施例的执行主体可以为智能终端,也可以为设置在智能终端中的图像处理装置。可选地,图像处理装置可以通过软件实现,也可以通过软件和硬件的结合实现。上述智能终端可以为智能手机、平板电脑、笔记本电脑、超级移动个人计算机(英文:ultra-mobilepersonalcomputer,简称:umpc)、上网本、个人数字助理(英文:personaldigitalassistant,简称:pda)等终端设备,且不限于此。125.可选地,需要先获取初始图像,获取该初始图像的具体实现方式,可以是获取具有数字图像格式(例如bmp、jpg等)的人物照片,比如由数码相机或手机即时拍照生成人物照片。本领域技术人员易于想到的是,还可以通过视频截图、照片扫描等方式获取人物图像,本发明实施例对此不加以限定。126.可选地,初始图像为包含人脸的图像,电子设备还可以从本机和/或其它设备中的多用户家庭共享相册中获取图像,还可为其它设备中所共享的图像,该共享的图像为电子设备具有访问权限的多用户家庭共享相册中的图像,识别并获取该图像中的人脸。127.电子设备可接收图像获取指令,该获取指令可开启电子设备的摄像装置并对当前的场景进行拍摄。针对获取的图像,可进一步判断该图像中是否存在人脸,若存在,则继续检测初始图像中的至少一个目标人像。128.考虑到若当前画面中存在至少一个人像,还可以进一步确定上述至少一个人像中的目标人像,比如用户点击选取目标人像,进而选取该目标人像的外貌特征信息。可选地,上述外貌特征信息可以包括脸部特征信息,比如通过人脸识别技术来进行获取,人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术,通常也叫做人像识别或面部识别等等。可选地,上述人脸识别技术可以采用基于haar特征的adaboost(adaptiveboosting,自适应增强)算法对原始图像中的人脸进行检测,或者采用其他算法对原始图像中的人脸进行检测,本实施例对此不做限定。129.作为一种可能的实现方式,还可以预先获取注册用户的脸部特征信息,比如,胎记等特殊标记特征、鼻子、眼睛等五官部位的形状和位置特征等,然后分析原始图像中的二维人脸图像,比如采用图像识别的技术提取用户的脸部特征,查询预先注册的脸部数据库,判断是否存在对应的脸部特征,若存在,则确定用户已经注册;和/或,若不存在,则确定用户没有注册。针对注册的用户,可以直接从数据库中获取该用户相关的外貌特征信息。可选地,上述数据库中可以存储注册用户与外貌特征信息之间的映射关系。130.可选地,人像外貌特征信息可以包括以下至少一种:人物身份、人种、年龄或者性别等等。131.例如,上述脸部数据库中存储了人脸与人物身份、人种、年龄或者性别的对应关系,将目标人像中的人脸与该数据库中人脸进行匹配,即可获得图像中的人脸对应的人物身份、年龄或者性别。可选地,针对上述脸部数据库中没有匹配到的目标人像,可以针对目标人像进行特征提取,并根据特征信息来确定该目标人像的外貌特征信息,可选地,外貌特征信息用于确定美颜参数。132.s12、对目标人像进行面部分析,得到目标人像的表情信息和/或妆容信息。133.可选地,可以先对目标人像进行面部分析,提取五官特征,然后将五官特征信息输入到预设的表情分类器当中,以得到所述用户的预测表情信息。134.表情类型可以包括但不限于严肃、微笑、憨笑、卖萌、搞怪等。可选地,表情类型用于确定美颜参数,美颜参数与表情类型信息对应,不同的美颜参数对应不同的美颜风格。135.可选地,还可以通过对目标人像进行面部分析,提取肤色特征和肤质特征来确定目标人像的妆容信息。可选地,肤色特征可用于表示人脸皮肤的呈现的颜色、亮暗等,肤色特征可包括人脸区域中皮肤区域的颜色信息及亮度信息等。肤质特征可用于表示人脸皮肤的状态,肤质特征可包括人脸区域中皮肤区域的纹理信息、边缘信息、边缘强度等,可选地,纹理信息指的是皮肤区域的纹理分布情况,例如纹理粗细、疏密等,边缘信息则可包含皮肤区域中出现阶跃性变化或屋脊变化的像素点,边缘强度可指的是出现阶跃性变化或屋脊变化的像素点的变化程度。136.在一个实施例中,智能终端可对目标图像进行人脸识别后,可先确定人脸区域中的皮肤区域,再从皮肤区域中提取肤色特征、肤质特征等面部特征。可选地,电子设备可计算皮肤区域中包含的各个像素点在yuv颜色空间中各个分量的均值,并将该均值作为皮肤区域的肤色特征。yuv颜色空间可包括亮度信号y和两个色度信号b-y(即u)、r-y(即v),可选地,y分量表示明亮度,可以是灰阶值,u及v表示色度,可用于描述图像的色彩及饱和度,yuv颜色空间的亮度信号y和色度信号u、v是分离的。电子设备可计算皮肤区域中包含的所有像素点在y分量、u分量及v分量的均值,并将在y分量、u分量及v分量的均值作为肤色特征。137.可选地,智能终端提取肤质特征,可先对皮肤区域进行边缘检测,得到皮肤区域的边缘信息及纹理信息,可选地,边缘信息可包括边缘像素点的位置或方向等信息。边缘检测可采用多种边缘检测算子,例如robertscross算子,prewitt算子,sobel算子,kirsch算子,罗盘算子等。电子设备通过边缘检测可找到皮肤区域中灰度值发生阶跃性变化或屋脊变化等的像素点,该灰度值发生阶跃性变化或屋脊变化等的像素点可确定为皮肤区域中的边缘像素点。智能终端采集边缘像素点的位置或方向等信息后,可根据边缘像素点的位置或方向等信息计算纹理复杂度,得到皮肤区域的肤质特征。138.妆容类型可以包括但不限于无妆、淡妆、浓妆等。可选地,妆容类型用于确定美颜参数,美颜参数与妆容类型信息对应,不同的美颜参数对应不同的美颜风格。139.s13、根据外貌特征信息、表情信息和妆容信息中的至少一种确定目标人像的美颜参数。140.可选地,上述美颜参数包括针对多个类型的参数,比如肤色、肤质、脸型、耳形、眉形、眉色、发色、唇色、瞳孔颜色、五官位置、五官与人脸的大小比例等分别对应的参数。在获取到上述外貌特征信息、表情信息和妆容信息中的至少一种之后,便可以基于此生成对应目标人像的美颜参数。141.以根据外貌特征信息设置美颜参数进行举例,若目标人像的人种为白种人和黄种人,则与该人种对应的美颜参数可以为美白和红润目标人像的皮肤颜色;和/或,若目标人像的人种为黑人,则与该人种对应的美颜参数可以为提亮目标人像的皮肤颜色,且提亮的强度与年龄的大小有正向关系;和/或,若目标人像的性别为女人,则与该性别对应的美颜参数可以为缩小目标人像的皮肤表层毛孔,且缩小的程度与年龄的大小有反向关系;和/或,若目标人像的性别为男人,则与该性别对应的美颜参数可以为保持或者缩小目标人像的皮肤表层毛孔;和/或,根据用户的年龄选择与年龄对应的预先设置的阈值内的目标人像的皮肤表层皱纹。142.以根据表情信息设置美颜参数进行举例,若表情类型为严肃,则可以将包含目标人像的初始图像识别为证件照或在正式场合获取的图像,其对应的美颜参数可以为基础美颜参数,基础美颜参数包括但不限于图像颜色调整参数、噪点修改参数等,噪点修改参数用于改变肤色(改变肤色可实现美白、腮红的效果)、皮肤平滑度等;和/或,若表情类型为憨笑、卖萌或搞怪,则其对应的美颜参数可以包括基础美颜参数,还可以包括五官形变调整参数,五官形变调整参数包括眼睛调整参数、耳朵形变调整参数、脸部形变调整参数。眼睛调整参数可用于实现大眼的美颜效果,耳朵形变调整参数可实现尖耳、大耳等美颜效果。脸部形变调整参数用于改变脸部轮廓。143.以妆容信息设置美颜参数进行举例,若妆容类型为无妆,则可以适当提升美颜参数的值;和/或,若妆容类型为淡妆,则可以适当降低美颜参数的值;和/或,若妆容类型为浓妆,则其对应的美颜参数可以为基础美颜参数,还可以不对该目标人像进行美颜,也即不设置其美颜参数。144.在一申请实施例中,在步骤s13之前,还可以先获取预设网络模型,可选地可以是:建立美颜模型,所述美颜模型可以包括特征提取卷积层、非线性映射卷积层和重构卷积层;设置美颜代价函数,所述美颜代价函数包括内容代价函数和风格代价函数;根据所述美颜模型和所述美颜代价函数,利用大数据(例如大量用户美颜前后的照片,美颜前照片的外貌特征信息、表情信息和妆容信息中的至少一种作为数据集x,美颜后照片的美颜参数作为标签y)训练上述美颜模型,并将该美颜模型存储至智能终端。145.可选地,特征提取卷积层可以用于提取输入照片的初级特征;非线性映射卷积层可以用于提取输入照片的高级特征,非线性映射卷积层可以有若干个;重构卷积层可以用于上采样重构出于美颜后照片分辨率相同的照片。内容代价函数可以用于表征美颜后照片的内容与输入照片的内容的差别;风格代价函数可以用于表征美颜后照片的风格与输入照片的风格的差别。在训练完成后只需把获取到的上述目标人像的外貌特征信息、表情信息和妆容信息中的至少一种输入至预设网络模型,即可得到输出的预测美颜参数。也即,所述s13步骤可以包括:146.将所述外貌特征信息、表情信息和妆容信息中的至少一种输入至预设网络模型,可选地,所述预设网络模型为以用户历史目标图像作为样本集训练得到的神经网络模型;147.获取所述预设网络模型输出的预测美颜参数。148.s14、根据美颜参数对初始图像进行处理,得到目标图像。149.可选地,由于拍初始图像中待美颜的目标人像图像的区域不同,所拍摄的人像图像的亮度可能会较低,如果人像图像的亮度很低,在进行人脸美颜时,很难区分细节区域和平坦区域,因此,在获取到待目标人像的图像后,可以先对人像图像进行暗区细节提升的操作。比如可以针对于人像图像的亮度低于预设阈值的情况,采用预设像素值校正算法来调整人像图像的像素值,使得人像图像的亮度可以达到预设阈值。150.可选地,根据美颜参数对初始图像进行处理的步骤可以包括根据肤色、肤质对应的参数进行磨皮,根据眉色、发色、唇色、瞳孔颜色对应的参数进行调色,根据脸型、耳形、眉形对应的参数进行瘦脸、修耳、修眉等。可选地,以人脸磨皮为例进行说明,终端系统中可以存储预设人脸磨皮算法,预设人脸磨皮算法为进行人脸磨皮处理时所采用的图像滤波的算法,例如双边滤波算法、non-local-means(非局部均值)滤波算法、bm3d(block-matchingand3d,3维块匹配)滤波算法等。由于non-local-means滤波算法、bm3d滤波算法的算法复杂度较高,计算资源受限等因素,因此,在实际应用中,通常采用双边滤波算法。151.需要说明的是,在人脸磨皮的过程中,为了能够保留眼睛、鼻子、嘴巴、刘海等附近的细节,还可以对纹理复杂度权重较大的像素点进行轻度的磨皮或者不磨皮,对纹理复杂度权重较小的像素点(如面部、额头等区域的像素点)进行重点磨皮。对人像图像进行加权计算,使得细节区域得以保留,而平坦区域得到磨皮处理。152.可选地,对初始图像中的目标人像进行处理的方式除了上述美颜外,还可包括亮度优化、清晰度提高、去噪处理、障碍物处理等,以保证原始人脸三维模型较为精确。153.可选地,本实施例还可以根据目标人像的人脸朝向和人脸各器官的三维结构,在平面上根据美颜参数绘制五官形状图像以及皮肤图像,再通过三维变换,将平面上的皮肤图像旋转到与人脸一致的角度,最后将旋转后的皮肤图像贴附在待美颜的人像图像上,从而得到目标图像。154.可选地,上述美颜参数还可以包括美颜级别,本技术可以在根据美颜参数对初始图像进行处理的过程中,接收用户指令,并根据用户指令调整美颜级别。例如,美颜级别设置有1至4四个级别,可选地,1级别表示不美颜,2级别表示轻度美颜,3级别表示中度美颜,4级别表示深度美颜。可选地,用户指令可以是用户通过手指或触控工具(如触控笔)在智能终端上滑动屏幕页面,或,用户指令可以是用户通过手指或触控工具在智能终端上点击屏幕页面,或,用户指令可以是用户通过手指或触控工具在智能终端上快速双击屏幕页面,或,用户指令可以是用户通过手指或触控工具对智能终端的屏幕页面进行隔空手势操作等。可选地,进行操作的手指的数量可以是一个,也可以是多个,可以根据具体场景选择相应的手指数量。本技术实施例对用户指令的具体形式不做特别限制,只要该用户指令代表确定美颜级别即可。由于用户指令的形式可以是多种多样的,这样可以提高操作方式的灵活性,同时可以提升用户体验。155.可选地,可以在智能终端的屏幕页面上显示一个进度条,包含1至4四个美颜级别,然后接收用户按照预设方向的滑动操作,从而确定用户设置的美颜级别,可选地,预设方向的滑动操作指的是软件预先设定好滑动方向,通过手指或触控工具在智能终端的屏幕页面上按照预先设定的滑动方向进行滑动。可选地,预设方向可以是从上往下的方向、预设方向可以是从下往上的方向、预设方向可以是先上下方向再左右方向、预设方向可以是先左右方向再上下方向、预设方向可以是顺时针方向的上半圆、预设方向可以是逆时针方向的下半圆、预设方向可以是顺时针方向的弧线等等。本技术实施例对预设方向的具体形式不做特别限制,可以根据具体需求进行相应调整。156.可选地,用户指令可以是点击、双击、预设方向的滑动操作、隔空手势中的任意一种,也可以是点击、双击、预设方向的滑动操作、隔空手势中任意两项或多项的组合。用户指令是点击、双击、预设方向的滑动操作、隔空手势中的任意一种时,可以节省操作时间。当用户指令是点击、双击、预设方向的滑动操作、隔空手势中任意两项或多项的组合时,可以增加信息的安全性。可选地,指令可以是点击与隔空手势的组合、双击与预设方向的滑动操作的组合、双击与隔空手势的组合、预设方向的滑动操作与隔空手势的组合等等。由于用户指令的方式可以是多种多样的,不仅可以提高用户操作的灵活性,还能满足不同用户的喜好及使用习惯,提升用户体验。157.本发明提供的图像处理方法,对初始图像进行处理、修改,通常是通过图片处理软件,对图片进行调色、抠图、合成、明暗修改、彩度和色度的修改、添加特殊效果、编辑、修复等等。例如,人像美颜、图片美化等,美颜处理的方法包括但不限于美白、磨皮、瘦脸、放大、拉长、祛痘等,美化处理的方法包括但不限于裁剪、倾斜、各种滤镜等。当然,本领域的技术人员也可以根据实际需要设置其他的图像处理方法。158.由上可知,本技术实施例可以检测初始图像中的至少一个目标人像,获取所述目标人像的外貌特征信息,对所述目标人像进行面部分析,得到所述目标人像的表情信息和/或妆容信息,根据所述外貌特征信息、表情信息和妆容信息中的至少一种确定所述目标人像的美颜参数,根据所述美颜参数对所述初始图像进行处理,得到目标图像。本技术可以根据用户的外貌特征、表情和妆容中的至少一种来自动的进行个性化美颜,从而提升图像处理的多样性以及使用效率。159.本技术实施例还提供一种图像处理方法,请参阅图4,图4是本技术实施例提供的图像处理方法的第二种流程示意图,该方法包括:160.s21、检测初始图像中的至少一个人像,分别获取每个人像的人像位置和/或人脸面积。161.可选地,可以通过人脸识别技术来进行获取初始图像中的至少一个人像,而考虑到用户在拍摄时经常将路人也拍摄进画面当中,而路人则是无需进行美颜处理的,因此本实施例还可以进一步将初始图像中的路人人像进行剔除,具体可以根据初始图像中每个人像的人像位置和/或人脸面积来对路人进行识别以及剔除。162.s22、根据人像位置和/或人脸面积在至少一个人像中确定路人人像,对路人人像进行剔除后得到至少一个目标人像。163.在获取到初始图像中每个人像的人像位置和/或人脸面积之后,便可以将人脸面积小于预设面积,且人像位置位于初始图像的边缘位置的人像确定为路人,并对该路人的人像进行剔除,从而得到至少一个目标人像。其中上述预设面积可以为最大人脸面积的预设比例,比如最大人脸面积的50%,边缘区域可以为与图像边界的距离小于预设值的位置。164.举例来说,请参阅图5,图5为本技术实施例提供的确定目标人像的场景示意图,在该图中,初始图像中包含三个人像,而通过计算可知第三人像的人脸面积小于最大人脸面积也即第一人像的人脸面积的50%,且第一人像的位置也位于该初始图像的边缘位置,因此可以将第三人像确定为路人人像,而剩余的第一人像和第二人像即为目标人像。165.s23、获取目标人像的性别信息和/或年龄信息和/或人种信息。166.可选地,获取目标人像的性别信息的步骤,可以包括:获取目标人像的特征点信息,根据特征点信息确定目标人像的性别信息。167.可选地,对于性别的识别,可以采用将人脸上的局部器官(例如五官)特征分别训练的分类器和人脸整体特征的分类器相结合的分类器融合方式,构造融合分类器来进行性别识别,从而提高识别准确率;并采用2dpca的方法对图像进行降维,采用2dlda作为分类方法,在保证检测精度的基础上,减小了运算量,提升了训练和检测速度。可选地:168.(1)对图像进行预处理:对图像依次进行灰度化、直方图均衡化以及中值滤波处理。169.灰度化:采用加权平均值法。图像一般可以分为彩色图像和灰度图像,彩色图像的像素点是由r(红色)、g(绿色)、b(黑色)三种颜色组成,灰度图像只含有亮度信息,不含彩色信息,例如彩色图像的灰度化,常采用经验式:gray=0.39*r 0.5*g 0.11*b。170.直方图均衡化:将各灰度级分量平均布满空间,直方图上表现为由密集的灰度分布变为均匀的分布,从而增强图像的对比度,可以降低光线对图像的干扰,使得特征容易提取。171.中值滤波:其本质是一种统计排序的滤波器。对于原图像中某点,中值滤波处理过程以该点为中心的邻域内所有像素的统计排序中值为该点的响应。中值滤波对某些类型的随机噪声具有较好的降噪能力,与线性平滑滤波相比,其在降低噪声的同时不会引起较高的模糊效应。172.(2)人脸区域检测:采用基于级联分类模型的分类器adaboost(adaptiveboosting)方法设计分类器,对一张图像进行人脸检测,提取图像中存在的人脸。173.大部分运行效率较高的智能算法都是通过提取高效以及利于识别和处理的特征实现的,而adaboost算法也是一样的,adaboost是freund和schapire在pac(probablyapproximatelycorrect)模型基础上提出的一种学习模型,它的算法思想是:通过对大量正样本和负样本的学习,通过学习的反馈,弱分类器在不知道先验的训练误差的前提下,自适应的调整错误率以及相应的权重,直到强分类器达到预定的性能,将adaboost算法应用于人脸检测,同时将haar特征和cascade算法和adaboost算法结合,大大提高检测的速度和检测的精确率。174.(3)人脸局部器官区域截取:通过之前的步骤,已经从一张图像中获取了一张人脸图像,先将其尺寸归一化,之后从其中提取至少一个人脸局部器官图像,可以分别提取左眼、右眼、眉毛、嘴巴、鼻子这五官。例如,用于人脸区域中眼睛区域检测的分类器可以由adaboost学习算法训练得到,需要注意的是选取样本的问题,正样本为人眼区域图像,而训练负样本则由两部分构成,一部分是除去人眼区域的整幅人脸图像,另一部分是将原图像中人眼区域四周的子窗口图像,用类似的方式可以截取人脸的双眼图像。175.(4)特征降维:采用2dpca(two-dimensionalprincipalcomponentanalysis,二维主成分分析)的方法。176.pca(principalcomponentanalysis)在模式识别和计算机视觉领域是一个经典的特征提取和数据降维的工具,而2dpca方法是在pca的基础之上发展起来的一种新型的主成分分析方法,相对于传统的pca方法,2dpca是基于二维图像矩阵的,而非一维图像向量。这种处理方法不需要事先把图像转成一维的向量,相当于去除了图像的行向量或列向量的相关性。在2dpca中,用二维图像矩阵直接构建一个协方差矩阵,求出此协方差矩阵特征值和特征向量,并用对应于最大几个特征值对应的特征向量构建坐标系,然后将每个图像矩阵在这个坐标系上投影,从而得到图像的特征,这种特征受样本个数的影响较小。与pca构造的协方差矩阵相比,使用2dpca的协方差矩阵要小很多,其主要优点有:直接地计算训练样本的写法差矩阵;计算特征值特征向量所需要的时间比较少。177.(5)模式分类:本技术实施例可以采用2dlda(two-dimensionallineardiscriminationanalysis,二维线性判别分析)方法。178.2dlda也是一种直接基于二维图像矩阵的方法,分别计算二维图像的类内和类间散度矩阵,在一定最优准则下确定最优的投影坐标系。将原始图像向坐标系投影得到人脸图像的2dlda特征,2dlda方法运算量小,有效利用了人脸图像的空间结构信息。179.(6)五官贡献权重大小的确定以及融合:180.获得每个子分类器的准确率pi(i=1,2,…6),初步确定每个子分类器的权重qi=pi/∑pi;比较简单的融合方法是加法和乘法。181.可选地,性别的识别还可以结合其他方式,举例来说,可以识别并获取图像中的目标特征,可以为胡须、饰品、发型、喉结以及眉毛中的一种或多种,如当目标特征为胡须时,其对应的目标特征信息可以为有胡须(特征值为1)或无胡须(特征值为0),确定有胡须对应的性别为男性,无胡须时再根据其它目标特征,如发型、饰品、喉结或眉毛等,进一步确定目标人像的性别,又如当目标特征为饰品,如发卡或耳坠等时,其对应的目标特征信息可以为有饰品或无饰品,确定有饰品对应的性别为即女性,无饰品时再根据其它目标特征进一步确定目标人像的性别;当目标特征为喉结时,其对应的目标特征信息可以为有喉结或没喉结,当目特征信息为有喉结时,确定目标人像的目标性别为男性,当目标特征信息为无喉结时,确定目标人像的目标性别为女性,本发明实施例不做限定。182.获取目标人像的年龄信息的步骤,可以包括:获取目标人像的皮肤表层特征信息,根据皮肤表层特征信息确定目标人像的年龄信息。183.可选地,对于年龄的识别,可以参照性别识别的二类分类算法,利用回归方程或多类分类算法,根据样本进行聚类分类训练。184.在一个人从小孩长成青年人的过程中,人脸部骨骼不断生长,从而脸型不断变长变大,相貌也随之发生变化,由青年人不断衰老变成老年人的过程中,皮肤的肤色、皱纹也会随之变化,因此,年龄识别率会随着人的年龄变化而急剧下降。现今主流的年龄识别方法是,基于人脸模型和年龄函数的方法,其中年龄函数由多组已知年龄的人的人脸图像训练获得,基于这个方法,可以为以下四类:185.(1)构建全局年龄函数:通过大量的训练图像,构件一个全局年龄函数,通过直接使用这个函数,计算出目标人脸图像的年龄。186.(2)外观特定的年龄函数:这种年龄函数以面部特征划分输入。在这种方法下,我们认为对于面部特征类似的个体,其老化过程也是十分相似的,通过输入一张人脸图像,寻找与之有着相似特征的年龄函数,然后计算其年龄。187.(3)加权年龄函数:加权年龄函数与外观特定的年龄函数相似,但其是通过输入图像,找不到与之有着相似特征的图像所计算出的年龄函数,这时使用所有年龄函数对该人脸图像的年龄进行估算,然后对其进行加权,从而得到估算结果。188.(4)加权个人特殊年龄函数:这种方法对输入要求较高,不仅要求有人脸图像,还要有性别、健康、生活水平、经济状况、压力水平、工作条件、婚姻状况、居住地点、接触到的天气条件等因素,计算过程包含加权年龄函数与外观特定的年龄函数,同时对非图像信息的影响进行加权计算。189.获取目标人像的人种信息的步骤,可以包括:190.获取目标人像的肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓;191.根据肤色和/或眼球色和/或发色和/或头部轮廓和/或脸部轮廓在预设人种信息库中进行匹配,以确定目标人像的人种信息。192.s24、获取目标人像的面部图像,在面部图像中提取五官形态特征和/或肌肉形态特征。193.s25、根据五官形态特征和/或肌肉形态特征确定目标人像的表情信息。194.可选地,本技术实施例可以在获取目标人像的面部图像后,对面部图像进行识别并采集面部图像中的特征点集合,然后根据特征点集合确定五官形态特征和/或肌肉形态特征。195.请参阅图6,图6为本发明实施例提供的图像处理方法中特征点集合的一种示例图。比如,首先可以选取人脸的9个特征点,这些特征点的分布具有角度不变性,分别为2个眼球中心点、4个眼角点、两鼻孔的中点以及2个嘴角点。然后,再根据这9个特征点进一步选取更多的特征点,可以得到眼睛轮廓的16个特征点、鼻子轮廓的8个特征点、嘴唇的16个特征点以及脸部轮廓的18个特征点等等,从而能够得到更完整的该人脸图像的特征点集合。196.需要说明的时,由于人脸表情的不同可能会引起嘴唇形状有较大的变动,并且嘴唇区域比较容易受到胡须等因素的干扰,因此唇部区域的特征点提取的准确性会受到较大的影响。由于嘴角点的位置受表情等影响相对变动较小,角点的位置较准确,所以采取唇部区域的重要特征点为两个嘴角点的定位方式。197.继续参阅图7,图7为本发明实施例提供的图像处理方法中特征点集合的另一示例图。通过特征点的采集可以确定依次以顶点19、20、21、22、23、24、25、26为路径圈出的区域以及依次以顶点27、28、29、30、31、32、33、34为路径圈出的区域为眉毛。依次以顶点35、36、37、38、39、40、41、42、43为路径圈出的区域以及依次以顶点44、45、46、47、48、49、50、51、52为路径圈出的区域为眼睛。依次以顶点54、56、58、59、60、61、62、64为路径圈出的区域为鼻子。依次以顶点65、66、67、68、69、70、71、72、73、74、75、76、77、78、79、80、81、82为路径圈出的区域为嘴。198.在获取到上述五官形态特征后,便可以在表情数据库中进行匹配,并将相似度最高的预设表情确定为目标人像的表情信息。表情类型可以包括但不限于严肃、微笑、憨笑、卖萌、搞怪等。可选地,表情类型用于确定美颜参数,美颜参数与表情类型信息对应,不同的美颜参数对应不同的美颜风格。199.s26、在面部图像中提取眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值。200.s27、根据眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值确定目标人像的妆容信息。201.举例来说,可以通过妆容检测技术来确定目标人像的妆容信息,可选地,可以判断眉形状态:有无眉毛以及双眉是否对称;眼皮状态:上眼皮区域是否非肤色颜色(有眼影效果);脸颊状态:脸颊两侧是否为肤色颜色(非肤色颜色,则有腮红);嘴唇状态:嘴唇区域是否属于口红色范围(位于预设颜色区间内,则认为有口红);皮肤亮暗差异值是否超出阈值(超出则确定为有修容);以此来综合判断目标人像的妆容信息,上述妆容类型可以包括但不限于无妆、淡妆、浓妆等。可选地,妆容类型用于确定美颜参数,美颜参数与妆容类型信息对应,不同的美颜参数对应不同的美颜风格。202.s28、根据性别信息和/或年龄信息和/或人种信息、表情信息和/或妆容信息确定目标人像的美颜参数。203.可选地,本技术实施例可以将上述性别信息和/或年龄信息和/或人种信息、表情信息和/或妆容信息输入至预设的fasterrcnn网络中进行分类训练,得到所述美颜预测模型,输出结果为美颜参数的预测值。204.本步骤中,该fasterrcnn网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学网络模型,具有自学习和自适应的能力。它本质上是一种输入到输出的映射,它能够学习大量的输入与输出的映射关系,而不需要任何输人和输出之间的精确的表达式,只要用已知的模式对网络加以训练,网络就具有输入输出之间的映射能力。205.可以预先将调整好的人脸差异特征数据构成的反馈网络输入fasterrcnn进行训练,学习人脸特征在样本图像和特征图像的差异变化情况,即学习如何对某项人脸特征的美颜处理方法,根据该学习到美颜处理方法,得到美颜预测模型。206.s29、根据美颜参数对初始图像进行处理,得到目标图像。207.可选地,根据美颜参数对初始图像进行处理的步骤可以包括根据肤色、肤质对应的参数进行磨皮,根据眉色、发色、唇色、瞳孔颜色对应的参数进行调色,根据脸型、耳形、眉形对应的参数进行瘦脸、修耳、修眉等。对初始图像中的目标人像进行处理的方式除了上述美颜外,还可包括亮度优化、清晰度提高、去噪处理、障碍物处理等,以保证原始人脸三维模型较为精确。208.由上可知,本技术实施例可以检测初始图像中的至少一个人像,分别获取每个人像的人像位置和/或人脸面积,根据人像位置和/或人脸面积在至少一个人像中确定路人人像,对路人人像进行剔除后得到至少一个目标人像,获取目标人像的性别信息和/或年龄信息和/或人种信息,获取目标人像的面部图像,在面部图像中提取五官形态特征和/或肌肉形态特征,根据五官形态特征和/或肌肉形态特征确定目标人像的表情信息,在面部图像中提取眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值,根据眉毛状态和/或眼皮颜色和/或脸颊颜色和/或嘴唇颜色和/或皮肤亮暗差异值确定目标人像的妆容信息,根据性别信息和/或年龄信息和/或人种信息、表情信息和/或妆容信息确定目标人像的美颜参数,根据美颜参数对初始图像进行处理,得到目标图像。本技术可以根据用户的性别信息和/或年龄信息和/或人种信息、表情信息和/或妆容信息来自动的进行个性化美颜,从而提升图像处理的多样性以及使用效率。209.本技术实施例还提供一种图像处理方法,请参阅图8,图8是本技术实施例提供的图像处理方法的第三种流程示意图。该图像处理方法的流程可以包括:210.s31、检测初始图像中的至少一个目标人像,获取目标人像的外貌特征信息。211.s32、对目标人像进行面部分析,得到目标人像的表情信息和/或妆容信息。212.s33、根据外貌特征信息、表情信息和妆容信息中的至少一种确定目标人像的美颜参数。213.可选地,上述步骤s31至s33的相关内容可参考步骤s11至s13的描述,本实施例不在进一步赘述。214.s34、对初始图像进行分割处理,分别得到人像图像以及场景图像。215.可选地,本实施例可以通过图片分割技术,对人像和非人像区域的画面进行分割。如图9所示,图9为本技术实施例提供的图像处理方法中图像分割的场景示意图。可选地,可以先通过人脸识别确定初始图像中的目标人像,然后再将人像图像与场景图像进行分割。需要说明的是,在确定目标人像时,还可以对场景中路人的人像进行剔除,以使分割后的人像图像与场景图像都没有路人的人像。216.s35、对场景图像进行识别,得到场景类型,对人像图像进行识别,得到光线类型,根据场景类型和光线类型在预设滤镜库中匹配目标滤镜。217.可选地,上述场景类型可以包括室内、公园、派对、建筑等。光线类型包括人脸上照射光的角度,分别为顺光、逆光以及侧光,具体可以通过人脸区域的亮度、背景区域亮度来判断,比如若脸部的左右两侧、额头、下巴等区域的亮度差小于第一亮度阈值,每个区域亮度均大于第二亮度阈值,人像区域亮度均值高于背景区域亮度均值,则为顺光;和/或,若脸部的左右两侧、额头、下巴等区域的亮度差小于第一亮度阈值,每个区域亮度均大于第二亮度阈值,人像区域亮度均值低于背景区域亮度均值,则为逆光;和/或,若脸部的左、右两侧区域的亮度差大于第三亮度阈值,则为侧光。218.在获取到上述场景类型和光线类型后就可以在预设滤镜库中匹配与场景类型和光线类型相似度最高的场景样本以及该样本对应的目标滤镜。219.s36、根据目标滤镜对场景图像进行第一处理,根据美颜参数对人像图像进行第二处理,将经过第一处理和第二处理的图像进行合成,得到目标图像。220.可选地,将上述场景图像加上滤镜,并根据美颜参数处理人像图像后,便可以将处理后的场景图像和人像图像进行合成,生成最终的目标图像。221.可选地,该方法还可以包括:222.监测终端的内存占用值和/或cpu温度和/或单位时间耗电量;223.若内存占用值大于第一预设值和/或cpu温度大于第二预设值和/或单位时间耗电量大于第三预设值,则调整美颜参数并根据调整后的美颜参数对初始图像进行处理,得到目标图像,和/或224.减少目标人像的数量,并根据减少后的目标人像以及美颜参数对初始图像进行处理,得到目标图像。225.举例来说,当智能终端后台的内存占用超过或60%和/或cpu温度超过60°和/或单位时间耗电量超过每分钟200ma时,则可以减少支持人像美颜适配的个数,比如可以在预览界面提醒,由用户自由选择画面中2人支持美妆效果,或者美颜强度自动降低,比如从浓妆美颜自动减低为淡妆美颜,或者仅开放3个五官部位妆容的适配等,从而保证功耗的稳定性,减少发烫发热的不良用户体验。226.由上可知,本技术实施例可以检测初始图像中的至少一个目标人像,获取目标人像的外貌特征信息,对目标人像进行面部分析,得到目标人像的表情信息和/或妆容信息,根据外貌特征信息、表情信息和妆容信息中的至少一种确定目标人像的美颜参数,对初始图像进行分割处理,分别得到人像图像以及场景图像,对场景图像进行识别,得到场景类型,对人像图像进行识别,得到光线类型,根据场景类型和光线类型在预设滤镜库中匹配目标滤镜,根据目标滤镜对场景图像进行第一处理,根据美颜参数对人像图像进行第二处理,将经过第一处理和第二处理的图像进行合成,得到目标图像。本技术可以根据用户的外貌特征、表情和妆容中的至少一种来自动的进行个性化美颜,以及根据场景增加滤镜,从而提升图像处理的多样性以及使用效率。227.图10是本技术实施例提供的图像处理装置的结构示意图。该图像处理装置可以设置在智能终端中。请参见图10,该图像处理装置30包括:228.检测模块301,用于检测初始图像中的至少一个目标人像,获取所述目标人像的外貌特征信息;229.分析模块302,用于对所述目标人像进行面部分析,得到所述目标人像的表情信息和/或妆容信息;230.确定模块303,用于根据所述外貌特征信息、表情信息和妆容信息中的至少一种确定所述目标人像的美颜参数;231.处理模块304,用于根据所述美颜参数对所述初始图像进行处理,得到目标图像。232.可选地,请继续参阅图11,图11是本技术实施例提供的另一种图像处理装置的结构示意图,可选地,所述检测模块301可以包括:233.检测子模块3011,用于检测所述初始图像中的至少一个人像;234.获取子模块3012,用于分别获取每个人像的人像位置和/或人脸面积;235.确定子模块3013,用于根据所述人像位置和/或人脸面积在所述至少一个人像中确定路人人像,对所述路人人像进行剔除后得到所述至少一个目标人像。236.可选地,所述确定模块303可以包括:237.输入子模块3031,用于将所述外貌特征信息、表情信息和妆容信息中的至少一种输入至预设网络模型,可选地,所述预设网络模型为以用户历史目标图像作为样本集训练得到的神经网络模型;238.预测子模块3032,用于获取所述预设网络模型输出的预测美颜参数。239.本技术实施例提供的图像处理装置可以检测初始图像中的至少一个目标人像,获取所述目标人像的外貌特征信息,对所述目标人像进行面部分析,得到所述目标人像的表情信息和/或妆容信息,根据所述外貌特征信息、表情信息和妆容信息中的至少一种确定所述目标人像的美颜参数,根据所述美颜参数对所述初始图像进行处理,得到目标图像。本技术可以根据用户的外貌特征、表情和妆容中的至少一种来自动的进行个性化美颜,从而提升图像处理的多样性以及使用效率。240.本技术实施例还提供一种智能终端,智能终端包括存储器、处理器,存储器上存储有图像处理程序,图像处理程序被处理器执行时实现上述任一实施例中的图像处理方法的步骤。241.本技术实施例还提供一种计算机存储介质,计算机存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例中的图像处理方法的步骤。242.在本技术提供的智能终端和计算机存储介质的实施例中,可以包含任一上述图像处理方法实施例的全部技术特征,说明书拓展和解释内容与上述方法的各实施例基本相同,在此不做再赘述。243.本技术实施例还提供一种计算机程序产品,计算机程序产品包括计算机程序代码,当计算机程序代码在计算机上运行时,使得计算机执行如上各种可能的实施方式中的方法。244.本技术实施例还提供一种芯片,包括存储器和处理器,存储器用于存储计算机程序,处理器用于从存储器中调用并运行计算机程序,使得安装有芯片的设备执行如上各种可能的实施方式中的方法。245.可以理解,上述场景仅是作为示例,并不构成对于本技术实施例提供的技术方案的应用场景的限定,本技术的技术方案还可应用于其他场景。例如,本领域普通技术人员可知,随着系统架构的演变和新业务场景的出现,本技术实施例提供的技术方案对于类似的技术问题,同样适用。246.上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。247.本技术实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。248.本技术实施例设备中的模块或单元可以根据实际需要进行合并、划分和删减。249.在本技术中,对于相同或相似的术语概念、技术方案和/或应用场景描述,一般只在第一次出现时进行详细描述,后面再重复出现时,为了简洁,一般未再重复阐述,在理解本技术技术方案等内容时,对于在后未详细描述的相同或相似的术语概念、技术方案和/或应用场景描述等,可以参考其之前的相关详细描述。250.在本技术中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。251.本技术技术方案的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本技术记载的范围。252.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上的一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,被控终端,或者网络设备等)执行本技术每个实施例的方法。253.在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本技术实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络,或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质,(例如,软盘、存储盘、磁带)、光介质(例如,dvd),或者半导体介质(例如固态存储盘solidstatedisk(ssd))等。254.以上仅为本技术的优选实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的
技术领域
:,均同理包括在本技术的专利保护范围内。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献