一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图片质量评价模型的训练方法、装置、计算机设备和介质与流程

2022-02-20 07:36:37 来源:中国专利 TAG:


1.本发明涉及人工智能领域,特别涉及一种图片质量评价模型的训练方法、装置、计算机设备和介质。


背景技术:

2.在实际的动态监控场景使用下,人脸识别率极其容易受到人脸质量的影响。常见的人脸质量评价算法从方法论上区分,主要分为传统方法和基于深度学习的方法。传统方法往往采用先验的图像处理知识或者机器学习方法,求取待判断质量的人脸图片的角度、亮暗度、模糊度、是否有表情或者遮挡等各个单独项的质量分数,然后再进行权重求和,这种传统方法思路简单,但是在实际操作中权重往往很难界定;基于深度学习的方法,对输入人脸图片进行端到端的网络学习,最后根据不同样本的特征向量进行全连接学习,从而给出待判断质量的图片的综合的质量得分,该得分往往准确度较高,可以有效地得出该图片的质量情况。
3.发明人发现,虽然采用深度学习方案进行人脸质量评价往往会比采用传统方法效果好,但是用来提取特征的深度学习模型往往含有大量的计算参数,对运算资源开销巨大,难以在嵌入式设备等计算资源受限的实际应用中部署。人脸质量评价作为人脸识别环节中一个小而精的模块,不应该因为占据过多的运算资源而影响到诸如识别模块的运算速度。


技术实现要素:

4.本发明的主要目的为提供一种图片质量评价模型的训练方法、装置、计算机设备和介质,旨在解决现有技术中人脸质量评价模型计算开销巨大,难以适用于嵌入式设备中的技术问题。
5.为了实现上述发明目的,本技术提供一种图片质量评价模型的训练方法,包括:将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据,以及将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据,其中,教师神经网络模型的层数所述学生神经网络模型的层数;将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量;基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果;判断所述损失结果是否满足预设要求;若不满足预设要求,则基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练;若满足,则结束训练,将所述学生神经网络模型作为所述图片质量评价模型。
6.进一步地,所述图片样本为三元组图片样本,所述损失网络为三元组损失网络,其中,所述三元组图片样本包括正样本图片、标准图片和负样本图片,所述正样本图片、标准图片为同一id事物在不同状态下的图片;
所述将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据,以及将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据的步骤,包括:将所述三元组图片样本输入至预设的教师神经网络模型中进行特征提取,得到每个图片对应的教师张量数据;以及,将所述三元组图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到每个图片对应的质量分数张量数据;所述将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量的步骤,包括:基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果的步骤,包括:将所述三元组图片样本中的所述正样本图片对应的正样本融合图片特征张量、标准图片对应的标准融合图片特征张量和负样本图片对应的负样本融合图片特征张量同时输入至三元组损失网络中进行损失计算,得到所述损失结果。
7.进一步地,所述将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量的步骤,包括:将所述教师张量数据和对应的质量分数张量数据输入至下式中进行融合计算:其中,q为融合图片特征张量,mi为教师张量数据,qi为融合图片特征张量数据。
8.进一步地,所述教师神经网络模型为残差网络模型。
9.进一步地,所述教师神经网络模型的网络层数为至少50层。
10.进一步地,所述教师神经网络模型包括多个子教师神经网络模型;所述将所述三元组图片样本输入至预设的教师神经网络模型中进行特征提取,得到每个图片对应的教师张量数据的步骤,包括:将所述三元组图片样本分别输入到每一个所述子教师神经网络模型中进行特征提取,得到每个图片对应的多个子教师张量数据;将多个子教师张量数据进行平均计算得到所述教师张量数据。
11.进一步地,所述多个子教师神经网络模型中包括第一子教师神经网络模型,所述第一子教师神经网络模型为预先训练好的模型,其参数被封冻;所述基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练的步骤,包括:基于所述损失结果进行反向传播和梯度计算,分别更新除所述第一子教师神经网络模型以外的其它子教师神经网络模型的参数,以及更新所述学生神经网络模型中的参数,并进行迭代训练。
12.本技术还提供一种图片质量评价模型的训练装置,包括:特征张量提取单元,用于将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据;以及,
质量分数张量提取单元,用于将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据,其中,教师神经网络模型的层数大于所述学生神经网络模型的层数;融合单元,用于将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量;损失计算单元,用于基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果;判断单元,用于判断所述损失结果是否满足预设要求;更新迭代单元,用于若所述损失结果不满足预设要求,则基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练;确定单元,用于若损失结果满足预设要求,则结束训练,将所述学生神经网络模型作为所述图片质量评价模型。
13.本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
14.本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
15.本技术的图片质量评价模型的训练方法,利用教师神经网络模型和学生神经网络模型同时对相同的图片样本进行处理得到教师张量数据和质量分数张量数据,然后将教师张量数据和质量分数张量数据进行融合,从而得到最终的融合图片特征张量,然后再进行损失计算、反向传播梯度计算等,更新教师神经网络模型和学生神经网络模型的参数,直到损失结果满足预设要求,停止迭代训练,提取学生神经网络模型作为最终的图片质量评价模型。这样,教师神经网络模型可以选择深度神经网络模型,其精准度高,而学生神经网络模型可以选择轻量级的神经网络,训练后的学生神经网络模型作为图片质量评价模型,具有精度高、计算开销小的优点,可以应用在嵌入式设备中,提高图片识别的准确度。
附图说明
16.图1 是本发明一实施例的图片质量评价模型的训练方法的流程示意图;图2是本发明一实施例的图片质量评价模型的训练方法装置的结构示意框图;图3 为本技术一实施例的计算机设备的结构示意框图。
17.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
18.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
19.需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后等)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特
定姿态发生改变时,则该方向性指示也相应地随之改变,所述的连接可以是直接连接,也可以是间接连接。
20.本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。
21.另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
22.参照图1,本技术提出一种图片质量评价模型的训练方法,包括:s1、将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据;以及s2、将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据,其中,教师神经网络模型的层数大于所述学生神经网络模型的层数;s3、将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量;s4、基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果;s5、判断所述损失结果是否满足预设要求;s6、若不满足预设要求,则基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练;s7、若满足,则结束训练,将所述学生神经网络模型作为所述图片质量评价模型。
23.如上述步骤s1所述,上述图片样本一般是具有标记的图片样本,上述图片样本在本实施例中是人脸图片。上述教师神经网络模型一般是指深度神经网络模型,具有复杂的网络结构,相对较多的网络层数,具有计算开销大,但是精度高的特点。上述教师神经网络模型主要是提取图片样本中的特征张量(tensor)数据。
24.如上述步骤s2所述,是与上述步骤s1并行的步骤,也就是在输入图片样本的时候,分两路输入,一路输给教师神经网络模型,一路输给学生神经网络模型。上述学生神经网络模型即为图片质量评价模型的初始模型,用来对图片质量进行评价,得出质量分数张量数据。上述学生神经网络模型为用户自定义的、轻量级的卷积神经网络,比如由若干卷积层、池化层、激活层和全连接层组成等,具体地,可以由两个卷积层、两个池化层、两个激活层和两个全连接层组成。需要注意的是,教师神经网络模型的层数远大于所述学生神经网络模型的层数,这样可以训练得到更加准确的学生模型。
25.如上述步骤s3所述,将所述教师张量数据和对应的质量分数张量数据进行融合计算,也就是将教师神经网络模型提取的特征张量与学生神经网络模型计算得到的质量分数张量进行融合,得到具有教师神经网络模型和学生神经网络模型特点的融合数据——融合图片特征张量。
26.如上述步骤s4至s7所述,即为模型训练的损失计算等步骤,当损失结果满足预设
要求,则停止训练,将当前的学生神经网络模型作为所述图片质量评价模型。如果损失结果不满足预设要求,则进行反向传播梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并重复上述步骤进行迭代训练,直到损失结果满足预设要求为止。具体的损失计算和迭代过程可以是现有技术中的任意一种,在此不再赘述。
27.在一个实施例中,上述图片样本为三元组图片样本,所述损失网络为三元组损失网络,其中,所述三元组图片样本包括正样本图片、标准图片和负样本图片,所述正样本图片、标准图片为同一id事物在不同状态下的图片。
28.上述将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据的步骤s1,包括:s11、将所述三元组图片样本输入至预设的教师神经网络模型中进行特征提取,得到每个图片对应的教师张量数据;上述将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据的步骤s2,包括:s21、将所述三元组图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到每个图片对应的质量分数张量数据。
29.如上述步骤s11和s21所述,图片样本为三元组图片样本,每一组三元组图片样本中正样本图片、标准图片和负样本图片的数量相同,比如,均为三张正样本图片、三张标准图片和三张负样本图片等。将各三元组图片样本分别输入到教师神经网络模型和学生神经网络模型之后,即得到每个图片对应的质量分数张量数据和每个图片对应的质量分数张量数据。
30.进一步地,上述将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量的步骤,包括:基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果的步骤s4,包括:s41、将所述三元组图片样本中的所述正样本图片对应的正样本融合图片特征张量、标准图片对应的标准融合图片特征张量和负样本图片对应的负样本融合图片特征张量同时输入至三元组损失网络中进行损失计算,得到所述损失结果。
31.如上述步骤s41所述,使用三元组图片样本作为输入,然后使用三元组损失网络(triple loss)进行损失计算,可以提高最终的图片质量评价模型得出公正的质量得分。
32.具体地,三元组损失网络的公式如下:l=max(d(a,p)

d(a,n) margin,0)其中,a为标准融合图片特征张量、p为负样本融合图片特征张量、n为正样本融合图片特征张量。该三元组损失网络,相当于可以最大化a与p之间的距离,最小化a与n之间的距离,使得同id的越相邻,不同id的越远离。
33.在一个实施例中,上述将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量步骤s3,包括:s31、将所述三元组图片样本中的各正样本图片对应的教师张量数据进行平均计算得到总正样本教师张量数据;将三元组图片样本中的各标准图片对应的教师张量数据进行平均计算得到总标准教师张量数据;将三元组图片样本中的各负样本图片对应的教师张
量数据进行平均计算得到总负样本教师张量数据;以及,s32、将所述三元组图片样本中的各正样本图片对应的质量分数张量数据进行平均计算得到总正样本质量分数张量数据;将三元组图片样本中的各标准图片对应的质量分数张量数据进行平均计算得到总标准质量分数张量数据;将三元组图片样本中的各负样本图片对应的质量分数张量数据进行平均计算得到总负样本教师张量数据质量分数张量数据;s33、然后将总正样本教师张量数据和总正样本质量分数张量数据进行融合,得到总正样本融合图片特征张量;将总标准教师张量数据和总标准质量分数张量数据进行融合,得到总标准融合图片特征张量;将总负样本教师张量数据和总负样本质量分数张量数据进行融合,得到总负样本融合图片特征张量;s34、将总正样本融合图片特征张量(n)、总标准融合图片特征张量(a)和总负样本融合图片特征张量(p)组合形成所述融合图片特征张量。
34.如上所述,即融合图片特征张量为一个三元组数据,在进行损失计算时,可以对应输入到上述三元组损失网络中进行损失计算,且一组三元组图片样本仅需计算一次损失结果,提高模型训练的速度。
35.在一个实施例中,上述将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量的步骤s3,包括:将所述教师张量数据和对应的质量分数张量数据输入至下式中进行融合计算:其中,q为融合图片特征张量,mi为教师张量数据,qi为质量分数张量数据。
36.如上所述,上述公式表示质量较好的图片在总的表示特征中占比最好,从而可以衡量出质量好的图片其质量得分越高这一指标。
37.在一个实施例中,上述教师神经网络模型为残差网络模型;进一步地所述教师神经网络模型的网络层数为至少50层。
38.如上所述,残差网络模型(resnet网络)相较于一般的卷积网络加入了特有的短路结构,从而使得网络突破了网络层数的限制,为高级语义和特征提取提供了可能。相同网络层数的情况下,残差网络模型在特征提取的精准度可以到要求的同时,可以降低计算开销。在本实施例中,上述教师神经网络模型(残差网络模型)的网络层数为至少50层。层数越多,训练的结果越准确,相应地,在训练过程中需要的计算开销越大。在一个具体实施例中,上述残差网络模型选用resnet100,其输出的特征张量为四维张量;上述学生神经网络模型为由两个卷积层、两个池化层、两个激活层和两个全连接层组成,输出二维张量,训练尺寸为(batch_size, 3),预测尺寸为(batch_size, 1)。
39.在一个实施例中,上述教师神经网络模型包括多个子教师神经网络模型;上述将所述三元组图片样本输入至预设的教师神经网络模型中进行特征提取,得到每个图片对应的教师张量数据的步骤,包括:s101、将所述三元组图片样本分别输入到每一个所述子教师神经网络模型中进行特征提取,得到每个图片对应的多个子教师张量数据;
s102、将多个子教师张量数据进行平均计算得到所述教师张量数据。
40.如上所述,教师神经网络模型包括多个子教师神经网络模型,各子教师神经网络模型的网络结构可以相同,也可以不同,各子教师神经网络模型并行设置,分别对三元组图片样本中的每一张图片进行特征提取等,最后再将各自得到的子教师张量数据进行平均处理得到教师张量数据。这样,可以得到相对准确的教师张量数据。进一步对,还可以根据不同的子教师神经网络模型,对应设置不同的权重,以对各子教师张量数据进行加权计算。
41.在一个实施例中,上述多个子教师神经网络模型中包括第一子教师神经网络模型,所述第一子教师神经网络模型为预先训练好的模型,其参数被封冻;上述基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练的步骤,包括:基于所述损失结果进行反向传播和梯度计算,分别更新除所述第一子教师神经网络模型以外的其它子教师神经网络模型的参数,以及更新所述学生神经网络模型中的参数,并进行迭代训练。
42.如上所述,在多个子教师神经网络模型中包含了一个预先训练好的第一子教师神经网络模型,如此,在每一次迭代训练的过程中,每一次通过多个子教师神经网络模型提取子教师张量数据时,都会有一个子教师张量数据是符合要求的,在进行平均计算子教师张量数据时,可以得到更加靠近符合要求的教师张量数据,这样,可以减少迭代的次数,从而加快训练的速度。而在反向传播计算的时候,因为第一子教师神经网络模型的参数是封冻的,所以第一子教师神经网络模型的参数不会被更新。
43.参照图2,本技术实施例还提供一种图片质量评价模型的训练装置,包括:特征张量提取单元10,用于将图片样本输入至预设的教师神经网络模型中进行特征提取,得到对应的教师张量数据;以及,质量分数张量提取单元20,用于将所述图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到对应的质量分数张量数据,其中,教师神经网络模型的层数大于所述学生神经网络模型的层数;融合单元30,用于将所述教师张量数据和对应的质量分数张量数据进行融合计算,得到最终的融合图片特征张量;损失计算单元40,用于基于预设的损失网络对所述融合图片特征张量进行损失计算,得到损失结果;判断单元50,用于判断所述损失结果是否满足预设要求;更新迭代单元60,用于若所述损失结果不满足预设要求,则基于所述损失结果进行反向传播和梯度计算,分别更新所述教师神经网络模型的参数和所述学生神经网络模型中的参数,并进行迭代训练;确定单元70,用于若损失结果满足预设要求,则结束训练,将所述学生神经网络模型作为所述图片质量评价模型。
44.在一个实施例中,所述图片样本为三元组图片样本,所述损失网络为三元组损失网络,其中,所述三元组图片样本包括正样本图片、标准图片和负样本图片,所述正样本图片、标准图片为同一id事物在不同状态下的图片;上述特征张量提取单元10,包括:特征张量提取模块,用于将所述三元组图片样本
输入至预设的教师神经网络模型中进行特征提取,得到每个图片对应的教师张量数据;以及上述质量分数张量提取单元20,包括:质量分数张量提取模块,用于将所述三元组图片样本输入至预设的学生神经网络模型中进行质量分数计算,得到每个图片对应的质量分数张量数据;上述损失计算单元40,包括:失计算模块,用于将所述三元组图片样本中的所述正样本图片对应的正样本融合图片特征张量、标准图片对应的标准融合图片特征张量和负样本图片对应的负样本融合图片特征张量同时输入至三元组损失网络中进行损失计算,得到所述损失结果。
45.在一个实施例中,融合单元30,包括:融合模块,用于将所述教师张量数据和对应的质量分数张量数据输入至下式中进行融合计算:其中,q为融合图片特征张量,mi为教师张量数据,qi为质量分数张量数据。
46.在一个实施例中,上述教师神经网络模型为残差网络模型。
47.在一个实施例中,所述教师神经网络模型的网络层数为至少50层。
48.在一个实施例中,上述教师神经网络模型包括多个子教师神经网络模型;上述特征张量提取模块,包括:特征张量提取子模块,用于将所述三元组图片样本分别输入到每一个所述子教师神经网络模型中进行特征提取,得到每个图片对应的多个子教师张量数据;平均计算子模块,用于将多个子教师张量数据进行平均计算得到所述教师张量数据。
49.在一个实施例中,上述多个子教师神经网络模型中包括第一子教师神经网络模型,所述第一子教师神经网络模型为预先训练好的模型,其参数被封冻;上述更新迭代单元60,包括:更新迭代模块,用于基于所述损失结果进行反向传播和梯度计算,分别更新除所述第一子教师神经网络模型以外的其它子教师神经网络模型的参数,以及更新所述学生神经网络模型中的参数,并进行迭代训练。
50.参照图3,本技术实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储各种组件信息等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时可以实现上述任一实施例所述的图片质量评价模型的训练方法。
51.本领域技术人员可以理解,图3中示出的结构,仅仅是与本技术方案相关的部分结
构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定。
52.本技术实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时可以实现上述任一实施例所述的图片质量评价模型的训练方法。
53.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram一多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双速据率sdram(ssrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。
54.需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
55.本技术实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(artificial intelligence,ai)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
56.人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
57.以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献