一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像深度信息的获取方法、装置、介质及电子设备与流程

2021-11-26 21:36:00 来源:中国专利 TAG:


1.本技术涉及计算机技术领域,具体而言,涉及一种图像深度信息的获取方法、装置、介质及电子设备。


背景技术:

2.图像深度估计模型用于估计待处理的图像中各像素点的深度信息,获取待处理的图像的全局深度图,在计算机视觉和计算机图形学应用领域发挥着重要的作用。在目前的技术方案中,部分方法基于单个视频帧进行深度估计,然后该方法通常直接在单张图像上进行训练,其所估计的深度信息容易出现较大闪烁,且在时域中的稳定性较差。因此,如何降低深度估计结果的闪烁程度,保证深度估计结果的时域稳定性成为了亟待解决的技术问题。


技术实现要素:

3.本技术的实施例提供了一种图像深度信息的获取方法、装置、介质及电子设备,进而至少在一定程度上可以降低深度估计结果的闪烁程度,保证深度估计结果的时域稳定性。
4.本技术的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本技术的实践而习得。
5.根据本技术实施例的一个方面,提供了一种图像深度信息的获取方法,该方法包括:
6.根据待识别图像,获取所述待识别图像的图像特征;
7.将所述图像特征输入至预训练的图像深度估计模型中,所述预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到;
8.获取所述图像深度估计模型输出的所述待识别图像的深度信息。
9.根据本技术实施例的一个方面,提供了一种图像深度信息的获取装置,该装置包括:
10.第一获取模块,用于根据待识别图像,获取所述待识别图像的图像特征;
11.输入模块,用于将所述图像特征输入至预训练的图像深度估计模型中,所述预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到;
12.第二获取模块,用于获取所述图像深度估计模型输出的所述待识别图像的深度信息。
13.在本技术的一些实施例中,基于前述方案,该装置还包括训练模块,该训练模块包括:
14.输入单元,用于将内容相连续的第一训练样本和第二训练样本分别输入至学生模型中,得到所述学生模型输出的与所述第一训练样本对应的第一学生深度图像以及与所述
第二训练样本对应的第二学生深度图像;
15.第一确定单元,用于根据所述第一训练样本和所述第二训练样本,确定所述第一训练样本与所述第二训练样本之间的光流信息;
16.第二确定单元,用于根据所述光流信息、所述第一学生深度图像以及所述第二学生深度图像,确定所述学生模型对应的时域损失信息;
17.第三确定单元,用于根据预先确定的所述第一训练样本的深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息;
18.处理单元,用于根据所述时域损失信息以及所述深度损失信息,对所述学生模型进行调优处理,得到所述图像深度估计模型。
19.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述光流信息,将所述第二学生深度图像中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二学生深度图像;根据所述第一学生深度图像以及变形后的所述第二学生深度图像,确定所述学生模型对应的时域损失信息。
20.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述光流信息,将所述第二训练样本中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二训练样本;根据变形后的所述第二训练样本,对所述第二学生深度图像中的像素点的位置进行变形,得到变形后的所述第二学生深度图像,变形后的所述第二学生深度图像中的内容的位置与变形后的所述第二训练样本中相同内容的位置相匹配。
21.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定所述第一训练样本与变形后的所述第二训练样本之间的稳定区域;根据所述第一学生深度图像中所述稳定区域内的像素点的像素值,以及变形后的所述第二学生深度图像中所述稳定区域内对应像素点的像素值,确定所述学生模型对应的时域损失信息。
22.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定二者之间的第一差值;若所述第一差值小于或等于第一阈值,将所述第一差值对应的像素点识别为稳定区域。
23.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定各所述第二差值的平均值;根据所述平均值,确定所述学生模型对应的时域损失信息。
24.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定大于或等于第二阈值的第二差值的平均值。
25.在本技术的一些实施例中,基于前述方案,该第三确定单元被配置为:将所述第一训练样本输入至预先训练的教师模型中,得到所述教师模型输出的与所述第一训练样本对
应的第一教师深度图像;根据所述第一教师深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息。
26.在本技术的一些实施例中,基于前述方案,该第三确定单元被配置为:将所述第二训练样本输入至所述教师模型中,得到所述教师模型输出的与所述第二训练样本对应的第二教师深度图像;根据所述第一教师深度图像以及所述第一学生深度图像,确定所述第一教师深度图像与所述第一学生深度图像之间的第一深度损失信息;根据所述第二教师深度图像以及所述第二学生深度图像,确定所述第二教师深度图像与所述第二学生深度图像之间的第二深度损失信息;根据所述第一深度损失信息和第二深度损失信息,确定所述学生模型对应的总深度损失信息。
27.在本技术的一些实施例中,基于前述方案,该第一确定单元被配置为:将所述第一训练样本和所述第二训练样本输入至预先训练的光流估计模型中,得到所述光流估计模型输出的与所述第一训练样本与所述第二训练样本之间的光流信息。
28.根据本技术实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例中所述的图像深度信息的获取方法。
29.根据本技术实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的图像深度信息的获取方法。
30.在本技术的一些实施例所提供的技术方案中,通过根据待识别图像,获取待识别图像的图像特征,并将该图像特征输入至与训练的图像深度估计模型中,该预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到,再获取该图像深度估计模型输出的待识别图像的深度信息。由此,基于光流信息、图像特征以及真实深度信息的样本数据训练得到图像深度估计模型,可以降低该图像深度估计模型所输出的深度估计结果即深度信息的闪烁程度,并且保证该图像深度估计模型所输出的深度估计结果的时域稳定性。
31.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本技术。
附图说明
32.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
33.图1示出了可以应用本技术实施例的技术方案的示例性系统架构的示意图。
34.图2示出了根据本技术的一个实施例的图像深度信息的获取方法的流程示意图。
35.图3示出了根据本技术的一个实施例的图像深度信息的获取方法中还包括的训练图像深度估计模型的流程示意图。
36.图4示出了根据本技术的一个实施例的图3的图像深度信息的获取方法中步骤s330的流程示意图。
37.图5示出了根据本技术的一个实施例的图4的图像深度信息的获取方法中步骤s410的流程示意图。
38.图6示出了根据本技术的一个实施例的图4的图像深度信息的获取方法中步骤s420的流程示意图。
39.图7示出了根据本技术的一个实施例的图6的图像深度信息的获取方法中步骤s610的流程示意图。
40.图8示出了根据本技术的一个实施例的图6的图像深度信息的获取方法中步骤s620的流程示意图。
41.图9示出了根据本技术的一个实施例的图3的图像深度信息的获取方法中步骤s340的流程示意图。
42.图10示出了根据本技术的一个实施例的图9的图像深度信息的获取方法中步骤s920的流程示意图。
43.图11示出了根据本技术的一个实施例的图像深度估计模型的训练方法的流程框图。
44.图12示出了根据本技术的一个实施例的图像深度信息的获取装置的框图。
45.图13示出了适于用来实现本技术实施例的电子设备的计算机系统的结构示意图。
具体实施方式
46.现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本技术将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
47.此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本技术的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本技术的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本技术的各方面。
48.附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
49.附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
50.图1示出了可以应用本技术实施例的技术方案的示例性系统架构的示意图。
51.如图1所示,系统架构可以包括终端设备101、网络102和服务器103,网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
52.其中,终端设备101可以是智能手机、平板电脑、便携式计算机和台式计算机中的一种或多种。应该理解的,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器103可以是由多个服务
器组成的服务器集群等。
53.用户可以使用终端设备101通过网络102与服务器103进行交互,以接收或发送消息等。服务器103可以是提供各种服务的服务器。例如用户利用终端设备101向服务器102上传了待识别图像,服务器103可以根据该待识别图像,获取该待识别图像的图像特征,将该图像特征输入至预训练的图像深度估计模型中,该预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到,再获取该图像深度估计模型输出的所述待识别图像的深度信息。
54.需要说明的是,本技术实施例所提供的图像深度信息的获取方法一般由服务器103执行,相应地,图像深度信息的获取装置一般设置于服务器103中。但是,在本技术的其它实施例中,终端设备101也可以与服务器具有相似的功能,从而执行本技术实施例所提供的图像深度信息的获取方法的方案。
55.以下对本技术实施例的技术方案的实现细节进行详细阐述:
56.图2示出了根据本技术的一个实施例的图像深度信息的获取方法的流程示意图。参照图2所示,该图像深度信息的获取方法至少包括步骤s210至步骤s230,详细介绍如下:
57.在步骤s210中,根据待识别图像,获取所述待识别图像的图像特征。
58.其中,待识别图像可以是单张图像,也可以是由视频进行分帧处理得到的连续的多帧图像,本技术对此不作特殊限定。
59.图像特征可以是与待识别图像对应的特征信息,其可以包括多种类型的信息,例如待识别图像每一像素点的像素值、待识别图像中的区域划分信息以及待识别图像中所包含内容的位置信息,等等。
60.在本技术一示例性实施例中,服务器可以获取欲确认其深度信息的待识别图像,并对该待识别图像进行图像识别,以得到并存储该待识别图像对应的图像特征。需要说明的,若待识别图像为由视频进行分帧处理得到的连续的多帧图像,则服务器可以对每一待识别图像进行图像处理,以得到每一待识别图像对应的图像特征,并将该图像特征与对应的待识别图像进行关联,以备后续读取。
61.在步骤s220中,将所述图像特征输入至预训练的图像深度估计模型中,所述预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到。
62.其中,图像深度估计模型可以是用于确定待识别图像的深度信息的模型,在一示例中,本领域技术人员可以构建对应的图像深度估计模型进行训练,以得到符合需求的图像深度估计模型;在另一示例中,本领域技术人员也可以获取由第三方构建的图像深度估计模型进行训练,以得到符合需求的图像深度估计模型,本领域技术人员可以根据实现需要选择对应的图像深度估计模型进行训练,本技术对此不作特殊限定。
63.在本技术一示例性实施例中,服务器可以通过包含有光流信息、图像特征以及真实深度信息的样本数据对图像深度估计模型进行训练,以降低训练完成的图像深度估计模型所输出的图像的深度估计结果即深度信息的闪烁程度,同时,基于光流信息对图像深度估计模型进行训练,可以保证图像深度估计模型所输出的深度估计结果的时域稳定性。
64.在一示例中,若待识别图像为由视频进行分帧处理得到的连续的多帧图像,则服务器可以按照多帧图像的时间先后顺序,将每一帧待识别图像对应的图像特征输入至该图
像深度估计模型中,以使该图像深度估计模型能够依次输出多帧待识别图像对应的深度信息。
65.在本技术一示例性实施例中,样本数据中所包含的真实深度信息可以是由人工进行标注,也可以采用其他模型更大、性能更优的图像深度估计模型进行估计而得到,本技术对此不作特殊限定。
66.在步骤s230中,获取所述预训练的图像深度估计模型输出的所述待识别图像的深度信息。
67.在图2所示的实施例中,通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到的图像深度估计模型,可以降低该图像深度估计模型输出的深度估计结果的闪烁程度,同时保证深度估计结果的时域稳定性。
68.基于图2所示的实施例,图3示出了根据本技术的一个实施例的图像深度信息的获取方法中还包括的训练图像深度估计模型的流程示意图。参照图3所示,在步骤s220之前,训练图像深度估计模型至少包括步骤s310至步骤s350,详细介绍如下:
69.在步骤s310中,将内容相连续的第一训练样本和第二训练样本分别输入至学生模型中,得到所述学生模型输出的与所述第一训练样本对应的第一学生深度图像以及与所述第二训练样本对应的第二学生深度图像。
70.其中,学生模型可以是预先构建的、待训练的图像深度估计模型。本领域技术人员可以根据实现需要构建对应的学生模型,并对该学生模型进行训练得到自身需要的目标模型。在另一示例中,本领域技术人员也可以将现有的图像深度估计模型作为学生模型进行训练以得到目标模型,本技术对此不作特殊限定。
71.训练样本可以是用以对学生模型进行训练的训练数据。本领域技术人员可以将多张图像作为训练样本,得到训练样本集合。服务器可以从该训练样本集合中获取训练样本用以对学生模型进行训练。需要说明的,内容连续的训练样本可以是指该两个图像中所包含的内容在时间上是连续的,例如相邻的视频帧或者连续拍摄的图像等。
72.在一示例中,服务器可以将一定时间长度的视频进行分帧处理,得到与该视频对应的视频帧,并将该视频帧按照时间的先后顺序进行排列,得到对应的训练样本集合。在另一示例中,服务器也可以将连续拍摄的图像按照时间的先后顺序进行排列,得到对应的训练样本集合。本领域技术人员可以根据实现需要,选择对应的训练样本集合获取方式,本技术对此不作特殊限定。
73.在本技术一示例性实施例中,服务器可以从训练样本集合中选取相邻的训练样本,作为第一训练样本和第二训练样本,以使第一训练样本和第二训练样本所包含的内容能够在时间上连续。服务器可以将该第一训练样本和第二训练样本分别输入至学生模型中,该学生模型可以输出与第一训练样本对应的第一学生深度图像和与第二训练样本对应的第二学生深度图像。应该理解的,该第一学生深度图像和第二学生深度图像中分别包含有第一训练样本和第二训练样本所包含的内容的深度信息。其中,可以通过颜色与深度的对应关系对深度信息进行表现,如颜色越浅,表示深度越浅,颜色越深,表示深度越深。由此,根据深度图像中的每一像素点的像素值,可以对应获取该像素点所对应的深度大小。
74.在步骤s320中,根据所述第一训练样本和所述第二训练样本,确定所述第一训练样本与所述第二训练样本之间的光流信息。
75.其中,光流信息可以用于表示训练样本中所包含的内容的运动情况。根据该光流信息,服务器可以确定第一训练样本中的内容变换至第二训练样本中的状态的运动过程。在一示例中,服务器可以采用现有的光流提取算法获取第一训练样本和第二训练样本之间的光流信息,并将该光流信息进行存储,以备后续使用。
76.在步骤s330中,根据所述光流信息、所述第一学生深度图像以及所述第二学生深度图像,确定所述学生模型对应的时域损失信息。
77.其中,时域损失信息可以是用于表示学生模型在运动场景下对相同内容的深度估计结果的深度损失信息。应该理解的,在运动场景下,对于相同内容的深度估计结果应该相同。因此,服务器可以通过比较第一学生深度图像与第二学生深度图像中对应于相同内容的深度信息,从而得到学生模型对应的时域损失信息。
78.在本技术一示例性实施例中,服务器可以基于该光流信息,确定学生模型对第一学生深度图像与第二学生深度图像中对应于相同内容的深度估计结果的差值,从而得到该学生模型对应的时域损失信息。具体地,服务器可以基于光流信息,将第二学生深度图像中的某一内容所对应的像素点的位置变换至第一学生深度图像中相同内容所对应的像素点的位置。由此,使得第一学生深度图像所包含的深度信息与第二学生深度图像包含的深度信息能够相对应。服务器可以将第一学生深度图像与第二学生深度图像中相同内容所对应的深度信息进行比较,从而得到该学生模型对应的时域损失信息。
79.在一示例中,服务器可以基于第一学生深度图像和第二学生深度图像中对应于相同内容的深度信息,建立对应的时域稳定性损失函数,以将该时域稳定性损失函数作为该学生模型的时域损失信息。其中,本领域技术人员可以根据实际实现需要,选择对应的损失函数以建立该时域稳定性损失函数,本技术对此不作特殊限定。
80.在步骤s340中,根据预先确定的所述第一训练样本的深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息。
81.其中,预先确定的深度图像可以作为训练样本的真实深度信息。在一示例中,本领域技术人员可以采用人工标注的方式对第一训练样本进行深度信息的标注,从而确定该第一训练样本中包含的内容的深度信息。在另一示例中,本领域技术人员也可以采用现有的、已训练完成的图像深度估计模型对第一训练样本进行深度估计,将该图像深度估计模型所输出的深度图像所包含的深度信息作为该第一训练样本对应的真实深度信息。本领域技术人员可以根据实现需要选择对应的真实深度信息的确定方式,本技术对此不作特殊限定。
82.在本技术一示例性实施例中,服务器可以将预先确定的第一训练样本的深度图像中的深度信息与第一学生深度图像中包含的深度信息进行比较,从而得到学生模型所输出的深度图像与该训练样本对应的真实深度图像二者之间的深度信息差值,以作为该学生模型对应的深度损失信息,用以表示学生模型所输出的深度估计结果与真实深度之间的差异。
83.在一示例中,服务器可以将预先确定的深度图像中的像素点的像素值减去第一学生深度图像中对应像素点的像素值,以得到二者对应的差值,并根据该差值确定预先确定的深度图像与第一学生深度图像之间的深度信息的差异性,从而得到该学生模型对应的深度损失信息。
84.在一示例中,服务器可以根据预先确定的深度图像与第一学生深度图像中对应像
素点的像素值的差值,采用现有的损失函数建立对应的深度损失函数,以作为该学生模型的深度损失信息。
85.在步骤s350中,根据所述时域损失信息以及所述深度损失信息,对所述学生模型进行调优处理,得到所述图像深度估计模型。
86.其中,调优处理可以是通过调整学生模型对应的参数(例如学习率、权重等)以提高学生模型所输出的深度估计结果的准确性的处理过程。
87.在本技术一示例性实施例中,服务器可以根据每一次训练时,学生模型对应的时域损失信息和深度损失信息,对学生模型的参数进行调整,以使在下一次训练时,学生模型所对应的时域损失信息和深度损失信息能够减小,从而使该学生模型所输出的深度估计结果趋近于训练样本的真实深度信息。在一示例中,当学生模型所输出的深度估计结果与训练样本的真实深度信息之间的差值小于一定阈值时,则可以停止训练,将该训练后的学生模型作为所需的图像深度估计模型。
88.在图3所示的实施例中,通过确定学生模型对应的时域损失信息和深度损失信息,对该学生模型进行调优处理,可以降低训练后的目标模型在运动场景下所输出的深度估计结果的闪烁程度,保证该深度估计结果的时域稳定性。
89.基于图2和图3所示的实施例,图4示出了根据本技术的一个实施例的图3的图像深度信息的获取方法中步骤s330的流程示意图。参照图4所示,步骤s330至少包括步骤s410至步骤s420,详细介绍如下:
90.在步骤s410中,根据所述光流信息,将所述第二学生深度图像中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二学生深度图像。
91.应该理解的,第二学生深度图像是与第二训练样本对应的深度图像,因此,第二训练样本中某一内容所在的区域与第二学生深度图像中相同内容所在的区域相同。
92.由此,根据第二学生深度图像与第二训练样本之间相同内容的所在区域相同的对应关系,服务器可以将第二学生深度图像中对应于内容的像素点的位置变形至第一训练样本中相同内容的像素点的位置,从而可以得到变形后的第二学生深度图像。应该理解的,变形后的第二学生深度图像与第一训练样本之间相同内容的所在区域是相同的。
93.在步骤s420中,根据所述第一学生深度图像以及变形后的所述第二学生深度图像,确定所述学生模型对应的时域损失信息。
94.在本技术一示例性实施例中,应该理解的,第一学生深度图像是与第一训练样本对应的深度图像,所以第一训练样本中某一内容所在的区域与第一学生深度图像相同内容所在的区域相同。而变形后的第二学生深度图像与第一训练样本之间相同内容的所在区域是相同的。因此,第一学生深度图像与变形后的第二学生深度图像之间相同内容所在的区域也是相同的。即第一学生深度图像中某一像素点所对应的内容与变形后的第二学生深度图像中对应像素点所对应的内容是相同的。
95.由此,服务器可以根据第一学生深度图像中像素点的像素值与变形后的第二学生深度图像中对应像素点的像素值进行比较,从而确定学生模型对应的时域损失信息。
96.在一示例中,服务器可以将第一学生深度图像中像素点的像素值减去变形后的第二学生深度图像中对应像素点的像素值,从而得到二者之间的差值,并将所有差值进行相
加,从而得到第一学生深度图像与变形后的第二学生深度图像之间的深度总差值,以将该深度总差值作为该学生模型对应的时域损失信息。应该理解的,深度总差值越小,则表示第一学生深度图像包含的深度信息与变形后的第二学生深度图像包含的深度信息之间的差异性越小。
97.在另一示例中,服务器可以根据第一学生深度图像中像素点的像素值与变形后的第二学生深度图像中对应像素点的像素值,根据现有的损失函数建立该学生模型对应的时域稳定性损失函数,从而将该时域稳定性损失函数作为该学生模型对应的时域损失信息。
98.基于图2、图3和图4所示的实施例,图5示出了根据本技术的一个实施例的图4的图像深度信息的获取方法中步骤s410的流程示意图。参照图5所示,步骤s410至少包括步骤s510至步骤s520中,详细介绍如下:
99.在步骤s510中,根据所述光流信息,将所述第二训练样本中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二训练样本。
100.在本技术一示例性实施例中,由于光流信息可以表示训练样本中所包含的内容的运动情况,服务器可以根据该光流信息,将第二训练样本中对应于内容的像素点的位置变形至第一训练样本中对应于相同内容的像素点的位置。应该理解的,第一训练样本与变形后的第二训练样本之间相同内容所在的区域是相同的。
101.在步骤s520中,根据变形后的所述第二训练样本,对所述第二学生深度图像中的像素点的位置进行变形,得到变形后的所述第二学生深度图像,变形后的所述第二学生深度图像中的内容的位置与变形后的所述第二训练样本中相同内容的位置相匹配。
102.在本技术一示例性实施例中,因为第二学生深度图像是与第二训练样本对应的深度图像,所以服务器可以根据第二训练样本的变形过程,将第二学生深度图像中的像素点的位置进行同样的变形,以使变形后的第二学生深度图像对应于内容的位置能够与变形后的第二训练样本对应于相同内容的位置相匹配。而第一训练样本与变形后的第二训练样本之间相同内容所在的区域相同,所以第一训练样本与变形后的第二学生深度图像之间相同内容所在的区域也相同。
103.在图5所示的实施例中,通过预先将第二训练样本进行变形,再根据第二训练样本的变形过程对第二学生深度图像进行变形,从而得到变形后的第二学生深度图像,可以保证变形后的第二学生深度图像与第一训练样本之间的关系的准确性,进而保证后续学生模型的时域损失信息的准确性。
104.基于图2、图3、图4和图5所示的实施例,图6示出了根据本技术的一个实施例的图4的图像深度信息的获取方法中步骤s420的流程示意图。参照图6所示,步骤s420至少包括步骤s610至步骤s620,详细介绍如下:
105.在步骤s610中,根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定所述第一训练样本与变形后的所述第二训练样本之间的稳定区域
106.其中,稳定区域可以是训练样本之间像素差值较小的区域,可以将该像素差值较小的区域认定为对应训练样本所包含的内容中同一位置的区域。
107.在本技术一示例性实施例中,服务器可以计算第一训练样本中像素点的像素值与
变形后的第二训练样本中对应像素点的像素值之间的差值,并根据该差值,确定第一训练样本与变形后的第二训练样本之间的稳定区域,即差值较小的区域,该稳定区域可以用于表示第一训练样本与变形后的第二训练样本之间对应于同一位置的区域。
108.在步骤s620中,根据所述第一学生深度图像中所述稳定区域内的像素点的像素值,以及变形后的所述第二学生深度图像中所述稳定区域内对应像素点的像素值,确定所述学生模型对应的时域损失信息。
109.在本技术一示例性实施例中,服务器可以根据该稳定区域,计算第一学生深度图像与变形后的第二学生深度图像中稳定区域内的像素点之间的像素值差值,从而确定该学生模型对应的时域损失信息。
110.应该理解的,由于该稳定区域为第一训练样本和变形后的第二训练样本之间对应于同一位置的区域,因此,通过计算第一学生深度图像和变形后的第二学生深度图像中位于稳定区域内的像素点之间的像素值差值,可以得到学生模型在相邻训练样本中,对同一位置的深度估计结果之间的差异性,从而根据该稳定区域内像素点之间的像素值差值所建立的时域损失信息可以用于表示学生模型在运动场景下对同一位置的深度估计结果的差异性。应该理解的,若学生模型在运动场景下对同一位置的深度估计结果的差异越小,则表示该学生模型的时域稳定性越高。
111.由此,在图6所示的实施例中,通过计算第一训练样本与变形后的第二训练样本之间的稳定区域,再基于该稳定区域,计算第一学生深度图像与变形后的第二学生深度图像之间位于稳定区域内的像素点的像素值差值,从而确定学生模型的时域损失信息,可以避免将第一学生深度图像与变形后的第二学生深度图像之间对应于不同位置的深度信息进行比较,进而保证该时域损失信息确定的准确性。
112.基于图2、图3、图4、图5和图6所示的实施例,图7示出了根据本技术的一个实施例的图6的图像深度信息的获取方法中步骤s610的流程示意图。参照图7所示,步骤s610至少包括步骤s710至步骤s720,详细介绍如下:
113.在步骤s710中,根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定二者之间的第一差值。
114.在本技术一示例性实施例中,服务器可以将第一训练样本中像素点的像素值减去变形后的第二训练样本中对应像素点的像素值,从而得到二者之间的第一差值。应该理解的,每一像素点对应一个第一差值,该第一差值可以用于表示同一位置的像素点所对应的深度信息的差异大小。
115.在步骤s720中,若所述第一差值小于或等于第一阈值,将所述第一差值对应的像素点识别为稳定区域。
116.其中,第一阈值可以是用于确定两个训练样本中稳定区域内的对应像素点之间的像素值差值的上限阈值。本领域技术人员可以根据在先经验,设定对应的第一阈值,例如该第一阈值可以为10、20等。以上数字仅为示例性举例,本技术对此不作特殊限定。
117.在本技术一示例性实施例中,服务器可以将每一像素点所对应的的第一差值与预先设定的第一阈值进行比较,若第一差值小于或等于该第一阈值,则表示两个训练样本中对应像素点之间的像素值变化较小,即深度信息较为接近,因此可以将该第一差值所对应的像素点识别为稳定区域,即两个训练样本中对应于同一位置的区域。若第一差值大于第
一阈值,则表示两个训练样本中对应像素点之间的像素值变化较大,即深度信息相差较大,可以不用作后续计算。
118.基于图2、图3、图4、图5和图6所示的实施例,图8示出了根据本技术的一个实施例的图6的图像深度信息的获取方法中步骤s620的流程示意图。参照图8所示,步骤s620至少包括步骤s810至步骤s820,详细介绍如下:
119.在步骤s810中,根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定各所述第二差值的平均值。
120.在本技术一示例性实施例中,服务器可以将第一学生深度图像中位于稳定区域内的像素点的像素值减去变形后的第二学生深度图像中位于稳定区域内的对应像素点的像素值,从而得到二者之间的第二差值。应该理解的,位于稳定区域内的每一像素点对应于一个第二差值。
121.服务器将所有位于稳定区域内的像素点对应的第二差值进行相加,得到第二差值总值,再根据第二差值总值与稳定区域内像素点的数量进行计算,得到第二差值的平均值。该平均值可以用于表示第一学生深度图像与变形后的第二学生深度图像中对应于同一位置的深度估计结果的平均差异大小。
122.在步骤s820中,根据所述平均值,确定所述学生模型对应的时域损失信息。
123.在本技术一示例性实施例中,服务器可以将该平均值作为学生模型对两个训练样本中同一位置的深度估计结果的损失值,以将该损失值作为学生模型对应的时域损失信息。在后续进行调优处理时,服务器可以通过调整学生模型的参数,以使该学生模型对应的时域损失信息能够尽量小,从而保证学生模型的时域稳定性。
124.由此,在图8所示的实施例中,通过计算第二差值的平均值,可以得到第一学生深度图像和变形后的第二学生深度图像中对应于同一位置的深度估计结果的平均差异大小,再根据该平均值,确定学生模型对应的时域损失信息,可以保证该时域损失信息的准确性,避免因为某一像素点对应的第二差值较大或较小,从而影响时域损失信息的确定。
125.在本技术的一示例性实施例中,所述根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定各所述第二差值的平均值,包括:
126.根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定大于或等于第二阈值的第二差值的平均值。
127.在该实施例中,第二阈值可以是由本领域技术人员根据在先经验预先确定的阈值信息。通过设定该第二阈值,可以识别出较小的第二差值,从而在允许一定误差的情况下计算学生模型对应的时域损失信息,保证了时域损失信息计算的合理性。
128.具体地,服务器可以将每一第二差值与第二阈值进行比较,将小于第二阈值的第二差值进行舍去,根据大于或等于第二阈值的第二差值进行求取平均值。
129.基于图2和图3所示的实施例,图9示出了根据本技术的一个实施例的图3的图像深度信息的获取方法中步骤s340的流程示意图。参照图9所示,步骤s340至少包括步骤s910至步骤s920,详细介绍如下:
130.在步骤s910中,将所述第一训练样本输入至预先训练的教师模型中,得到所述教师模型输出的与所述第一训练样本对应的第一教师深度图像。
131.其中,教师模型可以是预先训练完成的图像深度估计模型。在一示例中,服务器可以获取由第三方训练完成的图像深度估计模型用作教师模型,从而免去训练的步骤,节省资源。在另一示例中,本领域技术人员也可以自己构建教师模型,并对其进行训练,以保证教师模型所输出的深度估计结果的准确性。需要说明的,教师模型可以是基于单帧图像进行识别的图像深度估计模型,该教师模型可以准确识别出单帧图像中的深度信息。
132.在本技术一示例性实施例中,服务器可以将第一训练样本输入至教师模型中,该教师模型可以输出与第一训练样本对应的第一教师深度图像,由于该教师模型已经训练完成,服务器可以将该第一教师深度图像作为第一训练样本的真实深度信息。
133.在步骤s920中,根据所述第一教师深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息。
134.在本技术一示例性实施例中,服务器可以根据第一教师深度图像中像素点的像素值与第一学生深度图像中对应像素点的像素值之间的差值,确定学生模型对应的深度损失信息。具体地,服务器可以将第一教师深度图像中像素点的像素值减去第一学生深度图像中对应像素点的像素值,从而得到二者之间的像素值差值。在一示例中,服务器可以将所有像素值差值进行相加,从而得到对应的像素差值总值,以将该像素值差值总值作为学生模型的深度损失信息;在另一示例中,服务器也可以根据像素值差值总值和像素点的数量,计算第一学生深度图像与第一教师深度图像之间的像素值差值的平均值,从而将该像素值差值的平均值作为学生模型对应的深度损失信息,本技术对此不作特殊限定。
135.由此,在图9所示的实施例中,通过教师模型的设置,可以将教师模型所输出的深度信息作为训练样本真实的深度信息,用以指导学生模型,提高了深度损失信息的确定的准确性,也提高了训练效率。
136.在一示例中,服务器可以采用预先训练的midas图像深度估计模型作为教师模型,该midas图像深度估计模型混合大量的不同场景下的深度数据与尺度位移不变损失,展现了良好的通用性,可以保证其所输出的深度估计结果的准确性。
137.基于图2、图3和图9所示的实施例,图10示出了根据本技术的一个实施例的图9的图像深度信息的获取方法中步骤s920的流程示意图。参照图10所示,步骤s920至少包括步骤s1010至步骤s1040,详细介绍如下:
138.在步骤s1010中,将所述第二训练样本输入至所述教师模型中,得到所述教师模型输出的与所述第二训练样本对应的第二教师深度图像。
139.在步骤s1020中,根据所述第一教师深度图像以及所述第一学生深度图像,确定所述第一教师深度图像与所述第一学生深度图像之间的第一深度损失信息。
140.在本技术一示例性实施例中,服务器可以根据第一教师深度图像与第一学生深度图像之间对应像素点的像素值差值,计算第一教师深度图像与第一学生深度图像之间的第一深度损失信息。在一示例中,服务器可以根据第一教师深度图像与第一学生深度图像之间对应像素点的像素值差值,建立对应的深度损失函数,并将该深度损失函数作为第一深度损失信息。
141.在步骤s1030中,根据所述第二教师深度图像以及所述第二学生深度图像,确定所
述第二教师深度图像与所述第二学生深度图像之间的第二深度损失信息。
142.在本技术一示例性实施例中,服务器可以根据第二教师深度图像与第一学生深度图像之间对应像素点的像素值差值,采用上一步骤中的深度损失信息计算方法,确定对应的第二深度损失信息。
143.在步骤s1040中,根据所述第一深度损失信息和第二深度损失信息,确定所述学生模型对应的深度损失信息。
144.在本技术一示例性实施例中,服务器可以将第一深度损失信息和第二深度损失信息进行相加,从而得到学生模型对应的深度损失信息。具体地,若第一深度损失信息和第二深度损失信息为损失值的形式,则将两个损失值进行相加,得到损失值总和。若第一深度损失信息和第二深度损失信息为损失函数的形式,则将两个损失函数相加,得到对应的总损失函数,以作为学生模型对应的深度损失信息。
145.在图10所示的实施例中,通过计算第二学生深度图像对应的第二深度损失信息,从而得到学生模型对应的总深度损失信息,由此,在采用内容相连续的训练样本对学生模型进行训练时,可以保证深度损失信息与训练方式相匹配,保证学生模型的深度损失信息的准确性。
146.基于图2和图3所示的实施例,在本技术的一示例性实施例中,所述根据所述第一训练样本和所述第二训练样本,确定所述第一训练样本与所述第二训练样本之间的光流信息,包括:
147.将所述第一训练样本和所述第二训练样本输入至预先训练的光流估计模型中,得到所述光流估计模型输出的与所述第一训练样本与所述第二训练样本之间的光流信息。
148.在该实施例中,服务器可以采用预先训练的光流估计模型,将第一训练样本和第二训练样本输入至光流估计模型中,以得到光流估计模型所输出的第一训练样本和第二训练样本之间的光流信息,提高了光流信息的获取效率。在另一示例中,服务器也可以采用第三方预先训练完成的光流估计模型,从而免去对光流估计模型的训练步骤,节省资源。
149.基于上述实施例的技术方案,以下介绍本技术实施例的一个具体应用场景:
150.图11示出了根据本技术的一个实施例的图像深度估计模型的训练方法的流程框图。
151.参照图11所示,如图中1110,服务器可以获取相邻的视频帧(x
i
和x
i 1
)以作为训练样本。应该理解的,相邻的视频帧中所包含的内容是连续的。如图中1120,服务器可以将视频帧x
i
输入至深度估计网络(teacher)即教师模型中,深度估计网络(teacher)可以输出视频帧x
i
对应的深度估计图像d
i*
(即第一教师深度图像),服务器可以将该深度估计图像d
i*
作为视频帧x
i
的真实深度图像。
152.服务器将视频帧x
i
和视频帧x
i 1
分别输入至深度估计网络(student)即学生模型中,以得到深度估计网络(student)输出的与视频帧xi对应的深度估计结果d
i
(即第一学生深度图像)和与视频帧x
i 1
对应的深度估计结果d
i 1
(即第二学生深度图像)。由此,服务器可以根据深度估计结果d
i
和深度估计结果d
i*
确定该学生模型对应的深度损失函数。需要说明的,本领域技术人员可以采用现有的损失函数以建立该深度损失函数。
153.如图中1130,服务器可以将相邻的视频帧(x
i
和x
i 1
)输入至预先训练的光流估计网络中,得到该光流估计网络所输出的视频光流f
i 1
(即光流信息)。基于该光流信息,光流
变形模块可以将视频帧x
i 1
和深度估计结果d
i 1
进行变形,得到变形后的深度估计结果和变形后的视频帧x以使变形后的深度估计结果和变形后的视频帧能够与视频帧x
i
相对应。根据变形后的视频帧和视频帧x
i
,可以进行掩膜的有效区域的计算(即稳定区域),从而得到掩膜m
i
。根据该掩膜m
i
、深度估计结果d
i
以及变形后的深度估计结果服务器可以确定学生模型对应的时域稳定性损失函数。
154.由此,服务器可以基于该深度损失函数和时域稳定性损失函数,对深度估计网络(student)进行调优处理,以降低深度估计网络(student)所输出的深度估计结果的闪烁程度,保证深度估计结果的时域稳定性。而训练后的深度估计网络(student)可以根据单帧图像进行深度估计,所得到的深度估计结果在时域上可以保持稳定,并减小闪烁程度。
155.以下介绍本技术的装置实施例,可以用于执行本技术上述实施例中的图像深度估计模型的训练方法。对于本技术装置实施例中未披露的细节,请参照本技术上述的图像深度估计模型的训练方法的实施例。
156.图12示出了根据本技术的一个实施例的图像深度信息的获取装置的框图。
157.参照图12所示,根据本技术的一个实施例的图像深度信息的获取装置,包括:
158.第一获取模块1210,用于根据待识别图像,获取所述待识别图像的图像特征;
159.输入模块1220,用于将所述图像特征输入至预训练的图像深度估计模型中,所述预训练的图像深度估计模型通过包含有光流信息、图像特征以及真实深度信息的样本数据训练得到;
160.第二获取模块1230,用于获取所述图像深度估计模型输出的所述待识别图像的深度信息。
161.在本技术的一些实施例中,基于前述方案,该装置还包括训练模块1240,该训练模块1240包括:
162.输入单元,用于将内容相连续的第一训练样本和第二训练样本分别输入至学生模型中,得到所述学生模型输出的与所述第一训练样本对应的第一学生深度图像以及与所述第二训练样本对应的第二学生深度图像;
163.第一确定单元,用于根据所述第一训练样本和所述第二训练样本,确定所述第一训练样本与所述第二训练样本之间的光流信息;
164.第二确定单元,用于根据所述光流信息、所述第一学生深度图像以及所述第二学生深度图像,确定所述学生模型对应的时域损失信息;
165.第三确定单元,用于根据预先确定的所述第一训练样本的深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息;
166.处理单元,用于根据所述时域损失信息以及所述深度损失信息,对所述学生模型进行调优处理,得到所述图像深度估计模型。
167.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述光流信息,将所述第二学生深度图像中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二学生深度图像;根据所述第一学生深度图像以及变形后的所述第二学生深度图像,确定所述学生模型对应的时域损失信息。
168.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述光流信息,将所述第二训练样本中对应于内容的像素点的位置变形至所述第一训练样本中对应于相同内容的像素点的位置,得到变形后的所述第二训练样本;根据变形后的所述第二训练样本,对所述第二学生深度图像中的像素点的位置进行变形,得到变形后的所述第二学生深度图像,变形后的所述第二学生深度图像中的内容的位置与变形后的所述第二训练样本中相同内容的位置相匹配。
169.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定所述第一训练样本与变形后的所述第二训练样本之间的稳定区域;根据所述第一学生深度图像中所述稳定区域内的像素点的像素值,以及变形后的所述第二学生深度图像中所述稳定区域内对应像素点的像素值,确定所述学生模型对应的时域损失信息。
170.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一训练样本中像素点的像素值以及变形后的所述第二训练样本中对应像素点的像素值,确定二者之间的第一差值;若所述第一差值小于或等于第一阈值,将所述第一差值对应的像素点识别为稳定区域。
171.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定各所述第二差值的平均值;根据所述平均值,确定所述学生模型对应的时域损失信息。
172.在本技术的一些实施例中,基于前述方案,该第二确定单元被配置为:根据所述第一学生深度图像中所述稳定区域内的像素点的像素值与变形后的所述第二学生深度图像中所述稳定区域内的对应像素点的像素值之间的第二差值,确定大于或等于第二阈值的第二差值的平均值。
173.在本技术的一些实施例中,基于前述方案,该第三确定单元被配置为:将所述第一训练样本输入至预先训练的教师模型中,得到所述教师模型输出的与所述第一训练样本对应的第一教师深度图像;根据所述第一教师深度图像以及所述第一学生深度图像,确定所述学生模型对应的深度损失信息。
174.在本技术的一些实施例中,基于前述方案,该第三确定单元被配置为:将所述第二训练样本输入至所述教师模型中,得到所述教师模型输出的与所述第二训练样本对应的第二教师深度图像;根据所述第一教师深度图像以及所述第一学生深度图像,确定所述第一教师深度图像与所述第一学生深度图像之间的第一深度损失信息;根据所述第二教师深度图像以及所述第二学生深度图像,确定所述第二教师深度图像与所述第二学生深度图像之间的第二深度损失信息;根据所述第一深度损失信息和第二深度损失信息,确定所述学生模型对应的总深度损失信息。
175.在本技术的一些实施例中,基于前述方案,该第一确定单元被配置为:将所述第一训练样本和所述第二训练样本输入至预先训练的光流估计模型中,得到所述光流估计模型输出的与所述第一训练样本与所述第二训练样本之间的光流信息。
176.图13示出了适于用来实现本技术实施例的电子设备的计算机系统的结构示意图。
177.需要说明的是,图13示出的电子设备的计算机系统仅是一个示例,不应对本技术
实施例的功能和使用范围带来任何限制。
178.如图13所示,计算机系统包括中央处理单元(central processing unit,cpu)1301,其可以根据存储在只读存储器(read

only memory,rom)1302中的程序或者从储存部分1308加载到随机访问存储器(random access memory,ram)1303中的程序而执行各种适当的动作和处理,例如执行上述实施例中所述的方法。在ram 1303中,还存储有系统操作所需的各种程序和数据。cpu 1301、rom 1302以及ram 1303通过总线1304彼此相连。输入/输出(input/output,i/o)接口1305也连接至总线1304。
179.以下部件连接至i/o接口1305:包括键盘、鼠标等的输入部分1306;包括诸如阴极射线管(cathode ray tube,crt)、液晶显示器(liquid crystal display,lcd)等以及扬声器等的输出部分1307;包括硬盘等的储存部分1308;以及包括诸如lan(local area network,局域网)卡、调制解调器等的网络接口卡的通信部分1309。通信部分1309经由诸如因特网的网络执行通信处理。驱动器1310也根据需要连接至i/o接口1305。可拆卸介质1311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1310上,以便于从其上读出的计算机程序根据需要被安装入储存部分1308。
180.特别地,根据本技术的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本技术的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分1309从网络上被下载和安装,和/或从可拆卸介质1311被安装。在该计算机程序被中央处理单元(cpu)1301执行时,执行本技术的系统中限定的各种功能。
181.需要说明的是,本技术实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(erasable programmable read only memory,eprom)、闪存、光纤、便携式紧凑磁盘只读存储器(compact disc read

only memory,cd

rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本技术中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本技术中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
182.附图中的流程图和框图,图示了按照本技术各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于
实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
183.描述于本技术实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
184.作为另一方面,本技术还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
185.应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本技术的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
186.通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本技术实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd

rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本技术实施方式的方法。
187.本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本技术领域中的公知常识或惯用技术手段。
188.应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本技术的范围仅由所附的权利要求来限制。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献