一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

图像处理方法、装置、计算机设备和存储介质与流程

2023-02-06 22:30:59 来源:中国专利 TAG:


1.本技术涉及机器学习技术领域,特别是涉及一种图像处理方法、装置、计算机设备和存储介质。


背景技术:

2.随着神经网络技术的发展,用于执行神经网络推理的推理框架技术也不断发展。migraphx是一种用来加速机器学习模型推理的推理框架,通常,在执行神经网络模型之前,migraphx框架先将神经网络模型编译成一整张图,然后利用编译的图对数据进行处理,该神经网络模型的输入数据的大小通常是固定的。
3.但是,由于该神经网络模型的输入数据的大小通常是固定的,使得神经网络模型的运行场景受限。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种能够扩大神经网络模型的运行场景,在输入数据的大小不固定的情况下提高神经网络模型的运行性能的图像处理方法、装置、计算机设备和存储介质。
5.第一方面,本技术提供了一种图像处理方法。所述方法包括:
6.根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
7.在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状;
8.利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
9.在其中一个实施例中,基于目标数据形状对有向图进行优化,得到优化后的有向图,包括:
10.调用预设的优化方法;
11.利用优化方法和目标数据形状,对有向图进行优化,得到优化后的有向图。
12.在其中一个实施例中,利用优化方法和目标数据形状,对有向图进行优化,得到优化后的有向图,包括:
13.利用优化方法和目标数据形状,对有向图的各个节点对应的算子和编译期进行优化,得到优化后的有向图。
14.在其中一个实施例中,方法还包括:
15.根据待处理图像集中各图像的属性信息,确定最大数据形状;属性信息包括图像的尺寸和图像的分辨率。
16.在其中一个实施例中,方法还包括:
17.利用神经网络模型对应的约束条件,确定最大数据形状。
18.在其中一个实施例中,根据待处理图像集对应的最大数据形状,将预设的神经网
络模型编译为对应的有向图,包括:
19.根据最大数据形状,将神经网络模型的各层结构作为节点,将各层结构之间的连接关系作为边,构建有向图。
20.第二方面,本技术还提供了一种图像处理装置。所述装置包括:
21.编译模块,用于根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为对应的有向图;
22.优化模块,用于在目标数据形状小于或等于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状;
23.处理模块,用于利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
24.第三方面,本技术还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
25.根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
26.在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状;
27.利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
28.第四方面,本技术还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
29.根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
30.在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状;
31.利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
32.第五方面,本技术还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
33.根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
34.在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状;
35.利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
36.上述图像处理方法、装置、计算机设备和存储介质,根据待处理图像集对应的最大数据形状,能够将预设的神经网络模型编译优化为一张有向图,将神经网络模型当前阶段待处理的目标图像对应的数据形状作为目标数据形状,从而可以在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图,由于优化后的有向图是基于当前阶段待处理的目标图像对应的数据形状进行优化的,而当前阶段待处理的目标图像对应的数据形状是明确的,这样能够对有向图进行明确的优化,得到的优化后的有向图能够适应当前阶段待处理的目标图像的形状,使得优化后的有向图能够对
目标图像进行处理,得到目标图像对应的处理结果,也就是说,通过基于当前阶段待处理的目标图像对应的数据形状对有向图进行优化,使得优化后的有向图能够适应不同数据形状的目标图像,能够对不同数据形状的目标图像进行处理,扩大了神经网络模型的运行场景,提高了神经网络模型在输入的目标图像的形状不固定时的运行性能。
附图说明
37.图1为一个实施例中图像处理方法的流程示意图;
38.图2为另一个实施例中图像处理方法的流程示意图;
39.图3为另一个实施例中图像处理方法的流程示意图;
40.图4为另一个实施例中图像处理方法的流程示意图;
41.图5为一个实施例中图像处理装置的结构框图;
42.图6为一个实施例中图像处理装置的结构框图;
43.图7为一个实施例中图像处理装置的结构框图;
44.图8为一个实施例中图像处理装置的结构框图;
45.图9为一个实施例中图像处理装置的结构框图。
具体实施方式
46.为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本技术进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本技术,并不用于限定本技术。
47.需要说明的是,migraphx是一种用来加速机器学习模型推理的推理框架,通常,migraphx框架为了提高推理性能,在执行神经网络模型之前,migraphx框架先将神经网络模型编译成一整张图,然后利用编译的图对数据进行处理,但是,目前migraphx框架只能支持输入数据大小是固定的(即静态shape模式)神经网络模型的编译,migraphx框架在编译阶段采用了很多优化方法来提高性能,其中部分优化需要知道明确的输入数据的形状信息,比如常量传播常量折叠优化、内存复用优化、算子融合优化等。其中,内存复用优化是指在静态shape模式中,由于模型处理的数据的shape信息是明确的,所以可以通过分析计算图中的数据依赖关系实现内存复用优化,比如现在有一个层数为6层的深度学习模型,这6层依次表示为abcdef,其数据依赖关系为a-》b-》c-》d-》e-》f,假设他们所需要的内存大小一致,都为100m,如果不采用内存复用优化,则该模型一共需要600m内存,如果采用内存复用优化,通过分析数据依赖关系我们可以知道b依赖a的数据,所以b不能复用a的内存,所以需要为a分配100m内存,同时需要为b分配100m内存,由于c和a之间没有依赖关系,所以c可以复用a的100m内存,依次类推,def都可以复用之前的内存,所以一共只需要200m内存就够了,这样可以大大降低内存消耗,现有的深度学习模型层数一般远远大于6层,随着层数越多,内存复用优化的效果就越明显。对于算子优化,以resize算子为例,当resize算子使用最近邻插值算法时,migraphx框架对其实现进行了优化,migraphx框架使用gather算子来实现resize算子从而提高性能,在静态shape模式中,由于输入和输出大小都是已知的,如果使用最近邻插值,输出图像中每个像素对应的输入图像的索引是确定的,所以可以在编译期提前将索引值计算出来保存为常量作为gather算子的输入,运行期gather算子直接按
照索引值取数据即可,通过这种方式可以提高resize算子的性能。但是,上述优化方法都需要在编译期知道明确的shape信息,而动态shape模式无法知道明确的shape信息,所以在动态shape模式中是无法完成上述优化的,从而使得神经网络模型的运行场景受限。
48.本技术实施例提供的图像处理方法,可以应用于如图1所示的应用环境中。图1提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图1所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储图像数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像处理方法。
49.在一个实施例中,如图2所示,提供了一种图像处理方法,以该方法应用于图1中的计算机设备为例进行说明,包括以下步骤:
50.s201,根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图。
51.其中,待处理图像集可以为医学图像集合,也可以为实际场景中采集的各种图像的集合,例如,可以为实时采集的道路图像的集合。可选的,在本实施例中,可以从图像采集设备中实时地获取待处理图像集,也可以从预设的存储器中获取待处理图像集。可选的,本实施例中的神经网络模型可以为卷积神经网络(convolutional neural networks,cnn)、循环神经网络(recurrent neural network,rnn)等神经网络模型。
52.可选的,在本实施例中,由于获取的待处理图像集对应的最大数据形状是一个固定形状,因此,本实施例中,可以假设是在静态图模式下对预设的神经网络模型进行编译,将预设的神经网络模型编译成一张有向图。其中,有向图是指包含节点和边的图,可以理解的是,本实施例中的有向图是通过对神经网络模型进行编译得到的,因此,本实施例中的有向图的节点和边的信息可以用于表征神经网络模型的网络结构信息。
53.可选的,在本实施例中,上述最大数据形状可以根据根据神经网络模型待处理的图像集中的各个图像的参数确定,例如,图像的像素信息等,或者,也可以根据神经网络模型待处理的图像集中的各个图像的参数为最大数据形状框定一定的范围,从该范围中确定出最大数据形状。
54.另外,基于传统技术可知,在静态图模式下对神经网络模型进行编译时在编译阶段利用明确的形状信息,采用了多种优化方法来提高神经网络模型的性能,进一步地作为一种可选的实施方式,在本实施例中,根据待处理图像集对应的最大数据形状,对预设的神经网络模型编译时还可以基于上述最大数据形状,采用上述内存复用优化和算子融合等优化方法来提高神经网络模型的性能。
55.s202,在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图;目标数据形状为神经网络模型当前阶段待处理的目标图像对应的数据形状。
56.在本实施例中,预设的神经网络模型的待处理的图像集中包含多种数据形状不同的图像,对不同数据形状的图像进行处理时对应的有向图是不同的,因此,在本实施例中,
对当前阶段待处理的目标图像进行处理时,可以先将当前阶段待处理的目标图像对应的目标数据形状和上述最大数据形状做比较,在当前阶段待处理的目标图像的目标数据形状不大于最大数据形状的情况下,计算机设备基于当前阶段待处理的目标图像的目标数据形状对上述得到的有向图进行优化,得到当前阶段待处理的目标图像对应的有向图。示例性地,上述目标数据形状可以是基于当前阶段待处理的目标图像的尺寸和目标图像的分辨率确定的。可选的,在本实施例中,基于目标数据形状对有向图进行的优化可以包括算子优化以及编译期优化等等。另外,需要说明的是,在本实施例中,若当前阶段待处理的目标图像对应的目标数据形状大于上述最大数据形状,则计算机设备将报错,退出执行。
57.s203,利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
58.可选的,本实施例中,若上述神经网络模型为分割模型,则计算机设备可以利用优化后的有向图对目标图像进行分割处理,得到目标图像对应的分割结果;或者,若上述神经网络模型为分类模型,则计算机设备可以利用优化后的有向图对目标图像进行分类处理,得到目标图像对应的分类结果。
59.另外,可以理解的是,由于待处理图像集对应的最大数据形状提供了明确的数据形状,所以在编译期就可以知道神经网络模型中每个节点需要多少内存,从而可以提前为每个节点分配好内存,又因为每个节点分配的内存在程序运行过程中都是最大的,所以不需要再分配内存,避免了频繁的内存申请和释放,提高了系统性能;并且,由于待处理图像集对应的最大数据形状提供了明确的数据形状,可以通过分析神经网络模型各层之间的数据依赖关系进行内存复用优化,可以显著降低内存消耗。
60.上述图像处理方法中,根据待处理图像集对应的最大数据形状,能够将预设的神经网络模型编译优化为一张有向图,将神经网络模型当前阶段待处理的目标图像对应的数据形状作为目标数据形状,从而可以在目标数据形状不大于最大数据形状的情况下,基于目标数据形状对有向图进行优化,得到优化后的有向图,由于优化后的有向图是基于当前阶段待处理的目标图像对应的数据形状进行优化的,而当前阶段待处理的目标图像对应的数据形状是明确的,这样能够对有向图进行明确的优化,得到的优化后的有向图能够适应当前阶段待处理的目标图像的形状,使得优化后的有向图能够对目标图像进行处理,得到目标图像对应的处理结果,也就是说,通过基于当前阶段待处理的目标图像对应的数据形状对有向图进行优化,使得优化后的有向图能够适应不同数据形状的目标图像,能够对不同数据形状的目标图像进行处理,扩大了神经网络模型的运行场景,提高了神经网络模型在输入的目标图像的形状不固定时的运行性能。
61.在上述目标数据形状不大于最大数据形状,基于目标数据形状对有向图进行优化的场景中,本实施例将对有向图的优化过程进行详细说明。在一个实施例中,如图3所示,上述s202,包括:
62.s301,调用预设的优化方法。
63.在本实施例中,神经网络模型的输入图像的形状不固定时,神经网络模型运行过程会发生变化,需要动态的修改有向图来适应神经网络模型的不同的输入形状。可选的,本实施例中的优化方法可以是预先将模型的输入数据形状不固定时需要执行的所有的操作进行封装所得到的,示例性地,模型的输入数据形状不固定时需要执行的操作可以包括修改算子属性、修改编译期优化等操作。可以理解的是,将模型的输入数据形状不固定时需要
执行的所有的操作预先封装成上述优化方法,当神经网络模型的输入数据形状是固定时,可以不调用该方法,对神经网络模型的输入数据形状固定时的运行也不会产生影响;当神经网络模型的输入数据形状不固定时,需要对编译的有向图进行优化时只需调用该优化方法即可。可选的,本实施例中,计算机设备可以向存储该优化方法的存储器发送调用指令,基于该调用指令从存储器中调用该优化方法。
64.s302,利用优化方法和目标数据形状,对有向图进行优化,得到优化后的有向图。
65.可选的,在本实施例中,可以利用预设的优化方法和目标数据形状,对有向图的各个节点对应的算子和编译期进行优化,得到优化后的有向图。
66.可选的,以节点对应的算子为广播算子(broadcast)为例,假设神经网络模型的输入数据形状为[8,3,224,224],该数据形状表示有8张3通道的大小为224x224的图像,假设该神经网络模型的第一层是一个带有偏置项的卷积层,该卷积层的卷积核大小为[32,3,3,3],表示有32个3通道的大小为3x3的卷积核,并且该卷积核的元素边框与元素内容之间的空间为1,通过该卷积核执行卷积后得到的结果大小为[8,32,224,224],之后,对卷积神经网络中卷积层中每个卷积核对应一个偏置项(可以理解为一个常量),migraphx中卷积的偏置是通过对卷积的结果加上广播后的偏置项完成的,具体公式为:result=conv(input) broadcast(bias),先将偏置项广播到卷积结果大小为[8,32,224,224],然后再加到卷积的结果中得到最后的结果,migraphx中的广播算子有个属性,该属性就是偏置项bias经过广播后的大小,本示例中该属性值为[8,32,224,224],在输入数据形状不固定的模式中,如果输入形状发生改变,则该broadcast的该属性就需要修改。
[0067]
可选的,migraphx在编译期会将全局池化算子转换为reshape算子和规约算子(reduce),这样会提高该算子的性能。比如resnet50网络中最后有个全局池化,假设该全局池化的输入大小为[1,2048,7,7],经过该全局池化后结果大小为[1,2048,1,1],转换为reshape算子和reduce算子之后,reshape算子需要先将全局池化的输入大小[1,2048,7,7]转换为[2048,49],然后经过reduce算子之后变成[1,2048,1,1],migraphx中的reshape算子有个表示reshape大小的属性,本示例中该属性值为[2048,49],在输入数据形状不固定的模式中,如果输入形状发生改变,则该编译期优化中的reshape算子的属性值就需要修改。
[0068]
本实施例中,通过调用预设的优化方法,利用调用的优化方法和神经网络模型当前阶段待处理的目标图像对应的目标数据形状,对有向图进行优化,能够使优化后的有向图能够适应当前阶段待处理的目标图像的数据形状,使得神经网络模型能够对输入数据形状不固定的不同图像进行处理,扩大了神经网络模型的应用场景,提高了神经网络模型的运行性能。
[0069]
在上述根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图的场景中,需要先确定出待处理图像集对应的最大数据形状。下边将对确定待处理图像集对应的最大数据形状的两种方法加以详细说明:
[0070]
方法一,在一些场景中,若待处理图像集中的各个图像的属性信息是确定的,能够确定待处理图像集中的各个图像的属性信息,在一个实施例中,上述方法还包括:根据待处理图像集中各图像的属性信息,确定最大数据形状;属性信息包括图像的尺寸和图像的分辨率。
[0071]
在本实施例中,计算机设备可以根据神经网络待处理图像集中的各图像的尺寸和各图像的分辨率,确定出上述最大数据形状。例如,计算机设备可以将待处理图像集中的各图像尺寸的均值和各图像分辨率的均值确定为上述最大数据形状,或者,计算机设备也可以将待处理图像集中的各图像尺寸的最大值和各图像分辨率的最大值确定为上述最大数据形状。
[0072]
本实施例中,由于待处理图像集中各图像的属性信息是明确的,因此,根据待处理图像集中各图像的属性信息,能够准确地确定出待处理图像集对应的最大数据形状,提高了确定的最大数据形状的准确度,从而提高了得到的根据最大数据形状将预设的神经网络模型编译的有向图的准确度。
[0073]
方法二,在一些场景中,若待处理图像集中的各个图像的属性信息是不确定的,在一个实施例中,上述方法还包括:利用神经网络模型对应的约束条件,确定最大数据形状。
[0074]
可选的,神经网络模型对应的约束条件可以包括神经网络模型的层数、神经网络模型能够处理的图像的最大尺寸、神经网络模型能够处理的图像的最大分辨率等等。以神经网络模型对应的约束条件为神经网络模型的层数为例,则计算机设备可以根据神经网络模型的层数,确定出上述最大数据形状。
[0075]
可以理解的是,本实施例中确定出神经网络模型对应的最大数据形状后,可以提前为神经网络模型对应的有向图的每个节点分配好内存,不需要在程序运行中再分配内存,避免了频繁的内存申请和释放,提高了系统性能。
[0076]
本实施例中,在待处理图像集中的各个图像的属性信息是不确定的情况下,通过根据神经网络模型对应的约束条件,也能够确定出神经网络模型待处理图像集对应的最大数据形状,提高了确定神经网络模型待处理图像集对应的最大数据形状的效率。
[0077]
在上述根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为对应的有向图的场景中,在一个实施例中,上述s201,包括:根据最大数据形状,将神经网络模型的各层结构作为节点,将各层结构之间的连接关系作为边,构建有向图。
[0078]
需要说明的是,神经网络模型是由大量的、简单的处理单元广泛地互相连接而形成的复杂网络系统,神经网络模型中可以包括多个层,例如,输入层、卷积层和输出层等等,在本实施例中,计算机设备可以根据最大数据形状,将神经网络模型中的各层结构作为节点,将神经网络模型各层结构之间的连接关系作为边,构建神经网络模型对应的有向图。
[0079]
本实施例中,根据待处理图像集对应的最大数据形状,能够将预设的神经网络模型准确地编译优化为对应的有向图,有利于神经网络模型进一步对图像集进行处理,提高了模型的运行性能。
[0080]
下面结合一个具体的图像处理场景来介绍本公开的实施例,如图4所示,该方法包括如下步骤:
[0081]
s1、根据待处理图像集中各图像的尺寸和图像的分辨率,确定最大数据形状;或者利用神经网络模型对应的约束条件,确定最大数据形状。
[0082]
s2、根据最大数据形状,将神经网络模型的各层结构作为节点,将各层结构之间的连接关系作为边,构建有向图。
[0083]
s3、神经网络模型当前阶段待处理的目标图像对应的目标数据形状。
[0084]
s4、调用预设的优化方法;利用优化方法和目标数据形状,对有向图的各个节点对
应的算子和编译期进行优化,得到优化后的有向图。
[0085]
s5、利用优化后的有向图对目标图像进行处理,得到目标图像对应的处理结果。
[0086]
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
[0087]
基于同样的发明构思,本技术实施例还提供了一种用于实现上述所涉及的图像处理方法的图像处理装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个图像处理装置实施例中的具体限定可以参见上文中对于图像处理方法的限定,在此不再赘述。
[0088]
在一个实施例中,如图5所示,提供了一种图像处理装置,包括:编译模块10、优化模块11和处理模块12,其中:
[0089]
编译模块10,用于根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为对应的有向图;
[0090]
优化模块11,用于在目标数据形状小于或等于所述最大数据形状的情况下,基于所述目标数据形状对所述有向图进行优化,得到优化后的有向图;所述目标数据形状为所述神经网络模型当前阶段待处理的目标图像对应的数据形状;
[0091]
处理模块12,用于利用所述优化后的有向图对所述目标图像进行处理,得到所述目标图像对应的处理结果。
[0092]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
[0093]
在一个实施例中,如图6所示,上述优化模块11,包括:调用单元111和优化单元112;其中:
[0094]
调用单元111,用于调用预设的优化方法。
[0095]
优化单元112,用于利用所述优化方法和所述目标数据形状,对所述有向图进行优化,得到所述优化后的有向图。
[0096]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
[0097]
在一个实施例中,上述优化单元112,用于利用所述优化方法和所述目标数据形状,对所述有向图的各个节点对应的算子和编译期进行优化,得到所述优化后的有向图。
[0098]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
[0099]
在一个实施例中,如图7所述,上述装置还包括:第一确定模块13;其中:
[0100]
第一确定模块13,用于根据所述待处理图像集中各图像的属性信息,确定所述最大数据形状;所述属性信息包括图像的尺寸和图像的分辨率。
[0101]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效
果类似,在此不再赘述。
[0102]
在一个实施例中,如图8所述,上述装置还包括:第二确定模块14;其中:
[0103]
第二确定模块14,用于利用所述神经网络模型对应的约束条件,确定所述最大数据形状。
[0104]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
[0105]
在一个实施例中,如图9所示,上述编译模块10,包括:编译单元101,其中:
[0106]
编译单元101,用于根据所述最大数据形状,将所述神经网络模型的各层结构作为节点,将所述各层结构之间的连接关系作为边,构建所述有向图。
[0107]
本实施例提供的图像处理装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
[0108]
上述图像处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0109]
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
[0110]
根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
[0111]
在目标数据形状不大于所述最大数据形状的情况下,基于所述目标数据形状对所述有向图进行优化,得到优化后的有向图;所述目标数据形状为所述神经网络模型当前阶段待处理的目标图像对应的数据形状;
[0112]
利用所述优化后的有向图对所述目标图像进行处理,得到所述目标图像对应的处理结果。
[0113]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
[0114]
调用预设的优化方法;
[0115]
利用所述优化方法和所述目标数据形状,对所述有向图进行优化,得到所述优化后的有向图。
[0116]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
[0117]
利用所述优化方法和所述目标数据形状,对所述有向图的各个节点对应的算子和编译期进行优化,得到所述优化后的有向图。
[0118]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
[0119]
根据所述待处理图像集中各图像的属性信息,确定所述最大数据形状;所述属性信息包括图像的尺寸和图像的分辨率。
[0120]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
[0121]
利用所述神经网络模型对应的约束条件,确定所述最大数据形状。
[0122]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
[0123]
根据所述最大数据形状,将所述神经网络模型的各层结构作为节点,将所述各层结构之间的连接关系作为边,构建所述有向图。
[0124]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
[0125]
根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
[0126]
在目标数据形状不大于所述最大数据形状的情况下,基于所述目标数据形状对所述有向图进行优化,得到优化后的有向图;所述目标数据形状为所述神经网络模型当前阶段待处理的目标图像对应的数据形状;
[0127]
利用所述优化后的有向图对所述目标图像进行处理,得到所述目标图像对应的处理结果。
[0128]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0129]
调用预设的优化方法;
[0130]
利用所述优化方法和所述目标数据形状,对所述有向图进行优化,得到所述优化后的有向图。
[0131]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0132]
利用所述优化方法和所述目标数据形状,对所述有向图的各个节点对应的算子和编译期进行优化,得到所述优化后的有向图。
[0133]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0134]
根据所述待处理图像集中各图像的属性信息,确定所述最大数据形状;所述属性信息包括图像的尺寸和图像的分辨率。
[0135]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0136]
利用所述神经网络模型对应的约束条件,确定所述最大数据形状。
[0137]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0138]
根据所述最大数据形状,将所述神经网络模型的各层结构作为节点,将所述各层结构之间的连接关系作为边,构建所述有向图。
[0139]
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
[0140]
根据待处理图像集对应的最大数据形状,将预设的神经网络模型编译为有向图;
[0141]
在目标数据形状不大于所述最大数据形状的情况下,基于所述目标数据形状对所述有向图进行优化,得到优化后的有向图;所述目标数据形状为所述神经网络模型当前阶段待处理的目标图像对应的数据形状;
[0142]
利用所述优化后的有向图对所述目标图像进行处理,得到所述目标图像对应的处理结果。
[0143]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0144]
调用预设的优化方法;
[0145]
利用所述优化方法和所述目标数据形状,对所述有向图进行优化,得到所述优化后的有向图。
[0146]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0147]
利用所述优化方法和所述目标数据形状,对所述有向图的各个节点对应的算子和编译期进行优化,得到所述优化后的有向图。
[0148]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0149]
根据所述待处理图像集中各图像的属性信息,确定所述最大数据形状;所述属性信息包括图像的尺寸和图像的分辨率。
[0150]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0151]
利用所述神经网络模型对应的约束条件,确定所述最大数据形状。
[0152]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
[0153]
根据所述最大数据形状,将所述神经网络模型的各层结构作为节点,将所述各层结构之间的连接关系作为边,构建所述有向图。
[0154]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(read-only memory,rom)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(reram)、磁变存储器(magnetoresistive random access memory,mram)、铁电存储器(ferroelectric random access memory,fram)、相变存储器(phase change memory,pcm)、石墨烯存储器等。易失性存储器可包括随机存取存储器(random access memory,ram)或外部高速缓冲存储器等。作为说明而非局限,ram可以是多种形式,比如静态随机存取存储器(static random access memory,sram)或动态随机存取存储器(dynamic random access memory,dram)等。本技术所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本技术所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
[0155]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0156]
以上所述实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本技术专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术的保护范围应以所附权利要求为准。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献