一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种网络模型的优化方法、装置、设备及介质与流程

2022-11-30 08:18:29 来源:中国专利 TAG:


1.本公开涉及图像处理技术领域,尤其涉及一种网络模型的优化方法、装置、设备及介质。


背景技术:

2.在使用机器学习来完成图像分类、图像检测、关键点检测等任务时,需要先构建神经网络模型。针对构建的神经网络模型,通常使用的精度都是32位或64位单精度浮点数,在网络模型规模较大的时候,需要的内存资源非常巨大。为了得到更有效率的模型,以及使模型能够在移动设备或低功耗设备上部署与使用,目前的传统方式是先通过迭代优化获取性能最佳的浮点型模型,然后再对该最佳的浮点型模型进行量化,量化后的整数型模型以低比特形式进行推理和存储,将量化后的整数模型在移动设备或低功耗设备上部署与使用。
3.目前都是采用浮点型模型的精度来评估量化后整数型模型的性能,然而在实际应用中发现,性能最佳的浮点型模型并不一定对应着性能最佳的整数型模型。模型量化会给浮点型模型带来不同程度的性能损失,导致在实际部署环节,量化后的整数型模型的性能降低,无法体现出浮点型模型的高性能。


技术实现要素:

4.为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种网络模型的优化方法、装置、设备及介质。
5.本公开实施例提供了一种网络模型的优化方法,包括:
6.获取第一网络模型;其中,所述第一网络模型是基于当前参数得到的;将所述第一网络模型进行量化,得到量化后的第二网络模型;确定所述第二网络模型的性能评估值,根据所述性能评估值对所述当前参数进行更新;
7.重复上述步骤,循环对当前参数进行更新直至达到收敛条件时,输出更新后的第二网络模型。
8.可选的,所述第一网络模型为浮点型网络模型;所述第二网络模型为整数型网络模型。
9.可选的,所述第一网络模型为经过知识蒸馏算法输出的学生深度神经网络;所述当前参数为蒸馏超参数。
10.可选的,所述方法还包括:根据采用所述蒸馏超参数的知识蒸馏算法和预先训练好的教师网络模型,指导所述学生深度神经网络的训练,输出训练好的学生深度神经网络,并将所述训练好的学生深度神经网络作为所述第一网络模型。
11.可选的,所述将所述第一网络模型进行量化,得到量化后的第二网络模型,包括
12.将所述第一网络模型存储为预设格式的第一网络模型,将所述预设格式的第一网络模型输入量化模块进行量化操作,得到整数型的第二网络模型。
13.可选的,所述确定所述第二网络模型的性能评估值,包括:
14.根据预设的验证集多次运行所述第二网络模型,基于多次运行所述第二网络模型得到的结果确定性能评估值,所述性能评估值用于表征所述第二网络模型的精度。
15.可选的,所述根据所述性能评估值对所述当前参数进行更新,包括:根据所述性能评估值和超参数搜索算法进行反向传播,以更新得到新的当前超参数。
16.可选的,所述收敛条件包括以下中的任意一项:
17.循环的执行次数达到预设的最大循环次数;或者,循环的执行时间达到预设的最大执行时间;或者,基于所述超参数搜索算法对第一网络模型的参数进行采样的数量达到预设最大采样数量;或者,所述第二网络模型的性能评估值达到预设的性能评估阈值。
18.可选的,当首次执行所述获取第一网络模型的步骤时,所述当前参数是基于所述超参数搜索算法,在超参数搜索范围内确定的随机数。
19.可选的,所述方法还包括:若达到所述收敛条件,将更新后的第二网络模型进行模型部署。
20.本公开实施例还提供了一种网络模型的优化装置,包括:
21.获取模块,用于获取第一网络模型;其中,所述第一网络模型是基于当前参数得到的;
22.量化模块,用于将所述第一网络模型进行量化,得到量化后的第二网络模型;
23.更新模块,用于确定所述第二网络模型的性能评估值,根据所述性能评估值对所述当前参数进行更新;
24.判断模块,用于判断是否达到收敛条件;若未达到收敛条件,将更新后的当前参数输入至所述获取模块,重复所述获取模块、所述量化模块和所述更新模块执行的步骤;若达到收敛条件,将对应的更新后的第二网络模型输入至输出模块;
25.所述输出模块,用于输出更新后的第二网络模型。
26.本公开实施例还提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现如本公开实施例提供的网络模型的优化方法。
27.本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,当所述计算机程序被计算设备执行时,使所述计算机设备实现上述网络模型的优化方法。
28.本公开实施例提供的技术方案与现有技术相比具有如下优点:
29.本公开实施例提供了一种网络模型的优化方法、装置、设备及介质,该方法包括:获取基于当前参数得到的第一网络模型,将第一网络模型进行量化以得到量化后的第二网络模型;确定第二网络模型的性能评估值,并根据性能评估值对当前参数进行更新;重复上述步骤,循环对当前参数进行更新直至达到收敛条件时,输出更新后的第二网络模型。与传统的先迭代优化浮点型模型,再模型量化得到整数型模型的方式相比,本实施例提供的上述网络模型的优化方式,将模型量化加入到模型的迭代优化过程中,充分考虑量化后第二网络模型的性能评估值,弥补了模型量化造成的性能损失;在该循环过程中,利用量化后第二网络模型的性能评估值更新当前参数,使更新后的当前参数直接与量化后第二网络模型的性能相关联,由此有效确保最终输出的第二网络模型具有最佳性能。进一步的,输出的第二网络模型为量化后模型,既保持了较高的性能,又有效减少了对内存资源的占用,有利于
在移动设备或低功耗设备上部署与使用。
附图说明
30.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
31.为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
32.图1为本公开实施例提供的一种模型优化方式示意图;
33.图2为本公开实施例提供的一种网络模型的优化方法的流程示意图;
34.图3为本公开实施例提供的另一种模型优化方式示意图;
35.图4为本公开实施例提供的一种网络模型的优化装置的结构示意图;
36.图5为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
37.为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
38.在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
39.在传统的模型优化方式中,模型训练和模型量化是分段式的;比如,参照图1所示,展示了采用知识蒸馏算法对用户输入的初始网络模型进行迭代优化的过程,其中,知识蒸馏算法所采用的超参数是基于浮点型模型的性能更新得到的。在对知识蒸馏算法进行超参数搜索时,需要对每组超参数对应的浮点型模型进行对比评价,选择性能最佳的一个或者多个模型。当迭代优化停止时,获取性能最佳的浮点型模型,而后对浮点型模型进行模型量化,以及对量化后的整数型模型进行模型部署。目前学术界和工业界的已知方法,都是使用浮点型模型的精度来评价模型的性能,这种评估方法与实际部署脱节,导致在实际部署环节发现,量化后的整数型模型的性能降低,无法体现出浮点型模型的高性能,出现浮点型模型性能与整数型模型性能排序不匹配的问题。出现整数型模型性能降低的原因在于,在模型的迭代优化过程中,没有将模型量化阶段考虑进去,如:模型量化带来的性能损失、过度关注浮点型模型的性能而忽略了量化后整数型模型的性能。
40.为了改善该上述问题至少之一,本公开实施例提供了一种网络模型的优化方法、装置、设备及介质,该技术可用于模型训练、模型量化和模型部署等实际应用场景中。为便于理解,以下对本发明实施例进行详细介绍。
41.图2为本公开实施例提供的一种网络模型的优化方法流程示意图,该方法可以由网络模型的优化装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中。如图2所示,该方法包括重复执行如下步骤s202-s208,循环对当前参数进行更新直至达到收敛条件:
42.步骤s202,获取第一网络模型;其中,第一网络模型是基于当前参数得到的。当前参数为超参数,是第一网络模型开始学习过程之前设置的参数,定义了关于第一网络模型的更高层次的概念,如第一网络模型的深度、损失权重、权重配比和学习率等等;超参数的选择对于第一网络模型最终的效果有极大的影响。当首次执行步骤s202时,当前参数可以是基于超参数搜索算法,在参数搜索范围内确定的随机数;或者,也可以用户人为配置的参数的取值。
43.本实施例中的第一网络模型诸如为常见的cnn(convolutional neural networks,卷积神经网络)、r-cnn(region-cnn)或segnet等机器学习模型。在一些实现方式中,可以利用当前参数对预设的初始网络模型进行优化训练,得到第一网络模型;第一网络模型为浮点型网络模型。
44.步骤s204,将第一网络模型进行量化,得到量化后的第二网络模型。
45.在本实施例中,可以利用具有模型量化功能的模块将第一网络模型进行量化,该具有模型量化功能的模块例如可以为包括tensorrt工具的模块;本实施例将高比特浮点型的第一网络模型输入至量化模块中,通过量化模块将第一网络模型转换为低比特int8模型,以输出第二网络模型,该第二网络模型为整数型网络模型。
46.步骤s206,确定第二网络模型的性能评估值,根据性能评估值对当前参数进行更新。
47.本实施例可以在预设的任务中运行第二网络模型,上述任务诸如场景的图像分类任务、图像分割任务、图像检测任务等;基于运行结果确定第二网络模型的性能评估值,通过性能评估值表征第二网络模型的精度。
48.在模型训练过程中需要对当前参数进行不断地调整,以寻找一组最优的当前参数,使量化后的第二网络模型具有最佳的性能和效果。为了寻找一组最优的当前参数,可以采用超参数搜索算法并根据性能评估值,对当前参数进行更新;当更新得到新的当前参数后,执行如下步骤s208。
49.步骤s208,判断是否达到收敛条件;该收敛条件可以为基于最大循环次数、最大执行时间或者参数的采样数量等因素设置的条件。
50.如果达到收敛条件,表明基于更新后的当前参数所获取的第二网络模型可以在模型性能方面达到令人满意的效果,能够满足实际生产需求,在此情况下,将达到收敛条件时对应的第二网络模型确定为最终优化后的网络模型,可以执行如下步骤s210。相应的,如果未达到收敛条件,则重新执行上述步骤s202至步骤s208。
51.步骤s210,输出更新后的第二网络模型。
52.本公开实施例提供的网络模型的优化方法,包括:先将第一网络模型量化为第二网络模型,然后再根据第二网络模型的性能评估值对当前参数进行更新;重复上述步骤,循环对当前参数进行更新直至达到收敛条件时,输出更新后的第二网络模型。与传统的先迭代优化浮点型模型,再模型量化得到整数型模型的方式相比,本实施例提供的上述网络模型的优化方式,将模型量化加入到模型的迭代优化过程中,充分考虑量化后第二网络模型的性能评估值,弥补了模型量化造成的性能损失;在该循环过程中,利用量化后第二网络模型的性能评估值更新当前参数,使更新后的当前参数直接与量化后第二网络模型的性能相关联,由此有效确保最终输出的第二网络模型具有最佳性能。
53.为便于理解本方案,在此提供一种如图3所示的实施例。参照图3,首先获取用户输入的初始网络模型,根据当前参数和预设的训练方式对初始网络模型进行优化训练,得到浮点型的第一网络模型;其中,训练方式可以为:知识蒸馏算法、剪枝算法或低秩分解等方式。本实施例在采用预设的训练方式对初始网络模型进行训练时,当前参数是与训练方式相匹配的超参数;比如,以图3所示的知识蒸馏算法为例,当前参数包括但不限于如下蒸馏超参数:蒸馏损失函数的选择参数、蒸馏损失权重的取值、教师网络模型和学生网络模型之间进行蒸馏的网络层。
54.然后对第一网络模型进行模型量化,得到整数型的第二网络模型;以及,基于第二网络模型的性能更新当前参数,并利用更新后的当前参数进行下一轮的迭代优化。重复多次上述的迭代优化过程,直至达到收敛条件时获取性能最佳的整数型的第二网络模型;接下来,可以将该获取的第二网络模型作为目标网络模型,并对目标网络模型进行模型部署。
55.在采用知识蒸馏算法的实施例中,第一网络模型为经过知识蒸馏算法输出的学生深度神经网络;当前参数为上述蒸馏超参数。在此情况下,可以通过如下方式获取第一网络模型:
56.根据采用蒸馏超参数的知识蒸馏算法和预先训练好的教师网络模型,指导学生深度神经网络的训练,输出训练好的学生深度神经网络,并将训练好的学生深度神经网络作为第一网络模型。
57.知识蒸馏算法采用的是迁移学习,通过采用预先训练好的教师网络模型(复杂模型)的输出作为监督信号去训练学生深度神经网络(简单模型),以使得简单的学生深度神经网络可以具有与复杂的教师网络模型相同或相似的数据处理能力。本实施例通过知识蒸馏算法得到第一网络模型,能够显著地提升第一网络模型的性能。
58.针对第一网络模型,可以采用tensorrt工具进行模型量化,也可以采用本实施例提供的如下方式进行模型量化:将第一网络模型存储为预设格式的第一网络模型,将预设格式的第一网络模型输入量化模型进行量化操作,得到整数型的第二网络模型。其中,量化模块具体可以为量化模型openvino。
59.在具体实施时,将第一网络模型存储为预设的pb格式的第一网络模型,通过openvino对pb格式的第一网络模型进行量化操作。其中,openvino将pb格式的第一网络模型中的每一层映射到预设阈值,并根据预设阈值及每一层权重中的取值,计算出每一层的缩放因子;根据每一层的缩放因子,对pb格式的第一网络模型进行量化操作,得到整数型的第二网络模型。
60.接下来,可以根据预设的验证集多次运行第二网络模型,基于多次运行第二网络模型得到的结果确定性能评估值,性能评估值用于表征第二网络模型的精度。
61.本实施例可以提供运行第二网络模型的几种常见应用场景。
62.在图像分类的场景中,验证集为具有分类标签的图像集合,分类标签诸如老虎、人、茶杯和汽车等等。将该验证集中的图像输入至第二网络模型,通过第二网络模型预测图像的分类结果,比对预测得到的分类结果与图像预先标注的分类标签是否一致;根据比对结果确定第二网络模型的性能评估值。比如,验证集中包括一千张图像,其中八百张图像对应的分类结果与分类标签比对一致,则第二网络模型的分类准确率为80%,并通过准确率表示第二网络模型的性能评估值,该性能评估值用于表征第二网络模型的分类精度。
63.在图像检测的场景中,作为验证集的图像集合中,图像预设有各个物体的坐标位置和物体对应的分类标签。将该验证集中的图像输入至第二网络模型,通过第二网络模型检测图像中的物体位置和物体类别;将检测结果与图像预设的位置坐标和分类标签进行比对,根据比对结果确定第二网络模型的性能评估值,该性能评估值用于表征第二网络模型的检测精度。
64.以上仅为应用场景的示例,并不局限于次,比如还可以是图像分割场景、人脸关键点检测场景等,在此不再一一列举。
65.基于得到的第二网络模型的性能评估值,本实施例提供一种当前参数的更新方式,包括:根据性能评估值和超参数搜索算法进行反向传播,以更新得到新的当前参数。
66.在模型训练过程中需要对参数不断地进行优化更新,给待训练的网络模型选择一组最优的参数,以提高训练后网络模型的性能和效果。在本实施例中,优化更新当前参数不但影响第一网络模型的性能,更重要的是,当前参数直接与第二网络模型的性能相关联,通过优化更新当前参数,能够给第二网络模型提供更优的参数选择,从而确保第二网络模型具有最佳的性能和效果。为了寻找一组最优的当前参数,可以采用网格搜索、随机搜索、贝叶斯优化等超参数搜索算法更新当前参数,在获取更新后的新的当前参数后,重新利用新的当前参数对第一网络模型进行优化训练。
67.采用超参数搜索算法来选取当前参数,无需依赖人为经验,避免了人为经验的限制对参数准确性的不良影响。本实施例在基于超参数搜索算法不断搜索新的当前参数的过程中,充分考虑整数型的第二网络模型的性能评估值,使参数的选取直接与量化后第二网络模型的性能相关联,强化了更新的当前参数与整数型的第二网络模型之间的关联性,弱化、甚至不再关注更新的当前参数与浮点型的第一网络模型之间的关联性;基于此,能够确保利用更新后的当前参数所获取的整数型的第二网络模型具有最佳性能。
68.当前参数的选择对于最终输出的第二网络模型的效果有极大的影响。基于此,本实施例可以通过不断地搜索更新当前参数,并基于更新的当前参数重复执行上述步骤s204-s208所示的优化操作,直至达到收敛条件时停止,该收敛条件可以包括以下中的任意一项:
69.当循环的执行次数达到预设的最大循环次数时,确定达到收敛条件;该最大循环次数比如循环一万次。
70.或者,当循环的执行时间达到预设的最大执行时间时,确定达到收敛条件。在一种具体实现中,可以将超参数搜索的执行时间作为循环的执行时间,最大执行时间如为24小时。
71.或者,当基于超参数搜索算法对第一网络模型的参数进行采样的数量达到预设最大采样数量时,确定达到收敛条件;该采样的数量如基于超参数搜索算法的超参数采样个数达到9999组。
72.或者,当第二网络模型的性能评估值达到预设的性能评估阈值时,确定达到收敛条件。具体的,以分类准确性为例,当第二网络模型的性能评估值达到99.99%的分类准确性时,表示第二网络模型能够满足实际应用需求,为了节约优化成本,可以确定达到收敛条件。
73.当达到上述任一项收敛条件时停止循环,并将停止循环时对应的更新后的第二网
络模型,确定为第一网络模型对应的优化后的目标网络模型。相比于浮点型模型,目标网络模型是量化后的整数型模型,其运行的速度具有大幅度的提升,且精度保持了较高的水平。此外可以理解的是,当达到收敛条件停止循环时,还可以将停止循环时对应的新的当前参数作为目标参数进行存储;通过优化更新得到的目标参数,能够使最终输出的目标网络模型具有最佳的性能,表示该目标参数具有较高的实际使用价值,可以作为经验数据应用于其他模型的训练过程。
74.此后,如图3所示,将目标网络模型进行模型部署。具体的,将目标网络模型部署在预设系统中;假设预设系统为服务器,则可以将目标网络模型部署到服务器的gpu(graphics processing unit,图形处理器);或者,预设系统是手机、平板等移动端,可以将目标网络模型部署到移动端的特定引擎中,并最终嵌入到移动端相应的app中。
75.在本实施例中,目标网络模型是经过多次迭代优化后输出的量化后模型,既保持了较高的性能,同时又有效减少了对内存资源的占用,从而有利于在移动设备或低功耗设备上部署与使用。
76.综上,与传统的模型训练和模型量化是分段式的方式相比,上述公开实施例提供的网络模型的优化方法,将模型训练和模型量化共同纳入迭代优化过程。对于用户而言,输入端为初始网络模型,输出端为目标网络模型,该目标网络模型是经训练和量化的联合优化后性能最佳的整数型模型;输入端与输出端之间的联合优化过程,弥补了模型量化的性能损失对整数型模型的影响,确保最终整数型的目标网络模型具有最佳性能,有效改善了传统方法中的浮点型模型性能与整数型模型性能不匹配问题;在对量化后目标网络模型的实际部署环节中,较好地体现了目标网络模型的高效性能和对资源的低占用率,能够给实际业务带来显著收益。
77.图4为本公开实施例提供的一种网络模型的优化装置的结构示意图,该装置可由软件和/或硬件实现,一般可集成在电子设备中,可通过执行网络模型的优化方法来实现模型优化。如图4所示,该装置包括:
78.获取模块402,用于获取第一网络模型;其中,第一网络模型是基于当前参数得到的;
79.量化模块404,用于将第一网络模型进行量化,得到量化后的第二网络模型;
80.更新模块406,用于确定第二网络模型的性能评估值,根据性能评估值对当前参数进行更新;
81.判断模块408,用于判断是否达到收敛条件;若未达到收敛条件,将更新后的当前参数输入至所述获取模块,重复所述获取模块、所述量化模块和所述更新模块执行的步骤;若达到收敛条件,将对应的更新后的第二网络模型输入至输出模块410;
82.所述输出模块410,用于输出更新后的第二网络模型。
83.在一些实施例中,上述获取模块402可具体用于:根据采用蒸馏超参数的知识蒸馏算法和预先训练好的教师网络模型,指导学生深度神经网络的训练,输出训练好的学生深度神经网络,并将训练好的学生深度神经网络作为第一网络模型。
84.在一些实施例中,上述量化模块404具体用于:
85.将第一网络模型存储为预设格式的第一网络模型,将预设格式的第一网络模型输入量化模块进行量化操作,得到整数型的第二网络模型。
86.在一些实施例中,上述更新模块406具体用于:根据预设的验证集多次运行第二网络模型,基于多次运行第二网络模型得到的结果确定性能评估值,性能评估值用于表征第二网络模型的精度。
87.在一些实施例中,上述更新模块406具体用于:根据性能评估值和超参数搜索算法进行反向传播,以更新得到新的当前超参数。
88.在一些实施例中,上述网络模型的优化装置还包括部署模块(图中未示出),该部署模块用于:若达到收敛条件,将更新后的第二网络模型进行模型部署。
89.本公开实施例所提供的网络模型的优化装置可执行本发明任意实施例所提供的网络模型的优化方法,具备执行方法相应的功能模块和有益效果。
90.图5为本公开实施例提供的一种电子设备的结构示意图。如图5所示,电子设备500包括一个或多个处理器501和存储器502。
91.处理器501可以是中央处理单元(cpu)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备500中的其他组件以执行期望的功能。
92.存储器502可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(ram)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(rom)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器501可以运行所述程序指令,以实现上文所述的本公开的实施例的网络模型的优化方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
93.在一个示例中,电子设备500还可以包括:输入装置503和输出装置504,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
94.此外,该输入装置503还可以包括例如键盘、鼠标等等。
95.该输出装置504可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出装置504可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
96.当然,为了简化,图5中仅示出了该电子设备500中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备500还可以包括任何其他适当的组件。
97.除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本公开实施例所述网络模型的优化方法。
98.所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如java、c 等,还包括常规的过程式程序设计语言,诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
99.此外,本公开的实施例还可以是计算机可读存储介质,存储介质存储有计算机程
序,当所述计算机程序被计算设备执行时,使所述计算机设备实现上述网络模型的优化方法。
100.所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
101.本公开实施例还提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现本公开实施例中的方法。
102.需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
103.以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献