一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

业务量预测模型构建方法和业务量预测方法与流程

2022-02-20 05:14:59 来源:中国专利 TAG:


1.本技术涉及计算机技术领域,特别是涉及一种业务量预测模型构建方法、装置、计算机设备和存储介质以及业务量预测方法。


背景技术:

2.随着计算机技术与电子商务的快速发展,用于业务量预测的机器模型也在不断发展。如在物流领域中,日运件量这种业务量是网点排班、车辆调度等决策点的重要参考依据。因此,未来日运件量的准确预测,对于物流配送中各环节的稳定运行具有重要意义。
3.fbprophet算法在业务量预测中被广泛应用,例如其可以被用于预测物流行业的日运件量。然而该算法对于通常时期内的业务量预测问题上精度较高,但是针对高峰时期的业务量预测的准确率较低。


技术实现要素:

4.基于此,有必要针对上述技术问题,提供一种能够解决现有模型针对高峰时期业务量预测准确率较低问题的业务量预测模型构建方法、装置、计算机设备和存储介质以及业务量预测方法。
5.一种业务量预测模型构建方法,所述方法包括:
6.获取历史业务量数据;
7.基于所述历史业务量数据构建历史样本集;
8.对所述历史样本集进行离散处理以及完全升采样处理,生成训练样本集;
9.通过所述训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
10.在其中一个实施例中,所述基于所述历史业务量数据构建历史样本集包括:
11.基于所述历史业务量数据,构造各历史日期对应的业务量时序特征数据;
12.根据所述各历史日期对应的真实业务量与所述业务量时序特征数据,构建历史样本集。
13.在其中一个实施例中,所述对所述历史样本集进行离散处理以及完全升采样处理,生成训练样本集包括:
14.根据所述历史样本集内各历史样本中的真实业务量,对所述历史样本集进行离散化处理,将所述历史样本集内的各个历史样本划分入各业务量区间;
15.根据所述各业务量区间内历史样本的数量,对所述各业务量区间进行完全升采样处理。
16.在其中一个实施例中,所述通过所述训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,获取业务量预测模型包括:
17.将所述训练样本集划分为训练集和验证集;
18.通过所述训练集对初始随机神经网络开始迭代训练,获取迭代神经网络;
19.通过所述验证集对所述迭代神经网络进行验证,获所述取验证集对应的样本误差;
20.根据所述样本误差,获取所述训练集中各样本继续作为训练集的被选概率;
21.根据所述被选概率,对所述训练集进行非完全升采样,得到更新后的训练集和更新后的验证集;
22.将更新后的训练集重新作为训练集、将更新后的验证集重新作为验证集、并将迭代神经网络重新作为初始随机神经网络,返回所述通过所述训练集对初始随机神经网络开始迭代训练的步骤;
23.获取每次迭代训练中对应的验证集内各样本的样本误差下降率,当所述样本误差下降率低于预设阈值时,迭代结束,将最新的迭代神经网络作为业务量预测模型。
24.在其中一个实施例中,所述通过所述训练集对初始随机神经网络开始迭代训练,获取迭代神经网络包括:
25.通过所述训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为所述预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络。
26.在其中一个实施例中,所述通过所述训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为所述预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络包括:
27.通过所述训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为所述预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取过渡神经网络;
28.通过网络优化选择算法对所述过渡神经网络进行过滤筛选,获取迭代神经网络。
29.一种业务量预测方法,所述方法包括:
30.获取待预测日对应的业务量时序特征数据;
31.将所述业务量时序特征数据输入业务量预测模型,获取所述待预测日对应的业务量数据,所述业务量预测模型基于上述任一项所述方法构建。
32.一种业务量预测模型构建装置,所述装置包括:
33.历史数据获取模块,用于获取历史业务量数据;
34.第一样本集构建模块,用于基于所述历史业务量数据构建历史样本集;
35.第二样本集构建模块,对所述历史样本集进行离散处理以及完全升采样处理,生成训练样本集;
36.模型训练模块,通过所述训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
37.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
38.获取历史业务量数据;
39.基于所述历史业务量数据构建历史样本集;
40.对所述历史样本集进行离散处理以及完全升采样处理,生成训练样本集;
41.通过所述训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构
recorder,硬盘录像机)或者nvr(network videorecorder,网络视频录像机),终端102可以与实际应用场景内的摄像头连接,通过摄像头来采集视频,摄像头可以是模拟监控摄像机,也可以是网络摄像机。而服务器104具体可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
56.在一个实施例中,如图2所示,提供了一种业务量预测模型构建方法,以该方法应用于图1中的服务器104为例进行说明,包括以下步骤:
57.步骤201,获取历史业务量数据。
58.首先可以获取历史数据中的历史业务量数据,这些历史业务量数据中包括有业务量相关的时间序列数据。首先服务器104可以先从终端102方获取历史业务量数据,或者从终端102接收业务量模型构建请求,基于请求从预设的数据库中读取得到历史业务量数据。
59.步骤203,基于历史业务量数据构建历史样本集。
60.其中,上述步骤中获得的历史业务量数据包含有业务量相关的时间序列数据。业务量时序特征数据具体从业务量相关的时间序列数据中提取出的特征数据。而时间序列数据是同一统一指标按时间顺序记录的数据列。在其中一个实施例中,本技术的业务量预测模型构建方法所构建的业务量预测模型专门用于对节假日期间的物流日件量进行预测。则从业务量相关的时间序列数据中提取出的特征数据具体包括了短期增长趋势特征、长期增长趋势特征、周期性特征以及节假日特征等特征。
61.具体地,可以基于历史业务量数据构建历史样本集,构建得到的历史样本集中包括有各个历史日期对应的业务量时序特征数据以及实际业务量。
62.步骤205,对历史样本集进行离散处理以及完全升采样处理,生成训练样本集。
63.可以通过历史样本集进行离散处理以及完全升采样处理,来对这些历史样本集进行采样,生成模型训练所用的训练样本集。离散处理具体是指根据历史样本集中每个样本的业务量将其划分到不同区间,以将对业务量预测的回归问题转化为分类问题。而完全升采样的目的则是复制历史样本集中高峰期对应的弱势样本,以提高对高峰期的预测能力。
64.步骤207,通过训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
65.动态采样算法可以根据预测误差动态平衡数据集以提升高峰时期相关数据集上的预测精度。同时,通过得到的训练样本集对预设初始随机神经网络进行训练,获取业务量预测模型。在其中一个具体的实施例中,随机神经网络的训练结果可以为动态采样算法提供采样的依据,而后在随机网络的训练过程中,可以通过动态采样算法不断更新训练样本集中的训练样本,根据训练结果中的预测误差平衡化高峰期与非高峰期的训练样本,从而可以有效解决高峰期样本过少的不平衡问题,解决了高峰时期业务量预测不准确的问题,为高峰期决策提供更为准确的依据。在后续的预测过程中,由于结合动态采样以及随机神经网络算法的过程需要将业务量离散化,所有由预设业务量预测模型决策出的是业务量的区间范围,可以用得到的区间范围来乘以一定的突变系数,以获得未来的高峰时期内的的预测业务量。
66.上述业务量预测模型构建方法,通过获取历史业务量数据;基于历史业务量数据构建历史样本集;对历史样本集进行离散处理以及完全升采样处理,生成训练样本集;通过训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
hot编码,使得输入量纲不一致。从而提高业务量预测的精准度。
77.如图4所示,在一个实施例中,步骤205包括:
78.步骤401,根据历史样本集内各历史样本中的真实业务量,对历史样本集进行离散化处理,将历史样本集内的各个历史样本划分入各业务量区间;
79.步骤403,根据各业务量区间内历史样本的数量,对各业务量区间进行完全升采样处理。
80.其中,离散化处理具体是指把无限空间中有限的个体映射到有限的空间中去,在本技术中,则是指依据各历史样本中的真实业务量,将其划分到不同的业务量区间内。而完全升采样处理则是指,复制样本量较少的业务量区间内的样本,使得不同业务量区间内的样本数量完全一致。
81.具体的,根据业务量数量以及允许的预测误差,对历史业务量样本进行离散化处理,将其划分不同的业务量区间,使得各区间内的业务量能够相对均衡,从而将业务量预测的问题由回归问题转化为分类问题。而后通过对劣势类样本进行完全升采样。使得不同类内的样本数量完全一致。在其中一个实施例中,由于每一年节假日的天数约占总天数的1/8,因此首轮迭代中,节假日样本被复制了7次。但是由于上述完全升采样的做法,对于后续的神经网络而言,每次迭代将会对节假日样本训练8次,极易导致过拟合。因此,在后续迭代过程中,需要通过减少样本复制比例而进行的动态采样来进行处理。在本实施例中,通过离散化以及完成升采样处理,可以更高效地构建训练样本集。
82.如图5所示,在其中一个实施例中,步骤207包括:
83.将训练样本集划分为训练集和验证集。
84.通过训练集对初始随机神经网络开始迭代训练,获取迭代神经网络。
85.通过验证集对迭代神经网络进行验证,获取验证集对应的样本误差。
86.根据样本误差,获取训练集中各样本继续作为训练集的被选概率。
87.根据被选概率,对训练集进行非完全升采样,得到更新后的训练集和更新后的验证集。
88.将更新后的训练集重新作为训练集、将更新后的验证集重新作为验证集、并将迭代神经网络重新作为初始随机神经网络,返回通过训练集对初始随机神经网络开始迭代训练的步骤。
89.获取每次迭代训练中对应的验证集内各样本的样本误差下降率,当样本误差下降率低于预设阈值时,迭代结束,将最新的迭代神经网络作为业务量预测模型。
90.其中,可以将先构建训练样本集分为训练集以及验证集。具体地,可以以8 比2的比例,将训练样本集分为训练集以及验证集。其中训练集用于对初始随机神经网络进行训练,而验证集用于对训练完成的神经网络进行验证。迭代神经网络是在模型训练过程中获得的并未完全训练完成的神经网络。通过验证集对迭代神经网络进行验证,当一轮训练完成后,通过验证集的数据对训练完成的迭代神经网络进行验证,而验证得到的预测业务量与实际业务量的误差即为样本误差。动态采样通过样本误差来预测训练集被选为下次迭代中的训练集的被选概率,而后就被选概率对训练集进行非完全升采样,对其中的样本进行改造,而后将改造后的样本作为训练集,来对迭代神经网络进行迭代训练,直到验证集的误差不再下降,即可视为完成训练。此外,还可以预设迭代训练的次数,当到达迭代次数后即
可停止训练。
91.具体地,本技术通过enn-dys算法来进行模型训练,enn-dys算法的核心算法包括enn(随机神经网络)算法和dys(动态采样)算法。其中,动态采样算法根据预测误差动态平衡数据集以提升高峰期数据集上的预测精度。enn 算法通过构造随机生成的集成神经网络集合,提升算法的整体精度。服务器在模型的训练过程中,先将从历史数据中提取得到的训练样本集划分为训练集以及验证集。而后先通过训练集来对初始的随机神经网络进行训练,来获取迭代神经网络。同时通过动态采样算法,计算训练集被选为下次迭代中的训练集的被选概率。其中被选概率p(i)的计算公式如下所示:
[0092][0093]
其中,i为样本编号,δ(i)为第i个样本的预测误差,α为归一化系数,为 i样本所属业务量区间内样本数量,rk为第k类业务量区间内样本的数量。上述式表明,预测精度越低、并且样本所在类内的样本总数越低,被选为下一次训练的概率越高。这样一来,由于高峰期内的样本本身数量较少,被选中的概率较高,多次训练的概率也越高。另一方面,如果多次训练后精度提升,那么该样本被选中概率会下降,从而避免反复训练带来的过拟合问题。而后可以通过动态采样来进行反复的迭代训练,直到验证集误差不再下降,完成训练。本实施例中,通过动态采样算法改进传统方法中的升采样和降采样方法,根据预测误差平衡化高峰期的样本,从而解决高峰期样本过少导致的样本不平衡问题。同时以随机神经网络代替xgboost算法,提升高层特征的提取能力从而从整体上提升预测精度。
[0094]
在其中一个实施例中,通过训练集对初始随机神经网络进行训练,获取迭代神经网络的步骤包括:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络。
[0095]
具体地,如果只采用单个神经网络做训练,很容易陷入局部最小,因此预测能力是有限的。根据集成学习思想,可以采用多个具有独立预测能力的神经网络,在不同样本输入下独立进行预测,并对预测结果进行加权平均,采用集体决策,会具有更强的预测能力。因此,训练集成神经网络的过程,是通过训练样本集的样本,独立地训练k个神经网络,使得每一个神经网络都具有独立的预测能力。同时为了能使不同神经网络相互独立,采用随机化网络超参数对神经网络进行训练,包括:选择不同的初始学习率与衰减速率以及设计 randomized leaky-relu函数作为激活函数,保证每一个神经网络的激活函数互不相同。本实施例中,通过随机神经网络代替xgboost算法,提升高层特征的提取能力从而从整体上提升预测精度,解决了物流行业高峰件量预测不准确的问题,为高峰期决策提供更为准确的依据。
[0096]
在其中一个实施例中,通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络的过程具体包括:
[0097]
通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取
过渡神经网络;通过网络优化选择算法对过渡神经网络进行过滤筛选,获取迭代神经网络。
[0098]
具体的,由enn-dys产生的神经网络集,能够有效降低动态采样算法的波动性,但并不一定带来分类准确率的提升。但是由于该神经网络集中,并非全部的神经网络都能够有效提升模型准确率,有些神经网络与其他神经网络过于相似,造成了模型的冗余。另一些神经网络结构不佳或训练不够完善,并未达到理想的局部最优。因此,为了进一步提升模型的整体准确率,需要对神经网络集内的神经网络进行筛选。本技术通过网络优化选择算法对针对所有的过渡神经网络进行过滤筛选,获取迭代神经网络。本实施例中,通过去除冗余或者训练不完全部分的神经网络,来优化迭代神经网络,可以有效提高模型的预测精度。
[0099]
在一个实施例中,提供了一种业务量预测方法,包括以下步骤:
[0100]
获取待预测日对应的业务量时序特征数据。
[0101]
其中,待预测日是指本技术中业务量预测的目标日期,本技术的业务量预测模型构建方法即为对待预测日一天的业务量数据进行预测。预测的对象可以根据需要进行设置,如预测某城市在待预测日一天的业务量数据,或预测某地区在待预测日一天的业务量数据。业务量时序特征数据具体从业务量相关的时间序列数据中提取出的特征数据。而时间序列数据是同一统一指标按时间顺序记录的数据列。
[0102]
具体地,当终端希望对某城市或者某地区内某个日期内的业务量进行预测时,可以通过网络向业务量预测服务器提供待预测日对应的业务量时序特征数据,通过业务量预测服务器来对待预测日对应的业务量数据进行预测。在其中一个实施例中,终端可以只提供业务量相关的时间序列数据,而后由业务量预测服务器从这些业务量相关的时间序列数据中提取出业务量时序特征数据。
[0103]
将业务量时序特征数据输入预设业务量预测模型,获取待预测日对应的业务量数据。
[0104]
其中预设业务量预测模型是指预先构建的,用于依据业务量时序特征数据来进行业务量预测的模型,该模型具体可以为神经网络模型,通过历史业务量数据中的业务量时序特征数据训练获得。
[0105]
具体地,当业务量预测服务器在得到业务量时序特征数据后,可以将业务量时序特征数据输入到预先构建的预设业务量预测模型中,通过预设业务量预测模型来对待预测日的业务量进行预测。在其中一个实施例中,终端还可以指定业务量预测服务器预测包含多个待预测日的一个时间段内的业务量数据。此时业务量预测服务器可以通过预测该时间段内每一天内的业务量数据。通过将这些业务量数据相加来获得该时间段内的业务量数据。
[0106]
上述业务量预测方法,本技术中所用到的业务量预测模型通过动态采样和随机神经网络来构建,动态采样在模型训练过程中根据预测误差平衡化高峰期以及非高峰期的训练样本,来解决高峰期样本过少的不平衡问题,因而本技术的业务量预测方法可以有效解决高峰期业务量预测不准确的问题,为高峰期决策提供更为准确的的依据。
[0107]
在其中一个实施例中,本技术中基于enn-dys的业务量预测方法具体用于预测某城市2019年节假日与分节假日预测为例的业务量(训练集样本为 2010-2018年历史数据),通过本发明包含算法与其他算法对比,误差在10%以下的样本占比如下,结果如下表1所示:
[0108]
表1某城市2019年节假日与分节假日预测结果表
[0109][0110]
由表中结果来看,由于样本动态采样过程,enn-dys算法在节假日样本中的预测精度远高于现有算法,因此对于节假日高峰的人员排班等实际业务,具有更重要的指导意义,从而能够有效缓解物流高峰产生的爆仓、物流派送慢的问题,实现降本增效。
[0111]
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
[0112]
在一个实施例中,如图5所示,提供了一种业务量预测模型构建装置,包括:
[0113]
历史数据获取模块502,用于获取历史业务量数据。
[0114]
第一样本集构建模块504,用于基于历史业务量数据构建历史样本集。
[0115]
第二样本集构建模块506,对历史样本集进行离散处理以及完全升采样处理,生成训练样本集。
[0116]
模型训练模块508,通过训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
[0117]
在其中一个实施例中,第一样本集构建模块504具体用于:基于历史业务量数据,构造各历史日期对应的业务量时序特征数据;根据各历史日期对应的真实业务量与业务量时序特征数据,构建历史样本集。
[0118]
在其中一个实施例中,第二样本集构建模块506具体用于:根据历史样本集内各历史样本中的真实业务量,对历史样本集进行离散化处理,将历史样本集内的各个历史样本划分入各业务量区间;根据各业务量区间内历史样本的数量,对各业务量区间进行完全升采样处理。
[0119]
在其中一个实施例中,模型训练模块508具体用于:将训练样本集划分为训练集和验证集;通过训练集对初始随机神经网络开始迭代训练,获取迭代神经网络;通过验证集对迭代神经网络进行验证,获取验证集对应的样本误差;根据样本误差,获取训练集中各样本继续作为训练集的被选概率;根据被选概率,对训练集进行非完全升采样,得到更新后的训练集和更新后的验证集;将更新后的训练集重新作为训练集、将更新后的验证集重新作为验证集、并将迭代神经网络重新作为初始随机神经网络,返回通过训练集对初始随机神经网络开始迭代训练的步骤;获取每次迭代训练中对应的验证集内各样本的样本误差下降
率,当样本误差下降率低于预设阈值时,迭代结束,将最新的迭代神经网络作为业务量预测模型。
[0120]
在其中一个实施例中,模型训练模块508具体用于:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络。
[0121]
在其中一个实施例中,模型训练模块508具体用于:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取过渡神经网络;通过网络优化选择算法对过渡神经网络进行过滤筛选,获取迭代神经网络。
[0122]
关于业务量预测模型构建装置的具体限定可以参见上文中对于业务量预测模型构建方法的限定,在此不再赘述。上述业务量预测模型构建装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
[0123]
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储业务量预测数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种业务量预测模型构建方法。
[0124]
本领域技术人员可以理解,图6中示出的结构,仅仅是与本技术方案相关的部分结构的框图,并不构成对本技术方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
[0125]
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
[0126]
获取历史业务量数据;
[0127]
基于历史业务量数据构建历史样本集;
[0128]
对历史样本集进行离散处理以及完全升采样处理,生成训练样本集;
[0129]
通过训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
[0130]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:基于历史业务量数据,构造各历史日期对应的业务量时序特征数据;根据各历史日期对应的真实业务量与业务量时序特征数据,构建历史样本集。
[0131]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:根据历史样本集内各历史样本中的真实业务量,对历史样本集进行离散化处理,将历史样本集内的各个历史样本划分入各业务量区间;根据各业务量区间内历史样本的数量,对各业务量区间进行完全升采样处理。
[0132]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:将训练样本集划分
为训练集和验证集;通过训练集对初始随机神经网络开始迭代训练,获取迭代神经网络;通过验证集对迭代神经网络进行验证,获取验证集对应的样本误差;根据样本误差,获取训练集中各样本继续作为训练集的被选概率;根据被选概率,对训练集进行非完全升采样,得到更新后的训练集和更新后的验证集;将更新后的训练集重新作为训练集、将更新后的验证集重新作为验证集、并将迭代神经网络重新作为初始随机神经网络,返回通过训练集对初始随机神经网络开始迭代训练的步骤;获取每次迭代训练中对应的验证集内各样本的样本误差下降率,当样本误差下降率低于预设阈值时,迭代结束,将最新的迭代神经网络作为业务量预测模型。
[0133]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络。
[0134]
在一个实施例中,处理器执行计算机程序时还实现以下步骤:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取过渡神经网络;通过网络优化选择算法对过渡神经网络进行过滤筛选,获取迭代神经网络。
[0135]
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
[0136]
获取历史业务量数据;
[0137]
基于历史业务量数据构建历史样本集;
[0138]
对历史样本集进行离散处理以及完全升采样处理,生成训练样本集;
[0139]
通过训练样本集以及动态采样算法,对预设初始随机神经网络进行训练,构建业务量预测模型。
[0140]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:基于历史业务量数据,构造各历史日期对应的业务量时序特征数据;根据各历史日期对应的真实业务量与业务量时序特征数据,构建历史样本集。
[0141]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:根据历史样本集内各历史样本中的真实业务量,对历史样本集进行离散化处理,将历史样本集内的各个历史样本划分入各业务量区间;根据各业务量区间内历史样本的数量,对各业务量区间进行完全升采样处理。
[0142]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:将训练样本集划分为训练集和验证集;通过训练集对初始随机神经网络开始迭代训练,获取迭代神经网络;通过验证集对迭代神经网络进行验证,获取验证集对应的样本误差;根据样本误差,获取训练集中各样本继续作为训练集的被选概率;根据被选概率,对训练集进行非完全升采样,得到更新后的训练集和更新后的验证集;将更新后的训练集重新作为训练集、将更新后的验证集重新作为验证集、并将迭代神经网络重新作为初始随机神经网络,返回通过训练集对初始随机神经网络开始迭代训练的步骤;获取每次迭代训练中对应的验证集内各样本的样本误差下降率,当样本误差下降率低于预设阈值时,迭代结束,将最新的迭代神经网络作为业务量预测模型。
[0143]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:通过训练集以及
随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取迭代神经网络。
[0144]
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:通过训练集以及随机化的网络超参数对预设数量的初始随机神经网络进行训练,并为预设数量的初始随机神经网络分配不同的初始学习率、衰减速率以及激活函数,获取过渡神经网络;通过网络优化选择算法对过渡神经网络进行过滤筛选,获取迭代神经网络。
[0145]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本技术所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(read-onlymemory,rom)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器 (randomaccessmemory,ram)或外部高速缓冲存储器。作为说明而非局限, ram可以是多种形式,比如静态随机存取存储器(staticrandomaccessmemory, sram)或动态随机存取存储器(dynamicrandomaccessmemory,dram)等。
[0146]
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0147]
以上实施例仅表达了本技术的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本技术构思的前提下,还可以做出若干变形和改进,这些都属于本技术的保护范围。因此,本技术专利的保护范围应以所附权利要求为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献