一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种基于深度强化学习的云数据中心虚拟网络的协同嵌入方法与流程

2021-11-29 14:18:00 来源:中国专利 TAG:


1.本发明涉及云计算技术领域,特别地涉及一种基于深度强化学习的、用于处理云数据中心中的虚拟网络请求并实现从虚拟网络到底层网络映射的协同嵌入方法。


背景技术:

2.云计算数据中心作为高度复用的共享环境,配置了大量的物理服务器和其上运行的虚拟机,以一种即付即用的模式来为多租户提供高可靠性的计算、存储、网络等资源。如何在具有不同网络特性及需求的多租户之间有效地共享底层物理网络资源是一个关键问题。为此,网络虚拟化(network virtualization)技术已经成为一种有效的资源共享技术,有效实现了数据中心内多租户复用计算资源(如cpu)与网络资源(如带宽)等。租户自定义的网络结构,通常被称作虚拟网络(virtual network,vn)。而如何利用现有的且动态变化的有限的底层物理资源,服务多租户的虚拟网络请求,并有效地进行资源分配,最大化收益,就是虚拟网络嵌入(virtual network embedding,vne)问题。
3.在vne问题中,云计算数据中心(或isp)所拥有的物理网络被称为底层网络(substrate network);租户自定义的网络被称作虚拟网络(virtual network)。在底层网络中,每一个计算节点(如主机)拥有一定量的可用计算资源,例如cpu数或者处理器核数;计算节点之间通过物理链路进行连接,每一条链路都能负载一定量的网络资源,如带宽。虚拟网络本质上是租户对其网络结构以及资源的需求。在虚拟网络中,每一个节点代表一台虚拟运算节点,它需要一定量的计算资源;每一条连接节点的链路代表一条虚拟链路,类似地,它需要一定量的网络带宽资源。vne问题要解决的就是将一个或多个虚拟网络映射到现有的底层网络上的同时,保证资源得到有效利用、请求尽可能成功处理。“映射”即资源分配,将底层网络上的资源分配给租户的虚拟网络。具体来说,就是将底层网络中计算节点的计算资源按需分配给虚拟节点,同时将底层网络路径上每条链路的网络资源按需分配给虚拟链路。
4.通过将底层网络的资源分配给虚拟网络的虚拟节点和虚拟链路并满足一系列限制条件来实现将虚拟网络映射到共享的物理资源是一个计算复杂度极高的资源分配和调度问题,现有研究已证明vne问题是np

hard问题,该类问题的最优解的方法都达到了指数阶复杂度。在真实场景中,云数据中心的网络架构通常规模庞大且复杂,通过这些方法做资源分配的决策需要消耗大量的时间,并不现实,难以满足现代云数据中心低时延、高效率的要求。因此许多针对vne的研究一直在通过一些启发式、确定性地方法寻求近似最优解。这些方法通常由一组人工编写的、静态的、固定的过程组成,它们仅根据虚拟网络以及底层网络的特征直接进行排序、筛选,并最终进行映射。因此,这类方法既无法根据实际运行时获得的反馈或收益动态地调整映射过程,也很难从历史数据中“学习”出一些资源分配的规律,在陷入局部最优解的同时也无法调优。近年来随着人工智能相关领域的发展,强化学习作为一类机器学习方法广泛应用于科学、工程、艺术等领域。一般地,在强化学习方法中,有
一个agent与环境交互:在每个时间片,agent从环境接收到当前状态作为输入,并根据自身策略选择一个动作与环境交互,从而进入一个新的状态,同时获得回报(reward)。强化学习的方法可以根据获得的reward的大小以及学习目标不断调整agent选择动作的策略,以高效地在一些复杂问题中获得近似最优解。强化学习的特性也使得它可以被应用于解决vne问题。事实上,已经有研究开始引入q

learning、policy network等方法,同时结合其他机器学习模型来学习分配底层网络资源的策略。但是,目前该领域工作还相对较少,且现有工作还有很大的优化改进空间。因此,如何结合机器学习来解决vne问题当前在学术界和工业界仍是一个热门研究课题,具有很高的科研价值。


技术实现要素:

5.针对上述现有技术中所存在的模型复杂、对算力需求大、或者仅是简单提取底层网络节点相关的特征作为输入等问题,本发明的目的旨在提供一种基于深度强化学习的云数据中心虚拟网络的协同嵌入方法,以提高资源利用率以及请求分配成功率。
6.为了实现上述目的,本发明所采用的技术方案如下:
7.一种基于深度强化学习的云数据中心虚拟网络的协同嵌入方法,包括以下具体步骤:
8.s1、完成虚拟网络嵌入的建模;
9.首先将实际存在的数据中心里的底层网络建模为一个带权重的无向图g
s
=(n
s
,e
s
),其中,网络节点和链路分别构成了无向图中的点集n
s
和边集e
s
,图中点n
s
∈n
s
的权重c(n
v
)和边e
s
∈e
s
的权重b(e
s
)则分别代表网络节点的计算资源cpu和链路的网络资源带宽;对租户所请求的虚拟网络也采用相同方式建模为带权重的无向图g
v
=(n
v
,e
v
);
10.随后将虚拟网络嵌入转化为寻找由代表虚拟网络的图g
v
到代表底层网络的图g
s
的一组映射关系函数:其中并且保证:并且保证:
11.同时虚拟网络中的cpu资源和带宽资源均需被映射后的网络满足:同时虚拟网络中的cpu资源和带宽资源均需被映射后的网络满足:其中函数c(n
v
)表示节点n
v
上可用的cpu计算资源,函数b(e
v
)表示链路e
v
上可用的带宽资源;
12.在此基础上,用虚拟网络请求中cpu需求总量与带宽需求总量的线性组合在此基础上,用虚拟网络请求中cpu需求总量与带宽需求总量的线性组合来表示当该请求处理成功后预期得到的收益,其中α为加权系数;用处理请求时计算资源的开销与网络资源的开销的总和其中α为加权系数;用处理请求时计算资源的开销与网络资源的开销的总和来表示处理该请求的总开销,其中表示用于组成虚拟网络中边e
v
的底层网络路径中边的数量;
13.将虚拟网络嵌入明确为在寻找满足条件的映射关系函数的基础上,最大化收益并最小化开销;
14.s2、完成对底层网络中计算资源cpu和网络资源带宽的建模;首先明确cpu可用量上限cpu
max
与带宽可用量上限band
max
;随后预设一组固定的值cpu
strides
和band
strides
,并且将
[0,cpu
max
]和[0,band
max
]两个区间等分为cpu
strides
和band
strides
段;分别记每个等分的端点为和其中i∈[0,cpu
strides
),j∈[0,band
strides
);最后,对于底层网络中的每个节点n
s
,依次构建其cpu资源的β

bi模型以及带宽资源的β

bi模型其中指的是从节点n
s
出发可达的可用cpu不低于的节点的集合,指的是从节点n
s
出发,通过可用带宽不低于的边可达的点的集合;
[0015]
s3、构建神经网络;随后对各种虚拟网络请求进行处理:对于接受到的具有步骤1中所述的虚拟网络g
v
=(n
v
,e
v
)请求,神经网络遍历n
v
中的每一个虚拟节点,对于遍历到的每个节点n
v
,经过神经网络处理后给出一个将该虚拟节点n
v
映射至不同底层节点的概率分布,随后根据所述概率分布采样得到一个底层节点以完成虚拟节点n
v
的嵌入;待整个虚拟节点集合n
v
遍历并完成嵌入后,再通过bvlo以及hvlm算法完成虚拟链路e
v
的映射,从而实现整个虚拟网络的嵌入;最后,根据该虚拟网络请求映射完成后的奖励值reward与神经网络在前向传播过程中预测值的误差,来完成神经网络的反向传播,更新神经网络中的模型参数。
[0016]
步骤s2所述cpu资源的β

bi模型以及带宽资源的β

bi模型通过在基于底层网络所构建的无向图g
s
=(n
s
,e
s
)上进行广度优先搜索的方法来进行构建。
[0017]
所述步骤s3具体包括:
[0018]
s31、构建神经网络;
[0019]
首先提取输入层的特征;遍历底层网络节点集合n
s
中的每个底层网络节点n
s
,依次获取s2中计算得到的cpu资源的β

bi模型以及带宽资源的β

bi模型从底层网络节点所对应的β

bi模型中以及当前待映射的虚拟网络节点n
v
的信息中提取特征作为神经网络输入;具体来说,对于底层网络节点n
s
的每个和从中提取cpu可用量的最大值、最小值、中位数和平均值、度数、其邻接边中带宽可用量的最大值、最小值、中位数和平均值、当前待映射的虚拟节点n
v
的cpu计算资源需求量以及n
v
与底层节点n
s
的可用计算资源量的差值,作为输入特征;
[0020]
随后构建网络的剩余部分,共包括4层;具体来说,剩余部分依次为一层包括两个卷积核的一维卷积层,一层relu层,一层单核的一维卷积层,以及一层softmax层;
[0021]
s32、神经网络对接收到的虚拟网络g
v
=(n
v
,e
v
)请求进行处理,首先完成虚拟节点集合n
v
的映射;
[0022]
遍历n
v
,对于其中的每一个虚拟网络节点n
v
,获取s31中的输入特征;
[0023]
输入特征首先经过一层一维方向的卷积层处理,该卷积层包括两个卷积核;记输入特征为其中m为底层节点的数量,f为特征的数量,两卷积核分别为
则该卷积层的输出为m
·
[w1,w2];
[0024]
在经过具有2个卷积核的卷积层之后,输入特征经过一层relu层处理以避免过拟合;
[0025]
relu层之后是一层单核的一维卷积层处理;具体来说,从前两层的学习结果中对各底层网络节点计算出一种评分,量化地表明将当前虚拟节点n
v
映射至各底层网络节点的好坏;记该层输出的结果为v=[v1,v2,...,v
m
],则对于底层网络节点其计算出的评分为v
i

[0026]
最后,经由一层softmax层处理,将上一层对各节点计算的评分结果,转化为概率并输出;具体来说,记softmax层的输出结果为s=[s1,s2,...,s
m
],其中s1,s2,...,s
m
与底层节点一一对应,则概率分布表示为:这里exp()为以自然常数为底的指数函数;对于上一层中对应评分越高的底层网络节点,在该层输出的概率值越大,被选作当前虚拟节点n
v
的映射点的概率也就越大;随后在softmax层输出结果基础上,首先过滤可用计算资源无法满足虚拟节点n
v
计算资源要求或者映射至该节点的虚拟节点数量已达到一定阈值的节点,再根据softmax层输出的概率进行采样;当前虚拟节点n
v
将最终映射到采样得到的底层网络节点上;
[0027]
s33、在通过上述s32的步骤完成虚拟网络请求中节点的映射后,接下来完成链路e
v
的映射;
[0028]
首先使用bvlo算法对待映射虚拟链路进行排序;具体来说,记虚拟链路e
v
两端点所映射的底层网络节点为n

s
和n
″′
s
,记同时包含n

s
和n
″′
s
的带宽资源β

bi模型中具有最大β值的为lcf
sn
(n

s
n
″′
s
),将β值记为bvlo算法将依次按照如下关键字对虚拟链路进行排序:
[0029]
1)越小的虚拟链路排序越靠前;
[0030]
2)lcf
sn
(n

s
,n
″′
s
)节点数越小的虚拟链路排序越靠前;
[0031]
3)需求带宽越大的虚拟链路排序越靠前;
[0032]
4)若两虚拟链路在1)、2)及3)的排序都相等,则随机排序;
[0033]
随后基于hvlm算法进行虚拟链路映射:
[0034]
1)从虚拟链路两端点对应底层网络节点n

s
和n
″′
s
的lcf
sn
(n

s
,n
″′
s
)中,寻求从n

s
和n
″′
s
的一组路径,该组路径的每条边都需满足虚拟链路的带宽需求;
[0035]
2)从1)中得到的路径中选择一条边数最少的路径;
[0036]
3)在边数最少的路径中,选择一条经过的边中可用网络资源的最小值最大的路径;
[0037]
4)若第1)、2)、3)步之后仍有多条可行的路径,则随机选择一条;
[0038]
s34、完成点集n
v
与边集e
v
的映射,即完成了该虚拟网络g
v
=(n
v
,e
v
)请求的处理,接下来根据本次虚拟网络映射的奖励值reward实现神经网络参数的更新;
[0039]
reward的计算方式如下:
[0040]
1)如果虚拟节点映射失败,即未找到某个虚拟节点对应的映射,则对该虚拟网络
请求的每一个虚拟节点n
v
,都有:即在该虚拟节点对应的前向传播过程中,神经网络预测最大概率映射的底层网络节点的可用cpu数量和该虚拟节点n
v
需求cpu数量的差,与该虚拟节点n
v
需求cpu数量的比值;
[0041]
2)若虚拟链路e
v
=(n

v
,n
″′
v
)映射失败,其中n

v
和n
″′
v
为e
v
的两个端点,即未找到一个合适、可行的底层路径用于映射,则首先使用二分枚举法,找出在所有从到的路径上,最小边可用带宽的最大值并记其为则对该虚拟网络请求的每一个虚拟节点n
v
,都有:即该最大值和虚拟链路需求带宽的差,与该虚拟链路需求带宽的比值;
[0042]
3)虚拟网络g
v
=(n
v
,e
v
)请求映射成功;对每个虚拟节点n
v
,求该虚拟节点的计算资源与连接该虚拟节点的虚拟链路网络资源的加权和,再除以映射这些点和链路所消耗的资源总和;把得到的商作为映射节点n
v
对应的回报,其中,e
v
为连接了节点n
v
的虚拟链路;
[0043]
计算出该虚拟网络请求对应的奖励值reward之后,根据每次前向传播的预测值以及该次前向传播对应的reward,计算出该次前向传播的误差,并作后向传播,以更新神经网络的模型参数。
[0044]
本发明的有益效果:
[0045]
在通过将本发明中的方法与presto算法(一种基于bi模型解决vne问题的启发式方法)以及rla算法(一种基于policy gradient学习虚拟网络映射策略的方法)在收益

开销比、请求成功率、收益以及平均映射开销上进行实验对比后可以看出:本发明中提出的方法在收益

开销比、请求成功率以及收益上高于presto和rla;在平均映射开销上,本方法又低于其他两种对比方法。这说明,本发明基于深度强化学习技术动态地学习资源分配策略,有效地提高了资源利用率以及请求分配成功率。同时,本发明结合的资源抽象模型有效地降低搜索空间,提高计算效率与算法性能。整体来看在利用资源、节省开销以及获取收益上,都有着较为良好的性能。
附图说明
[0046]
图1是本发明中所构建的神经网络架构图;
[0047]
图2是本发明与presto、rla算法在收益

开销比方面的对比图;
[0048]
图3是本发明与presto、rla算法在虚拟网络请求成功率上的性能对比图;
[0049]
图4是本发明与presto、rla算法在平均映射开销上的性能对比图;
[0050]
图5是本发明与presto、rla算法在收益上的性能对比图。
具体实施方式
[0051]
以下结合附图及实施例对本发明进行详细描述。显然,所列举的实例只用于解释本发明,并非用于限定本发明的范围。
[0052]
本发明所述的一种基于深度强化学习的云数据中心虚拟网络的协同嵌入方法,包括以下步骤:
[0053]
s1、完成虚拟网络嵌入的建模;
[0054]
首先将实际存在的数据中心里的底层网络建模为一个带权重的无向图g
s
=(n
s
,e
s
),其中,网络节点和链路分别构成了无向图中的点集n
s
和边集e
s
,图中点n
s
∈n
s
的权重c(n
v
)和边e
s
∈e
s
的权重b(e
s
)则分别代表网络节点的计算资源cpu和链路的网络资源带宽;对租户所请求的虚拟网络也采用相同方式建模为带权重的无向图g
v
=(n
v
,e
v
);
[0055]
随后将虚拟网络嵌入转化为寻找由代表虚拟网络的图g
v
到代表底层网络的图g
s
的一组映射关系函数:其中并且保证:并且保证:
[0056]
同时虚拟网络中的cpu资源和带宽资源均需被映射后的网络满足:同时虚拟网络中的cpu资源和带宽资源均需被映射后的网络满足:其中函数c(n
v
)表示节点n
v
上可用的cpu计算资源,函数b(e
v
)表示链路e
v
上可用的带宽资源;
[0057]
在此基础上,用虚拟网络请求中cpu需求总量与带宽需求总量的线性组合在此基础上,用虚拟网络请求中cpu需求总量与带宽需求总量的线性组合来表示当该请求处理成功后预期得到的收益,其中α为加权系数;用处理请求时计算资源的开销与网络资源的开销的总和其中α为加权系数;用处理请求时计算资源的开销与网络资源的开销的总和来表示处理该请求的总开销,其中表示用于组成虚拟网络中边e
v
的底层网络路径和边的数量;
[0058]
将虚拟网络嵌入明确为在寻找满足条件的映射关系函数的基础上,最大化收益并最小化开销;
[0059]
s2、完成对底层网络中计算资源cpu和网络资源带宽的建模;首先明确cpu可用量上限cpu
max
与带宽可用量上限band
max
;随后预设一组固定的值cpu
strides
和band
strides
,并且将[0,cpu
max
]和[0,band
max
]两个区间等分为cpu
strides
和band
strides
段;分别记每个等分的端点为和其中i∈[0,cpu
strides
),j∈[0,band
strides
);最后,对于底层网络中的每个节点n
s
,通过广度优先搜索的方法来依次构建其cpu资源的β

bi模型以及带宽资源的β

bi模型其中指的是从节点n
s
出发可达的可用cpu不低于的节点的集合,指的是从节点n
s
出发,通过可用带宽不低于的边可达的点的集合;
[0060]
s3、构建基于policy gradient方法的神经网络,随后处理虚拟网络的请求,分别完成虚拟节点和虚拟链路的映射,以实现虚拟网络到底层网络的嵌入,并根据处理请求所得到的奖励值完成神经网络中参数的更新;具体包括以下子步骤:
[0061]
s31、构建具有如图1所示结构的神经网络;
[0062]
首先提取输入层的特征;遍历底层网络节点集合n
s
中的每个底层网络节点n
s
,依次
获取s2中计算得到的cpu资源的β

bi模型以及带宽资源的β

bi模型从底层网络节点所对应的β

bi模型中以及当前待映射的虚拟网络节点n
v
的信息中提取特征作为神经网络输入;具体来说,对于底层网络节点n
s
的每个和从中提取cpu可用量的最大值、最小值、中位数和平均值、度数、其邻接边中带宽可用量的最大值、最小值、中位数和平均值、当前待映射的虚拟节点n
v
的cpu计算资源需求量以及n
v
与底层节点n
s
的可用计算资源量的差值,作为输入特征;
[0063]
随后构建网络的剩余部分,共包括4层;具体来说,剩余部分依次为一层包括两个卷积核的一维卷积层,一层relu层,一层单核的一维卷积层,以及一层softmax层;
[0064]
s32、神经网络对接收到的虚拟网络g
v
=(n
v
,e
v
)请求进行处理,首先完成虚拟节点集合n
v
的映射;
[0065]
遍历n
v
,对于其中的每一个虚拟网络节点n
v
,获取s31中的输入特征;
[0066]
输入特征首先经过一层一维方向的卷积层处理,该卷积层包括两个卷积核;记输入特征为其中m为底层节点的数量,f为特征的数量,两卷积核分别为其中m为底层节点的数量,f为特征的数量,两卷积核分别为则该卷积层的输出为m
·
[w1,w2];
[0067]
在经过具有2个卷积核的卷积层之后,输入特征经过一层relu层处理以避免过拟合;
[0068]
relu层之后是一层单核的一维卷积层处理;具体来说,从前两层的学习结果中对各底层网络节点计算出一种评分,量化地表明将当前虚拟节点n
v
映射至各底层网络节点的好坏;记该层输出的结果为v=[v1,v2,...,v
m
],则对于底层网络节点其计算出的评分为v
i

[0069]
最后,经由一层soffmax层处理,将上一层对各节点计算的评分结果,转化为概率并输出;具体来说,记soffmax层的输出结果为s=[s1,s2,...,s
m
],其中s1,s2,...,s
m
与底层节点一一对应,则概率分布表示为:这里exp()为以自然常数为底的指数函数;对于上一层中对应评分越高的底层网络节点,在该层输出的概率值越大,被选作当前虚拟节点n
v
的映射点的概率也就越大;随后在soffmax层输出结果基础上,首先过滤可用计算资源无法满足虚拟节点n
v
计算资源要求或者映射至该节点的虚拟节点数量已达到一定阈值的节点,再根据softmax层输出的概率进行采样;当前虚拟节点n
v
将最终映射到采样得到的底层网络节点上;
[0070]
s33、在通过上述s32的步骤完成虚拟网络请求中节点的映射后,接下来完成链路e
v
的映射;
[0071]
首先使用bvlo算法对待映射虚拟链路进行排序;具体来说,记虚拟链路e
v
两端点所映射的底层网络节点为n

s
和n
″′
s
,记同时包含n

s
和n
″′
s
的带宽资源β

bi模型中具有最大β值的为lcf
sn
(n

s
,n
″′
s
),将β值记为bvlo算法将依次按照如下关键字对虚拟链路进行排序:
[0072]
1)越小的虚拟链路排序越靠前;
[0073]
2)lcf
sn
(n

s
,n
″′
s
)节点数越小的虚拟链路排序越靠前;
[0074]
3)需求带宽越大的虚拟链路排序越靠前;
[0075]
4)若两虚拟链路在1)、2)及3)的排序都相等,则随机排序;
[0076]
随后基于hvlm算法进行虚拟链路映射:
[0077]
1)从虚拟链路两端点对应底层网络节点n

s
和n
″′
s
的lcf
sn
(n

s
,n
″′
s
)中,寻求从n

s
和n
″′
s
的一组路径,该组路径的每条边都需满足虚拟链路的带宽需求;
[0078]
2)从1)中得到的路径中选择一条边数最少的路径;
[0079]
3)在边数最少的路径中,选择一条经过的边中可用网络资源的最小值最大的路径;
[0080]
4)若第1)、2)、3)步之后仍有多条可行的路径,则随机选择一条;
[0081]
s34、完成点集n
v
与边集e
v
的映射,即完成了该虚拟网络g
v
=(n
v
,e
v
)请求的处理,接下来根据本次虚拟网络映射的奖励值reward实现神经网络参数的更新;
[0082]
reward的计算方式如下:
[0083]
1)如果虚拟节点映射失败,即未找到某个虚拟节点对应的映射,则对该虚拟网络请求的每一个虚拟节点n
v
,都有:即在该虚拟节点对应的前向传播过程中,神经网络预测最大概率映射的底层网络节点的可用cpu数量和该虚拟节点n
v
需求cpu数量的差,与该虚拟节点n
v
需求cpu数量的比值;
[0084]
2)若虚拟链路e
v
=(n

v
,n
″′
v
)映射失败,其中n

v
和n
″′
v
为e
v
的两个端点,即未找到一个合适、可行的底层路径用于映射,则首先使用二分枚举法,找出在所有从到的路径上,最小边可用带宽的最大值并记其为则对该虚拟网络请求的每一个虚拟节点n
v
,都有:即该最大值和虚拟链路需求带宽的差,与该虚拟链路需求带宽的比值;
[0085]
3)虚拟网络g
v
=(n
v
,e
v
)请求映射成功;对每个虚拟节点n
v
,求该虚拟节点的计算资源与连接该虚拟节点的虚拟链路网络资源的加权和,再除以映射这些点和链路所消耗的资源总和;把得到的商作为映射节点n
v
对应的回报,其中,e
v
为连接了节点n
v
的虚拟链路;
[0086]
计算出该虚拟网络请求对应的奖励值reward之后,根据每次前向传播的预测值以及该次前向传播对应的reward,计算出该次前向传播的误差,并作后向传播,以更新神经网络的模型参数。
[0087]
从测试结果可以发现,如图2所示,其中ice指代本发明,本发明的映射策略在总体的收益

开销比上比presto算法平均高出3.7%,最高提升了近5%,比rla算法平均高出6.3%,最高提升了约7.8%。此外,如图3所示,其中ice指代本发明;本发明的映射策略在虚拟网络请求成功率上也比presto算法与rla算法表现更优,最高分别高出9.4%与14.4%。随着虚拟网络请求数量的增加,各算法的成功率都将下降,但是本发明下降的速度最慢。如
图4所示,其中ice指代本发明;在映射开销上,本发明相比presto算法平均节省4.9%的资源消耗,相比rla算法平均节省8.5%的资源消耗,并且最高分别比两算法多获得了9.2%与12.7%的收益,如图5所示,其中ice指代本发明;这主要是由于本发明是一种基于β

bi模型的协同虚拟网络嵌入方法,它在映射节点时充分考虑到各节点、边以及底层网络各部分的可用资源量与对应的拓扑信息,并且通过神经网络从这些信息中学习出点集映射策略,同时选择合适的边集映射步骤,以处理到来的虚拟网络请求。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献