一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于深度强化学习的多智能体路径规划方法

2022-07-30 18:46:40 来源:中国专利 TAG:


1.本公开涉及人工智能技术领域,更具体地,涉及一种基于深度强化学习的多智能体路径规划方法、电子设备、存储有计算机指令的非瞬时计算机可读存储介质和一种计算机程序产品。


背景技术:

2.随着多智能体技术的不断发展和完善,路径规划作为提高多智能体生存能力和应用价值的有效手段成为研究的重点。路径规划的目的是在硬件条件的约束下,在存在障碍物的环境中,规划出从当前位置到目标位置之间的最优路径。路径规划方法主要包括传统规划方法和智能规划方法。传统的规划算法包括动基于搜索的算法和基于采样的算法等,如a*算法、人工势场法、迪杰斯特拉算法(dijkstra)、粒子群算法(pso)等;智能规划算法包括强化学习算法,如q学习(q-learning)算法、状态动作奖励(sarsa)算法。强化学习算法作为目前机器学习中重要的学习方法之一,又称为增强学习,基本思想通过智能体和环境不断交互,获得相应的奖励,将自身信息再次反馈到环境中,不断循环,在积累大量经验后自学习完成路径规划的过程。
3.随着环境规模的增长,上述算法会出现计算量大、成本高、消耗时间长,对不同环境适用性低,在复杂环境中容易陷入局部最优的问题。


技术实现要素:

4.有鉴于此,本公开提供了一种基于深度强化学习的多智能体路径规划方法、电子设备、存储有计算机指令的非瞬时计算机可读存储介质和一种计算机程序产品。
5.根据本公开的第一个方面,提供了一种基于深度强化学习的多智能体路径规划方法,包括:
6.设置多智能体系统的联合状态空间、联合动作空间;针对路径规划问题设计奖励函数,生成联合奖励;
7.初始化路径规划方法中网络模型的结构和参数,上述网络模型包括策略网络、评价网络、目标策略网络和目标评价网络,其中上述目标策略网络和上述策略网络的结构相同但参数不同,上述目标评价网络和上述评价网络的结构相同但参数不同;
8.向上述策略网络中输入每个上述智能体的状态空间,经过确定性策略函数处理后,输出每个上述智能体当前时刻需要执行的动作;
9.响应于上述智能体执行了对应的动作,分别得到每个上述智能体下一时刻的状态空间和相应的奖励值;将通过不同上述智能体间的信息交流获得的当前联合动作空间、当前联合状态空间、当前联合奖励和下一时刻联合状态空间组合成元组作为样本存入经验缓冲池;
10.更新每个上述智能体在当前时刻的状态空间;对上述经验缓冲池中存在的样本数和预设容量进行比较,若样本数小于预设容量,则继续通过上述策略网络获取样本信息,否
则进入强化学习训练阶段,通过多步学习方法对上述评价网络的参数进行更新;从上述经验缓冲池中随机抽取k批轨迹长度为多步回报值l的样本,对上述评价网络进行训练,输入未来时刻的联合状态空间、联合动作空间和奖励,输出相应的目标联合状态动作值;利用最小损失函数更新上述评价网络的参数;利用反向梯度下降法更新上述策略网络的参数;利用软更新方法更新上述目标策略网络和上述目标评价网络的参数;
11.利用训练得到的上述路径规划中的网络模型对上述智能体进行路径规划。
12.根据本公开的实施例,上述设置智能体的联合状态空间、联合动作空间和联合奖励包括:
13.构建用于多智能体路径规划的马尔科夫博弈模型,其中,上述马尔科夫模型用五元组《n,s,a,p,r》描述,其中n={1,...,n}表示多个智能体的集合;s表示联合状态空间;a表示联合动作空间;r表示联合奖励;p表示所有上述智能体在当前状态采取联合动作到达下一状态的概率值。
14.根据本公开的实施例,在构建用于多智能体路径规划的马尔科夫博弈模型之前,上述方法还包括:
15.获取多智能体系统的初始环境信息,其中,上述初始环境信息包括上述多智能体系统中智能体的数量,每个上述智能体的起始位置坐标和对应的目标点的位置坐标,障碍物的位置坐标;
16.将上述多智能体系统中的智能体转化为质点模型,其中上述质点模型包括对应于多个上述智能体的多个质点,上述质点的当前坐标对应于上述智能体当前位置坐标,上述质点的终点坐标对应于上述智能体对应的目标点的位置坐标。
17.根据本公开的实施例,上述策略网络为全连接神经网络,用于基于输入上述智能体的与当前状态对应的状态空间,输出上述智能体在当前时刻需要执行的动作。
18.根据本公开的实施例,上述评价网络为全连接神经网络,用于基于输入的所有上述智能体的联合状态空间向量和根据所有上述智能体自身的策略网络得到的联合动作空间,输出上述智能体在当前时刻的联合状态动作值。
19.根据本公开的实施例,上述输入未来时刻的联合状态空间、联合动作空间和奖励,输出相应的目标联合状态动作值包括:
20.根据未来时刻的联合状态空间、联合动作空间和奖励,利用多步学习方法更新当前时刻上述智能体的目标联合状态动作值。
21.根据本公开的实施例,根据未来时刻的联合状态空间、联合动作空间和奖励,利用多步学习方法更新当前时刻上述智能体的目标联合状态动作值包括:
22.输入j时刻到j l时刻中各时刻上述智能体的奖励值、上述j l时刻的联合状态空间、联合动作空间和折扣系数,输出当前时刻的目标联合状态动作值,其中,上述目标联合状态动作值表征l步长中的累积奖励与j l时刻的目标联合状态动作值乘以上述折扣系数的和。
23.根据本公开的另一个方面,提供了一种电子设备,包括:至少一个处理器;以及,与上述至少一个处理器通信连接的存储器。
24.其中,上述存储器存储有可被上述至少一个处理器执行的指令,上述指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行任一项上述基于深度强化学习的
多智能体路径规划方法。
25.根据本公开的另一个方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,上述计算机指令用于使上述计算机执行任一项上述基于深度强化学习的多智能体路径规划方法。
26.根据本公开的另一个方面,提供了一种计算机程序产品,包括计算机程序,上述计算机程序在被处理器执行时实现上述基于深度强化学习的多智能体路径规划方法。
27.本公开提供了一种基于深度强化学习的多智能体路径规划方法,结合多智能体深度确定性策略和多步回报的思想,利用多步回报考虑未来数据对当前价值的影响,使目标评价网络输出值无限接近真实价值函数,减小损失函数的偏差,提高正确率的同时提高收敛速度,减少学习时间,快捷高效地为多智能体系统规划出最优路径,解决路径规划问题。
附图说明
28.通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
29.图1示意性示出了本发明的实施例的基于深度强化学习的多智能体系统模型ms-maddpg的框图;
30.图2示意性示出了本公开实施例的基于深度强化学习的多智能体路径规划方法的流程图;
31.图3示意性示出了本公开实施例的设置多智能体系统的联合状态空间、联合动作空间和联合奖励的流程图;
32.图4示意性示出了根据本公开的实施例的适于实现基于深度强化学习的多智能体路径规划方法的电子设备的框图。
具体实施方式
33.以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
34.在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
35.在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
36.在使用类似于“a、b和c等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有a、b和c中至少一个的系统”应包括但不限于单独具有a、单独具有b、单独具有c、具有a和b、具有a和c、具有b和c、和/或具有a、b、c的系统等)。在使用类似于“a、b或c等中至少一个”这样的表述的情况下,一般来
说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有a、b或c中至少一个的系统”应包括但不限于单独具有a、单独具有b、单独具有c、具有a和b、具有a和c、具有b和c、和/或具有a、b、c的系统等)。
37.随着多智能体技术的不断发展和完善,多智能体系统中,单智能体能够观察到的信息是有限的,用传统单智能体强化学习算法不具有普适性,智能体强化学习算法在单智能体强化学习的基础上增加智能体数量,引入联合状态和联合动作、引入集中式训练分布式执行策略,使每个智能体能独立地完成目标,ddpg算法作为策略型强化学习算法,指导智能体在未知环境中探索最优路径。
38.在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:随着智能体数量的增加和环境规模的扩大,会出现多智能体系统收敛速度慢,训练时间长,路径规划效率低的问题。
39.为了至少部分地解决相关技术中存在的技术问题,本公开提供了一种基于深度强化学习的多智能体路径规划方法、电子设备、存储有计算机指令的非瞬时计算机可读存储介质,可以应用于人工智能技术领域。
40.根据本公开的实施例,上述基于深度强化学习的多智能体路径规划方法包括:
41.设置多智能体系统的联合状态空间、联合动作空间;针对路径规划问题设计奖励函数,生成联合奖励。
42.初始化ms-maddpg算法神经网络,初始化路径规划方法中网络模型的结构和参数,所述网络模型包括策略网络、评价网络、目标策略网络和目标评价网络,其中所述目标策略网络和所述策略网络的结构相同但参数不同,所述目标评价网络和所述评价网络的结构相同但参数不同。
43.向所述策略网络中输入每个所述智能体的状态空间,经过确定性策略函数处理后,输出每个所述智能体当前时刻需要执行的动作。
44.响应于所述智能体执行了对应的动作,分别得到每个所述智能体下一时刻的状态空间和相应的奖励值;将通过不同所述智能体间的信息交流获得的当前联合动作空间、当前联合状态空间、当前联合奖励和下一时刻联合状态空间组合成元组作为样本存入经验缓冲池。
45.更新每个所述智能体在当前时刻的状态空间;对所述经验缓冲池中存在的样本数和预设容量进行比较,若样本数小于预设容量,则继续通过所述策略网络获取样本信息,否则进入强化学习训练阶段,对所述目标网络的参数进行更新;从所述经验缓冲池中随机抽取k批轨迹长度为多步回报值l的样本,对所述目标评价网络进行训练,输入未来时刻的联合状态空间、联合动作空间和奖励,输出相应的目标联合状态动作值;利用最小损失函数更新所述评价网络的参数;利用反向梯度下降法更新所述策略网络的参数;利用软更新方法更新所述目标策略网络和所述目标评价网络的参数。
46.利用训练得到的所述路径规划中的网络模型对所述智能体进行路径规划。
47.图1示意性示出了本发明的实施例的基于深度强化学习的多智能体系统模型ms-maddpg的框图。
48.如图1所示,该实施例的基于深度强化学习的多智能体系统模型包括:环境系统、智能体1到智能体n、经验缓冲池。
49.获取多智能体系统的初始状态信息,将初始状态信息存储到环境系统中。
50.智能体1到智能体n中可以分别设置策略网络、评价网络、目标策略网络、目标评价网络,其中目标策略网络和对应策略网络的结构相同但参数不同,目标评价网络和对应评价网络的结构相同但参数不同。
51.智能体1到智能体n从环境系统中获得对应的状态空间s1到sn,智能体1到智能体n向对应的策略网络中输入对应的状态空间,经过确定性策略函数处理后,输出智能体1到智能体n的当前时刻需要执行的动作a1到an。
52.响应于智能体1到智能体n执行的对应的动作,分别得到智能体1到智能体n下一时刻的状态空间s
′1到s
′n和相应的奖励值r1到rn;通过智能体1到智能体n间的信息交流获得的当前联合动作空间a、当前联合状态空间x、当前联合奖励r和下一时刻联合状态空间x

,将当前联合动作空间、当前联合状态空间、当前联合奖励和下一时刻联合状态空间组合成元组(x,a,r,x

)作为样本存入经验缓冲池。
53.智能体1到智能体n与环境系统进行交互,根据对应的当前时刻需要执行的动作a1到an更新智能体1到智能体n在下一时刻的状态空间。
54.对经验缓冲池中存在的样本数和预设容量进行比较,若样本数小于预设容量,则继续通过智能体1到智能体n对应的策略网络获取样本信息,否则进入强化学习训练阶段。
55.在进行强化学习训练时,对智能体1到智能体n对应的评价网络的参数进行更新;从经验缓冲池中随机抽取k批轨迹长度为多步回报值l的样本(x
j:j l
,a
j:j l
,r
j:j l
,x
j:j l
),对上述评价网络进行训练,输入未来时刻的联合状态空间、联合动作空间和奖励,输出相应的目标联合状态动作值;利用最小损失函数更新上述评价网络的参数;利用反向梯度下降法更新上述策略网络的参数;利用软更新方法更新上述目标策略网络和上述目标评价网络的参数。
56.利用训练得到的路径规划中的网络模型对智能体进行路径规划。图2示意性示出了本公开实施例的基于深度强化学习的多智能体路径规划方法的流程图。
57.如图2所示,上述基于深度强化学习的多智能体路径规划方法包括操作s210~s260。
58.在操作s210,设置多智能体系统的联合状态空间、联合动作空间和联合奖励。
59.根据本公开的实施例,设置智能体的联合状态空间、联合动作空间和联合奖励包括:
60.构建用于多智能体路径规划的马尔科夫博弈模型,其中,上述马尔科夫模型用五元组《n,s,a,p,r》描述,其中n={1,...,n}表示多个智能体的集合;s表示联合状态空间;a表示联合动作空间;r表示联合奖励;p表示所有上述智能体在当前状态采取联合动作到达下一状态的概率值。
61.根据本公开的实施例,设置多智能体系统的联合状态空间、联合动作空间和联合奖励还包括构建用于多智能体路径规划的马尔科夫博弈模型的前置操作。
62.图3示意性示出了本公开实施例的设置多智能体系统的联合状态空间、联合动作空间和联合奖励的流程图。
63.如图3所示,上述基设置多智能体系统的联合状态空间、联合动作空间和联合奖励还包括包括操作s212~s213。
64.在操作s211,获取多智能体系统的初始环境信息。
65.根据本公开的实施例,初始环境信息包括多智能体系统中智能体的数量,每个智能体的起始位置坐标和对应的目标点的位置坐标,障碍物的位置坐标;
66.更具体的,初始化环境相关信息;设定每个智能体和障碍物的物理模型。设置每个智能体i设定为方形区域,表示每个智能体的方形区域坐标为pi(x,y);每个智能体对应的目标设定为方形区域,目标位置坐标为p
ig
(x,y);障碍物设定为对应方形区域,位置为po(x,y),所有障碍物都是静止不动的,整体环境规模为10*10的方形区域。
67.在操作s212,将多智能体系统中的智能体转化为质点模型。
68.更具体的,质点模型包括对应于多个所述智能体的多个质点,多个质点的当前坐标对应于每个智能体当前位置坐标,多个质点的终点坐标对应于所述智能体对应的目标点的位置坐标,目标点位置坐标预设给出。
69.初始化经验缓冲池容量mo(例如50000),批量采样样本数k(例如256),多步回报值l(例如5)。设定最大训练迭代次数e(例如20000)和每轮训练最大步长t(例如100),初始化当前训练时间t(0)和当前训练回合e(0)。
70.在操作s213,构建用于多智能体路径规划的马尔科夫博弈模型。
71.根据本公开的实施例,上述每个智能体的状态空间是一个向量信息,包含当前智能体的位置、其他智能体对当前智能体的相对位置、障碍物对智能体的相对位置。
72.根据本公开的实施例,上述每个智能体的动作空间表示智能体针对自身状态空间可以采取的动作,包含上下左右4个动作。
73.根据本公开的实施例,上述每个智能体的奖励函数,表示在当前状态空间下选择相应动作空间后获得的奖惩值,由于所有智能体在互相避障的同时,协同合作达到目标位置,所以每个智能体的奖励函数相同。智能体的奖励函数可以由如下公式(1)表示:
[0074][0075]
更具体的,向策略网络中输入每个智能体的状态空间,经过确定性策略函数处理后,输出每个智能体当前时刻需要执行的动作;响应于智能体执行的对应的动作,分别得到每个智能体下一时刻的状态空间和相应的奖励值;通过不同智能体间的信息交流获得当前联合动作空间、当前联合状态空间、当前联合奖励和下一时刻联合状态空间。
[0076]
在操作s220,初始化路径规划方法中网络模型的结构和参数网络模型包括策略网络、评价网络、目标策略网络和目标评价网络。
[0077]
根据本公开的实施例,目标策略网络和策略网络的结构相同但参数不同,目标评价网络和评价网络的结构相同但参数不同。
[0078]
更具体的,初始化智能体i的策略网络和网络参数策略网络是包含两层隐藏层的全连接神经网络,两层隐藏层的激活函数都是relu函数,第一隐藏层有64个节点,第二隐藏层有32个节点,输出层包含1个节点,采用gumbel-softmax激活函数,输出智能体i当前时刻需要执行的动作。
[0079]
初始化智能体i的评价网络和网络参数评价网络是包含两层隐藏
层的全连接神经网络,每层都有64个节点,第一隐藏层的激活函数是sigmod函数,第二隐藏层的激活函数是relu函数,输出层包含1个节点,采用线性激活函数,输出当前时刻的状态动作值。
[0080]
将策略网络的参数复制到对应的目标策略网络中,复制过程可以由如下公式(2)表示:
[0081]
θ
μ

θ
μ


ꢀꢀꢀ
(2)
[0082]
其中,θ
μ

为目标策略网络的参数。
[0083]
将策略网络的参数复制到对应的目标策略网络中,复制过程可以由如下公式(3)表示:
[0084]
θq→
θq′

ꢀꢀꢀ
(3)
[0085]
其中,θq为目标评价网络的参数。
[0086]
在操作s230,向策略网络中输入每个智能体的状态空间,经过确定性策略函数处理后,输出每个智能体当前时刻需要执行的动作。
[0087]
根据本公开的实施例,输出每个智能体当前时刻需要执行的动作可以由如下公式(4)表示:
[0088][0089]
其中ai为智能体i当前时刻需要执行的动作,μi(

)为确定性策略函数,si为智能体i的状态空间,为智能体i对应的策略网络网络参数,ε为策略网络噪声。
[0090]
在操作s240,响应于智能体执行对应的动作,分别得到每个智能体下一时刻的状态空间和相应的奖励值;将通过不同智能体间的信息交流获得的当前联合动作空间、当前联合状态空间、当前联合奖励和下一时刻联合状态空间组合成元组作为样本存入经验缓冲池。
[0091]
根据本公开的实施例,通过不同智能体间的信息交流,根据智能体i当前时刻需要执行的动作ai和环境进行交互,获得智能体i下一时刻状态空间信息si,以及反馈的奖励值ri;根据所有智能体的当前时刻状态空间si得到当前时刻联合状态空间x=(s1,

,sn)、根据所有智能体的下一时刻状态空间s
′i得到下一时刻联合状态空间x

=(s
′1,

,s
′n)、根据所有智能体当前时刻需要执行的动作ai的当前时刻联合动作集合a=(a1,

,an)、当前时刻联合奖励值集合r=(r1,

,rn)组合成一个元组(x,a,r,x

),作为样本存入经验缓冲池d。
[0092]
在操作s250,更新每个智能体在当前时刻的状态空间;对经验缓冲池中存在的样本数和预设容量进行比较,若样本数小于预设容量,则继续采样,通过策略网络获取样本信息,否则进入强化学习训练阶段,通过多步学习方法,对所述评价网络的参数进行更新。
[0093]
根据本公开的实施例,更新每个智能体在当前时刻的状态空间,可以由如下公式(5)表示:
[0094]
x
′→
x;
ꢀꢀꢀ
(5)
[0095]
其中x为智能体的当前时刻联合状态空间,x

为智能体的下一时刻联合状态空间,通过每个智能体与环境系统进行交互,将智能体对应的下一时刻状态空间赋予智能体本身,作为智能体对应的更新后的当前时刻状态空间。
[0096]
根据本公开的实施例,比较经验缓冲池中当前容量m和预设容量mo的大小关系,如果m<mo,继续执行操作s230~s250;如果m≥mo,则进入强化学习训练阶段,对目标网络的参
数进行更新。
[0097]
根据本公开的实施例,更具体的,可以设置经验缓冲池预设容量为50000个。
[0098]
根据本公开的实施例,从经验缓冲池d中随机抽取k批样本(x
j:j l
,a
j:j l
,r
j:j l
,x
j:j l
),其中,每批长度为回报值l,对评价网络进行训练。
[0099]
根据本公开的实施例,输入未来时刻的联合状态空间、联合动作空间和所有样本时刻中的奖励,输出相应的目标联合状态动作值包括:
[0100]
根据未来时刻的联合状态空间、联合动作空间和所有样本时刻中的奖励,利用多步学习方法更新当前时刻上述智能体的目标联合状态动作值。
[0101]
更具体的,输入j时刻到j l时刻中各时刻上述智能体的奖励值、上述j l时刻的状态空间、动作空间和折扣系数,输出当前时刻的目标联合状态动作值,其中,上述目标联合状态动作值表征l步长中的累积奖励与j l时刻的目标联合状态动作值乘以上述折扣系数的和,例如可以设置回报值l步长为5。
[0102]
更具体的,从经验缓冲池d中随机抽取k批轨迹长度为多步回报值l的样本,可以设置批量采样样本数k为256个,对评价网络进行训练,输入未来时刻的联合状态空间、联合动作空间和所有样本时刻中的奖励,输出相应的目标联合状态动作值。
[0103]
输出相应的目标联合状态动作值可以由如下公式(6)表示:
[0104][0105]
其中,y为向目标评价网络输入j时刻到j l时刻中各时刻的奖励值、j l时刻的目标联合状态动作值后所输出的当前时刻的目标联合状态动作值,是l步长中的累积奖励与j l时刻的目标联合状态动作值乘以折扣系数的和;γ为折扣系数,设置为0.99;r
j k
为j k时刻智能体奖励值;为目标策略网络集合;为向目标评价网络输入j l时刻的状态空间以及j l时刻根据策略集合μ

得到的联合动作后所输出的状态动作值;t为当前时刻;a
′j为策略集合中的任意一个策略。
[0106]
根据本公开的实施例,利用最小损失函数更新评价网络的参数可以由如下公式(7)表示:
[0107][0108]
其中,l为损失函数;∑为所有采样样本处理后的和;为评价网络输出的联合状态动作值,k为批量采样样本数,y为当前时刻的目标联合状态动作值。
[0109]
根据本公开的实施例,评价网络为全连接神经网络,用于基于输入的所有智能体的联合状态空间向量和根据所有智能体自身各自的策略网络得到的联合动作空间,输出智能体在当前时刻的联合状态动作值。
[0110]
更具体的,评价网络由输入层、隐藏层、输出层组成,输入所有智能体的联合状态空间x=(s1,

,sn)和根据对应的策略网络得到所有智能体当前时刻需要执行的联合动作空间a=(a1,

,an),输出所有智能体的联合状态动作值
[0111]
根据本公开的实施例,利用反向梯度下降法更新策略网络的参数可以由如下公式(8)表示:
[0112][0113]
其中为损失函数梯度;和分别为策略函数梯度和状态动作值函数梯度,x为所有智能体的当前时刻联合状态空间。为向评价网络输入所有智能体的动作和联合状态信息,输出智能体的i的联合状态动作值。
[0114]
根据本公开的实施例,利用软更新方法更新目标策略网络和目标评价网络的参数可以由如下公式(9)表示:
[0115][0116]
其中τ为软更新系数,例如可以设置为0.9;公式中等号右边的目标策略网络参数θ


表示软更新前的目标策略网络参数,等号左边的目标策略网络参数θ


表示软更新后的目标策略网络参数;公式中等号右边的目标评价网络参数θ
iq

表示软更新前的目标评价网络参数,等号左边的目标策略评价参数θ
iq

表示软更新后的目标评价网络参数。
[0117]
判断训练是否结束,当前训练时间步长加1,记录当前训练时间t,若t<t,继续执行操作s230及其之后的训练操作,实现多智能体的数据收集;若t≥t,当前训练回合数加1,若e<e,继续对多智能体系统的环境信息进行初始化,继续执行操作s230及其之后的训练操作,否则训练结束,保存训练完成的网络参数。
[0118]
在操作s260,利用训练得到的路径规划中的网络模型对多智能体系统进行路径规划。
[0119]
根据本公开的实施例,基于深度强化学习的多智能体路径规划方法,结合多智能体深度确定性策略和多步回报的思想,利用未来多步状态动作函数更新当前时刻的状态动作函数,使评价网络输出值和目标评价网络输出值无限接近,减小损失函数的偏差,考虑未来数据对当前状态动作值的影响,提高训练的神经网络模型的准确性,提高训练速度,减少训练时间,快速实现多智能体系统中的路径规划问题。
[0120]
根据本公开的实施例,训练得到的网络模型对所述智能体进行路径规划,智能体根据训练得到的网络模型选择合适动作,完成路径规划任务。
[0121]
根据本公开的实施例,实现多智能体系统中每个智能体在复杂环境下自主避障并顺利到达各自的目标位置,利用基于深度强化学习的多智能体路径规划方法,缩短训练路径规划的时间的同时保证路径规划的灵活性和准确性。
[0122]
根据本公开的实施例,可以快速实现多智能体系统中的路径规划问题,为大规模多智能体系统执行任务奠定基础。本公开的实施例有更好的网络参数更新方式,与原始的maddpg算法相比,本公开方法利用未来多步时刻的状态动作函数更新当前时刻的状态动作函数,解决评价网络输出和目标评价网络输出差值大,即损失函数误差大的问题,可以进一步提高训练的神经网络模型的准确性,从而进一步提升实际的应用价值。基于多步学习的强化学习方法使训练的时间缩短,训练效果更好。
[0123]
图4示意性示出了根据本公开实施例的适于实现文本处理方法的电子设备的框图。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0124]
如图4所示,根据本公开实施例的计算机电子设备400包括处理器401,其可以根据存储在只读存储器(rom)402中的程序或者从存储部分404加载到随机访问存储器(ram)403
中的程序而执行各种适当的动作和处理。处理器401例如可以包括通用微处理器(例如cpu)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(asic)),等等。处理器401还可以包括用于缓存用途的板载存储器。处理器401可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
[0125]
在ram 403中,存储有电子设备400操作所需的各种程序和数据。处理器401、rom 402以及ram 403通过总线404彼此相连。处理器401通过执行rom 402和/或ram 403中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除rom402和ram403以外的一个或多个存储器中。处理器401也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
[0126]
根据本公开的实施例,电子设备400还可以包括输入/输出(i/o)接口405,输入/输出(i/o)接口405也连接至总线404。电子设备400还可以包括连接至i/o接口405的以下部件中的一项或多项:包括键盘、鼠标等的输入部分406;包括诸如阴极射线管(crt)、液晶显示器(lcd)等以及扬声器等的输出部分407;包括硬盘等的存储部分408;以及包括诸如lan卡、调制解调器等的网络接口卡的通信部分404。通信部分404经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至i/o接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
[0127]
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分404从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被处理器401执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
[0128]
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
[0129]
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
[0130]
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的rom 402和/或ram 403和/或rom 402和ram 403以外的一个或多个存储器。
[0131]
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的文本处理方法。
[0132]
在该计算机程序被处理器401执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
[0133]
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分404被下载和安装,和/或从可拆卸介质411被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
[0134]
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如java,c ,python,“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0135]
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能电可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
[0136]
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献