一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于多智能体强化学习的协同驾驶信息传播方法及系统与流程

2021-12-04 01:40:00 来源:中国专利 TAG:


1.本发明属于车辆网络通信技术领域,具体涉及一种基于多智能体强化学习的协同驾驶信息传播方法及系统。


背景技术:

2.互联的自动驾驶车辆组成的协同驾驶系统可以显著提高交通效率和通行能力、增强道路公路安全性、降低油耗。作为一种网络化控制系统,协同驾驶系统中的车辆控制依赖于协同感知信息的周期性交换。因此,为车辆设计一个有效的调度算法从而在共享通信信道中周期性地广播它们的运动状态是至关重要的。
3.然而,网联车辆的通信具有高度动态的网络拓扑和频繁的通信链路中断等特征。现存的信标发送策略和信标时隙控制机制没有充分解决这几个问题。例如,大多数现有的信标方案在实践中没有考虑到多种协同驾驶模式的共存,这需要在自由车辆和协同驾驶车辆之间进行有效的时隙调度。此外,由于协同驾驶传统的通信协议在设计上很难对交通和通信进行建模,现有大部分研究仅从统计学角度来考虑稳定交通流和通信信道条件下的信标性能,这可能会严重影响信标性能的瞬态阶段。


技术实现要素:

4.为了解决上述技术问题,本发明提供了一个基于多智能体强化学习的协同驾驶信息传播方法及系统。
5.本发明的方法采取的技术方案是:一种基于多智能体强化学习的协同驾驶信息传播方法,包括以下步骤:
6.步骤1:构建多智能体分层注意力强化学习网络;
7.所述智能体,为协同驾驶中的车辆,记为在每个时间步t,每个智能体接收一个由智能体i的当前位置、移动方向和速度组成的本地观测状态o
i
,观测状态o
i
还包括前一时间步通信范围内的时隙占用信息;所有可能的观测状态构成观测状态空间在每个时间步t,每个可用的智能体i采取一个动作,该动作指示它是保持沉默还是选择一个时隙来发送信标,将智能体i的动作空间表示为给定观测状态o
i
,智能体i的策略π
i
指定一个概率π
i
(a
i
∣o
i
),由此获得每个动作给定时间步t观测值状态o
i,t
和智能体的动作a
i,t
,根据概率p(o
i,t 1
|o
i,t
,a
i,t
),当前观测状态o
i,t
转移到下一个观测状态o
i,t 1
;在每一个时间步t,每一个智能体的反馈都来自同队列的其他智能体,此类反馈已成功传输的信标数量的信息,采用已成功传输的信标数量作为直接奖励,记为r
i,t

8.每个智能体i均采用一个分层网络,所述分层网络由一个管理模块和一个工作模块组成;
9.所述管理模块,在与环境交互获得经验的阶段,每个时间步t,智能体i的观察o
i,t
被输入到多层感知器mlp中,多层感知器mlp为管理模块i输出一个中间状态表示x
i,t
,并送
入扩张长短期记忆人工神经网络dlstm,dlstm接受状态x
i,t
输入,然后输出目标g
i,t
,将c

1个先前目标g
i,t

c 1


,g
i,t
‑1与g
i,t
连接起来,并将这样连接的向量g
i,t
作为输出,向量g
i,t
与工作模块中的lstm的输出值进行点积操作后获得值a
i,t
,并将a
i,t
传递给工作模块,接收即时奖励并将存入经验回放池中;在从经验回放池采样后对网络进行训练阶段,智能体利用gat对各个智能体i传来的x
i,t
输入进行操作,为邻域中的不同节点指定不同的权重;并将获得的连接向量x
i,t
作为第一个gat层的输入,以获得特征向量x

i,t
,再将x

i,t
输入第二个gat层获得x

i,t
;将gat的输出x
i,t
,x

i,t
和x

i,t
送入vnet,使用a2c算法对vnet进行更新;
10.所述管理模块采用扩张长短期记忆人工神经网络dlstm作为actor,它保持一个数组(h
i,0
,h
i,1


,h
i,c
‑1)来存储给定扩张半径的c个历史隐藏状态;所述管理模块采用图形注意力网络gat来指定每个相邻管理模块的影响权重;
11.所述工作模块,在与环境交互获得经验的阶段,每个时间步t,智能体i的观察o
i,t
被输入到多层感知器mlp中,多层感知器mlp为工作模块输出一个状态表示z
i,t
,z
i,t
和lstm的前一个时间步t

1的隐藏状态h
i,t
‑1被馈送到lstm,lstm输出工作模块i的初步动作u
i,t
;工作模块的初步动作u
i,t
点乘连接的管理模块传来的目标g
i,t
,然后通过softmax层计算结果,以获得智能体i的最终策略π
i,t
,智能体i根据策略π
i,t
采取行动a
i,t
,得到内在奖励和外部奖励r
i,t
,并将存入经验回放池中。在从经验回放池采样后对网络进行训练阶段,用其动作a
i,t
连接工作模块i的状态表示z
i,t
得到w
i,t
,传入各个智能体中的工作模块的gat中,智能体利用gat对各个智能体i传来的x
i,t
输入进行操作,为邻域中的不同节点指定不同的权重,将获得的连接向量w
i,t
作为第一个gat层的输入,以获得特征向量w

i,t
,再将w

i,t
输入第二个gat层获得w

i,t
;将gat的输出w
i,t
,w

i,t
和w

i,t
送入qnet中,使用ddpg算法对qnet和lstm进行更新,计算动作价值后输入lstm中,对lstm进行更新;
12.所述工作模块采用深度确定性策略梯度ddpg方法,采用行动价值网络qnet作为工作模块的critic,使用标准的长短期记忆人工神经网络lstm作为工作模块的actor;
13.步骤2:采用多智能体分层注意力强化学习网络,进行协同驾驶信息传播。
14.本发明的系统所采用的技术方案是:一种基于多智能体强化学习的协同驾驶信息传播系统,其特征在于,包括以下模块:
15.模块1,用于构建多智能体分层注意力强化学习网络;
16.所述智能体,为协同驾驶中的车辆,记为在每个时间步t,每个智能体接收一个由智能体i的当前位置、移动方向和速度组成的本地观测状态o
i
,观测状态o
i
还包括前一时间步通信范围内的时隙占用信息;所有可能的观测状态构成观测状态空间在每个时间步t,每个可用的智能体i采取一个动作,该动作指示它是保持沉默还是选择一个时隙来发送信标,将智能体i的动作空间表示为给定观测状态o
i
,智能体i的策略π
i
指定一个概率π
i
(a
i
|o
i
),由此获得每个动作给定时间步t观测值状态o
i,t
和智能体的动作a
i,t
,根据概率p(o
i,t 1
|o
i,t
,a
i,t
),当前观测状态o
i,t
转移到下一个观测状态o
i,t 1
;在每一个时间步t,每一个智能体的反馈都来自同队列的其他智能体,此类反馈已成功传输的信标数量的信息,采用已成功传输的信标数量作为直接奖励,记为r
i,t

17.每个智能体i均采用一个分层网络,所述分层网络由一个管理模块和一个工作模
块组成;
18.所述管理模块,在与环境交互获得经验的阶段,每个时间步t,智能体i的观察o
i,t
被输入到多层感知器mlp中,多层感知器mlp为管理模块i输出一个中间状态表示x
i,t
,并送入扩张长短期记忆人工神经网络dlstm,dlstm接受状态x
i,t
输入,然后输出目标g
i,t
,将c

1个先前目标g
i,t

c 1


,g
i,t
‑1与g
i,t
连接起来,并将这样连接的向量g
i,t
作为输出,向量g
i,t
与工作模块中的lstm的输出值进行点积操作后获得值a
i,t
,并将a
i,t
传递给工作模块,接收即时奖励并将存入经验回放池中;在从经验回放池采样后对网络进行训练阶段,智能体利用gat对各个智能体i传来的x
i,t
输入进行操作,为邻域中的不同节点指定不同的权重;并将获得的连接向量x
i,t
作为第一个gat层的输入,以获得特征向量x

i,t
,再将x

i,t
输入第二个gat层获得x

i,t
;将gat的输出x
i,t
,x

i,t
和x

i,t
送入vnet,使用a2c算法对vnet进行更新;
19.所述管理模块采用扩张长短期记忆人工神经网络dlstm作为actor,它保持一个数组(h
i,0
,h
i,1


,h
i,c
‑1)来存储给定扩张半径的c个历史隐藏状态;所述管理模块采用图形注意力网络gat来指定每个相邻管理模块的影响权重;
20.所述工作模块,在与环境交互获得经验的阶段,每个时间步t,智能体i的观察o
i,t
被输入到多层感知器mlp中,多层感知器mlp为工作模块输出一个状态表示z
i,t
,z
i,t
和lstm的前一个时间步t

1的隐藏状态h
i,t
‑1被馈送到lstm,lstm输出工作模块i的初步动作u
i,t
;工作模块的初步动作u
i,t
点乘连接的管理模块传来的目标g
i,t
,然后通过softmax层计算结果,以获得智能体i的最终策略π
i,t
,智能体i根据策略π
i,t
采取行动a
i,t
,得到内在奖励和外部奖励r
i,t
,并将存入经验回放池中;在从经验回放池采样后对网络进行训练阶段,用其动作a
i,t
连接工作模块i的状态表示z
i,t
得到w
i,t
,传入各个智能体中的工作模块的gat中,智能体利用gat对各个智能体i传来的x
i,t
输入进行操作,为邻域中的不同节点指定不同的权重,将获得的连接向量w
i,t
作为第一个gat层的输入,以获得特征向量w

i,t
,再将w

i,t
输入第二个gat层获得w

i,t
;将gat的输出w
i,t
,w

i,t
和w

i,t
送入qnet中,使用ddpg算法对qnet和lstm进行更新,计算动作价值后输入lstm中,对lstm进行更新;
21.所述工作模块采用深度确定性策略梯度ddpg方法,采用行动价值网络qnet作为工作模块的critic,使用标准的长短期记忆人工神经网络lstm作为工作模块的actor;
22.模块2,用于采用多智能体分层注意力强化学习网络,进行协同驾驶信息传播。
23.本发明与其他方法相比主要有三大优势:
24.(1)其他方法中的大多数都是基于规则的策略,限制了可应用的场景。相比之下,本发明提出了一种新的多智能体分层注意力强化学习(maha)网络,它可以有效地学习各种车辆通信场景的隐藏模式。因此,本方法所提出的maha网络可以广泛应用于各种车辆通信场景。
25.(2)其他方法所接收的奖励总是对应于现实世界车辆通信场景中的过去动作。这种现象阻碍了其他方法中的智能体强化学习有效的策略。本方法所提出的maha网络是第一个将分层强化学习与gat层相结合的多智能体强化学习网络,它在适当考虑智能体相互影响的情况下的输出动作。
26.(3)本发明从合作驱动的角度出发,将协同驾驶车辆消息发送问题表述为一个马
尔可夫博弈。本发明能有效克服延迟奖励挑战,处理智能体间的相互影响。
附图说明
27.图1为本发明实施例的方法流程图;
28.图2为本发明实施的maha网络结构示意图;
29.图3为本发明实施的协同车辆和单独车辆的混合交通场景示例。
具体实施方式
30.为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
31.请见图1,本发明提供的一种基于多智能体强化学习的协同驾驶信息传播方法,包括以下步骤:
32.步骤1:构建多智能体分层注意力强化学习网络;
33.本发明通过模拟器模拟了高速公路条件下车辆通信的场景,将协同驾驶车辆的时隙选择问题建模成马尔可夫博弈,并定义其中的智能体、观测状态、动作、策略、转移概率和奖励:
34.智能体:将协同驾驶系统中的车辆作为智能体,表示为
35.观测状态:在每个时间步t,每个智能体接收一个由智能体i的当前位置、移动方向和速度组成的本地观测状态o
i
。此外,观测状态o
i
还涉及前一时间步通信范围内的时隙占用信息。所有可能的观测状态构成观测状态空间
36.动作:在每个时间步t,每个可用的智能体i采取一个动作,该动作指示它是保持沉默还是选择一个时隙来发送信标。我们将智能体i的动作空间表示为
37.策略:给定观测值状态o
i
,智能体i的策略π
i
指定一个概率π
i
(a
i
|o
i
),由此获得每个动作
38.转移概率:给定观测值状态o
i,t
和智能体的动作a
i,t
,根据概率p(o
i,t 1
|o
i,t
,a
i,t
),当前观测值状态转移到下一个观测状态o
i,t 1

39.奖励:在每一个时间步t,每一个智能体的反馈都来自同队列的其他智能体。反馈已成功传输的信标数量的信息。本网络采用已成功传输的信标数量作为直接奖励,表示为r
i,t

40.本实施例的每个智能体采用都一个分层框架,由一个管理模块和一个工作模块组成,具体模型见图2。
41.多智能体分层注意力强化学习(maha)框架将分层强化学习的每一层与图形注意力网络(gat)相结合。在技术上,本方法提出的maha框架将每个协同驾驶系统中的车辆视为一个智能体,并为动态通信和交通环境中的每个协同驾驶生成自适应动作。本发明提出的maha框架中采用了两级分层架构,其中每个智能体由一个管理模块和一个工作模块组成。在它们之间,管理模块以较低的时间分辨率操作,但总是可以预见固定数量的时间步。更具体地说,管理模块有权为工作模块设定目标并奖励执行该目标的工作模块。相比之下,工作模块则关注的时间间隔较短,但时间分辨率较高。因此,即使智能体不能及时收到其他队列
成员的反馈,这种层次框架仍然可以帮助智能体学习在必要时采取有利的行动。
42.它通过共同考虑管理模块设定的奖励和从环境中获得的外在奖励来输出智能体的决策。通过这种方式,尽管工作模块不能将收到的即时奖励分配给过去的行动,但由于当这些行动与目标一致时,管理模块会给予工作模块内在的奖励,因此工作模块仍然愿意学会有预见性。因此,这种层级结构使协同驾驶车辆能够学会采取有远见的行动来优化长期回报。
43.为了捕捉智能体之间的这种相互影响,本实施例首先将多智能体环境构建为在管理和工作模块中构建无向图。每个智能体代表一个顶点,每个边将智能体与其在ohs(一跳集)的一个邻居连接起来。本实施例将提出的maha框架中的两个层次中的每一个分别与图关注网络(gat)集成,以指定邻域内不同顶点的不同权重。由于管理模块和工作模块以不同的时间分辨率运行,所以管理模块和工作模块中使用的邻域定义是不同的。
44.如图2所示,在每个时间步t,智能体i的观察o
i,t
被输入到mlp中,mlp为管理模块i输出一个中间状态表示x
i,t

45.gat是在2018年iclr上发表一种新型神经网络结构,它对图形结构数据进行操作,利用掩蔽的自注意层来解决基于图形卷积或其近似的现有方法的缺点。通过堆叠节点能够关注其邻域特征的层,能够(隐式地)为邻域中的不同节点指定不同的权重,而不需要任何类型的复杂的矩阵运算(例如求逆)或者依赖于预先知道图形结构。
46.qnet(action

value network)作为工作模块的critic,是一个神经网络,用来模拟动作价值函数,接收工作模块中gat传来的结果。
47.vnet(state

value network)为管理模块的critic,是一个神经网络,用来模拟状态价值函数。
48.长短期记忆网络(long

short term memory,lstm)论文首次发表于1997年。由于独特的设计结构,lstm适合于处理和预测时间序列中间隔和延迟非常长的重要事件。是一种特殊的rnn(循环神经网络),主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题,比普通rnn(循环神经网络)在更长的序列中有更好的表现。
49.u
i,t
在图中表示为u
n
,为工作模块的lstm的输出值,意为初步动作。但是这个初步动作不是智能体实际执行的动作,而是要通过与管理模块传来的g
n
进行点乘操作获得a
n
,a
n
才是智能体与环境进行交互的实际动作。
50.g
i,t
在图中表示为g1,g
n
,管理模块i将c

1个先前目标g
i,t

c 1


,g
i,t
‑1与g
i,t
连接起来,并将这样连接的向量g
i,t
作为输出传递给工作模块i。
51.a
i,t
在图中表示为a1,a
n
,为u
i,t
和g
i,t
点乘的结果,是智能体与环境进行交互的实际动作。
52.multiply操作意为点乘,作用是将u
n
与g
n
进行点乘,获得a
n

53.为了使管理模块能够在较低的时间分辨率下工作,本实施例采用了扩张长短期记忆人工神经网络(dlstm),它保持一个数组(h
i,0
,h
i,1


,h
i,c
‑1)来存储给定扩张半径的c个历史隐藏状态。dlstm将x
i,t
和h
i,t%c
作为它的输入。除了更新值h
i,t%c
之外,dlstm还输出目标g
i,t
,它可以被认为是对工作模块i在以下c时间步骤中的动作的指令。然后,管理模块i将c

1个先前目标g
i,t

c 1


,g
i,t
‑1与g
i,t
连接起来,并将这样连接的向量g
i,t
作为输出传递给工作模块i。
54.在maha框架中,之前提到的dlstm充当管理模块i的actor,它只接受状态表示x
i,t
作为它的输入,并在每个时间步t输出目标g
i,t
作为它的动作。
55.在训练过程中,本实施例使用状态价值网络(vnet)作为管理模块的critic。本实施例使用gat来指定每个相邻管理模块的权重,而不是简单地将其他管理模块的状态表示输入到当前管理模块状态表示中。更具体地说,由于管理模块以较低的时间分辨率运行,本实施例需要在管理模块中扩展ohs的覆盖范围。显然,每个管理模块都应该与其他管理模块合作,这些管理模块会影响智能体如何设定目标。因此,只要智能体在下一个c时间步中处于智能体i的通信范围所覆盖的区域内,本实施例就认为这些智能体的管理模块属于管理模块i的ohs(一跳集)。因此,在管理模块中,每个顶点代表一个管理模块。边缘连接管理模块和它在ohs的邻居管理模块。为了解决隐藏的终端问题,本实施例堆叠了两个gat,以收集其他管理模块的信息到ths(两跳集)中。更具体地说,给定管理模块的无向图,本实施例首先为每个管理模块i都构造一个邻接矩阵邻接矩阵的第一行是智能体i索引的one

hot(独热)表示,其余的行是其邻居索引的one

hot(独热)表示。在每一个gat层中,本实施例使用邻接矩阵来提取管理模块i及其邻居的信息,然后将这些提取的信息馈送到注意模块。具体地,在第一个gat层中,关注模块输出每个管理模块i的特征向量x

i,t
,其涉及ohs中相邻管理模块的状态表示信息。同样,本实施例通过使用邻接矩阵为每个管理模块i提取特征向量。然后,第二个gat层的注意模块将这些提取的特征向量作为其输入,并输出输出层的特征向量x

i
。由于第一层输出的邻居的特征向量已经在一跳范围中收集了关于其邻居的状态表示的信息,所以输出层的特征向量x

i
也可以在两跳范围中获得这样的信息。因此,本实施例可以利用特征向量x

i
和x

i
作为vnet的输入,并使vnet学会同时处理暴露的终端问题和隐藏的终端问题。
56.为了处理大的离散动作空间本实施例在工作模块中采用了深度确定性策略梯度(ddpg)框架。为了达到这个目的,本实施例采用行动价值网络(qnet)作为工作模块的critic。与管理模块不同,工作模块以更高的时间分辨率操作,并且只考虑其在当前时间步的动作。因此,本实施例采用了一个标准的lstm作为工作模块的行动者在maha框架。本实施例将观察值o
i,t
输入到一个mlp中,该mlp为工作模块输出一个状态表示z
i,t
。在每个时间步t,状态表示z
i,t
和前一个时间步t

1的隐藏状态h
i,t
‑1被馈送到lstm,后者输出工作模块i的初步动作u
i,t
和更新的隐藏状态h
i,t

57.此外,为了结合管理模块i设置的目标的影响,本实施例将工作模块的初步动作u
i,t
乘以连接的目标g
i,t
,然后通过softmax层馈送计算结果,以获得智能体i的最终策略π
i,t
,它是智能体i的动作空间上的概率分布当与环境交互时,智能体i根据策略π
i,t
采取行动a
i,t
,并从环境中获得奖励,表示为r
i,t
。与管理模块类似,本实施例使用两个gat来为ohs和ths的相邻工作模块指定权重。由于工作以较高的时间分辨率运行,本实施例将工作模块中ohs的覆盖范围定义为在当前时间步t由智能体的通信范围覆盖的区域。因此,本实施例可以为工作模块建立一个无向图,并为每个工作模块i构造邻接矩阵本实施例用其动作a
i,t
连接每个工作模块i的状态表示z
i,t
,并采用这样的连接向量w
i,t
作为第一个gat层的输入。然后,这两个gat层可以输出特征向量w

i,t
和w

i,t
,它们可以收集ohs和ths的其他邻近工作模块的信息。因此,本实施例可以取这样的特征向量w

i,t
和w

i,t
作为qnet的输入,并使qnet能够学习避免不必要的传输冲突。
58.本模块在gat层采用了多头点积注意模块(multi

head dot

product attention module)。在此本实施例使用符号f
i
来表示每个注意力模块的输入特征向量。首先,本实例使用编码矩阵将输入特征向量f
i
投影到查询、关键字和值表示中。然后,对于每个注意头l,计算以下softmax函数:
[0059][0060]
其中,是比例因子,d
k
是关键表示的维数。代表智能体i的ohs。为了简单起见,本实施例在符号中去掉了管理模块m和工作模块w的上标以及时间t的下标。此后,对于每个智能体本实施例用softmax函数的输出对其值表示进行加权,然后将所有这些加权的值表示加在一起作为注意头l的输出。最后,本实施例将l个注意头的输出连接起来,并将连接的向量馈送到非线性relu激活函数中,以输出智能体i的特征向量f

i

[0061][0062]
结果,这样的特征向量f

i
收集了ohs中每个相邻智能体的加权信息。
[0063]
本实施例采用集中训练和分散执行的训练方式训练多智能体分层注意力强化学习网络,每一次训练都会由训练环境生成数据并放入经验回放池和然后从经验回放池和中联合采样,对工作模块和管理模块进行训练,更新vnet、qnet、工作模块的actor以及管理模块的actor;
[0064]
请见图3,为本发明实施的协同车辆和单独车辆的混合交通场景示例。本实施例的训练环境,是采用一个5公里的双向高速公路路段,每个方向有三个车道,在这个路段上,交通流由几个队列车辆和单个车辆组成。此外,单个车辆以100km/h至120km/h的随机速度初始化,并且它们的位置服从泊松分布。一辆协同驾驶的车辆利用其maha网络输出的时隙以10hz的固定频率在cch上发送信标。
[0065]
本实施例采用集中训练和分散执行的训练方式训练所述多智能体分层注意力强化学习网络,具体包括以下子步骤:
[0066]
步骤1.1初始化每个智能体i的参数φ
i
,θ
i
,和为每个卷积层初始化每个关注头l的参数其中,φ
i
表示管理模块i的vnet的学习参数,θ
i
表示管理模块i的actor网络的学习参数,表示工作模块i的qnet的学习参数,表示工作模块i的actor网络的参数,编码矩阵是注意模块中的参数矩阵,作用是将输入特征向量f
i
投影到查询、关键字和值表示中;
[0067]
步骤1.2:设置训练回合次数为1...,k;
[0068]
步骤1.3:设置时间步1....,t;
[0069]
步骤1.4:时间步是t,回合episode总步长是t,每个智能体从训练环境接收一个观测状态o
i,t
,给定智能体的观测状态o
i,t
,管理模块计算状态表示x
i,t
,并得出目标g
i,t
;根据生成的目标g
i,t
,管理模块根据生成的g
i,t
,计算内在奖励并将这个奖励传递给工作模块;工作模块根据观测状态o
i,t
计算状态z
i,t
,并根据策略π
i,t
输出生成动作a
i,t
;智能体采取动作a
i,t
并获得奖励r
i,t

[0070]
步骤1.5:在每个时间步t,管理模块i接收即时奖励其中,γ表示折损因子,角标m代表这个奖励是管理模块i接收即时奖励,区别与其他的奖励;在所有智能体接收到此类即时奖励后,将元组年储到经验回放池中;在每个时间步t,将存储在经验回放池中;其中,分别代表管理模块中的状态表示x
i,t
、目标g
i,t
、邻接矩阵和即时奖励的集合;分别表示从环境中获得的状态表示z
i,t
、动作a
i,t
、邻接矩阵和外部奖励r
i,t
以及从管理模块中获得的内部奖励的集合;
[0071]
步骤1.6:回转执行步骤1.4,直到训练步长为t;
[0072]
步骤1.7:参数更新;
[0073]
从经验回放池和中联合采样一个批次,管理模块使用两个gat层计算特征向量x

i,t
和x

i,t
,x

i,t
和x

i,t
分别表示管理模块中的两个gat层的输出值;接着工作模块将其动作a
i,t
连接每个工作模块i的状态表示z
i,t
,并采用这样的连接向量w
i,t
作为第一个gat层的输入;工作模块将连接的向量w
i,t
送到gat层,并分别通过以下两个式子获得特征向量w

i,t
和w

i,t

[0074][0075][0076]
其中,其中,是比例因子,d
k
是关键表示的维数,代表智能体i的一跳集ohs;f
j
表示关于智能体j的特征向量,l表示注意头数量;表示关于注意头l,i和j之间的影响权重;
[0077]
步骤1.7:根据步骤1.6生成的特征向量,管理模块和工作模块的actor

critic网络的参数获得更新;
[0078]
(1)训练管理模块;
[0079]
在训练过程中,将x
i,t
,x

i,t
,x

i,t
所有gat层的特征向量连接到vnet中,表示为其中φ
i
表示vnet的学习参数;
[0080]
在每个时间步t,管理模块i接收即时奖励
[0081]
通过最小化以下等式中给出的损失来训练管理模块的vnet,
[0082][0083]
其中,为管理模块i接收即时奖励;为经验回放池,用来存储元组
[0084]
并采用过渡策略梯度方法来训练管理模块的actor,计算角色的过渡策略梯度,如下式:
[0085][0086]
其中,θ
i
表示管理模块i的actor网络的学习参数;为梯度算子,对于θ
i
求导的梯
度;目标g
i,t
是管理模块状态空间中的有利转换方向;使用余弦相似性函数d
cos
来比较向量x
i,t c

x
i,t
和g
i,t
之间的相似性;管理模块的优势函数为其中是智能体从环境中获得的累计折扣外部奖励,v
i,t
表示状态价值函数;
[0087]
(2)训练工作模块;
[0088]
在下面的等式中引入了内在奖励
[0089][0090]
在训练过程中,智能体i的工作模块旨在从第一个时间步骤开始最大化预期回报,表示为其中是外部和内部回报的加权和;δ∈[0,1]是一个超参数,它控制激励工作模块遵循目标指导的程度;
[0091]
将w
i,t
,w

i,t
,w

i,t
所有gat层的特征向量反馈给qnet,表示为所有gat层的特征向量反馈给qnet,表示为其中,是qnet的学习参数;
[0092]
此外,工作模块的actor部分只接受其状态表示z
i,t
,而隐藏状态h
i,t
接受其输入并输出策略π
i,t
;根据策略π
i,t
,智能体i采取行动a
i,t
,并从环境中获得外部奖励r
i,t

[0093]
工作模块的critic旨在最小化下面等式中给出的损失函数,通过该损失函数更新qnet;
[0094][0095]
其中,q
i,t
表示智能体i在时间步t的动作价值函数;
[0096]
此外,通过使用在下面的等式中给出的策略梯度来更新工作模块的actor,
[0097][0098]
其中,表明工作模块actor网络的参数,j
i
表示累积期望奖励函数,作用是用来后续对求偏导以获得梯度;
[0099]
步骤1.8:回转执行步骤1.3,直到训练完所有的回合;
[0100]
步骤1.9:保存vnet,qnet,管理模块的actor网络,工作模块的actor网络。
[0101]
本实施例中,定义评价指标,对多智能体分层注意力强化学习网络进行测试和评估;性能指标包括所有智能体成功发送的信标数量、信标接收率,以及根据帧数计算的平均延迟和最大延迟。
[0102]
步骤2:采用多智能体分层注意力强化学习网络,进行协同驾驶信息传播。
[0103]
本实施例中,通过训练这些神经网络,每个可用的智能体i能够更好地采取的动作a
i
(即保持沉默还是选择一个时隙来发送信标),能使得整个通信环境更好的整体通信性能指标。
[0104]
本发明提出了一种新的多智能体分层注意力强化学习(maha)网络,是第一个将分层强化学习与图形注意力网络(graph attention network,gat)层相结合的多智能体强化学习网络。该网络能够有效地学习各种车辆通信场景中隐藏的交通和通信模式。在技术上,maha网络将协同驾驶系统中的每个车辆视为一个智能体,根据通信和交通环境为每个协同驾驶车辆生成自适应动作。
[0105]
maha网络中采用了两级分层架构,其中每个智能体由一个管理模块和一个工作模
块组成。管理模块以较低的时间分辨率操作,理解固定步长的状态转移。更具体地说,管理模块有权为工作模块设定目标并奖励向该目标前进的工作模块。相比之下,工作模块则时间分辨率较高,每步执行具体时隙选择动作。因此,即使智能体不能及时收到其他队列成员的反馈,本网络仍然可以帮助智能体学习在必要时采取有利的行动。
[0106]
通过这种方式,尽管工作模块不能将收到的即时奖励分配给过去的动作,但由于当这些行动与目标一致时,管理模块会给予工作模块内在的奖励,因此工作模块仍然愿意去学习具有前瞻性的时隙选择策略。这种分层结构使协同驾驶车辆能采取有远见的行动来优化长期回报。
[0107]
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献