一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种航天器深度强化学习莱维飞行控制系统的制作方法

2021-09-22 19:36:00 来源:中国专利 TAG:航天器 控制系统 飞行 深度 强化


1.本发明涉及一种航天器深度强化学习莱维飞行控制系统,用于解决各类航天器在轨机动问题。


背景技术:

2.莱维分布是法国数学家莱维(levy)于20世纪30年代提出的一种概率分布,莱维飞行是一种非高斯随机过程,它是以发生长程跳跃为特点的一类具有马尔科夫性质的随机过程,其步长服从莱维分布,这是一种短距离搜索与偶尔长距离搜索相间的随机行走模式。科学家经过研究发现,许多鸟类、昆虫的飞行路径都遵循莱维飞行的规律。因此,航天器在受到攻击时可以采用莱维飞行,其能够减小击中概率,快速脱离危险区域。
3.莱维飞行可以简单地用数学描述为
[0004][0005]
其中,x
t
为在t时刻的位置,为点乘运算,levy(λ)由莱维飞行得到的位置增量,λ为可调参数。
[0006]
一般采用mantegna算法模拟levy(λ),其数学表达式如下所示:
[0007][0008]
其中,u服从正态分布v服从正态分布n(0,1),
[0009][0010]
从上式可见,通过调整参数λ可以调整levy(λ)飞行整体飞行步长。从而可以调节整体的飞行轨迹。
[0011]
但航天器除了考虑采用何种飞行轨迹外,还要考虑燃料消耗、机动能力等各种复杂的限制因素,因此需要航天器综合选择合适的飞行策略。
[0012]
现有技术中,尚无已有方案或流程可供借鉴。


技术实现要素:

[0013]
本发明要解决的技术问题是:克服现有技术的不足,提供了一种航天器深度强化学习莱维飞行控制系统,包括:自主规划模块,根据航天器的状态信息获取特征,利用该特征进行预测,并获得莱维飞行参数;莱维飞行模块,利用莱维飞行参数,确定下一时刻的飞行轨迹;航天器姿轨控模块,用于控制飞行器跟踪下一时刻的飞行轨迹。本发明在莱维飞行的基础上,采用深度强化学习以综合考虑各种因素,选择最佳的飞行轨迹,以保证在最优的
飞行性能。
[0014]
本发明目的通过以下技术方案予以实现:
[0015]
一种航天器深度强化学习莱维飞行控制系统,包括:
[0016]
基于深度学习的特征提取模块,用于根据航天器的状态信息获取特征;
[0017]
基于深度强化学习自主规划模块,利用特征进行预测,并获得莱维飞行参数;
[0018]
莱维飞行模块,利用莱维飞行参数,确定下一时刻的飞行轨迹;
[0019]
航天器姿轨控模块,用于控制飞行器跟踪莱维飞行模块生成的飞行轨迹。
[0020]
在本发明一实施例中,基于深度学习的特征提取模块利用深度神经网络,对航天器的状态信息进行提取。
[0021]
在本发明一实施例中,评价网络利用所述特征进行预测,测的结果包括q值和击中概率。
[0022]
在本发明一实施例中,策略网络利用所述特征获得莱维飞行参数。
[0023]
一种航天器深度强化学习莱维飞行控制方法,包括如下步骤:
[0024]
从航天器的状态信息中提取特征;
[0025]
基于该特征,利用评价网络进行预测,利用策略网络生成莱维飞行参数;
[0026]
根据航天器的状态信息和莱维飞行参数,确定下一时刻的飞行轨迹;
[0027]
控制飞行器跟踪下一时刻的飞行轨迹。
[0028]
在本发明一实施例中,航天器的状态信息包括位置、姿态、速度、角速度和击中概率。
[0029]
在本发明一实施例中,采用强化学习方法训练策略网络。
[0030]
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现上述航天器深度强化学习莱维飞行控制方法。
[0031]
本发明相比于现有技术具有如下有益效果:
[0032]
(1)本发明结合深度强化学习和莱维飞行生提出了一种飞行策略,充分利用了莱维飞行随机游走特性,保持了飞行轨迹的随机性;
[0033]
(2)本发明充分挖掘了莱维飞行重要参数λ的作用,通过设置不同λ,控制飞行轨迹随机变化的增量,从而实现随机飞行轨迹一定程度的可控性;
[0034]
(3)通过引入深度强化学习调节莱维飞行的参数λ,实现飞行随机化的同时考虑多种限制因素的目的;
[0035]
(4)利用深度神经网络的特征提取能力,实现了对各种复杂异构信息的特征提取,使航天器能够综合各种信息做出决策。
附图说明
[0036]
图1为本发明系统方案的组成示意图;
[0037]
图2为特征提取网络结构;
[0038]
图3为策略网络结构;
[0039]
图4为评价网络结构。
具体实施方式
[0040]
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步详细描述。
[0041]
(1)基本组成
[0042]
一种航天器深度强化学习莱维飞行控制系统及方法,基本方案如图1所示,包括基于深度学习的特征提取模块、基于深度强化学习的自主规划模块、莱维飞行模块和航天器姿轨控模块。
[0043]
基于深度学习的特征提取模块由卷积网络和全连接网络组成,输入为追踪航天器状态,输出为特征,如图2所示;
[0044]
基于深度强化学习的自主规划模块由策略网络和评价网络三个部分组成。策略网络由长短时记忆网络组成,输入为特征,输出为轨道和姿态的莱维飞行参数,如图3所示;评价网络由长短时记忆网络组成,输入为特征,输出为q值和击中概率,如图4所示。
[0045]
莱维飞行模块包括姿态和轨道两种飞行控制方式,其中姿态飞行控制方式包括由偏航、俯仰、滚动三个通道组成、轨道飞行控制方式由x、y、z三个通道组成。每个通道均采用莱维飞行轨迹计算运动增量。
[0046][0047]
其中,x表示航天器6自由度位姿。
[0048]
航天器姿轨控模块包括轨道控制器和姿态控制器,分别以莱维飞行模块的输出作为期望轨迹,理论上可以采用任何轨道或姿态控制器实现对期望轨迹的跟踪控制。
[0049]
(2)reward函数设计
[0050]
reward函数要反应任务的目标及各种限制因素。因此,定义reward函数如下:
[0051]
r=k1hit
num
k2hit
part
k3hit
time
k4fuel。
[0052]
其中,hit
num
为威胁数量,hit
part
为威胁部位、hit
time
为威胁持续时间、为fuel燃料消耗。上述各物理量可根据不同对象具体设计。k1,k2,k3,k4为可调参数,表示上述各量在整个reward函数中的占比。
[0053]
(3)工作流程
[0054]
工作流程包括如下步骤:
[0055]
1)利用基于深度神经网络的特征提取系统,将航天器1的态势图像包括航天器1位置/姿态及其速度和角速度、航天器2位置/姿态及其速度和角速度、击中概率转变为特征。
[0056]
2)利用策略网络把特征转变为姿态和轨道飞行轨迹的莱维飞行参数,利用评价网络得到预测的q值和击中概率。
[0057]
3)利用莱维飞行公式,基于当前运动状态和策略网络的输出参数,计算下一时刻的速度增量,从而得到下一时刻的飞行轨迹。
[0058]
4)利用姿态和轨道控制器跟踪飞行轨迹,完成机动飞行。
[0059]
学习训练需要在数学仿真学习训练系统下完成,具体步骤如下:
[0060]
1)采样:
[0061]
基于上述步骤,设置k个模拟场景进行仿真,并收集数据;
[0062]
2)训练:
[0063]
基于ppo/trpo/ddpg等强化学习方法训练策略和利用监督学习方法训练评价网
络。
[0064]
本发明说明书中未作详细描述的内容属本领域技术人员的公知技术。
[0065]
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜