一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于强化学习的无人机传感器故障时容错控制方法与流程

2021-10-09 15:23:00 来源:中国专利 TAG:无人机 容错 控制 传感器 算法


1.本发明涉及一种基于强化学习算法的思想,实现了传感器故障时,对无人机容错控制的方法,属于无人机控制技术领域。


背景技术:

2.由于现代传感器的进步和日益提升的计算能力,自主飞行器越来越广泛地应用到各个领域,现已成为商业、政府和消费应用地重要工具。随着无人机不断扩大的任务能力,它们暴露在网络和物理攻击的攻击面也相应增加。这对无人机保障稳定性和性能的控制系统构成了重大威胁。如果针对无人机的物理组件发起攻击或者传感器由于外部环境恶劣引发故障,例如gps欺骗,或者使用声波使imu传感器产生共振,则常规的无人机控制方法已经无法有效保护无人机,无人机会出现性能不佳甚至完全失控进而损毁的恶劣情况。因此,无人机控制系统非常需要飞行恢复策略和传感器故障的容错控制能力。传统控制算法在无人机传感器故障时很难设计出鲁棒的容错控制规则。
3.传统容错控制需要设计一个故障检测和控制恢复规则,多个传感器故障复合控制规则十分复杂,并且设计不周时,会导致无人机出现控制延迟或者假阳性传感器故障,进而严重影响无人机效率。


技术实现要素:

4.发明目的:为了解决无人机传感器故障时的决策中模型不够稳定甚至导致无人机完全损毁的问题,本发明提出了一种基于强化学习的无人机传感器故障时容错控制方法。与传统的容错控制不同的是不需要额外设计一个故障检测和恢复规则,通过深度强化学习的方法将容错控制恢复策略与飞行策略直接融合。本发明在仿真环境中模拟无人机不同的传感器故障组合,同时,在强化学习策略与环境交互时,保证固定比例的无故障样本数据的存在,使得强化学习可以同时学习到传感器故障时和非故障时的飞行策略,使得无人机传感器故障时的容错控制更加鲁棒,高效。
5.技术方案:一种基于强化学习的无人机传感器故障时容错控制方法,测定无人机各项物理常数,搭建无人机环境模拟器,在训练时随机设置传感器故障干扰无人机控制并使用ddpg算法训练无人机控制策略模型,逐步增加无人机故障种类并将稳定表现的策略收集到容错控制策略候选池中,在仿真环境随机故障测试后,得到最优的容错控制策略;在推理阶段,对于训练好的策略模型,基于策略网络输出交给无人机执行。具体地,本发明包括以下步骤:
6.(1)对无人机的部件物理常数进行测量;
7.(2)基于所述测量的无人机的部件物理常数创建无人机仿真环境;
8.(3)使用强化学习策略网络的输出控制无人机与仿真环境交互,同时收集传感器故障和正常时的样本数据,并存储到经验池;
9.(4)使用经验池中的样本数据和ddpg算法对状态动作值函数网络以及策略网络进
行更新;
10.(5)重复执行步骤(3)到步骤(4)直到策略网络和状态动作值函数网络收敛,将策略网络和状态动作值函数网络参数作为候选策略,保存策略网络和状态动作值函数网络参数至策略候选池;
11.(6)逐步增加环境中传感器故障类型,重复步骤(5),直至达到预尝试次数阈值,得到最终策略网络候选池;
12.(7)进行仿真环境无人机传感器随机故障测试,取策略候选池中传感器故障时容错控制表现最佳的策略网络模型;
13.(8)在使用阶段,使用(7)中得到的策略网络的输出,来容错控制无人机的位置、速度、姿态。
14.所述(1)中,无人机的部件物理常量包括无人机螺旋桨推力、升力、阻力、质量、转动惯量矩阵、力矩系数,电机推力、阻力、转动惯量、响应时间、质量,以及机身质量,大小。
15.所述(2)中,所述创建无人机仿真环境包括:
16.(21)依据测量的无人机的部件物理常数建立无人机仿真模型;定义无人机的强化学习观测集合、动作集合、最大步长;设置无人机的起始点、目标点;传感器噪声类型共涉及2种物理量,分别为无人机位置信息和当前环境气压。设置无人机虚拟传感器噪声随机分布为标准正态分布,噪声添加的方式为在标准正态分布中采样后的值(无人机位置信息和当前环境气压)与上述2种物理量之和反馈给无人机传感器;传感器故障类型共涉及3种物理量,分别为电机转速、飞行姿态、陀螺仪角度。设置虚拟传感器故障随机分布为均匀分布,故障添加方式为上述三种物理量对应范围的均匀分布采样后得到的值反馈给无人机传感器。
17.(22)设置仿真环境中无人机的奖励函数为:
18.其中分母中各个λ为超参数,ω为机身角速度,r
θ
为翻滚角,p
θ
为俯仰角,y
θ
为偏摆角,d
tar
为无人机距目标点距离,δx表示无人机当前时刻与无人机稳定悬浮时物理量x的差值,∈
d
和∈
θ
表示一个较小的常量。当无人机稳定悬浮时,其奖励为
19.所述(3)中的收集样本数据包括:
20.(31)从策略候选池随机采样一个候选策略初始化状态动作值函数网络q
θ
(s
t
,a
t
)和策略网络μ
φ
(s
t
),当策略候选池为空时直接随机初始化;初始化重放经验池d,目标状态值函数网络q
θ

(s
t
,a
t
)=q
θ
(s
t
,a
t
)和目标策略网络μ
φ

(s
t
)=μ
φ
(s
t
),其中目标状态值函数网络和目标策略网络为无人机最终运行时的神经网络。
21.(32)在仿真环境中,设置仿真环境传感器随机故障模式,获得无人机观测到的初始状态s0。
22.(33)对于每个时间步,基于无人机当前观测到的状态s
t
,动作a
t
可以由下式得到:
23.a
t
=clip(μ
φ
(s
t
) ∈,a
low
,a
high
)
24.其中∈服从于均值为0的正态分布,a
low
为动作合法最小值,a
high
为动作合法的最大值,无人机在环境中执行动作a
t
,然后基于奖励函数获得奖励值r
t
,并获得无人机在环境中的当前状态s
t 1
,和状态终结信号d
t

25.(34)将样本{s
t
,a
t
,r
t
,s
t 1
,d
t
}加入经验池d;
26.(35)重复(33)~(34)直到经验池d大小为容量75%时,设置仿真环境为无故障模式,重复(33)~(34)直到经验池d填满。
27.所述(4)中,更新状态动作值函数网络和策略网络包括:
28.从重放经验池d采样n个样本(s
i
,a
i
,r
i
,s
i 1
,d
i
),基于梯度下降对状态动作值函数网络q
θ
(s
t
,a
t
)做如下更新:
[0029][0030]
其中,
[0031][0032]
y
i
=r
i
γ(1

d
i
)q
θ

(s
i 1
,μ
φ

(s
i 1
))
[0033]
λ
q
是状态动作值函数网络的更新步长;γ是折扣系数,值越大表示短期回报的权重越大。
[0034]
基于梯度下降对策略网络μ
φ
(s
t
)做如下更新:
[0035][0036]
使用状态动作值网络q
θ
(s
t
,a
t
)的参数θ和策略网络μ
φ
(s
t
)的参数φ分别对目标状态动作值函数网络q
θ

(s
t
,a
t
)的参数θ

和目标策略网络μ
φ

(s
t
)的参数φ

做软更新,
[0037]
φ

=τφ

(1

τ)φ
[0038]
θ

=tθ

(1

τ)θ。
[0039]
所述(6)中,逐步增加传感器故障类型直至得到最终策略候选池,包括:
[0040]
(61)收敛后的目标策略网络和目标状态动作值函数网络参数作为候选策略存入策略网络候选池之中;
[0041]
(62)增加传感器故障类型,从策略网络候选池采样得到候选策略,在此基础训练新的策略网络,若策略网络可以稳定收敛,则将其加入到策略候选池之中;
[0042]
(63)在尝试(62)到事先指定最大次数后,停止训练,并得到最终策略候选池。
[0043]
所述(7)中,取得策略候选池中传感器容错控制表现最佳的策略网络模型为:
[0044]
在仿真环境中随机设置传感器故障,对策略候选池中所有候选策略进行测试,多次测试后取得平均奖励最高的候选策略作为无人机策略网络模型。
[0045]
所述(4)中,更新完状态动作值函数网络、策略函数网络、目标策略函数网络和目标状态动作值函数网络以后,从重放经验池d中删除使用过的n个样本。对于每批含有n个样本的数据,重复执行(4)直到经验池为空或者剩余样本数不足n。
[0046]
一种计算机设备,该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述计算机程序时实现如上所述的基于强化学习的无人机传感器故障时容错控制方法。
[0047]
一种计算机可读存储介质,该计算机可读存储介质存储有执行如上所述的基于强化学习的无人机传感器故障时容错控制方法的计算机程序。
[0048]
与现有技术相比,本发明具有的益处有:
[0049]
1)本发明使用了深度强化学习算法中确定性策略梯度对无人机进行容错控制,相比于未使用容错训练的无人机强化学习控制方法鲁棒性更高,泛化性更强;相比于传统主动式规则式容错检测控制粒度更加精细,控制方法更加稳定。
[0050]
2)本发明使用容错控制策略候选池的训练方法,在保障策略在无人机传感器故障时稳定控制的同时避免从零开始训练,同时容易学习出对不同传感器复合故障的容错控制策略。
[0051]
3)本发明使用仿真传感器随机故障训练方法,能有效降低无人机受到攻击或者部分传感器故障时完全失灵的风险,同时保障无人机应用到现代化物流体系中的鲁棒性。
附图说明
[0052]
图1是本发明实施例的整体框架图;
[0053]
图2是本发明实施例的使用阶段框架图。
具体实施方式
[0054]
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本技术所附权利要求所限定的范围。
[0055]
基于强化学习的无人机传感器故障时容错控制方法,基于强化学习ddpg算法的思想,实现了在无人机传感器故障时,对无人机进行自主容错决策的训练。
[0056]
首先,强化学习可以用一个马尔科夫决策过程(mdp)表述,它是由四元组<s,a,p,r>所定义。其中,s表示状态空间,a表示动作空间,p表示未知的状态转移概率:s
×
s
×
a

[0,1],表示从当前状态和动作转移到下一个状态的概率,r表示在当前状态s
t
下执行动作a
t
收到的环境回报值。可以用ρ
μ
(s
t
)和ρ
μ
(s
t
,a
t
)分别表示状态以及状态动作对在遵循确定性策略μ(s
t
)下生成轨迹的分布。
[0057]
下面对深度确定性策略梯度(ddpg)算法做简单介绍。不同于随机性强化学习策略梯度方法,ddpg可以在最终策略部署时得到确定的动作输出,这在无人机这种物理动力系统基本确定的环境下,可以更好的进行决策控制。同时,ddpg是异策略强化学习方法,有更好的样本效率和探索效率。
[0058]
基于上述知识点以及发明内容中的步骤,下面对本发明实施例的具体实施细节做详细介绍。
[0059]
包括以下步骤:
[0060]
步骤一:测定无人机螺旋桨推力、升力、阻力、质量、转动惯量矩阵、力矩系数,电机推力、阻力、转动惯量、响应时间、质量。机身质量,大小。
[0061]
步骤二:依据测定无人机的物理常数建立无人机仿真环境;定义无人机的强化学习观测集合、动作集合和最大步长;设置无人机的起始点、目标点;传感器噪声类型共涉及2种物理量,分别为无人机位置信息和当前环境气压。设置无人机虚拟传感器噪声随机分布为标准正态分布,噪声添加的方式为在标准正态分布中采样后的值与上述2种物理量之和反馈给无人机传感器;传感器故障类型共涉及3种物理量,分别为电机转速、飞行姿态、陀螺仪角度。设置虚拟传感器故障随机分布为均匀分布,故障添加方式为上述三种物理量对应
范围的均匀分布采样后得到的值反馈给无人机传感器。设置仿真环境飞机奖励函数为:
[0062][0063]
其中分母中各个λ为超参数,ω为机身角速度,r
θ
为翻滚角,p
θ
为俯仰角,y
θ
为偏摆角,d
tar
为无人机距目标点距离,δx表示无人机当前时刻与无人机稳定悬浮时物理量x的差值,∈
d
和∈
θ
表示一个较小的常量。
[0064]
步骤三:从策略候选池随机采样一个候选策略初始化状态动作值函数网络q
θ
(s
t
,a
t
)、策略网络μ
φ
(s
t
),当策略候选池为空时直接随机初始化;这里状态动作值函数网络使用隐层神经元个数为256,共计4层,策略网络隐层神经元个数为128,共计4层;初始化重放经验池d大小为10000,目标状态值函数网络q
θ

(s
t
,a
t
)=q
θ
(s
t
,a
t
)和目标策略网络μ
φ

(s
t
)=μ
φ
(s
t
),其中目标状态值函数网络和目标策略网络为无人机最终运行时的神经网络;在仿真环境中,设置仿真环境传感器随机故障模式,获得无人机观测到的初始状态s0;
[0065]
步骤四:对于每个时间步,基于无人机当前观测到的状态s
t
从策略网络输出和服从均值为0的正态分布的随机变量∈的和μ
φ
(s
t
) ∈获得动作a
t
,无人机在环境中执行动作a
t
,然后基于奖励机制获得奖励值r
t
,并获得无人机在环境中的当前状态s
t 1
,是否为终结状态信号d
t

[0066]
步骤五:将样本{(s
t
,a
t
,r
t
,s
t 1
,d
t
)}加入经验池d;
[0067]
步骤六:重复步骤四和步骤五直到经验池d大小为容量75%时,即传感器故障样本数为7500条时,此时设置仿真环境为无故障模式,重复步骤四和步骤五直到经验池d填满;
[0068]
步骤七:从重放经验池d采样512条样本(s
i
,a
i
,r
i
,s
i 1
,d
i
),基于梯度下降对状态值函数网络q
θ
(s
t
,a
t
)做如下更新:
[0069][0070]
其中,
[0071][0072]
y
i
=r
i
γ(1

d
i
)q
θ

(s
i 1
,μ
φ

(s
i 1
))
[0073]
λ
q
是状态值函数网络的更新步长,γ是折扣系数,值越大表示短期回报的权重越大。
[0074]
基于梯度下降对策略网络μ
φ
(s
t
)做如下更新:
[0075][0076]
使用状态动作值网络q
θ
(s
t
,a
t
)的参数θ和策略网络μ
φ
(s
t
)的参数φ分别对目标状态动作值函数网络q
θ

(s
t
,a
t
)的参数θ

和目标策略网络μ
φ

(s
t
)的参数φ

做软更新,
[0077]
φ

=τφ

(1

τ)φ
[0078]
θ

=τθ

(1

τ)θ
[0079]
最后从缓冲区d中删除这512条样本;
[0080]
步骤八:对于每个小批量样本,重复执行步骤七直到缓冲区为空或者剩余样本数不足512条;
[0081]
步骤九:重复执行步骤三到步骤八直到目标状态动作值函数网络q
θ

(s
t
,a
t
)和目标策略网络μ
φ

(s
t
)收敛;将其加入到策略网络候选池之中;在扩充策略候选池过程中,增加传感器故障类型,重复步骤三到步骤八t次,得到最终策略候选池c
p

[0082]
步骤十:设置仿真环境传感器随机故障模式,对最终策略候选池c
p
中的所有策略进行测试;
[0083]
步骤十一:重复步骤十m次,得到平均奖励最大的容错控制策略;
[0084]
步骤十二:使用训练好的策略网络μ
φ
(s
t
)对无人机做决策。对于当前观测到的状态s
t
,有动作a
t
=μ
φ
(s
t
),对无人机执行动作a
t
,与环境交互。
[0085]
显然,本领域的技术人员应该明白,上述的本发明实施例的基于强化学习的无人机传感器故障时容错控制方法各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜