一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种USV无人艇路径规划模型的构建方法及应用

2022-08-28 00:27:46 来源:中国专利 TAG:

一种usv无人艇路径规划模型的构建方法及应用
技术领域
1.本发明属于无人艇路径规划技术领域,更具体地,涉及一种usv无人艇路径规划模型的构建方法及应用。


背景技术:

2.无人水面艇(unmanned surface vessel,简称usv),是一种无人操作的水面舰艇。由于其灵活自上个世纪以来就受到了广泛的关注与研究。但是当时的无人艇由于技术限制,也只能执行一些简单的任务,并没有引起巨大关注。近年来随着人工智能技术的兴起,无人船的控制决策技术得到了很大的提升,配合通信技术以及制造工艺的发展,无人船usv已经可以执行更加复杂的任务。虽然无人艇需要完成多种任务,但导航能力和避障能力是它们应该具备的两项基本能力,因此研究一种usv无人艇路径规划方法存在重要意义。
3.传统usv无人艇路径规划方法中往往将基于数学分析的模型用于无人艇控制,例如基于启发式算法优化的线性化模型,基于扩展卡尔曼滤波器(ekf)、搜索求和势场的融合模型等,但是当环境极其复杂或发生变化时,由于它们无法考虑足够多的情况,也不具有学习的能力而变化控制策略,这些传统模型经常无法满足系统控制要求。
4.随着人工智能快速发展,越来越多的研究聚焦于通过机器学习(ml)方法进行无人艇(usv)控制,与传统方法相比,它克服了可用性问题。强化学习(reinforcement learning)作为机器学习的一个分支,描述了智能体通过与环境交互的方式学习的过程,近年来被频繁地应用于无人艇相关的控制策略设计中。但是,usv控制的强化学习模型往往具有复杂的状态和动作空间以及稀疏的奖励,并采用超大规模的神经网络做状态的感知和动作的决策,需要足够多的训练时间,其参数量巨大的网络才能达到近似收敛,虽然也有一部分模型控制了网络规模,但是它们通常仅假设了十分简单的仿真环境,与现实环境相差很多而无法在真实环境中使用。另外,由于强化学习算法模型对于无人艇模型存在适配性问题,需要通过自己建模,搭建仿真环境,修改算法模型来适配无人艇的动作及状态空间,且其用以指导模型收敛到总收益最大的奖励函数往往难以量化表示,并且存在稀疏奖励环境问题,从而导致agent智能体学习缓慢甚至会学习到并非我们期望的行为,因此现有的算法往往很难在较少的训练次数下规划出非常安全高效的路径,因此难以部署到实机模型上。


技术实现要素:

5.针对现有技术的以上缺陷或改进需求,本发明提供了一种usv无人艇路径规划模型的构建方法及应用,用以解决现有无法在真实环境下进行安全高效的导航的技术问题。
6.为了实现上述目的,第一方面,本发明提供了一种usv无人艇路径规划模型的构建方法,包括:
7.s1、基于ddqn网络搭建usv无人艇路径规划模型,包括:状态空间、动作空间和奖励函数;状态空间包括无人艇的状态观测值,具体包括无人艇的位置状态信息、航向误差和无人艇周围的障碍物距离信息;动作空间包括:单位时间内的无人艇的行进动作指令;奖励函
数用于基于下一时刻下无人艇的状态观测值,计算当前时刻下所选取的行进动作指令的反馈值,以对无人艇当前时刻的动作决策进行奖惩评估;
8.上述usv无人艇路径规划模型用于根据当前时刻无人艇的状态观测值获取当前时刻无人艇的行进动作指令,以实时控制无人艇的运动;
9.s2、在无人艇从起始位置到目标位置的运动过程中,采集每一时刻下所得的数据样本,并存储在经验回放池中;其中,第j个时刻下所得的数据样本的采集过程包括:将第j个时刻下无人艇的状态观测值sj输入到上述usv无人艇路径规划模型中得到第j个时刻下无人艇的行进动作指令aj,从而得到第j 1个时刻下无人艇的状态观测值s
j 1
,并将状态观测值s
j 1
带入上述奖励函数中计算得到行进动作指令aj所对应的奖励rj;将sj、aj、rj和s
j 1
组成的四元数作为第j个时刻下所得的数据样本,记为(sj,aj,rj,s
j 1
);
10.s3、从经验回放池抽取数据样本构成训练样本集,并输入至usv无人艇路径规划模型中,基于ddqn算法进行训练。
11.进一步优选地,上述奖励函数为:
[0012][0013][0014][0015][0016][0017][0018]
其中,λ
col
为碰撞影响因子;λ
dis
为目的地距离影响因子;λ
obs_dis
为障碍物距离影响因子;λ
speed
为行进速度影响因子;λ
yaw
为偏航影响因子;p
knock
为预设碰撞惩罚值,为负数;dist
j 1
为第j 1个时刻下无人艇与最近障碍物之间的距离;dist
safe
为预设安全距离;(x
j 1
,y
j 1
)为第j 1个时刻下无人艇的坐标;(xd,yd)为目标位置的坐标;n为无人艇周围的障碍物数量;为第j 1个时刻下无人艇周围的第i个障碍物的坐标;为第j 1个时刻下无人艇的浪涌速度;为第j 1个时刻下无人艇的航向误差。
[0019]
进一步优选地,的计算公式为:其中,ψ
j 1
为第j 1个时刻下usv无人艇的方位。
[0020]
进一步优选地,无人艇的行进动作指令aj包括:浪涌速度指令和偏航速度指令
[0021]
上述usv无人艇路径规划模型包括并联的第一ddqn网络和第二ddqn网络。
[0022]
进一步优选地,上述步骤s3包括:
[0023]
s31、从经验回放池抽取数据样本,并分别将所抽取的各数据样本划分为第一子训
练样本和第二子训练样本;
[0024]
其中,对所抽取的数据样本(sj,aj,rj,s
j 1
)进行划分方法包括:根据行进动作指令aj的类型将数据样本(sj,aj,rj,s
j 1
)划分为第一子训练样本和第二子训练样本
[0025]
s32、同时将第一子训练样本输入至第一ddqn网络中,第二子训练样本输入至第二ddqn网络中进行训练。
[0026]
进一步优选地,无人艇的行进动作指令aj包括:浪涌速度指令偏航速度指令和摇摆速度指令
[0027]
上述usv无人艇路径规划模型包括并联的第一ddqn网络、第二ddqn网络和第三ddqn网络。
[0028]
进一步优选地,上述步骤s3包括:
[0029]
s31、从经验回放池抽取数据样本,并分别将所抽取的各数据样本划分为第一子训练样本、第二子训练样本以及第三子训练样本;
[0030]
其中,对所抽取的数据样本(sj,aj,rj,s
j 1
)进行划分方法包括:根据行进动作指令aj的类型将数据样本(sj,aj,rj,s
j 1
)划分为第一子训练样本第二子训练样本和第三子训练样本
[0031]
s32、同时将第一子训练样本输入至第一ddqn网络中,第二子训练样本输入至第二ddqn网络中,第三子训练样本输入至第三ddqn网络中进行训练。
[0032]
第二方面,本发明提供了一种usv无人艇路径规划方法,包括:
[0033]
将实时采集的无人艇的状态观测值输入至采用本发明第一方面所提供的usv无人艇路径规划模型的构建方法所构建的usv无人艇路径规划模型中,得到当前时刻无人艇的行进动作指令,以实时控制无人艇的运动;其中,上述无人艇的状态观测值包括:无人艇的位置状态信息、航向误差和无人艇周围的障碍物距离信息。
[0034]
第三方面,本发明提供了一种usv无人艇路径规划系统,包括:存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时执行本发明第二方面所提供的usv无人艇路径规划方法。
[0035]
第四方面,本发明提供了一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现本发明第一方面所提供的usv无人艇路径规划模型的构建方法和/或本发明第二方面所提供的usv无人艇路径规划方法。
[0036]
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
[0037]
1、本发明提供了一种usv无人艇路径规划模型的构建方法,基于ddqn网络搭建了usv无人艇路径规划模型,以根据从无人艇中的观察到的连续状态做出决策;其中,模型的状态空间包括无人艇的状态观测值,即无人艇的位置状态信息、航向误差和无人艇周围的障碍物距离信息;本发明基于无人艇的状态观测值对奖励函数进行塑形,充分考虑了无人艇周围障碍物所带来的影响,有效地解决了无人艇在未知且带障碍环境下的路径规划及避
障问题,显著提升了模型训练时的收敛性和稳定性,能够在真实环境下实现安全高效的导航。
[0038]
2、本发明所提供的usv无人艇路径规划模型的构建方法,基于先验知识设计了一种引入速度收益、距离障碍物的势和航行误差的奖励函数,不仅有效提高了模型的精确度,还显著地加速了训练过程中模型的收敛,大大减小了训练过程中所需的数据和时间,大大提高了模型的稳定性和泛化性,解决了在稀疏奖励环境下难以收敛的问题;与此同时,本发明采用经验回放机制,大大提升了样本的利用率,提升了模型训练过程中的探索效率。
[0039]
3、由于前进和转向两个动作的取值范围差异较大,本发明所提供的usv无人艇路径规划模型的构建方法,采用了多个ddqn网络来分别进行迭代训练,以防止训练过程中由于参数取值的范围差异过大所带来的串扰问题,大大提高了模型的精确度。
附图说明
[0040]
图1为本发明实施例1提供的usv无人艇路径规划模型的构建方法的流程图;
[0041]
图2为本发明实施例1提供的usv无人艇在地球固定参考系中的位置和方位示意图;
[0042]
图3为在可选实施方式二下强化学习与usv控制各部分的对应关系示意图;
[0043]
图4为在可选实施方式二下基于ddqn算法根据从无人艇中的传感器观察到的连续状态做出决策的整个算法流程图;
[0044]
图5为本发明实施例1提供的usv无人艇路径规划模型的训练过程中所得的训练奖励曲线示意图;
[0045]
图6为本发明实施例1提供的没有使用奖励塑形的训练奖励曲线示意图;
[0046]
图7为采用本发明实施例2所提供的usv无人艇路径规划方法的寻路与避障效果示意图。
具体实施方式
[0047]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
[0048]
实施例1、
[0049]
一种usv无人艇路径规划模型的构建方法,如图1所示,包括:
[0050]
s1、基于ddqn网络搭建usv无人艇路径规划模型,包括:状态空间、动作空间和奖励函数;
[0051]
具体地,对于usv无人艇的控制模型,考虑usv在一个平面上的运动。其可以漂浮并由其动力系统推动在海面上移动。此外,usv的运动被限制在一个固定范围(对应到现实生活如一个湖泊或海洋),其中存在一些障碍物和无人艇完成任务的目的地。
[0052]
基于此,状态空间包括无人艇的状态观测值,具体包括无人艇的位置状态信息、航向误差和无人艇周围的障碍物距离信息,通过装配在无人艇上的传感器获取上述信息;
[0053]
具体地,如图2所示,usv无人艇在地球固定参考系中的位置和方位可以用向量η=
[x,y,ψ]
t
的坐标表示,其中(x,y)为usv无人艇的横坐标和纵坐标,ψ为usv无人艇的方位。
[0054]
航向误差表示如下:
[0055]ae
=|ψ-arctan(y
d-y,x
d-x)|
[0056]
其中,xd和yd为目标位置的横坐标和纵坐标。可以采用c语言、python等编程软件进行计算,此时上述arctan表示为atan2。
[0057]
无人艇周围的障碍物距离信息包括:从usv无人艇主体到覆盖一个半圆的n个方向上最近的障碍物的距离;其中,n为正整数,本实施例中取值为10,此时,无人艇周围的障碍物距离信息为一个10维向量。
[0058]
动作空间包括:单位时间内的无人艇的行进动作指令;具体地,在一种可选实施方式一下,在三自由度模型中,usv可以做浪涌、摇摆和偏航的运动,其行进动作指令用一个三维向量v=[v
thrusting
,v
shaking
,v
yaw
]来表示;其中,v
thrusting
为浪涌速度指令,v
shaking
为摇摆速度指令,v
yaw
为偏航速度指令。而由于一般情况下,usv无人艇是在水平面上运动的,因此可以忽略摇摆速度,仅利用其中的浪涌速度指令和偏航速度指令即可完全控制usv无人艇。因此,在另一种可选实施方式二下,无人艇的行进动作指令aj包括:浪涌速度指令和偏航速度指令
[0059]
奖励函数用于基于下一时刻下无人艇的状态观测值计算当前时刻下所选取的行进动作指令的反馈值,以对无人艇当前时刻的动作决策进行奖惩评估。对于导航和避障问题,本发明在碰撞惩罚和寻路跟踪奖惩的基础上,通过引入速度收益、距离障碍物的势和航行误差来对无人艇进行奖惩,不仅能够提高模型的精确度,还大大减小了训练过程中所需的数据和时间,稳定性和泛化性均较强。
[0060]
具体地,上述奖励函数为:
[0061][0062][0063][0064][0065][0066][0067]
其中,λ
col
为碰撞影响因子;为第j 1个时刻下无人艇发生碰撞的惩罚值;λ
dis
为目的地距离影响因子;为第j 1个时刻下无人艇与目标位置之间的距离所对应的惩罚值;λ
obs_dis
为障碍物距离影响因子;为第j 1个时刻下无人艇与障碍物之间的距离所对应的奖励值;λ
speed
为行进速度影响因子;为第j 1个时刻下无人艇的速度收益;λ
yaw
为偏航影响因子;为第j 1个时刻下无人艇的偏航奖励;p
knock
为预设碰撞惩罚值,为负
数,本实施例中取值为-100;dist
j 1
为第j 1个时刻下无人艇与最近障碍物之间的距离;dist
safe
为预设安全距离,本实施例中取值为1m;(x
j 1
,y
j 1
)为第j 1个时刻下无人艇的坐标;(xd,yd)为目标位置的坐标;n为无人艇周围的障碍物数量;为第j 1个时刻下无人艇周围的第i个障碍物的坐标;为第j 1个时刻下无人艇的浪涌速度;为第j 1个时刻下无人艇的航向误差。
[0068]
需要说明的是,本实施例中,λ
col
、λ
dis
、λ
obs_dis
、λ
speed
和λ
yaw
均为预设值,分别取值为1,3,1,20,10。
[0069]
需要说明的是,在usv导航与避障任务中,一般情况下,奖励只会在碰撞和到达终点后给出,是十分稀疏的,而这样稀疏的奖励会大大妨碍模型的收敛,因此为了更快和稳定的得到收敛模型,根据奖励塑形的原则,塑形后的奖励需要有利于训练,同时不能改变每个状态原来的势,即维护每个状态的奖励值的相对大小;本发明在考虑到碰撞因素和与目的地之间的距离因素的基础上,进一步加入了与周围障碍物的距离因素、速度因素以及偏航因素,实现了奖励塑形,大大加速了算法的收敛速度并提高了性能,解决了在稀疏奖励环境下模型的训练难以收敛的问题。
[0070]
由于现有的基于强化学习方法来进行usv无人艇路径规划的模型大都着重从算法模型结构方面进行改进,但更复杂的模型训练所需要的时间以及性能要求对于实际部署提出了更大的要求,本发明基于先验知识设计了上述奖励函数,以加速算法的收敛并提高性能,解决在稀疏奖励环境下难以收敛的问题,提升样本利用率,加快收敛速度,可有效解决无人艇在未知且带障碍环境下的路径规划及避障问题。
[0071]
s2、在无人艇从起始位置到目标位置的运动过程中,采集每一时刻下所得的数据样本,并存储在经验回放池中;其中,第j个时刻下所得的数据样本的采集过程包括:将第j个时刻下无人艇的状态观测值sj输入到上述usv无人艇路径规划模型中得到第j个时刻下无人艇的行进动作指令aj,从而得到第j 1个时刻下无人艇的状态观测值s
j 1
,并将状态观测值s
j 1
带入上述奖励函数中计算得到行进动作指令aj所对应的奖励rj;将sj、aj、rj和s
j 1
组成的四元数作为第j个时刻下所得的数据样本,记为(sj,aj,rj,s
j 1
);
[0072]
需要说明的是,在无人艇从起始位置到目标位置的运动过程中,若走出环境边界或者碰到障碍物,则无人艇重新回到起始位置重新再向目标位置行进。
[0073]
s3、从经验回放池抽取数据样本构成训练样本集,并输入至usv无人艇路径规划模型中,基于ddqn算法进行训练,所得的usv无人艇路径规划模型用于根据当前时刻无人艇的状态观测值获取当前时刻无人艇的行进动作指令,以实时控制无人艇的运动。
[0074]
具体地,在usv无人艇行动探索环境的过程中,用状态观测值、行进动作指令和奖励函数的值更新改进的usv无人艇路径规划模型中的网络参数。本发明采用ddqn算法作为基础算法,分别有两个q网络进行状态-动作评判。本实施例从经验回放池中抽取一组数据样本进行训练,根据梯度更新网络参数,并进行下一步动作的决策;重复上述过程,共抽取m组数据样本进行训练,在本次任务中,经验回放池大小设为20000,且m取值为128。且在训练过程中,同样会按照步骤s2的方式产生数据样本,同样将产生的数据样本存储在经验回放池中;需要说明的是,经验回放池的容量为预设容量,当经验回放池待存储的数据样本的容量超出预设容量时,将最先存储的若干数据样本从经验回放池中移除。
[0075]
经过上述训练,使得基于奖励函数计算出来的一个episode的总收益最大,其中,从起始位置到目标位置或者没到终点但是超过限定时间记为一个episode。
[0076]
需要说明的是,传统的q-learning根据bellman迭代式用q函数输出的值和reward组成迭代目标后,用来更新q函数,但是更新后的q函数对原目标的估计就改变了,导致迭代出现误差,可能导致最后结果的崩溃,而本发明所采用的ddqn算法使用了决策网络和目标网络两个网络来进行迭代,先固定一个网络作为迭代目标,另一个用来迭代,一段episodes后使二者相等以避免上述问题,两个网络在足够多的优化后都会逼近目标。
[0077]
具体地,在上述可选实施方式一下,由于未忽略摇摆速度,上述无人艇的行进动作指令aj包括:浪涌速度指令偏航速度指令和摇摆速度指令由于各动作的取值范围差异较大,本发明分别采用三个ddqn网络来进行迭代训练,以防止训练过程中由于参数取值的范围差异过大所带来的串扰问题,以提高模型的精确度;此时,上述usv无人艇路径规划模型包括并联的第一ddqn网络、第二ddqn网络和第三ddqn网络。
[0078]
上述步骤s3包括:
[0079]
s31、从经验回放池抽取数据样本,并分别将所抽取的各数据样本划分为第一子训练样本、第二子训练样本以及第三子训练样本;
[0080]
其中,对所抽取的数据样本(sj,aj,rj,s
j 1
)进行划分方法包括:根据行进动作指令aj的类型将数据样本(sj,aj,rj,s
j 1
)划分为第一子训练样本第二子训练样本和第三子训练样本
[0081]
s32、同时将第一子训练样本输入至第一ddqn网络中,将第二子训练样本输入至第二ddqn网络中,将第三子训练样本输入至第三ddqn网络中进行训练。
[0082]
在上述的另一种可选实施方式二下,忽略掉摇摆速度,无人艇的行进动作指令aj包括:浪涌速度指令和偏航速度指令由于前进和转向两个动作的取值范围差异较大,本发明分别采用两个ddqn网络来进行迭代训练,以防止训练过程中由于参数取值的范围差异过大所带来的串扰问题,以提高模型的精确度;此时,上述usv无人艇路径规划模型包括并联的第一ddqn网络和第二ddqn网络。
[0083]
上述步骤s3包括:
[0084]
s31、从经验回放池抽取数据样本,并分别将所抽取的各数据样本划分为第一子训练样本和第二子训练样本;
[0085]
其中,对所抽取的数据样本(sj,aj,rj,s
j 1
)进行划分方法包括:根据行进动作指令aj的类型将数据样本(sj,aj,rj,s
j 1
)划分为第一子训练样本和第二子训练样本
[0086]
s32、同时将第一子训练样本输入至第一ddqn网络中,将第二子训练样本输入至第二ddqn网络中进行训练。
[0087]
具体地,在可选实施方式二下,强化学习与usv控制各部分的对应关系如图3所示,基于ddqn算法根据从无人艇中的传感器观察到的连续状态做出决策的整个算法流程如图4所示。其中,第一ddqn网络包括行进决策网络和行进目标网络;第二ddqn网络包括转向决策
网络和转向目标网络。
[0088]
需要说明的是,usv无人艇在行进过程中,将速度指令转换为力向量来控制自身的运动状态。在力向量τ=[τ
thrusting

shaking

yaw
]中,三个力可以由向量δf=[δf
thrusting
,δf
shaking
,δf
yaw
]表示三个控制命令控制,向量δf基于速度差值计算得到。在忽略掉摇摆速度的情况下,向量δf可以简化为δf=[δf
thrusting
,0,δf
yaw
]。因此,动态系统的力变化为:
[0089][0090]
τ
yaw
(t)=τ
yaw
(t-1) δf
yaw
[0091]
其中,τ
thrusting
限制在{0,14}范围内,τ
yaw
限制在范围内。
[0092]
需要说明的是,上述ddqn网络包括决策网络和目标网络;决策网络和目标网络分别包括五个部分,分别是input层、fc1层、fc2层、fc3层和output层;这五个部分全为线性全连接层,input层为输入层,采用relu函数作为激活函数;fc1层、fc2层和fc3层为隐藏层,采用relu函数作为激活函数;output层为输出层。具体地,决策网络的output层输出当前时刻无人艇的行进动作指令;目标网络的output层输出对应的q值。对于网络的具体参数,本发明不做特殊限定,合理即可。
[0093]
进一步地,本发明所提供的usv无人艇路径规划模型的训练过程中所得的训练奖励曲线如图5所示;而没有使用奖励塑形的训练奖励曲线示意图如图6所示;根据图6可以看出,没有使用奖励塑形(即仅考虑碰撞和寻路跟踪的奖励函数)的训练过程在经过500次迭代之后仍在震荡不稳定的状态中,而本发明所得的奖励曲线稳步上升并逐步收敛到较高的水平,说明本发明所提供的奖励塑形的设计对于收敛速度起到了很大的作用。
[0094]
进一步地,如图7所示为采用本发明所提供的usv无人艇路径规划模型最终规划出的避障路径;其中,圆点表示障碍物,虚线表示不考虑避障时从起始位置到目标位置的最短距离,实线表示采用本发明所提供的usv无人艇路径规划方法考虑避障时从起始位置到目标位置所得的路径。结合图5和图7可以看出,经过500次训练后,算法模型大致可以实现收敛并且稳定在较好的奖励水平,对应到规划出的路径,即在实现避障的同时尽可能快速地到达目的地。
[0095]
综上所述,本发明提供了一种基于深度强化学习的usv路径规划及避障控制决策方法,使用双深度q网络(ddqn)算法根据从无人艇中的传感器观察到的连续状态做出决策,基于先验知识设计了一种新的奖励函数,通过q值选择执行动作,并采用经验回放机制以充分利用样本,大大提升了探索效率。
[0096]
实施例2、
[0097]
一种usv无人艇路径规划方法,包括:
[0098]
将实时采集的无人艇的状态观测值输入至采用本发明实施例1所提供的usv无人艇路径规划模型的构建方法所构建的usv无人艇路径规划模型中,得到当前时刻无人艇的行进动作指令,以实时控制无人艇的运动;其中,上述无人艇的状态观测值包括:无人艇的位置状态信息、航向误差和无人艇周围的障碍物距离信息。
[0099]
具体地,从如图7所示的usv无人艇路径规划方法的寻路与避障效果示意图可以看
出,usv无人艇可以在避开所有障碍物的前提下规划处一条尽可能离目的地距离更短更快速的路径,由此可知本发明能够实现安全高效的导航。
[0100]
相关技术方案同实施例1,这里不做赘述。
[0101]
实施例3、
[0102]
一种usv无人艇路径规划系统,包括:存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时执行本发明实施例2所提供的usv无人艇路径规划方法。
[0103]
相关技术方案同实施例2,这里不做赘述。
[0104]
实施例4、
[0105]
一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现本发明实施例1所提供的usv无人艇路径规划模型的构建方法和/或本发明实施例2所提供的usv无人艇路径规划方法。
[0106]
相关技术方案同实施例1和实施例2,这里不做赘述。
[0107]
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献