一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种封闭场景下SLAM自主导航识别方法与流程

2022-06-05 15:05:27 来源:中国专利 TAG:

一种封闭场景下slam自主导航识别方法
技术领域
1.本发明属于图像处理技术领域,具体涉及一种封闭场景下slam自主导航识别方法。


背景技术:

2.视觉同步定位与建图(simultaneous localization and mapping,slam)是指在没有先验信息的情况下,利用搭载在机器人上的视觉传感器感知周围环境,在运动过程中建立环境模型,同时估计自身定位的技术。
3.目前的视觉slam方法通常是基于静态假设,即在整个视觉slam过程中,默认环境中的物体处于静止状态。但实际应用环境大多数为动态环境,存在动态物体,例如行走的人、行驶的汽车等,这些动态物体影响建图的准确性。


技术实现要素:

4.本发明针对上述目前的视觉slam方法通常是基于静态假设的问题,提供了一种封闭场景下slam自主导航识别方法。
5.为了达到上述目的,本发明采用的技术方案为:一种封闭场景下slam自主导航识别方法,包括以下步骤:
6.步骤一外部环境数据获取,自主机器人通过自身的相机获取外部环境数据;
7.步骤二特征检测,将获取的外部环境数据输入到slam特征提取模块中,slam特征提取模块中利用vision transformer模型实现对外部环境中各物体的语义检测,同时提取各物体的特征;
8.步骤三数据关联,slam数据关联模块对不同帧之中图像的共同特征进行追踪,通过帧与帧之间的相关性聚类来实现相同特征匹配,进而判断物体的移动情况;
9.步骤四回环检测:slam回环检测模块判断自主机器人的运动轨迹是否形成了一个回环;如果检测到发生回环,将回环信息提供给后端优化模块进行处理;
10.步骤五后端优化和建图:后端优化模块不停地接收相机拍摄的图像并计算相邻帧的相机位姿以及接收回环信息,优化数据关联中产生的累积误差,同时生成全局的运动轨迹和周围环境的感知地图。
11.作为优选,封闭场景下物体数目固定,所述步骤二特征检测中相机拍摄的每一帧中的特征向量数量固定并记为m个,每一帧中的m个特征向量记为{f1,f2,...,fm}。
12.作为优选,所述步骤三数据关联中,将n帧中的m个特征,共n*m个特征向量一起输入到k-means聚类算法中进行迭代计算,计算结果将相同特征向量归入同一簇,将不相同特征向量归到相应簇,实现相同特征匹配,从而自主机器人在移动状态下准确识别封闭环境内的各物体,进而判断自身的移动情况。
13.作为优选,所述k-means的迭代计算过程如下:
14.(1)设定簇值k,选取k个簇中心并且初始化,记为η1,η2,...,ηk;
15.(2)定义其损失函数j(k,η)为各个特征向量距离所属簇中心点的平方误差和:
[0016][0017]
其中k为封闭环境中物体的数量;i为计数变量;fi表示n*m个特征向量中的第i个特征向量,ki表示fi所属的簇,表示簇对应的中心点;
[0018]
(3)对每一个特征向量fi,将其分配到最近的簇;
[0019][0020]
arg min表示使目标函数取最小值时的变量值;
[0021]
(4)对每一个簇ki,重新计算该簇的中心
[0022][0023]
(5)设置迭代步数,重复(3)和(4)直到收敛;输出最终的簇中心和k个聚类划分。
[0024]
作为优选,步骤一中所述相机包括单目相机、双目相机和rgb-d相机的一种或组合;所述自主机器人还带有激光测距单元。
[0025]
作为优选,所述步骤二特征检测中还定位各个物体在每一帧中的位置信息。
[0026]
与现有技术相比,本发明的优点和积极效果在于:
[0027]
(1)本发明的封闭场景下slam自主导航识别方法通过帧与帧之间的相关性聚类来实现相同特征匹配,进而判断物体的移动情况;聚类匹配相比于现有slam中数据关联方法具有更强的实用性,聚类匹配的效果并不会被各种复杂的场景影响;
[0028]
(2)步骤三数据关联中,将n帧中的m个特征,共n*m个特征向量一起输入到k-means聚类算法中进行迭代计算,计算结果将相同特征向量归入同一簇,将不相同特征向量归到相应簇,实现相同特征匹配,进而判断物体的移动情况;计算简单,能够嵌入到多种系统中进行特征匹配,非常适合动态环境下的视觉slam。
附图说明
[0029]
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,图1为实施例1提供的封闭场景下slam自主导航识别方法的示意图。
具体实施方式
[0030]
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和实施例对本发明做进一步说明。
[0031]
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开说明书的具体实施例的限制。
[0032]
实施例1
[0033]
下面结合附图1对本发明作进一步的描述,一种封闭场景下slam自主导航识别方法,包括以下步骤:
[0034]
步骤一外部环境数据获取,自主机器人通过自身的相机获取外部环境数据;
[0035]
步骤二特征检测,将获取的外部环境数据输入到slam特征提取模块中,slam特征
提取模块中利用vision transformer模型实现对外部环境中各物体的语义检测,同时提取各物体的特征;
[0036]
步骤三数据关联,slam数据关联模块对不同帧之中图像的共同特征进行追踪,通过帧与帧之间的相关性聚类来实现相同特征匹配,进而判断物体的移动情况;对于匹配成功的特征,自主机器人的控制器通过自主机器人与特征之间的距离来更正当前所处位置。同时,对于不同帧中的同一个特征(处于周围环境中),自主机器人的控制器计算前后与其距离差值,来判断自主机器人的实时运动状态;
[0037]
步骤四回环检测:slam回环检测模块判断自主机器人的运动轨迹是否形成了一个回环(自主机器人到某一物体的距离与上一次相同时);如果检测到发生回环,将回环信息提供给后端优化模块进行处理;
[0038]
步骤五后端优化和建图:后端优化模块不停地接收相机拍摄的图像并计算相邻帧的相机位姿(利用slam中的视觉里程计模块)以及接收回环信息,优化数据关联中产生的累积误差,同时生成全局的运动轨迹和周围环境的感知地图。
[0039]
自主机器人是其本体自带各种必要的传感器、控制器和测距单元(本实施例中为激光测距单元),在运行过程中无外界人为信息输入和控制的条件下,可以独立完成一定的任务的机器人。
[0040]
各物体的语义检测是检测出图像中各物体的具体内容,比如给出一个人骑摩托车的照片,语义检测后应当区分出人和摩托车。
[0041]
利用vision transformer模型实现对外部环境中各物体的语义检测,同时提取各物体的特征:vision transformer(vit)将纯transformer架构直接应用到一系列图像块上进行分类任务,可以取得优异的结果。它在许多图像分类任务上也优于最先进的卷积网络,同时所需的预训练计算资源大大减少(至少减少了4倍)。
[0042]
封闭场景下物体数目固定(本实施例中为10个),所述步骤二特征检测中相机拍摄的每一帧中的特征向量数量固定并设为m个,每一帧中的m个特征向量记为{f1,f2,...,fm}。
[0043]
所述步骤三数据关联中,将n帧中的m个特征,共n*m个特征向量一起输入到k-means聚类算法中进行迭代计算,计算结果将相同特征向量归入同一簇,将不相同特征向量归到相应簇,实现相同特征匹配,进而判断物体的移动情况。
[0044]
所述k-means的迭代计算过程如下:
[0045]
(1)设定簇值k=10,选取k个簇中心并且初始化,记为η1,η2,...,ηk;
[0046]
(2)定义其损失函数j(k,η)为各个特征向量距离所属簇中心点的平方误差和:
[0047][0048]
其中k为封闭环境中物体的数量;i为计数变量;fi表示n*m个特征向量中的第i个特征向量,ki表示fi所属的簇,表示簇对应的中心点;
[0049]
(3)对每一个特征向量fi,将其分配到最近的簇;将特征向量按照最小距离(到某簇中心点距离最小)原则进行聚类;
[0050][0051]
arg min表示使目标函数取最小值时的变量值;
[0052]
(4)对每一个簇ki,重新计算该簇的中心使用k个聚类的样本均值迭代更新
[0053][0054]
(5)设置迭代步数,重复(3)和(4)直到收敛;输出最终的簇中心和k个聚类划分。
[0055]
步骤一中所述相机包括单目相机、双目相机和rgb-d相机的一种或组合。
[0056]
所述步骤二特征检测中还定位各个物体在每一帧中的位置信息。
[0057]
l(xi):=(a1,b1;w1,h1),(a2,b2;w2,h2),...,(am,bm;wm,hm),
[0058]
a与b分别表示特征fi在该图片中左上侧点的物理位置,w和h表示特征fi的长和宽。
[0059]
实施例2
[0060]
本实施例与实施例1的区别是:设定簇值k=100。
[0061]
以上,仅是本发明的较佳实施例而已,并非是对本发明作其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其他领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,仍属于本发明技术方案的保护范围。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献