一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种机器人运动模式估计方法及装置

2022-07-30 19:52:24 来源:中国专利 TAG:


1.本发明属于仿生机器人技术领域,具体涉及一种机器人运动模式估计方法及装置。


背景技术:

2.随着社会发展,人类对资源的需求显著增加,水下航行器作为水下资源开发的重要工具,可代替人类执行复杂的任务,如环境监测,目标探测、军事打击等。近年来,水下航行器得到了大力发展,其常以螺旋桨、泵喷推进器等作为主要推进方式,然而此类推进航行器存在航行时噪声大、机动性较差、隐蔽性较差等缺点,基于此水下仿生型水下机器人得到了发展。在数亿年的自然进化下,鱼类已经拥有了高超的游动技巧,其高效、低噪声和灵活的运动给水下航行器带来了启发,且随着生物工程、流体力学、计算机科学等相关领域和技术的发展,世界各地的研究人员纷纷效仿自然界生物的推进模式。
3.根据鱼类游动时所使用的身体部位不同,将鱼类运动分为胸鳍/中间鳍推进运动模式和尾鳍/身体推进运动模式。尾鳍/身体推进模式是大多数鱼类采用的游动模式,该类鱼通过身体波动或尾鳍摆动的方式,利用涡流将水向后推射使鱼体受到水的反作用,从而实现鱼体的向前运动;胸鳍/中间鳍推进模式的鱼类主要通过胸鳍和背鳍的摆动获取前进的动力,该类鱼在低速游动时,身体不会随着游动晃动,可保持较高的机动性、稳定性和游动效率,一般可实现精确的六自由度运动、位置保持以及换向等动作,以该类鱼为仿生对象的水下机器人具有稳定性高、探测效率高、续航能力强等优势。
4.目前,对于生物推进模式的水下航行器处于初步发展阶段且研究成果较少,对水下仿生机器人的研究也主要以尾鳍/身体推进模式研究为主,在胸鳍推进模式的水下仿生机器人方面研究较少。现有技术中有基于光源信标的自主水下航行器位姿估计方法,该方法能够估计自身水下航行器的相对位置和方位,然而,该方法对于前方水下航行器的运动信息只能通过水下通信的方式得到,水下通信又存在通信成本高、效率低且复杂等缺点。


技术实现要素:

5.要解决的技术问题:
6.为了避免现有技术的不足之处,本发明提供一种基于视觉的胸鳍拍动水下仿生机器人运动模式估计方法及装置,通过在水下仿生机器人尾部安装四点分布式光源信标灯,并利用双目相机采集仿生机器人的运动图像,接着对采集到的图像进行处理,得到目标光源,并计算各目标光源之间的夹角,从而得到胸鳍拍动水下仿生机器人的运动模式。
7.本发明的技术方案是:一种机器人运动模式估计方法,应用于胸鳍拍动水下仿生机器人,具体步骤如下:
8.步骤1:在水下仿生机器人上布放四点光源信标,用于标定机器人身体纵轴与胸鳍的位置;
9.步骤2:通过图像采集单元采集水下仿生机器人的运动图像;
10.步骤3:对采集到的水下仿生机器人运动图像进行预处理,得到清晰的光源目标特征;
11.步骤4:对目标光源在图像上的目标位置参数进行检测,得到目标光源的图像坐标;
12.步骤5:计算水下仿生机器人左右两侧胸鳍鳍条与身体纵轴之间的夹角、并比较,得到水下仿生机器人的运动模式估计结果:若相等,则判定水下仿生机器人为主动推进模式,若不相等,则为转弯模式。
13.本发明的进一步技术方案是:所述步骤1中,所述四点光源信标包括一个蓝色灯和三个绿色光源灯;蓝色光源灯位于水下仿生机器人的机身上方,并位于机器人纵轴上;一个绿色光源灯位于水下仿生机器人的机身下方,并位于机器人纵轴上;另外两个绿色光源灯分别位于胸鳍末端。
14.本发明的进一步技术方案是:所述步骤2中,图像采集单元为双目相机。
15.本发明的进一步技术方案是:所述步骤3中,对采集到的水下仿生机器人运动图像进行预处理包括,颜色色彩空间转换、图像平滑处理和图像边缘检测,通过图像预处理操作过滤掉非目标特征。
16.本发明的进一步技术方案是:所述图像平滑处理采用中值滤波的方法模糊图像并降低灰度图像的噪声。
17.本发明的进一步技术方案是:所述图像边缘检测采用canny边缘检测对目标图像进行处理。
18.本发明的进一步技术方案是:所述步骤4中,对目标光源在图像上的目标位置参数检测是基于最小二乘的目标光源检测算法,能够剔除由于水面倒影产生的虚假光源;
19.首先,使用边缘提取算法在平滑处理后的图像上对目标的边缘特征进行提取;
20.然后,剔除所提取的目标边缘特征中的噪声和亮点;
21.最后,选取目标光源圆心y坐标最小的四个点作为图像坐标。
22.本发明的进一步技术方案是:所述步骤5中,计算图像中水下仿生机器人左右两侧夹角方法:
23.首先,定义机器人上方、并位于身体纵轴上的光源信标灯圆心为坐标为ob=(xb,yb),位于机器人下方、并位于身体纵轴上的光源信标灯圆心为坐标为og=(xg,yg),则由这两个光源组成的直线几何中心坐标oc=(xc,yc)表达式为
[0024][0025]
定义剩余两个标定两侧胸鳍的信标光源灯在所拍摄图像上的圆心坐标为o
g1
=(x
g1
,y
g1
),o
g2
=(x
g2
,y
g2
)。以oc为基点,向量表示为
[0026]
[0027]
设计夹角计算函数
[0028][0029]
则向量和向量的夹角θ1计算公式为
[0030]
θ1=f(x
c-xb,y
c-yb)-f(x
c-x
g1
,y
c-y
g1
)
ꢀꢀꢀ
(4)
[0031]
同理,向量和向量的夹角θ2计算公式为
[0032]
θ2=f(x
c-xb,y
c-yb)-f(x
c-x
g2
,y
c-y
g2
)
ꢀꢀꢀ
(5)
[0033]
根据水下仿生机器人的运动特点,当水下仿生机器人处于主动推进模式时,由识别到的光源圆心坐标构成的向量夹角θ1=θ2,当水下仿生机器人处于转弯模式时,向量夹角θ1≠θ2。
[0034]
一种应用水下仿生机器人运动模式估计方法的装置,包括四点光源信标灯、图像采集单元、图像处理单元和目标位置解析单元;
[0035]
所述四点光源信标灯用于标定机器人身体纵轴与胸鳍的位置,作为目标图像;
[0036]
所述图像采集单元用于实时采集水下仿生机器人的运动图像;
[0037]
所述图像处理单元用于对目标图像在运动图像上进行预处理,得到清晰的光源目标特征;
[0038]
所述目标位置解析单元用于对目标光源在图像上的目标位置参数进行检测,得到目标光源的图像坐标;并计算水下仿生机器人左右两侧胸鳍鳍条与身体纵轴之间的夹角、并比较,得到水下仿生机器人的运动模式估计结果。
[0039]
本发明的进一步技术方案是:所述装置应用于仿生机器人集群运动控制中,集群中任一仿生机器人通过图像采集单元采集前方仿生机器人的运动模式,并将运动模式信号传输至控制系统,由控制系统输出指令,控制后方仿生机器人作出运动响应。
[0040]
有益效果
[0041]
本发明的有益效果在于:本发明提供了基于视觉的胸鳍拍动水下仿生机器人运动模式估计方法,将水下仿生机器人胸鳍拍动形式简化为其胸鳍鳍条与身体纵轴之间的夹角,使用相机采集水下仿生机器人的运动图像,通过计算图像中左右两侧夹角估计水下仿生机器人的运动模式。若计算得到的左右两侧夹角相等,则判定水下仿生机器人为主动推进模式;若左右两侧夹角不相等,则其为转弯模式。
[0042]
本发明提供的一种基于视觉的胸鳍拍动水下仿生机器人运动模式估计方法,创新地将胸鳍拍动的水下仿生机器人运动模式简化为胸鳍鳍条与身体纵轴之间的夹角,并采用水下视觉及光源信标的方法得到了前方水下仿生机器人的运动模式,从而较为简单地实现
了水下仿生机器人间的通信,避免了使用高成本的水声通信的缺陷,同时也为后方机器人提供运动反馈信息,对于后续水下仿生机器人集群编队研究奠定了基础。本发明实施例给出了胸鳍拍动水下仿生机器人光源信标识别效果图,由处理结果可以看出,采用本发明所提的方法能够实现水下仿生机器人的运动模式估计,处理结果如表1及表2所示。
[0043]
将本发明所述装置应用于仿生机器人集群运动控制中,识别邻居水下仿生机器人运动模式,可以提高自身水下仿生机器人的运动响应速率,为实现水下仿生机器人集群运动提供先验。
附图说明
[0044]
图1:本发明水下仿生机器人运动模式估计方法的流程图;
[0045]
图2:水下仿生机器人样机及四点分布式信标装置图;
[0046]
图3:rgb色彩空间和hsv色彩空间;
[0047]
图4:hsv通道分离结果;
[0048]
图5:原图(左)和二值化处理后的图像(右);
[0049]
图6:中值滤波结果图(右);
[0050]
图7:圆形特征检测结果图(右);
[0051]
图8:光源在水下成像图;
[0052]
图9:水下图像预处理及光源识别效果图;
[0053]
图10:水下仿生机器人运动模式示意图;
[0054]
图11:鳍条对称拍动时光源识别结果图;
[0055]
图12:鳍条非对称拍动时光源识别结果图。
具体实施方式
[0056]
下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
[0057]
本发明所述胸鳍拍动水下仿生机器人的仿生对象为蝠鲼,对蝠鲼游动进行观察可知,蝠鲼通过两侧胸鳍对周围流体的拍打产生推进力和升力,随着胸鳍摆动,柔性胸鳍产生由头部向尾部的波动传递,进而产生与波动传递相反的推力,及和胸鳍摆动方向相反的升力。蝠鲼在主动推进运动过程中,胸鳍鳍尖的运动轨迹近似为正弦函数,鳍尖上摆和下扑的幅度基本相等,且左右两侧胸鳍同时呈对称摆动;其在转弯运动时通常利用左右胸鳍非对称摆动的方式产生较大的横向力和力矩进行转弯,即当左右胸鳍同时呈非对称摆动运动时,蝠鲼向推力小的一侧转弯。
[0058]
下面结合附图并举实施例,对本发明工作流程进行详细说明。
[0059]
步骤1:水下仿生机器人四点分布式蓝绿光源设计
[0060]
本发明设计了如图3所示的水下仿生机器人样机及四点分布式圆形光源信标。设计水下仿生机器人样机身体中间部位的竖直杆是为了固定光源信标灯,确保光源信标和机器人之间紧密相连,从而通过目标光源信标的识别估计水下仿生机器人的运动模式。身体两侧杆的设计是为了模仿仿生原型蝠鲼的胸鳍拍动,两侧杆采用舵机驱动的方式,用来模仿蝠鲼的胸鳍拍动运动,当水下仿生机器人的两侧胸鳍对称拍动时,处于主动推进模式,当
两侧胸鳍呈非对称运动时,处于转弯模式。四点分布式圆形光源信标由一个蓝色灯和三个绿色光源灯组成,蓝绿光在水下能够发出400~500nm的波长,吸收率和散射率最小,具有透光性强的优势。图中所示的光源信标及水下仿生机器人样机都进行了水下密封操作,可进行水下实验。
[0061]
步骤2:对采集到的水下仿生机器人运动图像进行预处理操作
[0062]
步骤2-1:图像色彩空间转换。图像中的颜色元素采用rgb颜色模型表示,rgb代表红、绿和蓝,图像的色彩空间由这三种颜色的亮度作为基向量而定义,取值范围在0-255。然而,图像上的颜色很难用rgb的值来表示。因此,需要将图像的颜色空间转换为hsv颜色空间。hsv代表色调、饱和度和明度值,在opencv中,h通道的取值范围为0-180,s通道的取值范围为0-255,v通道的取值范围为0-255,hsv颜色模型是由rgb颜色模型转换而成的,两种颜色的色彩空间表示如图3所示。。
[0063]
水下环境中存在可见光的散射现象,即光源信标的亮度在较远距离时会快速衰减。当采集到的图像存在光散射时,图像中的颜色在三个通道的值均会发生变化,造成图像失真,信息不准确。并且,环境光的亮度也会影响光信标在相机成像中的优劣。因此,在进行图像计算之前,先将从相机采集到的图像从rgb色彩空间转换到hsv色彩空间,并严格过滤其他噪声的色调,同时增加明度值的接收范围,尽可能清晰准确地获取目标的信息。
[0064]
假设一个颜色向量在rgb空间的表示为(r,g,b),定义
[0065][0066]
则,该颜色向量的色调h表示为
[0067][0068]
该颜色向量的饱和度s表示为
[0069]
[0070]
该颜色向量的明度值v表示为
[0071]
v=c
max
ꢀꢀꢀ
(4)
[0072]
如图4所示为实验中采集到的图片经过转换后的hsv三通道图像,由转换后的图可以看出,可根据色调通道的值对光源灯信标的颜色进行区分,结合转换后图像的饱和度值和明度值对图像进行阈值分割,能够初步剔除图像中明显的非目标特征。
[0073]
此外,为减少图像后续处理的计算量,需要将图像数据从三维转换到一维,图像像素在检测到的hsv范围内,颜色为白色,否则颜色是黑色,从而将彩色图像转换为二值化处理后的灰度图像,如图5所示。检测目标是带颜色的光源信标,因此,检测范围内的颜色变为白色,其他颜色变为黑色。
[0074]
步骤2-2:图像滤波处理。经过上述步骤处理后的图像白色区域存在噪声影响产生的边缘不规则、不平整等现象,从而影响这些区域位置测量的正确性。因此,有必要去除灰度图像中的白色区域产生的不规则、不平整现象。opencv中提供了四种降噪的方法,包括均值滤波、高斯滤波、中值滤波和双边滤波。本发明采用中值滤波的方法模糊图像并降低灰度图像的噪声。中值滤波图像平滑处理的结果如图6所示,从图中可以看出,经过平滑处理后的图像边缘更清晰。
[0075]
步骤2-3:圆形特征检测。图像边缘检测是指检测到目标对象的边界。图像边缘检测用来识别和分析检测到的目标形状,边缘检测的方法用来区分目标特征和非目标特征。opencv中提供了四种边缘检测的方法,分别是canny边缘检测、sobel边缘检测、laplacian算子、scharr滤波器。本发明采用canny边缘检测对目标图像进行处理,分离出圆形特征和非圆形特征。圆形特征检测结果如图7所示。
[0076]
步骤3:基于最小二乘的目标光源检测及运动模式估计
[0077]
步骤3-1:基于最小二乘的目标光源检测算法设计。安装有光源信标的水下仿生机器人在水下环境中运动时存在光源反射造成的虚假光源干扰,如图8所示为光源在水下成像效果图,从图中可以看出由于水面倒影的影响,采集到的图像中会出现非目标光源特征,也称为虚假光源,本发明所采用的的基于最小二乘的光源检测方法能够剔除由于水面倒影产生的虚假光源。
[0078]
首先使用边缘提取算法在平滑处理后的图像上对目标的边缘特征进行提取。只提取最外侧边缘,每个边缘使用边缘点的集合进行描述。一次处理后寻找到的边缘点集合为b,定义其中第k个边缘点的集合为bk={(xi,yi)|i=1...n},其面积为
[0079][0080]
式中,(xi,yi)代表边缘点i的像素坐标,n代表边缘点个数。
[0081]
通过边缘提取算法得到的图像中存在噪声和小亮点,因此,需要对边缘围成的连通域面积进行阈值限定,剔除连通域面积小于1的边缘点集合。若边缘点集合围成的连通域不足3个,则认为不能识别,结束边缘提取算法。若边缘点集合大于等于3个,则对在接受范围内的每个边缘点集合使用最小二乘拟合圆法。假定待拟合的圆标准方程为
[0082]
(x-xc)2 (y-yc)2=r2ꢀꢀꢀ
(2)
[0083]
其中,r代表拟合圆的半径,(xc,yc)代表拟合圆的圆心坐标,(x,y)代表边缘点坐标,假设
[0084][0085]
则拟合圆的标准方程重新写为
[0086]
x2 y2 ax by c=0
ꢀꢀꢀ
(4)
[0087]
采用最小二乘拟合方法,定义
[0088][0089]
(xi,yi)代表边缘点i的坐标,n代表边缘点个数。
[0090]
为简化描述,假设
[0091][0092]
从而得到拟合圆的圆心坐标和半径的最小二乘估计值
[0093][0094]
设计边缘点集合和拟合圆匹配度函数,该函数定义为图像特征边缘点集合bk与拟合圆相匹配的程度,定义边缘点集合和拟合圆的圆心距离的方差记为拟合度fk,表示为
[0095][0096]
式中,(xc,yc)代表拟合圆的圆心坐标,(xi,yi)代表边缘点i的坐标。
[0097]
由式(8)可以看出,拟合度fk≥0,fk越小,表明边缘点集合和拟合圆的匹配程度越好。当拟合度fk=0时,表明边缘点集合都在所拟合的圆上。
[0098]
在光源特征识别时,存在特征边缘点集合不完整的情况,为了描述图像特征边缘点集合的完整性,提出关于特征边缘点集合和拟合圆完整度函数vk,vk表示边缘点集合的中心和拟合圆圆心间的距离与拟合圆的半径之比,表达式为
[0099][0100]
从式(9)中可以看出vk≥0,且当vk=1时,表明特征的边缘点集合都在所拟合的圆上,完整性最高;vk越大,表明边缘点集合在拟合圆上的分布完整性越差。
[0101]
图像特征区域的亮度也是目标识别的另一考虑因素,用wk表示图像边缘点集合所包围的连通域的平均亮度,描述图像特征区域的亮度表达式为
[0102][0103]
式(10)中,w
x,y
表示点(x,y)的亮度,m表示特征边缘点集合包围的连通域的个数,可通过式(10)描述特征边缘点集合包围连通区域的图像亮度特征。
[0104]
本发明采用拟合度fk、完整度vk及特征区域点集的整体亮度wk,加上特征点集的拟合圆半径四个特征参数来提高图像目标区域特征的识别精度。因此,定义描述边缘点集合的特征表达式为
[0105]bk
=(fk,vk,wk,rk)
t
ꢀꢀꢀ
(11)
[0106]
式中,fk代表拟合度,vk代表完整度,wk代表特征区域点集的整体亮度,rk代表拟合圆半径。
[0107]
由于在水下仿生机器人载体上安装了便于识别的光源灯信标,因此,可以很合理地认为通过相机所采集到的图片中,光源信标是图像中特征最明显的区域。则接下来的目的是,通过以上特征约束,找出图像连通域中特征最好的连通域,达到精确识别的效果。首先,对拟合度和完整度设定阈值限制,当特征边缘点集合的拟合度和拟合完整度超过设定的阈值时,从边缘点的集合中剔除不满足条件的点。为了满足尺度不变性,将每个点集的特征量做归一化处理得,
[0108][0109]
式(12)中,q表示剔除不满足条件的点集后剩余点集的个数,fi、vi、fi、vi、wi、ri分别代表边缘点集合i的拟合度、完整度、特征区域点集的整体亮度、合圆半径。
[0110]
归一化处理后的所有特征量都小于等于1,且每个点集的特征之和为1。
[0111]
对特征量做加权平均处理,将以满足特征约束点集的数量与总的点数之比作为权重,表示为
[0112][0113]
式(13)中,nk表示图像特征边缘点的个数。
[0114]
求得每个边缘点集合的特征量到加权平均特征量的距离,并对所有点集的特征量到加权平均特征量的距离求标准差。
[0115][0116]
q表示满足条件的点集个数,di代表边缘点集合i的特征量到加权平均特征量的距离,dj代表边缘点集合j的特征量到加权平均特征量的距离。
[0117]
若求得的距离标准差过大,则从边缘点集合中剔除不满足条件的集合点,通过式(12)、(13)、(14)迭代计算式(14)的值,直到该值小于设定的阈值,该阈值可通过色彩通道分离确定。若查找到的连通域个数小于四个,则认为没能识别到足够的光源信标。若找到的连通域个数大于四个,由于水面反射导致呈现在图像上的伪光源出现在真实光源的上方,因此,选取拟合圆的圆心y坐标最小的四个点集为真实光源信标。
[0118]
接着对本发明所提出的目标光源检测算法进行水下实验验证。首先,通过水下仿生机器人样机和双目相机采集了前方水下仿生机器人运动图像,如图9(a)所示为后方水下仿生机器人前方水下仿生机器人相对距离为1米时,由安装在水下仿生机器人平台上的双目相机采集到的前方机器人的图像。
[0119]
根据本发明所提的目标光源识别步骤,首先,对采集到的图像进行预处理操作,包括水下光源颜色检测、图像平滑处理及目标边缘检测,通过这些步骤得到的图像处理结果如图9(b)、(c)、(d)所示。通过图像预处理操作剔除了大量的背景干扰。接着采用本文所提的最小二乘边界拟合算法识别目标光源,目标光源识别结果如图9(e)所示,从图中可以看出,通过本文目标光源识别算法可以得到较为准确的识别结果。最终得到如图9(f)所示的目标光源圆心坐标及半径。
[0120]
步骤3-2:计算图像中水下仿生机器人左右两侧夹角。采用向量夹角表示的水下仿生机器人运动模式示意图如图10所示。得到目标光源后,首先确定蓝色光源信标灯,即安装在水下仿生机器人载体上的最上方光源信标灯。定义该光源信标灯的圆心为坐标为ob=(xb,yb)。其余三个信标灯为绿色光源,假设安装在绿色光源正下方位置的信标灯拟合圆圆心坐标为og=(xg,yg),则由这两个光源组成的直线几何中心坐标oc=(xc,yc)表达式为
[0121][0122]
定义剩余两个绿色信标光源灯在所拍摄图像上的圆心坐标为o
g1
=(x
g1
,y
g1
),o
g2
=(x
g2
,y
g2
)。以oc为基点,向量可表示为
[0123][0124]
设计夹角计算函数
[0125][0126]
则向量和向量的夹角θ1计算公式为
[0127]
θ1=f(x
c-xb,y
c-yb)-f(x
c-x
g1
,y
c-y
g1
)
ꢀꢀꢀ
(18)
[0128]
同理,向量和向量的夹角θ2计算公式为
[0129]
θ2=f(x
c-xb,y
c-yb)-f(x
c-x
g2
,y
c-y
g2
)
ꢀꢀꢀ
(19)
[0130]
根据水下仿生机器人的运动特点,当水下仿生机器人处于主动推进模式时,由识别到的光源圆心坐标构成的向量夹角θ1=θ2,当水下仿生机器人处于转弯模式时,向量夹角θ1≠θ2。
[0131]
本发明将水下仿生机器人的运动模式分为鳍条对称拍动时的主动推进模式,以及鳍条非对称拍动时的转弯模式。本发明将这种拍动形式描述为水下仿生机器人胸鳍鳍条与身体纵轴之间的夹角,并通过计算左右两侧夹角来估计水下仿生机器人的运动模式。识别邻居水下仿生机器人运动模式,可以提高自身水下仿生机器人的运动响应速率,为实现水下仿生机器人集群运动提供先验。
[0132]
(1)主动推进模式估计实验
[0133]
如图11为采集到的前方水下仿生机器人鳍条对称拍动时的图像,并通过目标光源识别算法得到的水下仿生机器人在特定运动状态下的识别效果图。通过目标光源识别算法最终得到目标光源的圆心坐标,接着通过式(5)-(9)计算夹角θ1及θ2。由夹角θ1及θ2判断水下仿生机器人的运动模式。水下仿生机器人主动推进模式估计实验结果如表1所示。
[0134]
表1识别到的光源圆心坐标结果
[0135][0136]
由表1实验结果可以得出,θ1、θ2的实验结果几乎相等,且θ1、θ2的识别误差在4
°
之内,由此可以估计出水下仿生机器人处于主动推进状态。以验证本文所提的通过目标光源识别估计水下仿生机器人的运动模式。
[0137]
(2)转弯模式估计实验
[0138]
如图12为后方水下仿生机器人采集到的前方水下仿生机器人鳍条运动图像。与上述描述类似,通过目标光源识别算法得到图像中的目标光源及光源信标的圆心坐标,接着通过式(5)-(9)计算夹角θ1及θ2,进而估计邻居水下仿生机器人的运动模式。得到的水下仿生机器人转弯模式估计实验结果如表2所示。
[0139]
表2识别到的光源圆心坐标结果
[0140][0141]
由表2实验结果可以得出,θ1、θ2的值相差较大,为本文所提的θ1≠θ2,由此可以判定水下仿生机器人处于转弯模式。进一步验证本文所提的通过图像目标光源识别估计水下仿生机器人运动模式的方法。
[0142]
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献