一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种端到端视觉里程计方法及装置与流程

2022-11-19 16:20:59 来源:中国专利 TAG:


1.本技术涉及自动驾驶技术领域,具体涉及一种端到端视觉里程计方法以及端到端视觉里程计装置。


背景技术:

2.同时定位与建图(simultaneous localization and mapping,slam)是计算机视觉领域的重要研究方向之一。在自动驾驶的相关研究中,slam是关键核心技术之一。在slam系统中,需要执行大量的位姿估计任务。视觉里程计(visual odemetry,vo)是slam系统框架中的前端,其目的是根据车载导航视频通过计算机视觉技术对图像序列进行分析和处理,输出车辆的估计位姿。vo将相邻时刻采集的图像序列作为输入,在估计车辆运动的同时生成初步优化的局部地图,并提供给后端进行下一步优化。传统的vo方法主要包括特征点法和直接法。特征点法需要提取图像序列的特征点,通过特征匹配来构建几何模型,从而估计车辆的运动。直接法通常是基于光度不变假设来估计相邻图像序列之间的车辆运动。vo进行位姿估计的精度影响着slam系统整体的轨迹精度。然而,传统的特征提取算法容易受到噪声、光照条件以及视角的影响,其鲁棒性较差。另外,该类算法提取的特征点的类型较为单一,会影响后续特征匹配的准确度,进而影响输出位姿估计的精度。
3.随着图像成像技术的成熟以及计算机视觉技术的飞速发展,vo方法得到了深入研究和广泛应用。目前,深度学习技术在计算机视觉领域中发挥着越来越重要的作用,它拥有强大的学习能力以及提取更深层次、更抽象特征的能力,已成为vo中非常重要的特征提取方法之一。深度学习特征提取方法能够学习到图像序列间的内在关联,提取到性能优异的特征点。deep vo是当前应用较为广泛的一种端到端的vo算法。该算法是一种监督学习方法,能够从输入的图像序列中直接估计出车辆相应的位姿。
4.然而,在低光照或光照不均匀场景中采集的图像,由于图像对比度较低,缺乏动态移动细节特征,依然无法保证良好的性能。
5.因此,希望有一种技术方案来解决或至少减轻现有技术的上述不足。


技术实现要素:

6.本发明的目的在于提供一种端到端视觉里程计方法来至少解决上述的一个技术问题。
7.本发明的一个方面,提供一种端到端视觉里程计方法,用于获取车辆上的摄像装置的位姿估计信息,所述端到端视觉里程计方法包括:获取摄像装置所提供的当前帧图像信息以及当前帧的前一帧的图像信息;分别对当前帧图像信息以及当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息以及当前帧的前一帧的亮度图像信息;对所述当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当前帧融合图像信息;
对所述当前帧的前一帧的图像信息以及当前帧的前一帧的亮度图像信息进行融合,从而获取当前帧的前一帧的融合图像信息;通过跳跃-融合-fcnn方法对所述当前帧融合图像信息以及所述当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征;根据所述融合图像特征获取摄像装置的位姿估计信息。
8.可选地,所述对当前帧图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息包括:获取当前帧图像信息中的当前帧源图像序列;将当前帧源图像序列变换到灰度空间,对当前帧图像信息的各个像素进行集合划分,从而将各个像素分成三组集合,所述三组集合包括当前帧暗类像素集合,当前帧中类像素集合,当前帧亮类像素集合;计算各组集合中的各个像素点的曝光度;根据所述曝光度对当前帧源图像序列进行灰度变换,扩大欠曝光像素的灰度值,从而获取当前帧的亮度图像信息;所述对当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的前一帧的亮度图像信息包括:获取当前帧的前一帧的图像信息中的当前帧的前一帧的图像序列;将当前帧的前一帧的图像序列变换到灰度空间,对当前帧的前一帧的图像信息的各个像素进行集合划分,从而将各个像素分成三组集合,所述三组集合包括当前帧的前一帧的暗类像素集合,当前帧的前一帧的中类像素集合,当前帧的前一帧的亮类像素集合;计算各组集合中的各个像素点的曝光度;根据所述曝光度对当前帧的前一帧的图像信息进行灰度变换,扩大欠曝光像素的灰度值,从而获取当前帧的前一帧的亮度图像信息。
9.可选地,对所述当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当前帧融合图像信息包括:采用如下公式对所述当前帧图像信息以及当前帧的亮度图像信息进行融合:;其中,表示当前帧图像信息中像素p位置处的权重,;i为当前帧源图像序列; 为当前帧亮度图像信息;表示当前帧融合图像信息;;其中,表示高斯滤波器,和分别表示傅里叶变换及其逆变换,表示n
×
n矩阵,矩阵中的每个元素均为1/n2;和分别表示复数矩阵的实数部分和虚数部分;表示像素p扩大之后的像素值;i(p)表示像素p的灰度值;为显著性图谱。
10.可选地,所述通过跳跃-融合-fcnn方法对所述当前帧融合图像信息以及所述当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征包括:获取fcnn神经网络模型,所述fcnn神经网络模型包括五个池化层以及七个卷积
层,其中,所述五个池化层分别称为第一池化层、第二池化层、第三池化层、第四池化层以及第五池化层;所述七个卷积层分别称为第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层以及第七卷积层;将所述当前帧融合图像信息以及所述当前帧的前一帧的融合图像信息进行叠加从而形成最终输入图像信息;将所述最终输入图像信息输入至所述fcnn神经网络模型,以使所述最终输入图像信息依次经过第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第五池化层、第六卷积层以及第七卷积层处理;根据经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第一路径特征;根据经过所述第二池化层处理后的数据、经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第二路径特征;根据经过所述第一池化层处理后的数据、所述第二池化层处理后的数据、经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第三路径特征;将所述第一路径特征、第二路径特征以及第三路径特征进行融合,从而获取所述融合图像特征。
11.可选地,所述第一池化层、第二池化层、第三池化层、第四池化层以及第五池化层分别具有不同的参数;所述根据经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第一路径特征包括:对经过所述第三池化层处理后的数据进行4倍下采样,对经过所述第四池化层处理后的数据进行2倍下采样;将经过所述4倍下采样的数据以及经过所述2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将三个不同深度的预测结果进行合并从而获取第一路径特征。
12.可选地,所述根据经过所述第二池化层处理后的数据、经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第二路径特征包括:对经过所述第二池化层处理后的数据进行8倍下采样、对经过所述第三池化层处理后的数据进行4倍下采样,对经过所述第四池化层处理后的数据进行2倍下采样;将经过所述8倍下采样的数据、所述4倍下采样的数据以及经过所述2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将四个不同深度的预测结果进行合并从而获取第二路径特征。
13.可选地,所述根据经过所述第一池化层处理后的数据、所述第二池化层处理后的数据、经过所述第三池化层处理后的数据、经过所述第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第三路径特征包括:对经过所述第一池化层处理后的数据进行16倍下采样、经过所述第二池化层处理
后的数据进行8倍下采样、对经过所述第三池化层处理后的数据进行4倍下采样,对经过所述第四池化层处理后的数据进行2倍下采样;将经过所述16倍下采样的数据、所述8倍下采样的数据、所述4倍下采样的数据以及经过所述2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将五个不同深度的预测结果进行合并从而获取第三路径特征。
14.可选地,所述池化层的参数包括图像尺寸参数以及通道数;所述卷积层的参数包括图像尺寸参数以及通道数;所述第一池化层的图像尺寸参数为(m/2)
×
(n/2);所述第一池化层的通道数为64;所述第二池化层的图像尺寸参数为(m/4)
×
(n/4);所述第二池化层的通道数为128;所述第三池化层的图像尺寸参数为(m/8)
×
(n/8);所述第三池化层的通道数为256;所述第四池化层的图像尺寸参数为(m/16)
×
(n/16);所述第四池化层的通道数为256;所述第五池化层的图像尺寸参数为(m/32)
×
(n/32);所述第五池化层的通道数为512;所述第六卷积层的图像尺寸参数为4096
×
(m/32)
×
(n/32);所述第六卷积层的通道数为512;所述第七卷积层的图像尺寸参数为4096
×
(m/32)
×
(n/32);所述第七卷积层的通道数为512。
15.可选地,所述根据所述融合图像特征获取位姿估计信息包括:将所述融合图像特征输入至长短期记忆神经网络中,从而获取摄像装置的位姿估计信息。
16.本技术还提供了一种端到端视觉里程计装置,所述端到端视觉里程计装置包括:图像获取模块,所述图像获取模块用于获取摄像装置所提供的当前帧图像信息以及当前帧的前一帧的图像信息;灰度变换处理模块,所述灰度变换处理模块用于分别对当前帧图像信息以及当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息以及当前帧的前一帧的亮度图像信息;融合模块,所述融合模块用于对所述当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当前帧融合图像信息以及对所述当前帧的前一帧的图像信息以及当前帧的前一帧的亮度图像信息进行融合,从而获取当前帧的前一帧的融合图像信息;特征提取模块,所述特征提取模块用于通过跳跃-融合-fcnn方法对所述当前帧融合图像信息以及所述当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征;位姿估计模块,所述位姿估计模块用于根据所述融合图像特征获取摄像装置的位姿估计信息。
17.有益效果
本技术的端到端视觉里程计方法通过对源图像序列进行灰度变换获得其亮度图像,设计基于谱残差理论的图像融合算法将图像序列及其亮度图像进行合并,增强图像的对比度,提供更多的细节信息。为了提高图像特征提取的精度,降低位姿估计过程中的误差,本技术设计了基于跳跃-融合-fcnn的特征提取算法,对传统的全卷积神经网络(fully convolutional neural network,fcnn)进行了改进,提出跳跃-融合-fcnn网络模型,构建了3条不同的路径进行特征提取。在每条路径中,通过下采样将不同深度的预测结果进行融合,获得特征图谱。合并3个不同的特征图谱,获得融合图像特征,同时考虑了图像的结构信息和细节信息。
附图说明
18.图1是本技术一实施例的端到端视觉里程计方法的流程示意图。
19.图2是能够实现本技术一实施例的端到端视觉里程计方法的电子设备的示意图。
20.图3是本技术一实施例的端到端视觉里程计方法的架构示意图。
具体实施方式
21.为使本技术实施的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本技术一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本技术,而不能理解为对本技术的限制。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。下面结合附图对本技术的实施例进行详细说明。
22.图1是本技术一实施例的端到端视觉里程计方法的流程示意图。
23.本技术的端到端视觉里程计方法用于获取车辆上的摄像装置的位姿估计信息。
24.如图1及图3所示的端到端视觉里程计方法包括:步骤1:获取摄像装置所提供的当前帧图像信息以及当前帧的前一帧的图像信息;步骤2:分别对当前帧图像信息以及当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息以及当前帧的前一帧的亮度图像信息;步骤3:对当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当前帧融合图像信息;步骤4:对当前帧的前一帧的图像信息以及当前帧的前一帧的亮度图像信息进行融合,从而获取当前帧的前一帧的融合图像信息;通过跳跃-融合-fcnn方法对当前帧融合图像信息以及当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征;步骤5:根据融合图像特征获取摄像装置的位姿估计信息。
25.本技术的端到端视觉里程计方法通过对源图像序列进行灰度变换获得其亮度图像,设计基于谱残差理论的图像融合算法将图像序列及其亮度图像进行合并,增强图像的对比度,提供更多的细节信息。为了提高图像特征提取的精度,降低位姿估计过程中的误差,本技术设计了基于跳跃-融合-fcnn的特征提取算法,对传统的全卷积神经网络(fully convolutional neural network,fcnn)进行了改进,提出跳跃-融合-fcnn网络模型,构建
了3条不同的路径进行特征提取。在每条路径中,通过下采样将不同深度的预测结果进行融合,获得特征图谱。合并3个不同的特征图谱,获得融合图像特征,同时考虑了图像的结构信息和细节信息。
26.在本实施中,对当前帧图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息包括:获取当前帧图像信息中的当前帧源图像序列;将当前帧源图像序列变换到灰度空间,对当前帧图像信息的各个像素进行集合划分,从而将各个像素分成三组集合,所述三组集合包括当前帧暗类像素集合,当前帧中类像素集合,当前帧亮类像素集合;计算各组集合中的各个像素点的曝光度;根据曝光度对当前帧源图像序列进行灰度变换,扩大欠曝光像素的灰度值,从而获取当前帧的亮度图像信息。
27.具体而言,首先,将源图像序列变换到灰度空间,对源图像i中的像素进行划分,分为暗类(id),中类(im)和亮类(ib)。假设p为源图像i中的一个像素,p通过如下公式进行分类。
[0028] ;其中,id表示暗类像素集合、im中类像素集合、ib表示亮类像素集合,i(p)表示像素p的灰度值。和表示两个阈值,可通过多阈值otsu算法获得。
[0029]
然后,通过计算3类像素(暗类,中类和亮类)的曝光度,来判断各个像素点是否曝光良好。任意一个像素p的曝光度计算如下公式。
[0030]
当 时,其中, ;其中,表示 类像素的参考曝光值。表示 类像素的参考标准差,可分别设置为32,64,32。像素的灰度值越接近其参考曝光值,表明该像素曝光越好。通常情况下,当时,表示像素p曝光良好;否则,像素p曝光不足,需要扩大像素p的灰度值。
[0031]
最后,根据像素的曝光度,对当前帧源图像序列进行灰度变换,扩大欠曝光像素的灰度值,计算方式如下所示。
[0032] ,当时,其中,
ꢀꢀ
;其中,表示像素p扩大之后的像素值。 表示扩大因子, 计算方式如下公式。
[0033]
=当时,其中, ;表示 类像素中曝光良好的像素p的灰度值, 表示 类像素中欠曝光像素p的灰度值。
[0034]
在本实施例中,采用谱残差理论对源图像及其亮度图像进行显著性检测,实现两幅图像的融合。
[0035]
具体而言,对当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当
前帧融合图像信息包括:采用如下公式对当前帧图像信息以及当前帧的亮度图像信息进行融合:;其中,表示当前帧图像信息中像素p位置处的权重,;i为当前帧源图像序列; 为当前帧亮度图像信息;表示当前帧融合图像信息;;其中,表示高斯滤波器,和分别表示傅里叶变换及其逆变换,表示n
×
n矩阵,矩阵中的每个元素均为1/n2;和分别表示复数矩阵的实数部分和虚数部分;表示像素p扩大之后的像素值;i(p)表示像素p的灰度值;为显著性图谱。
[0036]
在本实施例中,对当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的前一帧的亮度图像信息包括:获取当前帧的前一帧的图像信息中的当前帧的前一帧的图像序列;将当前帧的前一帧的图像序列变换到灰度空间,对当前帧的前一帧的图像信息的各个像素进行集合划分,从而将各个像素分成三组集合,所述三组集合包括当前帧的前一帧的暗类像素集合,当前帧的前一帧的中类像素集合,当前帧的前一帧的亮类像素集合;计算各组集合中的各个像素点的曝光度;根据所述曝光度对当前帧的前一帧的图像信息进行灰度变换,扩大欠曝光像素的灰度值,从而获取当前帧的前一帧的亮度图像信息。
[0037]
可以理解的是,获取当前帧的亮度图像信息与获取当前帧的前一帧的亮度图像信息所用方法以及所用公式相同,在此不再赘述。
[0038]
在本实施例中,通过跳跃-融合-fcnn方法对当前帧融合图像信息以及当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征包括:获取fcnn神经网络模型,fcnn神经网络模型包括五个池化层以及七个卷积层,其中,五个池化层分别称为第一池化层、第二池化层、第三池化层、第四池化层以及第五池化层;七个卷积层分别称为第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层以及第七卷积层;将当前帧融合图像信息以及当前帧的前一帧的融合图像信息进行叠加从而形成最终输入图像信息;将最终输入图像信息输入至fcnn神经网络模型,以使最终输入图像信息依次经过第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层、第五卷积层、第五池化层、第六卷积层以及第七卷积层处理;根据经过第三池化层处理后的数据、经过第四池化层处理后的数据以及经过第七卷积层处理后的数据生成第一路径特征;根据经过第二池化层处理后的数据、经过第三池化层处理后的数据、经过第四池化层处理后的数据以及经过第七卷积层处理后的数据生成第二路径特征;根据经过第一池化层处理后的数据、第二池化层处理后的数据、经过第三池化层
处理后的数据、经过第四池化层处理后的数据以及经过第七卷积层处理后的数据生成第三路径特征;将第一路径特征、第二路径特征以及第三路径特征进行融合,从而获取融合图像特征。
[0039]
在本实施例中,第一池化层、第二池化层、第三池化层、第四池化层以及第五池化层分别具有不同的参数;在本实施例中,根据经过第三池化层处理后的数据、经过第四池化层处理后的数据以及经过所述第七卷积层处理后的数据生成第一路径特征包括:对经过第三池化层处理后的数据进行4倍下采样,对经过第四池化层处理后的数据进行2倍下采样;将经过4倍下采样的数据以及经过2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将三个不同深度的预测结果进行合并从而获取第一路径特征。
[0040]
在本实施例中,根据经过第二池化层处理后的数据、经过第三池化层处理后的数据、经过第四池化层处理后的数据以及经过第七卷积层处理后的数据生成第二路径特征包括:对经过第二池化层处理后的数据进行8倍下采样、对经过第三池化层处理后的数据进行4倍下采样,对经过所述第四池化层处理后的数据进行2倍下采样;将经过8倍下采样的数据、4倍下采样的数据以及经过2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将四个不同深度的预测结果进行合并从而获取第二路径特征。
[0041]
在本实施例中,根据经过第一池化层处理后的数据、第二池化层处理后的数据、经过所述第三池化层处理后的数据、经过第四池化层处理后的数据以及经过第七卷积层处理后的数据生成第三路径特征包括:对经过第一池化层处理后的数据进行16倍下采样、经过第二池化层处理后的数据进行8倍下采样、对经过第三池化层处理后的数据进行4倍下采样,对经过所述第四池化层处理后的数据进行2倍下采样;将经过16倍下采样的数据、8倍下采样的数据、4倍下采样的数据以及经过2倍下采样的数据与第七卷积层处理后的数据进行求和运算,逐数据相加,将五个不同深度的预测结果进行合并从而获取第三路径特征。
[0042]
参见下表1,在本实施例中,池化层的参数包括图像尺寸参数以及通道数;卷积层的参数包括图像尺寸参数以及通道数;第一池化层的图像尺寸参数为(m/2)
×
(n/2);第一池化层的通道数为64;第二池化层的图像尺寸参数为(m/4)
×
(n/4);第二池化层的通道数为128;第三池化层的图像尺寸参数为(m/8)
×
(n/8);第三池化层的通道数为256;第四池化层的图像尺寸参数为(m/16)
×
(n/16);第四池化层的通道数为256;第五池化层的图像尺寸参数为(m/32)
×
(n/32);第五池化层的通道数为512;第六卷积层的图像尺寸参数为4096
×
(m/32)
×
(n/32);第六卷积层的通道数为512;第七卷积层的图像尺寸参数为4096
×
(m/32)
×
(n/32);第七卷积层的通道数为
512。
[0043]
可以理解的是,其他卷积层可以根据自身需要而自行设定图像尺寸参数以及通道数。
[0044]
表1:本技术设计了端到端视觉里程计算法获得估计位姿。首先,为了更好地提取图像序列的特征信息,本技术设计了跳跃-融合-fcnn网络框架。通过3条不同的路径获得图像序列在不同步长下的特征信息,同时考虑了图像的细节信息和结构信息,并通过融合思想将3条路径的特征信息进行合并。其次,本发明采用基于lstm的循环神经网络对特征信息之间的动态变化和关联进行序列化建模,进而输出估计位姿。
[0045]
第一路径侧重图像的结构信息,获得的特征图谱具有鲁棒性。第三路径充分考虑了图像的细节信息,获得的特征图谱更加精细。第二路径获得的特征图谱用于平衡上述两条路径的结果。将3条路径获得的特征图谱进行合并,获得特征融合信息,作为rnn网络层的输入。
[0046]
在本实施例中,根据融合图像特征获取位姿估计信息包括:将融合图像特征输入至长短期记忆神经网络中,从而获取摄像装置的位姿估计信息。
[0047]
具体而言,当前帧融合图像信息经过fcnn提取获得的当前帧特征输入到rnn网络,对特征之间的动态变化和关联进行序列化建模。长短期记忆(long short-term memory,lstm)网络具有记忆单元和门限控制函数,能够丢弃或保留先前时刻的隐藏层状态来对更新当前时刻的隐藏层状态,进而输出当前时刻的估计位姿。lstm使得rnn网络具有记忆功能和较强的学习能力。
[0048]
在t-1时刻,lstm的隐藏层状态记为h
t-1
,记忆单元记为c
t-1
。假设在t时刻,输入为x
t
,则更新后的隐藏层状态和记忆单元定义为,; ;其中,sigmoid和tanh是两个激活函数,w表示相应的权重矩阵,b表示偏置向量。
[0049]
lstm网络包含lstm1和lstm2两个网络层,lstm1的隐藏层状态作为lstm2的输入。
每个lstm网络层含有1000个隐藏单元,输出当前时刻对应的估计位姿,即一个6自由度的位姿向量。
[0050]
参数优化根据位姿坐标平移距离变化和方向变化,定义网络的损失函数如下,;其中,n表示样本数据集中图像序列的数目,和分别表示第i个序列中第j个时刻的图像相对于上一时刻图像的估计位姿和真实位姿。表示矩阵的2范数计算。是一个常数。
[0051]
因此,视觉里程计的位姿估计转化为求解最优网络参数,最终即可获得摄像装置的位姿估计信息。
[0052]
本技术还提供了一种端到端视觉里程计装置,端到端视觉里程计装置包括图像获取模块、灰度变换处理模块、融合模块、特征提取模块以及位姿估计模块,其中,图像获取模块用于获取摄像装置所提供的当前帧图像信息以及当前帧的前一帧的图像信息;灰度变换处理模块用于分别对当前帧图像信息以及当前帧的前一帧的图像信息进行灰度变换处理,从而获取当前帧的亮度图像信息以及当前帧的前一帧的亮度图像信息;融合模块用于对当前帧图像信息以及当前帧的亮度图像信息进行融合,从而获取当前帧融合图像信息以及对当前帧的前一帧的图像信息以及当前帧的前一帧的亮度图像信息进行融合,从而获取当前帧的前一帧的融合图像信息;特征提取模块用于通过跳跃-融合-fcnn方法对当前帧融合图像信息以及当前帧的前一帧的融合图像信息进行特征提取从而获取融合图像特征;位姿估计模块用于根据融合图像特征获取摄像装置的位姿估计信息。
[0053]
可以理解的是,上述对方法的描述,也同样适用于对装置的描述。
[0054]
本技术还提供了一种电子设备,包括存储器、处理器以及存储在存储器中并能够在处理器上运行的计算机程序,处理器执行计算机程序时实现如上的基于图像融合和fcnn-lstm的端到端视觉里程计方法。
[0055]
本技术还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时能够实现如上的端到端视觉里程计方法。
[0056]
图2是能够实现根据本技术一个实施例提供的端到端视觉里程计方法的电子设备的示例性结构图。
[0057]
如图2所示,电子设备包括输入设备501、输入接口502、中央处理器503、存储器504、输出接口505以及输出设备506。其中,输入接口502、中央处理器503、存储器504以及输出接口505通过总线507相互连接,输入设备501和输出设备506分别通过输入接口502和输出接口505与总线507连接,进而与电子设备的其他组件连接。具体地,输入设备504接收来自外部的输入信息,并通过输入接口502将输入信息传送到中央处理器503;中央处理器503基于存储器504中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器504中,然后通过输出接口505将输出信息传送到输出设备506;输出设备506将输出信息输出到电子设备的外部供用户使用。
[0058]
也就是说,图2所示的电子设备也可以被实现为包括:存储有计算机可执行指令的
存储器;以及一个或多个处理器,该一个或多个处理器在执行计算机可执行指令时可以实现结合图1描述的端到端视觉里程计方法。
[0059]
在一个实施例中,图2所示的电子设备可以被实现为包括:存储器504,被配置为存储可执行程序代码;一个或多个处理器503,被配置为运行存储器504中存储的可执行程序代码,以执行上述实施例中的基于图像融合和fcnn-lstm的端到端视觉里程计方法。
[0060]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0061]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0062]
计算机可读介质包括永久性和非永久性、可移动和非可移动,媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数据多功能光盘(dvd)或其他光学存储、磁盒式磁带、磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
[0063]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0064]
此外,显然“包括”一词不排除其他单元或步骤。装置权利要求中陈述的多个单元、模块或装置也可以由一个单元或总装置通过软件或硬件来实现。
[0065]
附图中的流程图和框图,图示了按照本技术各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,模块、程序段、或代码的一部分包括一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地标识的方框实际上可以基本并行地执行,他们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或总流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0066]
在本实施例中所称处理器可以是中央处理单元(central processing unit,cpu),还可以是其他通用处理器、数字信号处理器 (digital signal processor,dsp)、专用集成电路 (application specific integrated circuit,asic)、现成可编程门阵列 (field-programmable gate array,fpga) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0067]
存储器可用于存储计算机程序和/或模块,处理器通过运行或执行存储在存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现装置/终端设备的各种功能。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(smart media card, smc),安全数字(secure digital, sd)卡,闪存卡(flash card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
[0068]
在本实施例中,装置/终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减。本技术虽然以较佳实施例公开如上,但其实并不是用来限定本技术,任何本领域技术人员在不脱离本技术的精神和范围内,都可以做出可能的变动和修改,因此,本技术的保护范围应当以本技术权利要求所界定的范围为准。
[0069]
本领域技术人员应明白,本技术的实施例可提供为方法、系统或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0070]
此外,显然“包括”一词不排除其他单元或步骤。装置权利要求中陈述的多个单元、模块或装置也可以由一个单元或总装置通过软件或硬件来实现。
[0071]
虽然,上文中已经用一般性说明及具体实施方案对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献