一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种域自适应双目视差计算的动车组故障检测方法及系统与流程

2022-06-22 19:45:14 来源:中国专利 TAG:

1.本发明属于轨道交通设备检测技术领域,更具体地,涉及一种域自适应双目视差计算的动车组故障检测方法及系统。


背景技术:

2.我国铁路事业迅速发展,普铁、动车、地铁的大规模的应用带动了我国区域、地区的经济发展,给人们的生活带来了便利,但同时也为铁路安全检测的带来了挑战。保证安全是始终铁路运输的第一要务。铁路工作者的付出对铁路的发展和行车安全做出了重大贡献,但人眼并不能实时保证高效无差别的对铁路的关键部件进行检测。人工检查由于容易受到主观因素的影响而造成漏检、误检,容易给铁路运行安全隐患。自动化设备虽然减轻了检修人员的工作压力,但是还有很多检修项点受限于技术限制没能有效释放人力。当前,机车车底关键部件的安全检修还有大量检修项点依赖人力完成。
3.双目立体视觉技术一直是计算机视觉的一个研究热点,被广泛应用于自动驾驶、三维重建、工业检测等领域。随着卷积神经网络被广泛应用于立体匹配,视差计算的精度有了显著的提升,但是网络的跨域能力却明显不如传统算法。传统的立体匹配算法经过了几十年的发展,在视差图的精度和算法的运行效率上已经有了很大的提升,但是在一些遮挡区域和重复纹理区域的视差的精确度还比较差。目前来看基于深度学习的立体匹配算法无论在精度还是效率都超过了传统的立体匹配算法。同时,通过加入一些困难场景的数据集,如:无纹理、重复纹理、曝光、雾天等困难场景的数据后,在相似场景中立体匹配网络估计的视差相对于大部分的传统算法效果也更好。同时,由于立体匹配网络跨域能力差,严重阻碍了其在现实应用中的落地。因此,研究如何提升立体匹配网络能够在大量真实场景中预测视差能力是非常有必要的。


技术实现要素:

4.针对现有技术的以上缺陷或改进需求,本发明提供了一种域自适应双目视差计算的动车组故障检测方法及系统,通过提出的域自适应模块和特征归一化方法共同提升了立体网络的跨域泛化性,通过设计一个视差置信度网络提取出视差的正确部分,将保留下来的视差作为新域的监督标签,最后使用立体网络进行监督训练。整个系统被封装成无需外部提供监督标签的网络,该方法在跨域后能获得精度较高的视差输出。本发明跨域视差预测效果好,获取预测图的精度高,能实现对动车组故障的精确检测。
5.为实现上述目的,本发明提出了一种域自适应双目视差计算的动车组故障检测方法,包括以下步骤:s1采用双目相机采集动车组的左、右立体图像,将一组左、右立体图像作为一个样本,构建数据集,并将上述数据集按照指定比例分为训练数据集和测试数据集;s2以psmnet网络为基础框架构建域自适应双目视差网络,采用跨域特征提取方法分别提取左、右立体图像的域特征,在域特征提取过程中,对立体图像的不同尺度特征进行
指定比例的融合,以获取特征x,对特征x进行像素维度归一化和特征通道维度归一化,然后将归一化处理后的特征进行3d代价体积计算以实现代价融合,并采用损失函数计算输出密集视差图,采用conf-cnn网络模型对密集视差图进行置信度过滤,选出训练数据集中用于训练的正样本;s3然后采用正样本对域自适应双目视差网络进行训练,以获取网络的预训练权重,再通过调整学习率,继续采用正样本对域自适应双目视差网络进行训练,直至满足训练结束条件,获取最终的域自适应双目视差网络;s4将双目相机实施采集的动车组的左、右立体图像输入至步骤s3获取的域自适应双目视差网络中,以输出动车组的预测图,并根据该预测图对动车组进行故障检测。
6.作为进一步优选的,步骤s2中,跨域特征提取方法具体如下:获取左、右立体图像的每个尺度输出特征,每个尺度输出特征都需要经过一个低层特征层和深层特征层,将尺度输出特征经池化层转化为指定尺寸,然后将低层特征和深层特征按照指定比例连接在一起,并应用卷积层和fn层输出,得到特征x。
7.作为进一步优选的,步骤s2中,对特征x进行像素维度归一化具体如下:优选的,步骤s2中,对特征x进行像素维度归一化具体如下:上式中,为图像h
×
w上像素维度的均值,h为图像的高度,w为图像的宽度,h为特征x的高度,w为特征x的宽度,为高度为h宽度为w的特征,为图像h
×
w上像素维度的标准差,为常数。
8.作为进一步优选的,步骤s2中,对特征x进行特征通道维度归一化具体如下:作为进一步优选的,步骤s2中,对特征x进行特征通道维度归一化具体如下:上式中,c是通道维度的位置,c是通道维度的长度,是通道c上像素维度的均值,是通道c上像素维度的标准差,x为通道c上的特征,为常数。
9.作为进一步优选的,步骤s2中:
输出大小为c
×h×
w的左特征图和右特征图,通过在每个视差层上对左、右特征图进行拼接,然后平移进入下一个视差层级,最终获取大小为2c
×h×w×
( d 1)的代价体积,将上述2c
×h×w×
( d 1)的代价体积进行三维卷积计算,得到大小为d
×h×
w的视差体积,采用可微的soft argmin函数获取视差体积中视差维度代价最小的值作为密集视差图的预测视差;其中,c是特征体积的通道数, d为训练数据集的最大视差,h为图像的高度,w为图像的宽度。
10.作为进一步优选的,所述可微的soft argmin函数为:式中,是softmax运算,d为视差层级,cd为视差层级d的代价值,d
max
是视差层级的最大值,为视差估计值。
11.作为进一步优选的,步骤s2中,所述conf-cnn网络模型使用的是ad-census算法在kitti数据集上训练的模型,且在conf-cnn网络模型中,置信度的取值为0.9。
12.作为进一步优选的,正样本的挑选策略为:将ad-census算法获取的视差值减去真实视差值,若两者的差值大于阈值,则认为是正样本,否则,认为是负样本。
13.作为进一步优选的,所述数据集的评价标准包括3像素误差,该3像素误差的计算模型如下:模型如下:式中,为3像素误差,n为像素个数,是网络预测的视差值,是标准视差图的视差值,x、y为像素点坐标值,p是左图像中的像素位置,q是左图像中的像素位置。
14.按照本发明的另一个方面,还提出了一种域自适应双目视差计算的动车组故障检测系统,包括:跨域特征提取模块,用于采用跨域特征提取方法分别提取左、右立体图像的域特征,在域特征提取过程中,对立体图像的不同尺度特征进行指定比例的融合,以获取特征x,对特征x进行像素维度归一化和特征通道维度归一化,然后将归一化处理后的特征进行3d代价体积计算以实现代价融合;视差图提取模块,用于用损失函数计算输出密集视差图;
conf-cnn网络模型模块,用于密集视差图进行置信度过滤,选出训练数据集中用于训练的正样本;域自适应双目视差网络模块,用于用正样本进行训练,以获取网络的预训练权重,再通过调整学习率,继续采用正样本对域自适应双目视差网络进行训练,直至满足训练结束条件,获取最终的域自适应双目视差网络;以及,故障检测模块,用于将最终的域自适应双目视差网络输出的动车组的预测图进行故障检测。
15.总体而言,通过本发明所构思的以上技术方案与现有技术相比,主要具备以下的技术优点:1.本发明通过提出的域自适应模块和特征归一化方法共同提升了立体网络的跨域泛化性,通过设计一个视差置信度网络提取出视差的正确部分,将保留下来的视差作为新域的监督标签,最后使用立体网络进行监督训练。整个系统被封装成无需外部提供监督标签的网络,该方法在跨域后能获得精度较高的视差输出。本发明跨域视差预测效果都好,获取预测图的精度高,能实现对动车组故障的精确检测。
16.2.本发明构建的新颖dafe不需要特征学习,因为它已经包含了大多数领域的场景信息。并且它避免了在跨域期间特征提取模块的自适应问题。之后,构建一个简单的尺度融合模块以融合低级像素特征和深层特征。并且在该模块中使用了fn模块,以使网络对域转移更加不敏感。。
17.3.本发明先使用传统的ad-census或sgm算法计算出目标域中的数据集的密集视差图;然后提出了一个置信度的网络,它可以对对视差图进行置信度评估,随后设置阈值,保留置信度较高的视差值作为目标域中的监督标签。最后使用当前主流的立体匹配网络对其进行监督训练,获得目标域中精确的视差图。以解决现有技术中真实域中的数据集很少,不能覆盖大部分的场景信息,最终导致网络的泛化能力较差的问题。
18.4.本发明使用大小为1
×
1卷积核代替全连接层,整个网络为全连接网络。最终输出该图像块的中心像素的正确视差概率,有的卷积层都没有填充和跨步操作。因为conf-cnn是一个全卷积网络,可以端到端的估计整个密集的视差图的置信度概率。在预测时,需要在完整的视差图边缘填充4个像素的零值。原来的视差图像尺度为h
×
w,则在预测时填充后的尺度为(h 8)
×
(w 8)。以此方式,克服了现有技术中,在分类任务的最后部分会通过全连接层来计算最终的分类结果,但是这种方式限制了网络图像的输入分辨率的问题。
19.5. 本发明基于域自适应双目视差网络所训练的模型,其准确性和可靠性相较于传统的人工复检,均得到了提升。
附图说明
20.图1是本发明实施例涉及的一种域自适应双目视差计算的动车组故障检测方法的流程图;图2是本发明实施例涉及的立体匹配模型的俯视图;图3是本发明实施例涉及的以psmnet网络为基础框架的域自适应双目视差网络图;图4是本发明实施例涉及的域自适应双目视差网络中涉及的域自适应特征提取网
络及特征归一化流程图;图5是本发明实施例涉及的采用 danet对列车车底数据集的跨域表现示意图;图6为用conf-cnn置信度网络模型保留正确的视差的示意图,其中,图6中的(a)为数据集,图6中的(b)为ad-census计算的视差,6中的(c)为使用conf-cnn置信度网络保留正确的视差。
具体实施方式
21.为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
22.如图1所示,本发明实施例涉及的一种域自适应双目视差计算的动车组故障检测方法,包括以下步骤:步骤一,采用双目相机采集动车组的左、右立体图像,将一组左、右立体图像作为一个样本,构建数据集,并将上述数据集按照指定比例分为训练数据集和测试数据集。
23.在本步骤中,立体图像的获取的步骤大致可以概述如下:(1)图像采集;(2)相机标定;(3)图像畸变校正;(4)双目立体校正;(5)立体匹配;(6)三角剖分计算深度。通过上面的几个步骤,就可以恢复出现实场景的三维信息。
24.在立体匹配步骤中,首先,需要搭建一个双目立体相机平台。然后对相机进行标定,然后进行坐标系转换,相机的坐标变换从世界坐标系(三维,相机原点)转换到图像平面坐标系(二维)最后转入像素坐标系,将世界坐标系中的3d点x映射到像素坐标系的2d点x。在成像平面坐标系的x转像素坐标系的点xp之前,还需要考虑实际相机引入的畸变和倾斜模型。还需要对相机进行标定,本发明中可采用张正友标定法,拍摄多组棋盘标定图片,然后使用角点提取算法获得图像的二维角点信息,转化为实际空间中的三维角点信息,从而计算出相机的内参数和畸变系数。
25.本步骤中涉及的双目成像方法如下:建立一个的立体视觉模型,假设空间中点p(x,y,z)在成像系统o
l
的像平面π1上映射的点为(x
l
,y
l
); 在成像系统or的像平面π2上的点为(xr,yr),成像系统o
l
的焦距为,而成像系统or的焦距为。从左相机坐标系转换到右坐标系中,只需要一个旋转矩阵r和一个平移矩阵t。
26.令左相机坐标系转换到右坐标系的旋转矩阵r为:平移矩阵t为:
那么两个坐标系的转换可以用一个矩阵来进行:通过求解出空间中任一点对应两个图像坐标系中像素位置之后,即可使用下式求解出该点的空间三维坐标:通过上式可以计算空间中被测点的三维信息。在本发明的优选实施例中,双目图像对之间的同名点在各自成像系统的极线上。根据这样的特性,在立体匹配搜索过程中,可以仅在极线上搜索对应的特征点。但是,在程序设计时,这种方法反而会增加计算量。所以,在做立体匹配计算之前,需要把两图像平面应映射到与基线平行的位置,即立体校正。立体校正的目的是将极线与两图像的行对齐。通过这一步骤,立体匹配在寻找对应特征点时只需要搜索图像中同一行上的像素即可。通过立体校正操作,降低了两图像匹配不相关的可能性,匹配搜索空间从二维减少到一维,提高计算速度,更重要的是,此变换还可以使三维点的深度与其投影在两个视图中的视差之间呈简单的倒数关系,从而无需使用三角剖分即可恢复出对应像素的深度(z轴)关系。
27.经过上一步的立体校正之后,两图像对应的特征点位于同一水平线上。如图2所示,p是三维空间中的点,映射到左右图像中的点为p
l
和pr,x
l
和xr是左右图像的水平像素位置。立体校正之后,两个相机之间的基线与图像平面的平行,两相机的光轴也保持平行。令3d空间中的一点为p=[x,y,z]
t
,由平移矩阵t计算得到该3d点投影到左相机像素坐标系下的像素位置,其计算公式为:同样的,该空间点在右相机像素坐标系下的像素位置也可以计算出来。
[0028]
点p在右相机坐标系下的空间位置为p=[x
ꢀ‑ꢀ
b, y, z]
t
,那么该点映射到右像素坐标系的像素位置可以通过下计算得到:
现在已知了两个图像点,视差d被定义两图像中同名点的像素水平平移距离:将和代入上式得到:相应的x和y轴的值就可以通过下式得到:相应的x和y轴的值就可以通过下式得到:过相机立体校正之后,原来复杂的三维复原公式被简化为了上面的三个式子。
[0029]
步骤二,以psmnet网络为基础框架,该构建域自适应双目视差网络,该域自适应双目视差网络中,采用跨域特征提取方法分别提取左、右立体图像的域特征,在域特征提取过程中,对立体图像的不同尺度特征进行指定比例的融合,以获取特征x,对特征x进行像素维度归一化和特征通道维度归一化,然后将归一化处理后的特征进行3d代价体积计算以实现代价融合,并采用损失函数计算输出密集视差图,采用conf-cnn网络模型对密集视差图进行视差计算,以获取精确的视差图,从而复原三维形貌。
[0030]
本发明中,基于3d代价体积的立体匹配算法步骤包括:特征提取、代价计算、代价聚合以及最后的视差计算。具体的,如图3所示,本发明以psmnet网络为基础框架,该构建域自适应双目视差网络。网络框架可大致分为四个部分:特征提取、计算代价体积、3d cnn以及视差回归。首先,网络的输入是一对校正后的彩色立体图像, and
ꢀꢀ
, 其中h和w是图像的高度和宽度。然后应用跨域特征提取模块来提取域特征,输出的特征图的大小为1/4h
×
1/4w。进一步的,使用特征归一化fn模块减小不同域之间的差异。3d代价体积的计算包括级联和分组相关两种计算方式,分别采用了psmnet和gwcnet-g中的代价计算模块,代价聚合使用的是psmnet的堆叠沙漏网络。最后,采用平滑的l1损失函数计算输出大
小为h
×
w的密集视差图。本发明dafe不需要特征学习,因为它已经包含了大多数领域的场景信息。并且它避免了在跨域期间特征提取模块的自适应问题,本发明构建一个简单的尺度融合模块以融合低级像素特征和深层特征。并且在该模块中使用了fn模块,以使网络对域转移更加不敏感。
[0031]
在本发明的一个实施例中,获取左、右立体图像的每个尺度输出特征,每个尺度输出特征都需要经过一个标准块层和转化块层,将尺度输出特征经标准块层和转化块层转化为指定尺寸,然后将低层特征和深层特征按照指定比例连接在一起,并应用卷积层和fn层输出,得到特征x。更具体的,跨域特征提取方法具体如下:获取左、右立体图像的每个尺度输出特征,每个尺度输出特征都需要经过一个标准块层和转化块层,即norm block层和conv block层,其中,尺度为1和尺度为1/2的特征需要经过池化层将尺度缩小为1/4,尺度为1/8的特征需要进行上采样转化为1/4,然后将低层特征和深层特征按照1:1::2:2的比例连接在一起,并应用卷积层和fn层输出,得到特征x。更具体的,本实施例以vgg16网络作为dafe模块,不更改模块的任何卷积层和权重,而是将卷积层截取为1 / 8h
×
1 / 8w的大小。scale fusion部分接收dafe模块中的每个尺度输出特征。然后,每个尺度的输出特征都需要经过一个norm block和conv block层。不同的是,尺度为1和尺度为1/2的特征需要经过池化层将尺度缩小为1/4。而尺度为1/8的特征需要进行上采样操作。之后,将低层特征和深层特征按照1:1::2:2的比例连接在一起。随后,应用卷积层和fn层输出,得到最终的32
×
1/4h
×
1/4w特征量。
[0032]
本发明中,为了确定影响立体匹配网络的泛化性能的内在因素,首先,把psmnet在sceneflow数据集训练到收敛,然后,在测试中把不同域中的特征提取层的结果进行可视化对比分析。本步骤中,特征归一化的步骤如下:在域适应特征提取之后,尺寸大小为n
×c×h×
w的特征x进行像素维度(h
ꢀ×ꢀ
w)归一化和特征维度(c)归一化。在批量归一化bn层中,通过在特征维度(n
×h×
w)上进行归一化,并与批次中其他样本的特征进行归一化以提高泛化性,在使用相关或级联方法计算成本量时,必须严格分别操作批处理中的每个特征量以获得高质量的代价体积。
[0033]
如图4所示,特征归一化fn层在图像尺寸(h
×
w)和通道尺寸(c)上均对该体积进行归一化。此操作强调了每一个特征层的独立性。更进一步的,通过对每一个通道进行规划减少了不同域上的噪声响应。在深度学习中,归一化方法一般采用标准差归一化,其公式可以表示为:其中,x为输入的特征,μ是均值,δ是标准差,γ和β是需要学习的线性因子。
[0034]
对特征x进行像素维度归一化具体如下:
上式中,为图像h
×
w上像素维度的均值,h为图像的高度,w为图像的宽度,h为特征x的高度,w为特征x的宽度,为高度为h宽度为w的特征,为图像h
×
w上像素维度的标准差,为常数。
[0035]
对特征x进行特征通道维度归一化具体如下:对特征x进行特征通道维度归一化具体如下:上式中,c是通道维度的位置,c是通道维度的长度,是通道c上像素维度的均值,是通道c上像素维度的标准差,x为通道c上的特征,为常数。
[0036]
本发明中,在进行融合时,输出大小为c
×h×
w的左特征图和右特征图,通过在每个视差层上对左、右特征图进行拼接,然后平移进入下一个视差层级,最终获取大小为2c
×h×w×
( d 1)的代价体积,将上述2c
×h×w×
( d 1)的代价体积进行三维卷积计算,得到大小为d
×h×
w的视差体积,采用可微的soft argmin函数获取视差体积中视差维度代价最小的值作为密集视差图的预测视差;其中,c是特征体积的通道数, d为训练数据集的最大视差,h为图像的高度,w为图像的宽度。
[0037]
所述可微的soft argmin函数为:式中,是softmax运算,d为视差层级,cd为视差层级d的代价值,d
max
是视差层级的最大值。
[0038]
采用conf-cnn网络模型对密集视差图进行视差计算,所述conf-cnn网络模型使用的是ad-census算法在kitti数据集上训练的模型,且在conf-cnn网络模型中,置信度的取值为0.9。conf-cnn置信度网络模型构建的具体步骤如下:
在conf-cnn网络中,在每一个视差图中提取以某一像素为中心的大小为9
×
9的图像块,随后送入网络中。网络的第一个分支是大小为9
×9×
32的卷积层。它可以表示整个图像块的对应关系,即该卷积核具有全局的感受野。另一个分支都是3
×
3的卷积核,在使用了4个卷积层之后尺度减小到了1
×
1,然后和第一个分支的结果进行级联。通常在分类任务的最后部分会通过全连接层来计算最终的分类结果,但是这种方式限制了网络图像的输入分辨率。为了解决这个问题,本发明使用大小为1
×
1卷积核代替全连接层,整个网络为全连接网络。最终输出该图像块的中心像素的正确视差概率,所有的卷积层都没有填充和跨步操作。因为conf-cnn是一个全卷积网络,可以端到端的估计整个密集的视差图的置信度概率。在预测时,需要在完整的视差图边缘填充4个像素的零值。原来的视差图像尺度为h
×
w,则在预测时填充后的尺度为(h 8)
×
(w 8)。
[0039]
步骤三,采用训练数据集对域自适应双目视差网络进行训练,以获取网络的预训练权重,再通过调整学习率,继续采用训练数据集对域自适应双目视差网络进行训练,直至满足训练结束条件,获取最终的域自适应双目视差网络。
[0040]
训练过程中,本发明中采用立体图像的kittti数据集作为训练集,剩余的作为本域中的验证集。以ad-census算法在kitti数据集中制作数据样本为例,以可用的视差值为中心,在ad-census方法计算的视差图中对应的位置裁剪出9
×
9窗口大小的小图像作为训练样本。正负样本的挑选策略为:其中,t表示阈值大小,为ad-census算法获取的视差值,为真实视差值(ground truth视差)。本发明的一个实施例中,t被设置为3,也就是ad-census视差和ground truth视差的差值小于3个像素时,样本被标记为正样本,其余的为负样本。kitti2012的前30对图像制作的总样本数约为390万。ground truth的视差图像选用noc视差图。结果显示为:ad-census计算的视差bad3错误率约为35.7%。按照正负样本1:1的比例,最终将样本总数调整为280万左右用于网络的训练。
[0041]
在最后一个1
×
1的卷积层之后,连接了一个sigmoid函数,它可以让网络输出的值限制在(0,1)之间。sigmoid函数如下:其中,x为隐层神经元的输入值,为隐层神经元的输出值。
[0042]
损失函数选用二值交叉熵(binary cross-entropy,bce)损失函数,定义为:其余的,如基于sgm算法在kitti或是middlebury数据集、ad-census算法在
middlebury数据集、阈值选取等训练的模型都是基于这一套框架进行的。所有的模型训练和评估都是在非遮挡区域(noc)视差中进行的,每一个实验的训练集的正负样本保持1:1的比例。
[0043]
本发明中,在conf-cnn体系框架是使用pytorch实现的。所有模型使用adam梯度下降法(β1=0.9, β2=0.999)进行端到端训练(momentum=0.9)。初始学习率设置为0.003,训练10个epoch之后学习率下降到0.0003,共训练14个epoch。本实验只对视差进行归一化处理,其余的不进行任何图像处理。进一步的,由于conf-cnn网络非常轻量级,在cpu的设备就能训练网络,并且batch size设置为64。
[0044]
在本发明的一个实施例中,对不同策略训练出来的模型进行交叉验证,以评估模型的稳定性和泛化性。如使用kitti 2012数据集的前30个立体图像对训练conf-cnn网络,在kitti2015和middlebury数据集进行泛化性评估。
[0045]
本发明中,所述数据集的评价标准包括3像素误差,该3像素误差的计算模型如下:本发明中,所述数据集的评价标准包括3像素误差,该3像素误差的计算模型如下:式中,为3像素误差,n为像素个数,是网络预测的视差值,是标准视差图的视差值,x、y为像素点坐标值,p是左图像中的像素位置,q是左图像中的像素位置。
[0046]
步骤四,将双目相机实施采集的动车组的左、右立体图像输入至步骤s3获取的域自适应双目视差网络中,以输出动车组的预测图,并根据该预测图对动车组进行故障检测。该步骤中,可通过认为的对预测图进行故障判断,也可通过将预测图与无故障的图片进行比对,从而进行故障分析。
[0047]
整个列车车底数据集共计530组立体图像,基本包含了列车车底的全貌。列车车底图像有着高曝光、弱纹理、光照不均匀等缺点。除此之外,室外铁路上的双目相机标定也带来了一定的困难,随之而来的是立体校正图像可能会出错。另一方面,所提出的视差估计方法如果能够在这样艰苦的环境中还能有不错的性能,更能说明方法的鲁棒性和可行性。
[0048]
本实施例中,采用上述训练后的域自适应双目视差网络对双目相机获取的照片进行预测,视差估计结果如图5所示。可以看到,虽然列车车底采集的图集非常恶劣,但视场内主体单位上的视差层级分布比较正确,符合视差的颜色分布情况。主体边缘、细小单位的视差估计较好。然后使用conf-cnn网络对该视差图进行置信度过滤。其中,conf-cnn网络模型使用的是ad-census算法在kitti数据集上训练的模型。置信度δ的取值为0.9。在列车车底数据集中使用conf-cnn网络进行置信度评估的结果如图6所示。
[0049]
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献