一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种使用自适应特征融合的RGB-D显著目标检测方法与流程

2021-10-24 04:01:00 来源:中国专利 TAG:检测方法 目标 图像处理 自适应 融合

一种使用自适应特征融合的rgb

d显著目标检测方法
技术领域
1.本发明涉及图像处理技术领域,具体的说涉及一种rgb

d显著目标检测方法。


背景技术:

2.图像显著目标检测是指计算机自动的分割出图像中的显著目标。该技术的应用场景非常广泛,比如用于图片压缩,或者作为目标识别、语义分割、目标跟踪等的预处理任务。
3.为了获得准确的图像显著目标分割结果,传统的解决方案是手工设计一种特征提取方法,然后根据该特征进行按照像素分类。
4.已有的rgb

d显著目标检测方法,在解码器阶段不能有效融合rgb和depth 2个数据流的特征,导致分割准确度不是很高。因此,本文提出能有效融合2个数据流特征和数据流内特征的方法。


技术实现要素:

5.本发明所要解决的技术问题是:针对一张图像,如何使用计算机自动分割出图像中的显著目标,本发明提出了一种使用自适应特征融合的rgb

d显著目标分割方法。
6.本发明的方法是在图像的解码过程中,使用数据流内自适应特征融合和数据流间特征融合方法,从而更好的分割图像中的显著目标。
7.一种使用自适应特征融合的rgb

d显著目标检测方法,包括以下步骤:
8.步骤(1).使用2个结构相同的编码器网络分别对rgb图像和depth图像这2个数据流编码,编码后对2个数据流分别获得m个层级的特征;
9.步骤(2).在rgb和depth两个数据流的解码过程中分别使用自适应特征融合。
10.步骤(3).在联合数据流中对2个数据流的特征融合。
11.步骤(4).使用损失函数对该网络模型优化;
12.进一步的,所述的步骤(2)的自适应特征融合,具体操作如下:
13.将高一层级特征升采样后使用conv,并与当前层级特征在通道维连接,然后送入到全局平均池化模块,然后使用conv和softmax求出2个通道的权重值,并分别与2个特征相乘后求和,得到融合后的特征;
14.进一步的,所述的步骤(3)在联合数据流中对2个数据流的特征融合,具体操作如下:
15.首先将同层级的rgb解码器和depth解码器的输出进行融合,再与高一层级联合数据流的输出融合。将同层级rgb解码器和depth解码器的输出使用conv和sigmoid处理,得到2个权重值,使用这2个权重值分别对rgb解码器和depth解码器的输出进行加权并求和,然后将高一层级联合解码器的输出升采样并使用conv处理后,与该特征在通道维连接,并使用conv处理,得到当前层级联合解码器的融合特征;
16.进一步的,所述的步骤(4)的具体方法如下:
17.该网络的损失函数为
18.l=l
bce
(p
r
,g) l
bce
(p
d
,g) l
bce
(p
j
,g)
19.上式中,p
r
是rgb数据流的显著图预测结果,p
d
是depth数据流的显著图预测结果,p
j
是联合分支的显著图预测结果,g是显著图的标签。l
bce
是二值交叉熵损失,计算方法如下
[0020][0021]
上式中,i表示图像中第i个像素,n表示图像中共有n个像素,x是显著图的预测结果,g是标签。
[0022]
使用上述的损失函数作为优化目标,使损失函数最小化,对网络模型优化,得到网络中的参数值。
[0023]
本发明的有益效果如下:
[0024]
本发明所述的方法,可以提高rgb

d显著目标检测的效果。通过使用自适应特征融合,可以有效融合数据流内不同层级的特征。通过使用数据流间特征融合方法,可以有效融合2个数据流的特征。
附图说明
[0025]
图1为本发明的显著目标检测网络;
[0026]
图2为本发明的单个数据流内自适应特征融合模块;
[0027]
图3为本发明的数据流间特征融合模块。
具体实施方式
[0028]
以下结合附图,对本发明进行进一步的详细说明。
[0029]
本发明提出的一种使用自适应特征融合的rgb

d显著目标检测方法,针对一张图像,使用计算机自动分割出rgb

d中的显著目标。
[0030]
如图1所示,本发明所述方法包括以下步骤:
[0031]
步骤(1)具体方法如下:
[0032]
对于rgb和深度图2个数据流,分别使用在imagenet上预训练的2个resnet34网络编码其特征。resnet34的网络参数如表1所示。对于2个数据流,分别从中取出conv2_x、conv3_x、conv4_x、conv5_x的输出特征作为编码器4个层级的输出。已知rgb图输入特征为(h,w,3)(括号内前2个数表示分辨率,最后一个数表示通道数),depth图特征为(h,w,1),先将其在通道维复制3份,得到与rgb图大小相同的特征(h,w,3)。接下来2个数据流在相同层级的输出特征大小相同。conv2_x的输出特征为(h/4,w/4,64),conv3_x的输出特征为(h/8,w/8,128),conv4_x的输出特征为(h/16,w/16,256),conv5_x的输出特征为(h/32,w/32,512)。
[0033]
表1resnet34网络参数
[0034][0035][0036]
步骤(2)具体方法如下:
[0037]
对于2个数据流,分别进行数据流内特征融合。首先分别使用1*1conv将conv2_x、conv3_x、conv4_x、conv5_x的输出特征通道变换为64。对同一数据流内不同层级特征融合使用数据流内自适应特征融合模块。rgb数据流内特征融合使用rgb decoder5、rgb decoder4、rgb decoder3、rgb decoder2模块。depth数据流内特征融合使用depth decoder5、depth decoder4、depth decoder3、depth decoder2模块。数据流内自适应特征融合模块结构如图2所示。rgb decoder5对特征不做处理,即输出和输入特征相同。对于rgb decoder4,将rgb decoder5的输出特征使用双线性插值升采样2倍,并使用3*3conv处理,得到特征图为(h/16,w/16,64),然后将其与conv4_x的特征在通道维连接为(h/16,w/16,128)。然后使用全局平均池化变换为(1,1,128),然后使用1*1conv将通道变换为2,然后使用softmax在通道维归一化。归一化之后第一个通道对应第一个特征的权重值,第二个通道对应第二个特征的权重。然后使用这2个权重对2个特征加权并求和。得到自适应权重融合后的特征。rgb decoder3、rgb decoder2的操作过程与rgb decoder4相同。rgb decoder3输入的特征为rgb decoder4的输出(h/16,w/16,64)和conv3_x的特征(h/8,w/8,64),输出特征为(h/8,w/8,64)。rgb decoder2输入的特征为rgb decoder3的输出(h/8,w/8,64)和conv2_x的特征(h/4,w/4,64),输出特征为(h/4,w/4,64)。对rgb decoder2输出的特征使用1*1conv将通道变换为1。然后使用sigmoid函数激活,得到每个像素是否显著的预测概率。然后将预测图使用双线性插值升采样4倍,得到与原图尺寸大小相同的预测图。depth数据流的解码过程与rgb数据流相同。depth decoder5对特征不做处理,即输出和输入特征相同。depth decoder4输入的特征为depth decoder5的输出(h/32,w/32,64)和conv4_x的特征(h/16,w/16,64),输出特征为(h/16,w/16,64)。depth decoder3输入的特征为depth decoder4的输出(h/16,w/16,64)和conv3_x的特征(h/8,w/8,64),输出特征为(h/8,w/8,64)。depth decoder2输入的特征为depth decoder3的输出(h/8,w/8,64)和conv2_x的特征(h/4,w/4,64),输出特征为(h/8,w/8,64)。对depth decoder2输出的特征使用1*1conv将通道变换为1。然后使用sigmoid函数激活,得到每个像素是否显著的预测概率。然后将预测图使用双线性插值升采样4倍,得到与原图尺寸大小相同的预测图。
[0038]
步骤(3)的具体方法如下:
[0039]
使用联合解码器分支,对于2个数据流的特征进行跨数据流间融合。跨数据流间融
合采用数据流间特征融合模块joint decoder5、joint decoder4、joint decoder3、joint decoder2。对于joint decoder4其特征融合过程如图3所示。首先将rgb decoder4的输出特征和depth decoder4的输出特征使用1*1conv分别变换为(h/16,w/16,1),然后使用sigmoid分别对2个特征激活得到权重(h/16,w/16,1),然后使用rgb数据流权重对depth数据流特征加权,使用depth数据流权重对rgb数据流特征加权。然后将加权后的2个特征相加为(h/16,w/16,64),然后将joint decoder5的输出特征使用双线性插值升采样到(h/16,w/16,64),然后使用3*3conv处理,然后将该特征与2个数据流的融合特征在通道维连接成(h/16,w/16,128),再使用1*1conv将特征变换为(h/16,w/16,64)。因为depth decoder5的输入没有更高一层级的特征,所以它相比于depth decoder4少一个与高一层级特征融合的环节,其他过程相同。joint decoder5输入特征为rgb decoder5输出(h/16,w/16,64)和depth decoder5输出(h/16,w/16,64),输出为(h/16,w/16,64)。joint decoder3,joint decoder2的特征融合过程与joint decoder4相同。joint decoder3的输入特征为rgb decoder3输出(h/8,w/8,64)和depth decoder3输出(h/8,w/8,64)和joint decoder4的输出(h/16,w/16,64),它的输出为(h/8,w/8,64)。joint decoder2的输入特征为rgb decoder2输出(h/4,w/4,64)和depth decoder2输出(h/4,w/4,64)和joint decoder3的输出(h/8,w/8,64),它的输出为(h/4,w/4,64)。对joint decoder2输出的特征使用1*1conv将通道变换为1。然后使用sigmoid函数激活,得到每个像素是否显著的预测概率。然后将预测图使用双线性插值升采样4倍,得到与原图尺寸大小相同的预测图。训练时,对3个解码器的输出都计算损失进行监督,测试时,只使用联合解码器的输出作为预测结果。
[0040]
步骤(4)的具体方法如下:
[0041]
该网络的损失函数为
[0042]
l=l
bce
(p
r
,g) l
bce
(p
d
,g) l
bce
(p
j
,g)
[0043]
上式中,p
r
是rgb数据流的显著图预测结果,p
d
是depth数据流的显著图预测结果,p
j
是联合分支的显著图预测结果,g是显著图的标签。l
bce
是二值交叉熵损失,计算方法如下
[0044][0045]
上式中,i表示图像中第i个像素,n表示图像中共有n个像素,x是显著图的预测结果,g是标签。
[0046]
使用上述的损失函数作为优化目标,使损失函数最小化,对网络模型优化,得到网络中的参数值。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜