一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于可变形卷积的深度图补全方法与流程

2021-10-24 06:12:00 来源:中国专利 TAG:
1.本发明提出基于可变形卷积的深度补全模型,属于图像数据处理(g06t)及图像增强(g06t5)领域。
背景技术
::2.深度补全任务是计算机视觉中的一项基础研究,它对于许多应用来说是至关重要的,包括机器人、增强现实、三维重建和slam等等。它的主要目标是利用高分辨率的rgb图像信息进行引导,从一张稀疏的深度图中预测出稠密的深度图。在实际场景中,深度图一般可以通过3d激光雷达或者立体相机获得,通过立体相机获得的深度信息依赖立体视觉算法,目前的立体视觉算法很难获得高精度信息。通过激光雷达获得的数据更加精确能够达到厘米级,所以像自动驾驶等这种户外场景的应用往往会采用3d激光雷达。然而,由于3d激光雷达的内在缺陷,获得的深度信息往往是离散分布的,这会导致的噪声以及物体边缘的不完整性。3.为了解决这个问题,出现了一系列深度补全的方法。最近深度神经网络的发展,许多非常有效的方法都被提出来。这些方法中,主要分为带有图像引导和不带有图像引导两种。因为前者可以利用引导图像中包含的物体结构信息来获得更好的补全效果,因此受到了更广泛的研究和关注。带有图像引导的深度补全任务有两个具体的问题,包括1)引导图像的准确特征信息难以获得,尤其图像中不规则物体的边缘特征信息;2)补全任务的监督信息过于单一,过去的监督信息只包括深度补全结果与真实深度标签的均方误差损失,额外的监督信息难以获取。为了解决这些问题,最近的一些方法采用了多尺度特征,表面法向量,语义信息,上下文关联等方式进一步利用引导图像的特征,例如huang等人(https://ieeexplore.ieee.org/abstract/document/8946876/)采用了多尺度特征,qiu等人(https://openaccess.thecvf.com/content_cvpr_2019/html/qiu_deeplidar_deep_surface_normal_guided_depth_prediction_for_outdoor_scene_cvpr_2019_paper.html)引入了表面法向量信息,jaritz等人(https://ieeexplore.ieee.org/abstract/document/8490955)使用了图像的语义信息,cheng等人(https://openaccess.thecvf.com/content_eccv_2018/html/xinjing_cheng_depth_estimation_via_eccv_2018_paper.html)使用了图像上下文的亲和性。4.gu等人在(https://ieeexplore.ieee.org/abstract/document/9357967)中添加了额外的结构损失,chen等人(https://openaccess.thecvf.com/content_iccv_2019/html/chen_learning_joint_2d‑3d_representations_for_depth_completion_iccv_2019_paper.html)将l2损失和smoothl1损失组合使用。此外,uhrig等人(https://ieeexplore.ieee.org/abstract/document/8374553/)利用不同的稀疏稀疏不变性卷积,eldesokey等人(https://openaccess.thecvf.com/content_cvpr_2020/html/eldesokey_uncertainty‑aware_cnns_for_depth_completion_uncertainty_from_beginning_to_end_cvpr_2020_paper.html)增加了不确定性的探索,tang等人(https://ieeexplore.ieee.org/abstract/document/9286883)改进多模态融合策略等也进一步提升了性能。5.kitti(https://www.shapenet.org/)是目前深度补全领域最为权威的数据集之一,它包含了超过93000张深度图以及其相对应的雷达扫描信息和rgb图像信息,并且也提供了每张图像的相对应相机参数,因此可利用该数据集rgb图像数据信息,实现rgb图像数据引导下的深度补全。技术实现要素:6.本发明的目的是基于深度学习的理论与方法,研究新型的、rgb图像数据引导下的稀疏图像深度补全模型,能够利用rgb图像数据引导稀疏图像深度补全为密集深度,同时引入了可变形卷积和额外的监督信息,且该模型的运算速度与最快的enet模型(https://arxiv.org/abs/2103.00783)相同,补全准确率较enet更高。7.本发明设计了一种基于可变形卷积的rgb图像数据引导的深度补全模型,该模型基于enet的基本结构,从改进模型结构、增加可变形卷积、添加额外的监督信息三个方面提出了一种改进的深度补全模型,实验表明,这种改进的深度补全网络模型具有比enet更高的补全精度以及相同的速度。8.本发明采用上述深度补全网络模型,首先对kitti数据集中的rgb图像数据、稀疏深度数据和真实深度标签进行预处理,构建训练数据,然后训练可变形卷积的rgb引导深度补全模型,最后通过该深度补全网络模型生成稀疏深度数据对应的密集深度图。9.本发明包括下列步骤:10.步骤1、数据准备:11.1.根据kitti数据集的标准数据划分方式,86000组数据用来训练模型,1000组数据用来验证模型,同时另有1000组数据用来对模型进行测试。其中除测试数据外,其余每组数据均包含rgb图像数据、稀疏深度数据和通过激光雷达扫描获取的真实深度标签,而测试数据仅包含rgb图像数据和稀疏深度数据。12.步骤2、训练深度补全模型:13.1.构建用于深度补全的网络模型,所述网络模型分为四个部分。1)第一部分为rgb图像数据特征提取模块,用于提取输入的rgb图像数据的特征,该模块的网络主体架构为resnet‑50架构(https://openaccess.thecvf.com/content_cvpr_2016/html/he_deep_residual_learning_cvpr_2016_paper.html),rgb图像从网络输入层开始,依次经过1个常规卷积层和10个残差卷积模块,每个残差卷积模块包含2个卷积层。残差卷积模块中的常规卷积替换为可变形卷积,可变形卷积原理(如图3),以保证物体边缘深度补全的准确性(如图4)。2)第二部分为稀疏深度数据特征提取模块,该部分的网络结构包括1个常规卷积层和10个残差卷积模块,每个残差卷积模块包含2个卷积层,残差卷积模块中的卷积为常规卷积。第一部分的rgb图像数据经过各层各模块后,最终生成的特征图与第二部分最终生成的特征图直接相加融合,融合后的特征图尺寸大小为38×11×1024(横向长度、纵向长度、通道方向深度)。3)第三部分为rgb图像特征反卷积模块,由第一、二部分输出的融合后的特征依次经过5层反卷积层,分别得到76×22×512、152×44×256、304×88×128、608×176×64、1216×352×32尺寸大小的特征图,再经过一个常规卷积层得到1216×352×2大小的输出,分别为1216×352×1大小的深度补全中间结果和1216×352×1大小的置信权重。4)第四部分为深度增强模块,用以对第三部分生成的深度补全中间结果进行增强,该部分的输入为第三部分产生的深度补全中间结果和稀疏深度数据的按通道方向进行拼接的结果,输出为深度补全增强结果和置信权重。深度增强模块的结构,包括依次串连的1个常规卷积层、10个残差卷积模块、5个反卷积模块和1个常规卷积层。第三部分第五至第一层得到的特征图分别与该部分常规卷积层及编码器的第二、第四、第六、第八层按通道方向进行特征拼接,用以丰富深度增强的特征层次,第四部分的输出与第三部分得到的输出进行加权融合,得到最终的深度预测结果。14.2.设置损失函数权重参数,深度补全网络模型的损失函数由深度补全最终结果与深度标签的均方误差、深度补全中间结果与深度标签均方误差的0.2倍以及深度补全增强结果与深度标签均方误差的0.2倍组成,具体计算方式如下:15.l=l(d) λ1l(dc) λ2l(dr)16.其中,l(d)为最终深度补全结果与深度标签的均方误差,l(dc)和l(dr)分别为深度补全中间结果与深度标签均方误差及深度补全增强结果与深度标签均方误差,λ1=λ2=0.2。17.3.设置训练参数,其中训练参数包括模型学习优化方式、学习率及最大迭代次数等。本模型采用adam优化方法,β1和β2分别设置为0.9和0.99,权重衰减为0.000001。共迭代30次,初始学习率设置为0.001,在第10、15和25个迭代,学习率分别衰减为原来的1/2,1/5和1/10。18.4.读取一个批次的数据(rgb图像数据、稀疏深度数据、真实深度标签),将rgb图像数据和稀疏深度数据输入深度补全网络模型,得到的结果与真实深度标签计算损失并反向传播梯度。19.5.学习率0.001情况下训练10轮,之后更改学习率为0.0005训练5轮,更改学习率为0.0001训练10轮,最后更改学习旅为0.00001训练5轮,保存在验证集中表现最好的模型。20.步骤3、训练自编码模型:21.1.自编码模型的网络结构与深度补全模型的网络结构一致。自编码模型的第一部分使用可变形卷积模块提取rgb图像数据特征;第二部分使用常规卷积提取真实深度标签的特征;第三部分将融合的rgb图像数据特征和真实深度标签的特征进行反卷积得到深度补全中间结果和置信权重;第四部分将深度补全中间结果和真实深度标签按通道方向拼接后作为输入,输出深度补全增强结果和置信权重,深度补全中间结果和深度补全增强结果按其对应的置信权重进行融合。22.2.损失函数权重等各类参数的设置及训练方式,均与步骤二中相同,损失函数如下:23.l=l(d) λ1l(dl) λ2l(dr)24.其中,l(d)为自编码补全结果与深度标签的均方误差,l(dl)和l(dr)分别为自编码补全中间结果与深度标签均方误差及自编码补全增强结果与深度标签均方误差,λ1=λ2=0.2。采用adam优化方法,β1和β2分别设置为0.9和0.99,权重衰减为0.000001。共迭代30次,初始学习率设置为0.001,在第10、15和25个迭代,学习率分别衰减为原来的1/2,1/5和1/10。学习率0.001情况下训练10轮,之后更改学习率为0.0005训练5轮,更改学习率为0.0001训练10轮,最后更改学习旅为0.00001训练5轮,保存在验证集中表现最好的模型。25.步骤4、利用判别器模型引入额外的监督信息:26.1.构建判别器模型,该模型的主体架构为vgg‑16(https://arxiv.org/abs/1409.1556),输入为步骤2和步骤3中深度增强模块反卷积部分最后一个反卷积模块输出的特征,输入大小为b×1216×352×32,输出大小为b×1,其中b为一次输入一个批量的大小。27.2.利用深度补全模型输出的特征与自编码模型输出的特征训练判别器模型。依次将真实数据(自编码模型特征)和假数据(深度补全模型特征)输入判别器模型,得到真实数据得分和假数据得分。损失函数由两部分组成:一个批量中假数据得分的均值和一个批量中真实数据得分均值的负值。28.3.生成额外监督信息。将深度补全模型深度增强模块反卷积部分最后一个反卷积模块输出的特征,输入到训练好的判别器模型中,产生的得分负值加入到深度补全模型的损失函数,作为额外的监督信息。29.本发明在充分分析深度补全模型特征不足的基础上,从改变网络结构、增加可变形卷积、引入额外的监督信息等三个方面提出了一种改进的深度补全模型,实验表明,这种改进模型在与enet预测速度相同的情况下,具有更高的预测精度。附图说明30.图1为本发明的整体流程示意图;31.图2为本发明提出的深度补全模型网络结构图;32.图3为可变形卷积实现原理图;33.图4为可变形卷积与常规卷积的深度补全效果对比图;34.图5为双线性插值法应用于不同数据的对比图;35.图6为深度补全结果;36.图7判别器模型网络结构图;37.图8反卷积部分特征图;具体实施方案38.为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图对本发明作进一步详细描述。39.根据本技术的实施例,提供了用于根据稀疏深度信息生成稠密深度图的深度补全模型。深度补全由例如计算机程序实现,并由处理器运行该计算机程序时,例化根据本技术实施例的深度补全模型。40.参见图1,本发明用于深度补全时,其具体处理步骤如下:41.1、数据准备。42.训练本发明提出的深度补全模型所使用的数据集为kitti开源数据集,该数据集提供了rgb图像数据以及相对应稀疏深度图,这些稀疏深度图是通过将3d激光雷达点投影到相对应的图像帧获得的。rgb图像数据的分辨率为1241×376,在稀疏深度图中大约有5%的的像素是有效的(深度值>0)而相对应的密集深度标签中有16%的像素是有效的。43.该数据集包含86000例训练样本,7000例验证样本,1000例测试样本,且每例样本对应1张rgb图像数据,1张稀疏深度图数据,1张深度标签及相机参数(训练时随机从中选取5例样本及样本对应的相机参数作为输入)。44.为了消除异常数据带来的影响,使用python提供的numpy库(https://numpy.org/doc/stable/reference/)分别对rgb图像数据和稀疏深度数据进行归一化操作,使rgb图像各像素值和各深度值的取值范围限定在[0,1]内。为了数据的多样化,对每例样本中的三种数据(rgb图像数据,稀疏深度数据,真实深度标签)进行同样大小的随机裁剪操作,使图像尺寸统一为1216×352。[0045]2、搭建网络。[0046](1)利用pytorch深度学习框架(https://proceedings.neurips.cc/paper/2019/hash/bdbca288fee7f92f2bfa9f7012727740‑abstract.html),构建本发明提出的深度补全网络模型,如图2所示。本技术实施例的深度补全模型由rgb图像数据特征提取模块(图2左中部)、稀疏深度数据特征提取模块(图2左上部)、rgb图像反卷积模块(图2右上部)、深度增强模块(图2下部)。[0047]rgb图像数据特征提取模块的网络主体架构基于resnet‑50(https://openaccess.thecvf.com/content_cvpr_2016/html/he_deep_residual_learning_cvpr_2016_paper.html),并将其中基本卷积模块的卷积层替换为可变形卷积,该部分需训练可变形卷积的偏置权重即卷积核权重。该部分的输入是数据准备过程中获得rgb图像数据,数据从网络输入层(输入1)开始,依次经过1层常规卷积层(3x3conv)和10个残差卷积模块(dcresblock)。为了增强模型对rgb图像数据中物体不规则边缘的适应能力,将残差卷积模块中的常规卷积替换为可变形卷积(deformableconvolution),可变形卷积为每一个卷积采样点加上了一个偏移(也称为偏置)。例如,对于输入的一张特征图,假设要执行的卷积操作是3×3,在可变形卷积层中,除了原本要学习3×3大小的卷积核(卷积核(一))用于学习特征,还需要定义另外一个3×3的卷积核(卷积核(二))用于学习偏置,其与原特征图卷积输出结果的维度与原特征图的大小相同,通道数为2n(n为原特征图通道数),如图3,该输出代表了一组原采样位置的偏置。在实际计算过程中,由于偏置可能不为整数,因此实际的采样位置可能位于相邻的四个特征值之间,在该情况下,可根据相邻四个特征值利用双线性插值法计算出实际特征值,该计算出的特征值与卷积核(一)进行卷积运算得到实际的特征。[0048]可变形卷积的计算过程如下[0049][0050][0051]其中p0表示一个3x3大小特征图的中心特征点,pn表示p0周围的特征点,δpn表示相对于pn的偏置,w(pn)表示pn对应的卷积核的权重,x(p0)表示p0位置的特征值,y(p0)表示输出特征图p0位置的特征值。[0052]对于可变形卷积中使用的双线性插值法,有如下定义:[0053][0054]g(q,p)=g(qx,px)·g(qy,py)[0055]其中p=p0 pn δpn,q表示p周围临近的四个特征点,且g(a,b)=max(0,1‑|a‑b|)。[0056]图4展示了可变形卷积与常规卷积的深度补全效果对比。图4的上半部分依次表示rgb图像数据、可变形卷积在rgb图像数据框选区域中的作用效果、使用可变形卷积的深度补全效果;下半部分依次表示rgb图像数据、常规卷积在rgb图像数据框选区域中的作用效果、使用常规卷积的深度补全效果。通过学习到的偏置,提取特征点的位置可以拟合rgb图像数据中物体形状的变换,保证物体边缘深度补全的准确性。[0057]图5双线性插值法应用于不同数据的对比。图5的左图为稀疏深度数据,其中空白区域表示深度值缺失的像素(深度值为0),在该情况下采用双线性插值法产生的数据是无效的,因此无法将可变形卷积应用于提取稀疏深度数据的特征;右图为rgb图像数据,其中的各个像素点都是有效数据,采用双线性插值法产生的数据同样有效,因此可以将可变形卷积应用于提取rgb图像数据的特征。[0058]稀疏深度数据特征提取模块的网络主体架构与rgb图像特征提取模块相同,包括一个常规卷积层(3x3conv)和10个残差卷积模块,但由于使用双线性插值法的可变形卷积在离散深度数据中会产生误差,如图5,其残差卷积模块中的卷积层采用常规卷积。rgb图像数据特征提取模块的各层输出特征与稀疏深度数据特征提取模块的相应特征按元素相加,rgb图像数据依次经过第1个常规卷积层(图2中(12))、第2个残差卷积模块(图2中(14))、第4个残差卷积模块(图2中(16))、第6个残差卷积模块(图2中(18))、第8个残差卷积模块(图2中(20))和第10个残差卷积模块(图2中(22))后分别得到大小为1216×352×32、608×176×64、304×88×128、152×44×256、76×22×512、38×11×1024的特征图,此过程得到的特征图与稀疏深度数据产生特征图依次对应相加,其中(1)、(3)、(5)、(7)、(9)、(11)模块的输出为稀疏深度数据产生的特征图,即模块(1)与(12)的输出、(3)与(14)的输出、(5)与(16)的输出、(7)与(18)的输出、(9)与(20)的输出分别按元素相加,产生大小不变的新特征图,新特征图作为稀疏深度数据特征提取部分残差卷积模块的输入继续向前传播。[0059]rgb图像特征反卷积模块,用于对融合后的rgb图像特征和稀疏深度特征进行升维,生成密集深度图。该部分的输入是rgb图像数据特征提取模块的输出(图2中(22)的输出)和稀疏深度数据特征提取模块的输出(图2中(11)的输出)按元素相加产生的特征图,其大小为38×11×1024,该特征图依次经过5个反卷积模块(图2中的(23)、(24)、(25)、(26)、(27))分别得到大小为76×22×512、152×44×256、304×88×128、608×176×64、1216×352×32的特征图,其中反卷积模块包含反卷积层、归一化层和激活层。此过程中得到的特征图(每一个deconv模块的输出)依次与稀疏深度数据特征提取模块的第8个、第6个、第4个、第2个残差卷积模块及第一个常规卷积产生的特征相加,即图2中(1)与(27)的输出、(3)与(26)的输出、(5)与(25)的输出、(7)与(24)的输出、(9)与(23)的输出分别按元素相加。最终的特征图(图2中(27)的输出)经过1个常规卷积层(3x3conv)得到大小为1216×352×2的输出,输出包含大小为1216×352×1的深度补全中间结果和大小为1216×352×1的置信权重。[0060]深度增强模块用于增强rgb图像反卷积模块得到深度补全中间结果,其网络结构包含深度增强模块特征提取部分(图2中((29)‑(39))和深度增强模块反卷积部分(图2中(40)‑(45))。深度增强模块的输入(图2中输入3)是上述得到深度补全中间结果(图2中(28)的输出)和离散深度数据(与输入1相同)按通道方向进行拼接,获得大小为1216×352×2的联合数据,该联合数据依次经过1个常规卷积层、10个残差卷积模块、5个反卷积模块和1个常规卷积层,得到大小为1216×352×2的输出(图2中(45)的输出),输出包含大小为1216×352×1的深度补全增强结果和大小为1216×352×1的置信权重。[0061]在深度增强模块特征提取部分,rgb图像特征反卷积模块第5至第1个反卷积模块产生的特征图分别与该部分第1个常规卷积层(3x3conv)及第2、4、6、8个残差卷积模块产生的特征按通道方向进行拼接(图2中(a)、(b)、(c)、(d)、(e)标识部分),使特征层次更加丰富,保证了深度增强过程中特征完整性,其中残差卷积模块中的卷积为常规卷积层。[0062]深度增强模块的反卷积部分与rgb图像特征反卷积部分相同,由以上两部分得到的密集深度图加权融合,得到最终的深度预测结果。[0063](2)自编码模型的结构与深度补全模型的结构完全相同,包括上述的rgb图像数据特征提取模块、稀疏深度特征提取模块、rgb图像反卷积模块和深度增强模块。[0064](3)判别器模型的主体架构为vgg‑16模型(https://arxiv.org/abs/1409.1556),如图7,依次包括2个常规卷积模块、最大池化层、2个常规卷积模块、最大池化层、3个常规卷积模块、最大池化层、三个常规卷积模块、最大池化层、三个常规卷积模块、最大池化层、3个全连接层。[0065]2、损失函数设计。[0066]深度补全模型与自编码模型的损失函数均是预测深度与实际深度标签的均方根误差,表示预测深度与实际深度标签中有效深度值的差距,可定义为:[0067][0068]其中pv表示在实际深度标签中具有有效深度值的像素集合,p为单个像素,表示实际深度标签(gt表示实际深度标签),dp表示预测深度。(‖x‖表示x的二范数)在补全模型训练过程中,实际使用的的损失为:[0069]l=l(d) λ1l(dc) λ2l(dr)[0070]其中l(d)表示联合预测结果的损失,l(dc)表示深度补全中间结果损失,l(dr)表示深度补全增强结果损失。λ1和λ2均为超参数,在训练的初始阶段设置λ1=λ2=0.2,之后设置λ1=λ2=0。[0071]为使深度补全模型中反卷积部分(图2中(44))输出的特征分布与真实特征分布更加接近,在判别器模型训练过程中采用wassersteindistance评估数据分布之间的差异,实验结果如图8(从上到下依次是原始模型特征分布、引入额外监督后模型特征分布)。图8表示在使用判别器模型引入额外监督信息前后,深度增强模块反卷积部分最后一个反卷积模块输出的对比,其中上图为引入额外监督信息前的结果,下图为引入额外监督信息后的结果。[0072]判别器模型损失定义如下:[0073][0074]其中,xg和xr分别为深度补全模型的特征和真实特征,n为一个批次输入数据的数量,f代表判别器模型;判别器训练完成后,将判别器的输出作为额外监督损失,额外监督损失定义如下:[0075][0076]在引入额外监督信息后,补全模型的完整损失函数表示为:[0077]l=l(d) λ1l(dc) λ2l(dr) ηlex[0078]其中η为额外监督信息的超参数,初始为η=0.5,在训练的后期η=0.1。[0079]3、训练模型。[0080]模型采用分阶段训练策略,首先分别独立训练深度补全模型和自编码模型,其中深度补全模型的输入为rgb图像数据和稀疏深度数据,输出的深部补全最终结果与实际深度标签按照上述定义的损失函数计算损失,并反向传播梯度以更新模型参数。学习率0.001情况下训练10轮,之后更改学习率为0.0005训练5轮,更改学习率为0.0001训练10轮,最后更改学习旅为0.00001训练5轮,保存在验证集中表现最好的模型。[0081]自编码模型的输入为rgb图像数据和实际深度标签,输出的自编码结果与实际深度标签按照上述定义的损失函数计算损失,其训练参数及训练过程与深度补全模型相同。[0082]训练判别器模型时,深度补全模型深度增强模块反卷积部分(图2中(44))的输出和自编码模型相应位置的输出依次作为判别器的输入,两组输出可由上述判别器损失公式计算损失,在固定深度补全模型和自编码模型参数的基础上采用adam优化方法单独训练判别器20轮,β1和β2分别设置为0.5和0.9,学习率固定为0.0001。[0083]4、引入额外的监督信息。[0084]将深度补全模型中深度增强模块反卷积部分(图2中(44))的输出,输入到训练好的判别器模型中,产生的结果的负值加入到深度补全模型的损失函数,作为额外的监督信息(3中的lex)。[0085]5、在数据集上对本发明的模型进行评估。[0086]我们基于kitti数据集对所提的三维重建模型进行评估。评价指标选用rmse、mae、irmse、imae(rmse表示均方根误差,mae表示平均绝对误差,irmse表示真实值与预测值误差倒数的均方根,imae表示真实值与预测值误差倒数的平均绝对值),同时也评估模型在深度补全上的实际表现效果图,测试集划分采用hu等人工作数据集划分策略(86000组数据用于训练模型,7000组数据用于验证模型,1000组数据用于测试模型)。我们将该根据本技术实施例的三维重建模型与之前工作guidenet、enet、nlspn、cspn 以及acmnet等进行了对比。相较于未改进前重建模型enet,改进后模型的rmse指标降低了3.34,mae降低了0.85,irmse降低了0.02,imae降低了0.01,运行时间消耗仅为guidenet(0.14s)的14.2%。此外,我们还对比了这些模型在重建形状上的实际表现,如图6(从上到下依次是rgb图像数据、离散深度数据、实际深度标签、enet模型补全结果、本模型补全结果),我们的方法在大多样例中的表现优于改进前的enet方法。[0087]guidenet、enet、nlspn、cspn 以及acmnet的工作与结果可从下列链接中获得:[0088]guidenet:https://ieeexplore.ieee.org/abstract/document/9286883[0089]enet:https://arxiv.org/pdf/2103.00783[0090]nlspn:https://arxiv.org/pdf/2007.10042v1[0091]cspn :https://ojs.aaai.org/index.php/aaai/article/view/6635/6489acmnet:https://ieeexplore.ieee.org/abstract/document/9440471[0092]本专利申请中,深度补全模型也称深度补全网络或深度补全网络模型,自编码模型也称为自编码网络或自编码网络模型,判别器模型也称为判别器网络或判别器网络模型。[0093]以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。当前第1页12当前第1页12
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜