一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于语义和纹理特征融合的SAR图像飞机目标识别方法

2022-12-13 22:52:02 来源:中国专利 TAG:

基于语义和纹理特征融合的sar图像飞机目标识别方法
技术领域
1.本发明涉及雷达目标识别技术领域,具体涉及基于语义和纹理特征融合的sar图像飞机目标识别方法。


背景技术:

2.合成孔径雷达(synthetic aperture radar,sar)技术,是采用搭载在卫星或飞机上的移动雷达,获得高精度地理区域雷达目标图像的一种脉冲雷达技术。它具有全天候、全天时的工作能力和一定的穿透能力。鉴于这些优点,它被广泛应用于矿产探测、海洋环境监测和军事防御等领域。特别地,无论在军事领域或者民用领域中对于飞机目标识别的研究都是具有重要意义的,因此sar图像飞机识别的研究受到了国内外学者的广泛关注。
3.传统飞机目标识别方法主要利用一些手工设置的特征区分不同的飞机类型,这类特征包括几何形状、纹理特征、散射特征、尺度不变特征、灰度特征等。分类器利用各类特征间的差异性来判定输入样本的类别,广泛应用的分类器包括支持向量机,k-近邻算法,及朴素贝叶斯算法等。基于传统手工特征的sar目标方法大多需要复杂的数学理论,重复的人工修改模型,且这种方法的模型泛化能力较弱,费时费力且效率低下。
4.随着更多星载sar系统的在轨运行,可获取的sar数据愈发增多,以及受益于人工智能大数据研究的热潮,尤其是深度卷积神经网络技术的迅速发展,使得进行大规模sar数据飞机目标识别的研究成为可能。深度学习将以往需要人工设计的特征交给复杂的网络结构便可以获得一个较好的结果。深度网络自动提取的目标特征能提供比传统手工特征更好的表示能力。因此,基于深度神经网络的模型几乎完全主宰了图像目标识别领域。然而,由于sar的特殊成像机制,使得同一目标在不同的成像条件下,成像结果往往会有较大差异,这对强烈依赖训练数据的神经网络是非常不利的。因此仅利用深度神经网络提取出的抽象特征进行sar飞机目标分类,限制了识别精度以及识别方法的鲁棒性。
5.申请人在研究中发现,纹理是一种重要的视觉线索,是图像中普遍存在又难以描述的特征,而sar目标图像的纹理随着雷达系统的波长、分辨率和入射角而变化,也会随着目标的组成成分和背景特征的排列状态而变化。也就是说,不同类型的飞机目标之间的差异,往往不在于灰度大小,而在于它们的纹理差别。因此,若能够将纹理特征和深度学习网络得到的特征结合,便能够提高模型的泛化能力,进而提高分类的精度。因此,如何设计一种能够将目标纹理特征和深度学习网络得到的高层语义特征结合的sar图像飞机目标识别方法是亟需解决的技术问题。


技术实现要素:

6.针对上述现有技术的不足,本发明所要解决的技术问题是:如何设计一种基于语义和纹理特征融合的sar图像飞机目标识别方法,以能够将目标纹理特征和深度学习网络得到的高层语义特征结合,进而能够提高模型的泛化能力和精度,从而能够提高sar图像飞机目标识别的准确性和有效性。
7.为了解决上述技术问题,本发明采用了如下的技术方案:
8.基于语义和纹理特征融合的sar图像飞机目标识别方法,包括:
9.s1:获取待识别的sar图像;
10.s2:将待识别的sar图像输入训练后的目标识别模型,输出对应的目标识别预测值;
11.训练目标识别模型时,首先将包含若干个sar图像的训练集输入目标识别模型;其次通过深度神经网络提取sar图像的高层语义特征;同时提取sar图像的纹理特征,并构建纹理特征矩阵;然后融合高层语义特征和纹理特征矩阵,生成信息融合特征;最后基于信息融合特征进行预测,生成目标识别预测值,并基于目标识别预测值完成模型训练;
12.s3:基于目标识别模型输出的目标识别预测值实现待识别sar图像的目标识别。
13.优选的,步骤s2中,将resnet34作为用于提取高层语义特征的深度神经网络的主干网络。
14.优选的,通过如下步骤提取高层语义特征:
15.s201:将sar图像输入卷积层,输出特征图f1;
16.s202:将特征图f1输入注意力模块,输出附加注意力的特征图f2;
17.s203:将附加注意力的特征图f2输入堆叠残差层进行残差学习,加深网络的深度,得到具有高层语义信息的特征图f3作为高层语义特征。
18.优选的,步骤s202中,注意力模块包括通道注意力模块和空间注意力模块;
19.将特征图f1作为通道注意力模块的输入:首先特征图f1分别经过全局最大池化和全局平均池化,得到特征图f
1,1
和f
1,2
;其次将特征图f
1,1
和f
1,2
分别送入神经网络,并将输出的特征图f
1,1

和f
1,2

进行基于单个元素的加和操作,再经过sigmoid激活操作得到通道特征图f1′
;最后将通道特征图f1′
与特征图f1做乘法,得到通道注意力特征f
1cam

20.将通道注意力特征f
1cam
作为空间注意力模块的输入:首先通道注意力特征f
1cam
分别经过基于通道的全局最大池化和全局平均池化,得到特征图f
1,1cam
和f
1,2cam
;其次对特征图f
1,1cam
和f
1,2cam
进行通道拼接,得到通道拼接特征图;然后将通道拼接特征图经过卷积操作降维为1个通道,再经过sigmoid激活函数操作生成空间注意力特征f
1sam
;最后将空间注意力特征f
1sam
和通道注意力特征f
1cam
做乘法,得到附加注意力的特征图f2。
21.优选的,步骤s203中,堆叠残差层由四个相连接的残差层组成。
22.优选的,步骤s2中,通过如下步骤构建纹理特征矩阵:
23.s211:在sar图像上定义一个半径为r的圆形邻域窗口,设圆形邻域窗口内有p个采样点,计算每个采样点所对应像素位置的坐标值并确定其像素灰度值;
24.s212:以圆形邻域窗口内中心点所对应像素位置的像素灰度值为阈值,然后将p个采样点的像素灰度值与阈值进行比较:若大于阈值,则该采样点所对应的像素位置被标记为1;否则,标记为0;
25.s213:通过步骤s212在圆形邻域窗口内获取p个二进制数,然后将p个二进制数转换为十进制数,并作为圆形邻域窗口中心点所对应像素位置的纹理特征值;
26.s214:将圆形邻域窗口在sar图像上滑动,并重复步骤s211至s213,以计算sar图像上每个像素位置的纹理特征值,进而构成sar图像的纹理特征矩阵。
27.优选的,步骤s211中,通过如下公式计算采样点的坐标值:
[0028][0029]
式中:(x
p
,y
p
),p∈p表示第p个采样点的坐标值;(xc,yc)表示圆形邻域窗口中心点的坐标值;
[0030]
如果(x
p
,y
p
)不在整数位置上,则通过双线性差值确信采样点所对应像素位置的像素值,公式如下:
[0031][0032]
式中:f(x1,y1)、f(x1,y2)、f(x2,y1)、f(x2,y2)分别表示sar图像中与采样点所对应像素位置最近邻的四个像素点的像素灰度值,即x
1-x2=1,y
1-y2=1,u=x-x1,v=y-y1分别表示采样点位置到最近邻四个像素点构成的矩形的横向及纵向距离;i(x
p
,y
p
)表示坐标为(x
p
,y
p
)的采样点所对应像素位置的像素灰度值。
[0033]
优选的,步骤s213中,通过如下公式计算纹理特征值:
[0034][0035]
式中:lbp(xc,yc)表示坐标为(xc,yc)的圆形邻域窗口中心点所对应像素位置的纹理特征值;ic表示中心像素点(xc,yc)的灰度值;i
p
表示圆形邻域窗口内第p个采样点所对应像素位置的像素灰度值;s表示符号函数。
[0036]
优选的,步骤s2中,分别将高层语义特征和纹理特征矩阵转换为向量;然后将高层语义特征和纹理特征对应的向量进行拼接,得到一个新的特征向量;最后将新的特征向量输入全连接层进行信息融合,进而输出对应的信息融合特征。
[0037]
优选的,步骤s2中,将信息融合特征输入softmax函数,输出对应的目标识别预测值;然后根据预设的训练迭代次数和梯度下降批尺寸结合交叉熵损失函数完成模型训练。
[0038]
本发明中基于语义和纹理特征融合的sar图像飞机目标识别方法,具有如下有益效果:
[0039]
本发明分别提取sar图像的高层语义特征和纹理特征并融合得到信息融合特征,进而基于信息融合特征进行预测以完成模型训练,一方面,高层语义特征与sar图像中的目标高度关联,包含丰富的目标信息,有利于提高目标的正确识别率,但是目标位置比较粗略,另一方面,纹理特征能提供判别性的目标信息,且具有灰度和旋转不变性的要求,具有目标位置准确的优势,但包含的特征语义信息比较少,因此将高层语义特征与纹理特征融合,不仅能够在保证飞机目标关联性的前提下为目标识别模型提供更丰富的判别性目标信息,还能提供准确的目标位置,进而能够有效提升sar飞机目标的识别准确率,解决了现有sar目标分类仅依赖深度神经网络所带来的瓶颈。即本发明能够将目标纹理特征和深度学习网络得到的高层语义特征结合,进而能够提高模型的泛化能力和精度,从而能够提高sar图像飞机目标识别的准确性和有效性。
[0040]
本发明以resnet34为主干网络提取飞机目标的高层语义特征,并结合cbam注意力机制引导网络关注目标自身的信息,而不过度关注背景杂波和斑点噪声,能够保证高层语义特征提取的有效性和准确性,即能够提取得到与sar图像中的飞机目标关联度更高的高层语义特征,从而能够进一步提高sar图像飞机目标识别的准确性。
[0041]
本发明通过圆形lbp算子提取sar图像的纹理特征,能够满足不同尺寸和频率纹理的需求,能够适应不同尺度的纹理特征并达到灰度和旋转不变性的要求,即能够保证纹理特征提取的有效性和准确性,使得纹理特征能够更好的提供判别性的目标信息,从而能够进一步提高sar图像飞机目标识别的准确性。
附图说明
[0042]
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
[0043]
图1为基于语义和纹理特征融合的sar图像飞机目标识别方法的逻辑框图;
[0044]
图2为目标识别模型的工作原理图;
[0045]
图3为目标识别模型的网络结构图;
[0046]
图4为五类sar飞机目标及对应的光学图像;
[0047]
图5为cbam注意力模块的网络结构图;
[0048]
图6为对每类飞机目标提取的纹理特征可视图。
具体实施方式
[0049]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例都属于本发明保护的范围。
[0050]
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。此外,术语“水平”、“竖直”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中
间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
[0051]
下面通过具体实施方式进一步详细的说明:
[0052]
实施例:
[0053]
本实施例中公开了一种基于语义和纹理特征融合的sar图像飞机目标识别方法。
[0054]
如图1所示,基于语义和纹理特征融合的sar图像飞机目标识别方法,包括:
[0055]
s1:获取待识别的sar图像;
[0056]
s2:将待识别的sar图像输入训练后的目标识别模型,输出对应的目标识别预测值;
[0057]
结合图2和图3所示,训练目标识别模型时:首先将包含若干个sar图像的训练集输入目标识别模型;其次通过深度神经网络提取sar图像的高层语义特征;同时提取sar图像的纹理特征,并构建纹理特征矩阵;然后融合高层语义特征和纹理特征矩阵,生成信息融合特征;最后基于信息融合特征进行预测,生成目标识别预测值,并基于目标识别预测值完成模型训练;
[0058]
s3:基于目标识别模型输出的目标识别预测值实现待识别sar图像的目标识别。
[0059]
本实施例中,目标识别预测值是指目标识别模型预测的输出概率,其是一个向量,目标识别预测值最大的元素对应的位置就是样本的类别。
[0060]
以飞机目标为例,如图4所示,飞机样本共有五类(如民用机、战斗机、轰炸机、运输机和加油机)。具体来说,以一个飞机样本为例,网络最终输出的目标识别预测值假设是[0.04,0,0.92,0.02,0.02]这样一个长度为5的概率向量,且所有值加起来等于1,每个位置的元素值就对应样本属于该类别的概率,即0.92对应的类别:轰炸机。
[0061]
本发明分别提取sar图像的高层语义特征和纹理特征并融合得到信息融合特征,进而基于信息融合特征进行预测以完成模型训练,一方面,高层语义特征与sar图像中的目标高度关联,包含丰富的目标信息,有利于提高目标的正确识别率,但是目标位置比较粗略,另一方面,纹理特征能提供判别性的目标信息,且具有灰度和旋转不变性的要求,具有目标位置准确的优势,但包含的特征语义信息比较少,因此将高层语义特征与纹理特征融合,不仅能够在保证飞机目标关联性的前提下为目标识别模型提供更丰富的判别性目标信息,还能提供准确的目标位置,进而能够有效提升sar飞机目标的识别准确率,解决了现有sar目标分类仅依赖深度神经网络所带来的瓶颈。即本发明能够将目标纹理特征和深度学习网络得到的高层语义特征结合,进而能够提高模型的泛化能力和精度,从而能够提高sar图像飞机目标识别的准确性和有效性。
[0062]
具体实施过程中,将resnet34作为用于提取高层语义特征的深度神经网络的主干网络。resnet34的网络结构及参数如表1所示。
[0063]
表1resnet34的网络结构及参数
[0064][0065]
结合图3所示,通过如下步骤提取高层语义特征:
[0066]
s201:将sar图像输入卷积核大小为7
×
7,步长为2,通道数为64的卷积层,输出特征图f1;
[0067]
s202:将特征图f1输入cbam(convolutional block attention module)注意力模块,输出附加注意力的特征图f2;
[0068]
s203:将附加注意力的特征图f2输入堆叠残差层进行残差学习,加深网络的深度,得到具有高层语义信息的特征图f3作为高层语义特征。
[0069]
本实施例中,堆叠残差层由四个相连接的残差层组成。
[0070]
如图5(a)所示,注意力模块包括通道注意力模块(channel attention module,cam)和空间注意力模块(spatial attention module,sam);
[0071]
如图5(b)所示,将特征图f1作为通道注意力模块的输入:首先特征图f1分别经过全局最大池化和全局平均池化,得到特征图f
1,1
和f
1,2
;其次将特征图f
1,1
和f
1,2
分别送入神经网络,并将输出的特征图f
1,1

和f
1,2

进行基于单个元素的加和操作,再经过sigmoid激活操作得到通道特征图f1′
;最后将通道特征图f1′
与特征图f1做乘法,得到通道注意力特征f
1cam

[0072]
如图5(c)所示,将通道注意力特征f
1cam
作为空间注意力模块的输入:首先通道注意力特征f
1cam
分别经过基于通道的全局最大池化和全局平均池化,得到特征图f
1,1cam
和f
1,2cam
;其次对特征图f
1,1cam
和f
1,2cam
进行通道拼接,得到通道拼接特征图;然后将通道拼接特征图经过7
×
7卷积操作降维为1个通道,再经过sigmoid激活函数操作生成空间注意力特征f
1sam
;最后将空间注意力特征f
1sam
和通道注意力特征f
1cam
做乘法,得到附加注意力的特征图f2。
[0073]
本发明以resnet34为主干网络提取飞机目标的高层语义特征,并结合cbam注意力
机制引导网络关注目标自身的信息,而不过度关注背景杂波和斑点噪声,能够保证高层语义特征提取的有效性和准确性,即能够提取得到与sar图像中的飞机目标关联度更高的高层语义特征,从而能够进一步提高sar图像飞机目标识别的准确性。
[0074]
具体实施过程中,通过圆形lbp(local binary pattern,lbp)算子提取纹理特征。
[0075]
通过如下步骤构建纹理特征矩阵:
[0076]
s211:在sar图像上定义一个半径为r的圆形邻域窗口,设圆形邻域窗口内有p个采样点,计算每个采样点所对应像素位置的坐标值并确定其像素灰度值;
[0077]
本实施例中,由于使用的数据集存在严重的噪声干扰,因此先对原始的sar图像进行预处理,取归一化幅度值70%以上的像素值,以减少明显的噪声干扰。
[0078]
通过如下公式计算采样点的坐标值:
[0079][0080]
式中:(x
p
,y
p
),p∈p表示第p个采样点的坐标值;(xc,yc)表示圆形邻域窗口中心点的坐标值;
[0081]
如果(x
p
,y
p
)不在整数位置上,则通过双线性差值确信采样点所对应像素位置的像素值,公式如下:
[0082][0083]
式中:f(x1,y1)、f(x1,y2)、f(x2,y1)、f(x2,y2)分别表示sar图像中与采样点所对应像素位置最近邻的四个像素点的像素灰度值,即x
1-x2=1,y
1-y2=1,u=x-x1,v=y-y1分别表示采样点位置到最近邻四个像素点构成的矩形的横向及纵向距离;i(x
p
,y
p
)表示坐标为(x
p
,y
p
)的采样点所对应像素位置的像素灰度值。
[0084]
s212:以圆形邻域窗口内中心点所对应像素位置的像素灰度值为阈值,然后将p个采样点的像素灰度值与阈值进行比较:若大于阈值,则该采样点所对应的像素位置被标记为1;否则,标记为0;
[0085]
s213:通过步骤s212在圆形邻域窗口内获取p个二进制数,然后将p个二进制数转换为十进制数,并作为圆形邻域窗口中心点所对应像素位置的纹理特征值;
[0086]
通过如下公式计算纹理特征值:
[0087][0088]
式中:lbp(xc,yc)表示坐标为(xc,yc)的圆形邻域窗口中心点所对应像素位置的纹理特征值;ic表示中心像素点(xc,yc)的灰度值;i
p
表示圆形邻域窗口内第p个采样点所对应像素位置的像素灰度值;s表示符号函数。
[0089]
s214:将圆形邻域窗口在sar图像上滑动,并重复步骤s211至s213,以计算sar图像上每个像素位置的纹理特征值,进而构成sar图像的纹理特征矩阵。
[0090]
本发明通过圆形lbp算子提取sar图像的纹理特征,能够满足不同尺寸和频率纹理的需求,能够适应不同尺度的纹理特征并达到灰度和旋转不变性的要求,即能够保证纹理特征提取的有效性和准确性,使得纹理特征能够更好的提供判别性的目标信息,从而能够进一步提高sar图像飞机目标识别的准确性。
[0091]
具体实施过程中,分别将高层语义特征和纹理特征矩阵转换为向量;然后将高层语义特征和纹理特征对应的向量进行拼接,得到一个新的特征向量;最后将新的特征向量输入全连接层进行信息融合,进而输出对应的信息融合特征。
[0092]
具体实施过程中,将信息融合特征输入softmax函数,输出目标识别预测值;然后根据预设的训练迭代次数和梯度下降批尺寸等网络参数结合交叉熵损失函数完成模型训练。
[0093]
为了更好的说明本发明技术方案的优势,本实施例中公开了如下实验。
[0094]
1、评估指标
[0095]
1)总体精度(overall accuracy,oa):oa是指分类正确的样本数占总样本数的比率。通常来说,oa越高,分类准确率越高,如下式所示:
[0096][0097]
其中,tp表示真阳性,fp表示假阳性,tn表示真阴性,fn表示假阴性。
[0098]
2)精确率(precision):表示被预测为正例的实例中实际为正例的比例,如下式所示:
[0099][0100]
3)召回率(recall):表示被预测为正例的实例占所有实际为正例的比例,如下式所示:
[0101][0102]
4)f1-分数:表示为精确率和召回率的加权调和平均,即:
[0103][0104]
5)auc值:首先,roc(receiver operating characteristic curve)曲线是用于衡量识别任务的一种常用性能指标,roc曲线越是靠近左上角,判别效果越好,但在不同roc曲线距离相近时,难以直接判别识别性能的优劣。auc也是衡量识别任务的一种性能指标,其定义为roc曲线下方与坐标轴围成的面积,可以直观反映识别任务的性能。
[0105]
2、实验准备
[0106]
本实验采用的飞机数据集来自于卫星sar大场景图像。共有五类飞机目标图像,每类的sar飞机图像及对应的光学图像如图4所示,将数据集按照7:3的比例划分为训练集和测试集,如表2所示。
[0107]
表2训练集和测试集
[0108][0109]
3、实验设置
[0110]
对resnet34的各种参数进行多次调试之后,选择出使网络性能最优的参数组合。使用预训练的resnet34网络来微调目标识别模型(后续也称为多特征融合网络模型),训练迭代轮次(epoch)设置为30,选用基于小批量训练数据的自适应动量估计算法(adaptive moment estimation,adam)对多特征融合网络模型进行训练,学习率参数(learning rate)、梯度下降批尺寸(batch size)分别选取为0.0001和16,损失函数使用交叉熵损失函数(cross entropy loss)。
[0111]
4、提取纹理特征
[0112]
利用圆形lbp算法提取sar飞机目标的纹理特征时,选用的圆形窗口半径为3,内含8个采样点,提取出的可视化纹理特征图及对应的sar图像如图6所示。可以看出,圆形lbp算法实现了完整飞机目标的纹理特征提取,通过对像素区域的信息进行统计计算,对噪声表现出较强的抑制能力。但由于一些离散杂波点或斑点噪声的干扰,纹理特征图中仍存在一些非目标纹理的特征点。另外,不同飞机目标的纹理特征在机翼及机身处也存在差异,将其与resnet34网络提取的高层语义特征进行特征融合,有利于辅助深度神经网络捕获更具判别性的目标信息,获得更高的识别准确率。
[0113]
5、性能说明
[0114]
为验证本发明中基于多特征融合sar飞机目标识别的性能,分别对resnet-34、引入注意力机制后的模型、以及多特征融合模型在飞机数据集进行目标识别,结果如表3所示。可以看到,仅使用resnet-34时的识别率为95.33%。进一步在resnet-34基础上引入cbam注意力机制后飞机目标的识别率提升至95.63%。融合纹理特征后的识别率为96.35%,比引入注意力机制的模型提高了约0.72个百分点,比resnet-34提高了约1个百分点。识别结果说明了本发明中基于多特征融合sar飞机目标识别方法的有效性,本发明显著提升sar飞机目标的识别精确率。
[0115]
表3性能对比
[0116][0117]
6、模型对比
[0118]
选择六种典型卷积神经网络模型在飞机数据集上进行识别实验,结果如表4所示。
[0119]
结合表4可以看到,本发明的多特征融合模型明显优于所有对比模型。其中,六种对比模型中,efficientnet取得了最高的识别精度,为94.28%,但仍然比本发明的模型低约2个百分点。表5给出了不同网络模型的auc度量结果,可以看出,本发明中多特征融合模型取得了最高的auc值,为0.9952,表现出了比现有最优方法更好的识别性能。
[0120]
表4六种对比模型的性能对比
[0121][0122]
表5六种对比模型的auc性能对比
[0123][0124]
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献