一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于紧框标的识别方法、测量方法及识别装置与流程

2022-12-03 02:33:52 来源:中国专利 TAG:

基于紧框标的识别方法、测量方法及识别装置
1.本技术是申请日为2021年10月19日、申请号为2021112166277、发明名称为基于紧框标的深度学习的测量方法及测量装置的专利申请的分案申请。
技术领域
2.本公开大体涉及基于深度学习的识别技术领域,具体涉及一种基于紧框标的识别方法、测量方法及识别装置。


背景技术:

3.图像中常常包括各种目标的信息,基于图像处理技术识别图像中目标的信息可以自动对目标进行分析。例如,在医学领域,可以对医学图像中的组织对象进行识别,进而能够测量组织对象的尺寸以监测组织对象的变化。
4.近年,以深度学习为代表的人工智能技术得到了显著地发展,其在目标识别或测量等方面的应用也越来越得到关注。研究者们利用深度学习技术对图像中的目标进行识别或进行进一步地测量。具体而言,在一些基于深度学习的研究中,常常利用标注数据对基于深度学习的神经网络进行训练以对图像中的目标进行识别并分割出该目标,进而能够对该目标进行测量。
5.然而,上述的目标识别或测量的方法常常需要精确的像素级别的标注数据用于神经网络的训练,而采集像素级别的标注数据常常需要耗费大量的人力和物力。另外,一些目标识别的方法虽然不是基于像素级别的标注数据,但仅仅是识别图像中的目标,对目标的边界识别还不够精确或在靠近目标的边界位置往往精度较低,不适用于要求精确测量的场景。在这种情况下,对图像中的目标进行测量的精确性还有待于提高。


技术实现要素:

6.本公开是有鉴于上述的状况而提出的,其目的在于提供一种能够识别目标且能够精确地对目标进行测量的基于紧框标的深度学习的测量方法及测量装置。
7.为此,本公开第一方面提供了一种基于紧框标的深度学习的测量方法,是利用基于目标的紧框标进行训练的网络模块对所述目标进行识别从而实现测量的测量方法,所述紧框标为所述目标的最小外接矩形,所述测量方法包括:获取包括至少一个目标的输入图像,所述至少一个目标属于至少一个感兴趣的类别;将所述输入图像输入所述网络模块以获取第一输出和第二输出,所述第一输出包括所述输入图像中的各个像素点属于各个类别的概率,所述第二输出包括所述输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移,将所述第二输出中的偏移作为目标偏移,其中,所述网络模块包括骨干网络、基于弱监督学习的图像分割的分割网络、以及基于边框回归的回归网络,所述骨干网络用于提取所述输入图像的特征图,所述分割网络将所述特征图作为输入以获得所述第一输出,所述回归网络将所述特征图作为输入以获得所述第二输出,其中,所述特征图与所述输入图像的分辨率一致;基于所述第一输出和所述第二输出对所述目标进行识别以获取各个类别
的目标的紧框标。
8.在本公开中,构建包括骨干网络、基于弱监督学习的图像分割的分割网络和基于边框回归的回归网络的网络模块,网络模块是基于目标的紧框标进行训练的,骨干网络接收输入图像并提取与输入图像分辨率一致的特征图,将特征图分别输入分割网络和回归网络以获取第一输出和第二输出,然后基于第一输出和第二输出获取输入图像中目标的紧框标从而实现测量。在这种情况下,基于目标的紧框标的训练的网络模块能够精确地预测输入图像中目标的紧框标,进而能够基于目标的紧框标进行精确地测量。
9.另外,在本公开第一方面所涉及的测量方法中,可选地,基于所述目标的紧框标对各个目标的尺寸进行测量。由此,能够基于目标的紧框标对目标进行精确地测量。
10.另外,在本公开第一方面所涉及的测量方法中,可选地,所述网络模块通过如下方法训练:构建训练样本,所述训练样本的输入图像数据包括多张待训练图像,所述多张待训练图像包括包含至少属于一个类别的目标的图像,所述训练样本的标签数据,包括所述目标所属的类别的金标准和所述目标的紧框标的金标准;通过所述网络模块基于所述训练样本的输入图像数据,获得所述训练样本对应的由所述分割网络输出的预测分割数据和由所述回归网络输出的预测偏移;基于所述训练样本对应的标签数据、所述预测分割数据和所述预测偏移确定所述网络模块的训练损失;并且基于所述训练损失对所述网络模块进行训练以优化所述网络模块。由此,能够获得已优化的网络模块。
11.另外,在本公开第一方面所涉及的测量方法中,可选地,所述基于所述训练样本对应的标签数据、所述预测分割数据和所述预测偏移确定所述网络模块的训练损失,包括:基于所述训练样本对应的预测分割数据和标签数据,获取所述分割网络的分割损失;基于所述训练样本对应的预测偏移和基于标签数据对应的真实偏移,获取所述回归网络的回归损失,其中,所述真实偏移为所述待训练图像的像素点的位置与标签数据中的目标的紧框标的金标准的偏移;并且基于所述分割损失和所述回归损失,获取所述网络模块的训练损失。在这种情况下,能够通过分割损失使分割网络的预测分割数据近似标签数据,且能够通过回归损失使回归网络的预测偏移近似真实偏移。
12.另外,在本公开第一方面所涉及的测量方法中,可选地,所述目标偏移为基于各个类别的目标的平均宽度和平均高度进行归一化后的偏移。由此,能够提高对尺寸变化不大的目标进行识别或测量的精确性。
13.另外,在本公开第一方面所涉及的测量方法中,可选地,按类别对所述标签数据中目标的紧框标的宽度和高度分别求平均以获取平均宽度和平均高度。由此,能够通过训练样本获取目标的平均宽度和平均宽度。
14.另外,在本公开第一方面所涉及的测量方法中,可选地,利用多示例学习,按类别基于各个待训练图像中的目标的紧框标的金标准获取多个待训练包,基于各个类别的多个待训练包获取所述分割损失,其中,所述多个待训练包包括多个正包和多个负包,将连接所述目标的紧框标的金标准相对的两个边的多条直线中的各条直线上的全部像素点划分为一个正包,所述多条直线包括至少一组相互平行的第一平行线和分别与每组第一平行线垂直的相互平行的第二平行线,所述负包为一个类别的所有目标的紧框标的金标准之外的区域的单个像素点。由此,能够基于多示例学习的正包和负包获取分割损失。
15.另外,在本公开第一方面所涉及的测量方法中,可选地,所述第一平行线的角度为
所述第一平行线的延长线与所述目标的紧框标的金标准的任意一个未相交的边的延长线的夹角的角度,所述第一平行线的角度大于-90
°
且小于90
°
。在这种情况下,能够划分不同角度的正包对分割网络进行优化。由此,能够提高分割网络的预测分割数据的准确性。
16.另外,在本公开第一方面所涉及的测量方法中,可选地,所述分割损失包括一元项和成对项,所述一元项描述每个待训练包属于各个类别的金标准的程度,所述成对项描述所述待训练图像的像素点与该像素点相邻的像素点属于同类别的程度。在这种情况下,能够通过一元损失使紧框标同时通过正包和负包进行约束,且能够通过成对损失使预测分割结果平滑。
17.另外,在本公开第一方面所涉及的测量方法中,可选地,从所述待训练图像中选择至少落入一个目标的紧框标的金标准内的像素点作为正样本对所述回归网络进行优化。在这种情况下,基于落入至少一个目标的真实紧框标内的像素点对回归网络进行优化,能够提高回归网络优化的效率。
18.另外,在本公开第一方面所涉及的测量方法中,可选地,按类别从所述待训练图像中选择至少落入一个目标的紧框标的金标准内的像素点作为各个类别的正样本并获取该正样本对应的匹配紧框标以基于所述匹配紧框标对各个类别的正样本进行筛选,然后利用筛选后的各个类别的正样本对所述回归网络进行优化,其中,所述匹配紧框标为所述正样本落入的紧框标的金标准中相对所述正样本的位置的真实偏移最小的紧框标的金标准。由此,能够利用基于匹配紧框标筛选后的各个类别的正样本对回归网络进行优化。
19.另外,在本公开第一方面所涉及的测量方法中,可选地,令像素点的位置表示为(x,y),该像素点对应的一个目标的紧框标表示为b=(xl,yt,xr,yb),所述目标的紧框标b相对该像素点的位置的偏移表示为t=(tl,tt,tr,tb),则tl,tt,tr,tb满足公式:tl=(x-xl)/s
c1
,tt=(y-yt)/s
c2
,tr=(xr-x)/s
c1
,tb=(yb-y)/s
c2
,其中,xl,yt表示目标的紧框标的左上角的位置,xr,yb表示目标的紧框标的右下角的位置,s
c1
表示第c个类别的目标的平均宽度,s
c2
表示第c个类别的目标的平均高度。由此,能够获得归一化后的偏移。
20.另外,在本公开第一方面所涉及的测量方法中,可选地,按类别并利用所述待训练图像的像素点对应的期望交并比从所述待训练图像的像素点筛选出所述期望交并比大于预设期望交并比的像素点对所述回归网络进行优化。由此,能够获得符合预设期望交并比的正样本。
21.另外,在本公开第一方面所涉及的测量方法中,可选地,以所述待训练图像的像素点为中心点构建的不同尺寸的多个边框,获取所述多个边框分别与该像素点的匹配紧框标的交并比中的最大值并作为所述期望交并比,其中,所述匹配紧框标为所述待训练图像的像素点落入的紧框标的金标准中相对该像素点的位置的真实偏移最小的紧框标的金标准。由此,能够获得期望交并比。
22.另外,在本公开第一方面所涉及的测量方法中,可选地,所述期望交并比满足公式:其中,r1,r2为所述待训练图像的像素点在所述匹配紧框标的相对位置,0《r1,r2《1,iou1(r1,r2)=4r1r2,iou2(r1,r2)=2r1/(2r1(1-2r2) 1),iou3(r1,r2)=2r2/(2r2(1-2r1) 1),iou4(r1,r2)=1/(4(1-r1)(1-r2))。由此,能够获得期望交并比。
23.另外,在本公开第一方面所涉及的测量方法中,可选地,通过比较所述真实偏移的l1范式获取最小的真实偏移。在这种情况下,能够基于l1范式获取最小的真实偏移,进而能够获得匹配紧框标。
24.另外,在本公开第一方面所涉及的测量方法中,可选地,所述回归损失满足公式:其中,c表示所述类别的数量,mc表示第c个类别的正样本的数量,t
ic
表示第c个类别的第i个正样本对应的真实偏移,v
ic
表示第c个类别的第i个正样本对应的预测偏移,s(x)表示x中所有元素的smooth l1损失之和。由此,能够获取回归损失。
25.另外,在本公开第一方面所涉及的测量方法中,可选地,所述基于所述第一输出和所述第二输出对所述目标进行识别以获取各个类别的目标的紧框标为:从所述第一输出中获取属于各个类别的局部概率最大的像素点的位置作为第一位置,基于所述第二输出中与所述第一位置对应的位置且对应类别的目标偏移获取各个类别的目标的紧框标。在这种情况下,能够识别出各个类别的一个目标或多个目标。
26.另外,在本公开第一方面所涉及的测量方法中,可选地,同类别的多个目标的尺寸彼此相差小于10倍。由此,能够进一步地提高目标的识别的精确率。
27.另外,在本公开第一方面所涉及的测量方法中,可选地,所述骨干网络包括编码模块和解码模块,所述编码模块配置为在不同尺度上提取的图像特征,所述解码模块配置为将在不同尺度上提取的图像特征映射回所述输入图像的分辨率以输出所述特征图。由此,能够获取与输入图像分辨率一致的特征图。
28.本公开第二方面提供了一种基于紧框标的深度学习的测量装置,是利用基于目标的紧框标进行训练的网络模块对所述目标进行识别从而实现测量的测量装置,所述紧框标为所述目标的最小外接矩形,所述测量装置包括获取模块、网络模块和识别模块;所述获取模块配置为获取包括至少一个目标的输入图像,所述至少一个目标属于至少一个感兴趣的类别;所述网络模块配置为接收所述输入图像并基于所述输入图像获取第一输出和第二输出,所述第一输出包括所述输入图像中的各个像素点属于各个类别的概率,所述第二输出包括所述输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移,将所述第二输出中的偏移作为目标偏移,其中,所述网络模块包括骨干网络、基于弱监督学习的图像分割的分割网络、以及基于边框回归的回归网络,所述骨干网络用于提取所述输入图像的特征图,所述分割网络将所述特征图作为输入以获得所述第一输出,所述回归网络将所述特征图作为输入以获得所述第二输出,其中,所述特征图与所述输入图像的分辨率一致;以及所述识别模块配置为基于所述第一输出和所述第二输出对所述目标进行识别以获取各个类别的目标的紧框标。
29.在本公开中,构建包括骨干网络、基于弱监督学习的图像分割的分割网络和基于边框回归的回归网络的网络模块,网络模块是基于目标的紧框标进行训练的,骨干网络接收输入图像并提取与输入图像分辨率一致的特征图,将特征图分别输入分割网络和回归网络以获取第一输出和第二输出,然后基于第一输出和第二输出获取输入图像中目标的紧框标从而实现测量。在这种情况下,基于目标的紧框标的训练的网络模块能够精确地预测输入图像中目标的紧框标,进而能够基于目标的紧框标进行精确地测量。
30.根据本公开,提供一种能够识别目标且能够精确地对目标进行测量的基于紧框标
的深度学习的测量方法及测量装置。
附图说明
31.现在将仅通过参考附图的例子进一步详细地解释本公开,其中:
32.图1是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的应用场景的示意图。
33.图2(a)是示出了本公开示例所涉及的眼底图像的示意图。
34.图2(b)是示出了本公开示例所涉及的眼底图像的识别结果的示意图。
35.图3是示出了本公开示例所涉及的网络模块的一个示例的示意图。
36.图4是示出了本公开示例所涉及的网络模块的另一个示例的示意图。
37.图5是示出了本公开示例所涉及的网络模块的训练方法的流程图。
38.图6是示出了本公开示例所涉及的正包的示意图。
39.图7是示出了本公开示例所涉及的以像素点为中心构建的边框的示意图。
40.图8(a)是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的流程图。
41.图8(b)是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的另一种示例的流程图。
42.图9(a)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置的框图。
43.图9(b)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置的另一个示例的框图。
44.图9(c)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置的另一个示例的框图。
具体实施方式
45.以下,参考附图,详细地说明本公开的优选实施方式。在下面的说明中,对于相同的部件赋予相同的符号,省略重复的说明。另外,附图只是示意性的图,部件相互之间的尺寸的比例或者部件的形状等可以与实际的不同。需要说明的是,本公开中的术语“包括”和“具有”以及它们的任何变形,例如所包括或所具有的一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可以包括或具有没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。本公开所描述的所有方法可以以任何合适的顺序执行,除非在此另有指示或者与上下文明显矛盾。
46.本公开涉及的基于紧框标的深度学习的测量方法及测量装置,其能够识别目标且能够提高目标测量的精确性。例如,能够识别眼底图像中的视盘或视盘的紧框标,进而能够基于紧框标对视盘或视盘的尺寸进行测量。本公开涉及的基于紧框标的深度学习的测量方法还可以称为识别方法、紧框标测量方法、紧框标识别方法、自动测量方法、辅助测量方法等。本公开涉及的测量方法可以适用于任何对图像中的目标的宽度和/或高度进行精确测量的应用场景。
47.本公开涉及的测量方法是利用基于目标的紧框标进行训练的网络模块对目标进行识别从而实现测量的测量方法。紧框标可以为目标的最小外接矩形。在这种情况下,目标
与紧框标的四个边相接触且不与紧框标之外的区域互相重叠(也即目标与紧框标的四个边相切)。由此,紧框标能够表示目标的宽度和高度。另外,基于目标的紧框标对网络模块进行训练,能够降低收集像素级的标注数据(也可以称为标签数据)的时间和人力成本且网络模块能够精确地识别目标的紧框标。
48.本公开涉及的输入图像可以来自相机、ct扫描、pet-ct扫描、spect扫描、mri、超声、x射线、血管造影照片、荧光图、胶囊内窥镜拍摄的图像或其组合。在一些示例中,输入图像可以为组织对象的图像(例如眼底图像)。在一些示例中,输入图像可以为自然图像。自然图像可以为自然场景下观察或者拍摄到的图像。由此,能够对自然图像中的目标进行测量。例如,可以对自然图像中的人脸的大小或行人的身高进行测量。以下以输入图像为眼底相机采集的眼底图像为例描述了本公开的示例,并且这样的描述并不限制本公开的范围。
49.图1是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的应用场景的示意图。图2(a)是示出了本公开示例所涉及的眼底图像的示意图。图2(b)是示出了本公开示例所涉及的眼底图像的识别结果的示意图。
50.在一些示例中,本公开涉及的测量方法可以应用于如图1所示的应用场景中。在应用场景中,可以通过采集设备52(例如相机)采集目标物体51包括目标的相应位置的图像作为输入图像(参见图1),将输入图像输入网络模块20以识别输入图像中的目标并获取目标的紧框标b(参见图1),进而可以基于紧框标b对目标进行测量。以眼底图像为例,将图2(a)所示的眼底图像输入网络模块20可以获得图2(b)所示的识别结果,识别结果可以中包括视杯和视盘这两种类别的目标的紧框标,其中,紧框标b11为视盘的紧框标,紧框标b12为视杯的紧框标。在这种情况下,能够基于紧框标对视杯和视盘进行测量。
51.本公开涉及的网络模块20可以是基于多任务的。在一些示例中,网络模块20可以是基于深度学习的神经网络。在一些示例中,网络模块20可以包括两个任务,一个任务可以是基于弱监督学习的图像分割的分割网络22(稍后描述),另一个任务可以是基于边框回归的回归网络23(稍后描述)。
52.在一些示例中,分割网络22可以对输入图像进行分割以获得目标(例如视杯和/或视盘)。在一些示例中,分割网络22可以基于多示例学习(multiple-instance learning,mil)并用于监督紧框标。在一些示例中,分割网络22解决的问题可以是多标签分类(multi-label classification)问题。在一些示例中,输入图像可以包含至少一种感兴趣的类别(可以简称为类别)的目标。由此,分割网络22能够对包含至少一种感兴趣的类别的目标的输入图像进行识别。在一些示例中,输入图像也可以不存在任何目标。在一些示例中,各个感兴趣的类别的目标的数量可以至少大于1。
53.在一些示例中,回归网络23可以用于按类别预测紧框标。在一些示例中,回归网络23可以通过预测紧框标相对输入图像的各个像素点的位置的偏移,进而预测紧框标。
54.在一些示例中,网络模块20还可以包括骨干网络21。骨干网络21可以用于提取输入图像(也即输入网络模块20的原始图像)的特征图。在一些示例中,骨干网络21可以提取高层次的特征用于对象表示。在一些示例中,特征图的分辨率可以与输入图像一致(也即,特征图可以是单尺度且与输入图像的大小一致)。由此,能够提高对尺寸变化不大的目标进行识别或测量的精确性。在一些示例中,可以通过不断地融合不同尺度的图像特征以获得与输入图像的尺度一致的特征图。在一些示例中,特征图可以作为分割网络22和回归网络
23的输入。
55.在一些示例中,骨干网络21可以包括编码模块和解码模块。在一些示例中,编码模块可以配置为在不同尺度上提取的图像特征。在一些示例中,解码模块可以配置为将在不同尺度上提取的图像特征映射回输入图像的分辨率以输出特征图。由此,能够获取与输入图像分辨率一致的特征图。
56.图3是示出了本公开示例所涉及的网络模块20的一个示例的示意图。
57.在一些示例中,如图3所示,网络模块20可以包括骨干网络21、分割网络22和回归网络23。骨干网络21可以接收输入图像并输出特征图。特征图可以作为分割网络22和回归网络23的输入以获取相应的输出。具体地,分割网络22可以将特征图作为输入以获得第一输出,回归网络23可以将特征图作为输入以获得第二输出。在这种情况下,能够将输入图像输入网络模块20以获取第一输出和第二输出。
58.在一些示例中,第一输出可以是图像分割预测的结果。在一些示例中,第二输出可以是边框回归预测的结果。
59.在一些示例中,第一输出可以包括输入图像中的各个像素点属于各个类别的概率。在一些示例中,各个像素点属于各个类别的概率可以通过激活函数获得。在一些示例中,第一输出可以是矩阵。在一些示例中,第一输出对应的矩阵的大小可以为m
×n×
c,其中,m
×
n可以表示输入图像的分辨率,m和n可以分别对应输入图像的行和列,c可以表示类别的数量。例如,对于目标为视杯和视盘这两种类别的眼底图像,第一输出对应的矩阵的大小可以为m
×n×
2。
60.在一些示例中,输入图像中的每个位置的像素点在第一输出中对应的值可以为向量,向量中的元素数量可以与类别数量一致。例如,对于输入图像中的第k个位置的像素点,在第一输出中对应的值可以为向量pk,向量pk可以包括c个元素,c可以为类别的数量。在一些示例中,向量pk的元素值可以为0至1的数值。
61.在一些示例中,第二输出可以包括输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移。也即,第二输出可以包括明确类别的目标的紧框标的偏移。换而言之,回归网络23预测的可以是明确类别的目标的紧框标的偏移。在这种情况下,在不同类别的目标重叠度较高时能够区别相应类别的目标的紧框标,进而能够获取相应类别的目标的紧框标。由此,能够兼容不同类别的目标重叠较高的目标的识别或测量。在一些示例中,可以将第二输出中的偏移作为目标偏移。
62.在一些示例中,目标偏移可以是归一化后的偏移。在一些示例中,目标偏移可以是基于各个类别的目标的平均大小进行归一化后的偏移。在一些示例中,目标偏移为可以基于各个类别的目标的平均宽度和平均高度进行归一化后的偏移。目标偏移和预测偏移(稍后描述)可以与真实偏移(稍后描述)对应。也即,若对训练网络模块20时(可以简称为训练阶段)的真实偏移进行归一化,则利用网络模块20进行预测(可以简称为测量阶段)的目标偏移(对应测量阶段)和预测偏移(对应训练阶段)也可以进行相应的归一化。由此,能够提高对尺寸变化不大的目标进行识别或测量的精确性。
63.在一些示例中,目标的平均大小可以通过对目标的平均宽度和平均高度求平均获得。在一些示例中,目标的平均大小可以是经验值(也即,平均宽度和平均宽度可以是经验值)。在一些示例中,目标的平均大小可以通过对采集输入图像对应的样本进行统计获得。
在一些示例中,可以按类别对样本的标签数据中目标的紧框标的宽度和高度分别求平均以获取平均宽度和平均高度。在一些示例中,可以对平均宽度和平均高度求平均以获得该类别的目标的平均大小。在一些示例中,样本可以为训练样本(稍后描述)。也即,目标的平均宽度和平均宽度以及目标的平均大小可以通过对训练样本进行统计获得。由此,能够通过训练样本获取目标的平均宽度和平均宽度、或目标的平均大小。
64.在一些示例中,第二输出可以是矩阵。在一些示例中,第二输出对应的矩阵的大小可以为m
×n×
a,其中,a可以表示全部目标偏移的大小,m
×
n可以表示输入图像的分辨率,m和n可以分别对应输入图像的行和列。在一些示例中,若一个目标偏移的大小是4
×
1的向量(也即可以用4个数进行表示),则a可以为c
×
4,c可以表示类别的数量。例如,对于目标为视杯和视盘这两种类别的眼底图像,第二输出对应的矩阵的大小可以为m
×n×
8。
65.在一些示例中,输入图像中的每个位置的像素点在第二输出中对应的值可以为向量。例如,输入图像中的第k个位置的像素点,在第二输出中对应的值可以表示为:vk=[v
k1
,v
k2
,

,v
kc
]。其中,c可以为类别的数量,vk中的各个元素可以表示为每个类别的目标的目标位移。由此,能够方便地表示目标位移以及对应的类别。在一些示例中,vk的元素可以为4维的向量。
[0066]
在一些示例中,骨干网络21可以是基于u-net网络。在本实施方式中,骨干网络21的编码模块可以包括单元层和池化层(pooling layers)。骨干网络21的解码模块可以包括单元层、上采样层(up-samplinglayers,up-sampling)和跳跃连接单元(skip-connectionunits,skip-connection)。
[0067]
在一些示例中,单元层可以包括卷积层、批标准化层和修正线性单元层(rectified linear unit layers,relu)。在一些示例中,池化层(pooling layers,pooling)可以是最大池化层(max pooling layers,max-poooling)。在一些示例中,跳跃连接单元可以用于组合来自深层的图像特征和来自浅层的图像特征。
[0068]
另外,分割网络22可以是前向型神经网络。在一些示例中,分割网络22可以包括多个单元层。在一些示例中,分割网络22可以包括多个单元层和卷积层(convolutional layers,conv)。
[0069]
另外,回归网络23可以包括膨胀卷积层(dilated convolutionlayers,dilated conv)和修正线性单元层(batch normalizationlayers,bn)。在一些示例中,回归网络23可以包括膨胀卷积层、修正线性单元层和卷积层。
[0070]
图4是示出了本公开示例所涉及的网络模块20的另一个示例的示意图。需要说明的是,为了更清楚地描述网络模块20的网络结构,在图4中,通过箭头中的数字对网络模块20中的网络层进行区分,其中,箭头1表示卷积层、批标准化层和修正线性单元层组成的网络层(也即单元层),箭头2表示膨胀卷积层和修正线性单元组成的网络层,箭头3表示卷积层,箭头4表示最大池化层,箭头5表示上采样层,箭头6表示跳跃连接单元。
[0071]
作为网络模块20的一个示例。如图4所示,可以将分辨率为256
×
256的输入图像输入到网络模块20,经过编码模块的不同层级的单元层(参见箭头1)和最大池化层(参见箭头4)提取图像特征,并通过解码模块的不同层级的单元层(参见箭头1)、上采样层(参见箭头5)和跳跃连接单元(参见箭头6)不断地融合不同尺度的图像特征以获得与输入图像的尺度一致的特征图221,然后将特征图221分别输入的分割网络22和回归网络23以获取第一输出
和第二输出。
[0072]
另外,如图4所示,分割网络22可以依次由单元层(参见箭头1)和卷积层(参见箭头3)组成,回归网络23可以依次由多个由膨胀卷积层和修正线性单元层组成的网络层(参见箭头2)、以及卷积层(参见箭头3)组成。其中,单元层可以由卷积层、批标准化层和修正线性单元层组成。
[0073]
在一些示例中,网络模块20中的卷积层的卷积核的大小可以设置为3
×
3。在一些示例中,网络模块20中的最大池化层的卷积核的大小可以设置为2
×
2,卷积步长可以设置为2。在一些示例中,网络模块20中的上采样层的放大比例系数(scale-factor)可以设置为2。在一些示例中,如图4所示,网络模块20中的多个膨胀卷积层的膨胀系数(dilation-factor)可以依次设置为1、1、2、4、8和16(参见箭头2上面的数字)。在一些示例中,如图4所示,最大池化层的数量可以为5。由此,能够使输入图像的大小被32(32可以为2的5次方)除尽。
[0074]
如上所述,本公开涉及的测量方法是利用基于目标的紧框标进行训练的网络模块20对目标进行识别从而实现测量的测量方法。以下,结合附图详细描述本公开涉及的网络模块20的训练方法(可以简称为训练方法)。图5是示出了本公开示例所涉及的网络模块20的训练方法的流程图。
[0075]
在一些示例中,可以基于端对端的方式同时训练网络模块20中的分割网络22和回归网络23。
[0076]
在一些示例中,网络模块20中的分割网络22和回归网络23可以通过联合训练以同时优化分割网络22和回归网络23。在一些示例中,通过联合训练,分割网络22和回归网络23可以通过反向传播调整骨干网络21的网络参数,以使骨干网络21输出的特征图能够更好的表达输入图像的特征并输入分割网络22和回归网络23。在这种情况下,分割网络22和回归网络23均基于骨干网络21输出的特征图进行处理。
[0077]
在一些示例中,可以利用多示例学习对分割网络22进行训练。在一些示例中,可以利用待训练图像的像素点对应的期望交并比筛选用于训练回归网络23的像素点(稍后描述)。
[0078]
在一些示例中,如图5所示,训练方法可以包括构建训练样本(步骤s120)、将训练样本输入网络模块20以获取预测数据(步骤s140)、以及基于训练样本和预测数据确定网络模块20的训练损失并基于训练损失对网络模块20进行优化(步骤s160)。由此,能够获得已优化(也可以称为已训练)的网络模块20。
[0079]
在一些示例中,在步骤s120中,可以构建训练样本。训练样本可以包括输入图像数据和标签数据。在一些示例中,输入图像数据可以包括多张待训练图像。例如待训练图像可以为待训练的眼底图像。
[0080]
在一些示例中,多张待训练图像可以包括包含目标的图像。在一些示例中,多张待训练图像中可以包括包含目标的图像和不包含目标的图像。在一些示例中,目标可以至少属于一个类别。在一些示例中,待训练图像中各个类别的目标的数量可以大于等于1。例如,以眼底图像为例,若是对视杯和视盘进行识别或测量,则眼底图像中的目标可以为一个视盘和一个视杯。也即,眼底图像中存在两种需要进行识别或测量的目标,且各个目标的数量可以为1,若是对微血管瘤进行识别或测量,则眼底图像中的目标可以为至少一个微血管
瘤。本公开的示例不特意对目标的数量、目标所属的类别、以及各个类别的目标的数量进行限定。
[0081]
在一些示例中,标签数据可以包括目标所属的类别的金标准(类别的金标准有时也可以称为真实类别)和目标的紧框标的金标准(紧框标的金标准有时也可以称为真实紧框标)。也即,标签数据可以为待训练图像中的目标所属的真实类别和目标的真实紧框标。需要说明的是,除非特别说明,训练方法中的标签数据中的目标的紧框标或目标所属的类别均可以默认是金标准。
[0082]
在一些示例中,可以对待训练图像进行标注以获取标签数据。在一些示例中,可以利用标注工具例如线标注系统对待训练图像进行标注。具体地,可以利用标注工具对待训练图像中的目标的紧框标(也即,最小外接矩形)进行标注,并针对紧框标设置相应的类别以表示目标所属的真实类别。
[0083]
在一些示例中,为了抑制网络模块20过拟合,可以对训练样本进行数据扩增处理。在一些示例中,数据扩增处理可以包括但不限于翻转(例如上下翻转或左右翻转)、放大、旋转、调整对比度、调整亮度或色彩均衡。在一些示例中,可以对训练样本中的输入图像数据和标签数据进行相同的数据增广处理。由此,能够使输入图像数据和标签数据保持一致。
[0084]
在一些示例中,在步骤s140中,可以将训练样本输入网络模块20以获取预测数据。如上所述,网络模块20可以包括分割网络22和回归网络23。在一些示例中,通过网络模块20可以基于训练样本的输入图像数据,获得训练样本对应的预测数据。预测数据可以包括由分割网络22输出的预测分割数据和由回归网络23输出的预测偏移。
[0085]
另外,预测分割数据可以与第一输出对应,预测偏移可以与第二输出对应(也即,可以与目标偏移对应)。也即,预测分割数据可以包括待训练图像中的各个像素点属于各个类别的概率,预测偏移可以包括待训练图像中各个像素点的位置与每个类别的目标的紧框标的偏移。在一些示例中,与目标偏移对应,预测偏移可以为基于各个类别的目标的平均大小进行归一化后的偏移。由此,能够提高对尺寸变化不大的目标进行识别或测量的精确性。优选地,同类别的多个目标的尺寸可以彼此相差小于10倍。例如,同类别的多个目标的尺寸可以彼此相差1倍、2倍、3倍、5倍、7倍、8倍或9倍等。由此,能够进一步地提高目标的识别或测量的精确率。
[0086]
为了更清楚地描述像素点的位置与目标的紧框标的偏移、以及归一化后的偏移,以下结合公式进行描述。需要说明的是预测偏移、目标偏移和真实偏移属于偏移的一种,同样适用于下面的公式(1)。
[0087]
具体地,可以令像素点的位置表示为(x,y),该像素点对应的一个目标的紧框标表示为b=(xl,yt,xr,yb),目标的紧框标b相对该像素点的位置的偏移(也即像素点的位置与目标的紧框标的偏移)表示为t=(tl,tt,tr,tb),则tl,tt,tr,tb可以满足公式(1):
[0088]
tl=(x-xl)/s
c1

[0089]
tt=(y-yt)/s
c2

[0090]
tr=(xr-x)/s
c1

[0091]
tb=(yb-y)/s
c2

[0092]
其中,xl,yt可以表示目标的紧框标的左上角的位置,xr,yb可以表示目标的紧框标的右下角的位置,c可以表示目标所属的类别的索引,s
c1
可以表示第c个类别的目标的平
均宽度,s
c2
可以表示第c个类别的目标的平均高度。由此,能够获得归一化后的偏移。在一些示例中,s
c1
和s
c2
可以均为第c个类别的目标的平均大小。
[0093]
但本公开的示例不限于此,在另一些示例,也可以通过左下角的位置和右上角的位置表示目标的紧框标,或通过任意一个角的位置、长度和宽度表示目标的紧框标。另外,在另一些示例中,也可以利用其他方式进行归一化,例如,可以利用目标的紧框标的长度和宽度对偏移进行归一化。
[0094]
另外,公式(1)中的像素点可以为待训练图像或输入图像的像素点。也即,公式(1)可以适用训练阶段的待训练图像对应的真实偏移、以及测量阶段的输入图像对应的目标偏移。
[0095]
具体地,对于训练阶段,像素点可以为待训练图像中的像素点,目标的紧框标b可以为待训练图像的目标的紧框标的金标准,则偏移t可以为真实偏移(也可以称为偏移的金标准)。由此,后续能够基于预测偏移和真实偏移获取回归网络23的回归损失。另外,若像素点为待训练图像中的像素点,偏移t为预测偏移,则可以根据公式(1)反推预测的目标的紧框标。
[0096]
另外,对于测量阶段,像素点可以为输入图像中的像素点,偏移t可以为目标偏移,则可以根据公式(1)和目标偏移反推输入图像中的目标的紧框标(也即,可以将目标偏移和像素点的位置代入公式(1)以获取目标的紧框标)。由此,能够获得输入图像中的目标的紧框标。
[0097]
在一些示例中,在步骤s160中,可以基于训练样本和预测数据确定网络模块20的训练损失并基于训练损失对网络模块20进行优化。在一些示例中,基于训练样本对应的标签数据、预测分割数据和预测偏移可以确定网络模块20的训练损失,然后基于训练损失对网络模块20进行训练以优化网络模块20。
[0098]
如上所述,网络模块20可以包括分割网络22和回归网络23。在一些示例中,训练损失可以包括分割网络22的分割损失和回归网络23的回归损失。也即,可以基于分割损失和回归损失,获取网络模块20的训练损失。由此,能够基于训练损失对网络模块20进行优化。在一些示例中,训练损失可以为分割损失和回归损失之和。在一些示例中,分割损失可以表示预测分割数据中待训练图像中的像素点属于各个真实类别的程度,回归损失可以表示预测偏移与真实偏移的接近程度。
[0099]
图6是示出了本公开示例所涉及的正包的示意图。
[0100]
在一些示例中,可以基于训练样本对应的预测分割数据和标签数据,获取分割网络22的分割损失。由此,能够通过分割损失使分割网络22的预测分割数据近似标签数据。在一些示例中,可以利用多示例学习获取分割损失。在多示例学习中,可以按类别基于各个待训练图像中的目标的真实紧框标获取多个待训练包(也即,各个类别可以分别对应多个待训练包)。基于各个类别的多个待训练包可以获取分割损失。在一些示例中,多个待训练包可以包括多个正包和多个负包。由此,能够基于多示例学习的正包和负包获取分割损失。需要说明的是,除非特别说明,以下正包和负包均是针对各个类别的。
[0101]
在一些示例中,可以基于目标的真实紧框标内的区域获取多个正包。如图6所示,待训练图像p1中区域a2为目标t1的真实紧框标b21内的区域。
[0102]
在一些示例中,可以将连接目标的真实紧框标相对的两个边的多条直线中的各条
直线上的全部像素点划分为一个正包(也即,一条直线可以对应一个正包)。具体地,各条直线的两端可以在真实紧框标的上端和下端、或左端和右端。作为示例,如图6所示,直线d1、直线d2、直线d3、直线d4、直线d5、直线d6、直线d7和直线d8上的像素点可以分别划分为一个正包。但本公开的示例不限于此,在另一些示例中,也可以使用其他方式划分正包。例如,可以将真实紧框标的特定位置的像素点划分为一个正包。
[0103]
在一些示例中,多条直线可以包括至少一组相互平行的第一平行线。例如,多条直线可以包括一组第一平行线、两组第一平行线、三组第一平行线或四组第一平行线等。在一些示例中,第一平行线中的直线的数量可以大于等于2。
[0104]
在一些示例中,多条直线可以包括至少一组相互平行的第一平行线和分别与每组第一平行线垂直的相互平行的第二平行线。具体地,若多条直线包括一组第一平行线,则多条直线还可以包括与该组第一平行线垂直的一组第二平行线,若多条直线包括多组第一平行线,则多条直线还可以包括分别与每组第一平行线垂直的多组第二平行线。如图6所示,一组第一平行线可以包括平行的直线d1和直线d2,与该组第一平行线对应的一组第二平行可以包括平行的直线d3和直线d4,其中,直线d1可以与直线d3垂直;另外一组第一平行线可以包括平行的直线d5和直线d6、与该组第一平行线对应的一组第二平行线可以包括平行的直线d7和直线d8,其中,直线d5可以与直线d7垂直。在一些示例中,第一平行线和第二平行线的中的直线的数量可以大于等于2。
[0105]
如上所述,在一些示例中,多条直线可以包括多组第一平行线(也即,多条直线可以包括不同角度的平行线)。在这种情况下,能够划分不同角度的正包对分割网络22进行优化。由此,能够提高分割网络22的预测分割数据的准确性。
[0106]
在一些示例中,第一平行线的角度可以为第一平行线的延长线与真实紧框标的任意一个未相交的边的延长线的夹角的角度,第一平行线的角度可以大于-90
°
且小于90
°
。例如夹角的角度可以为-89
°
、-75
°
、-50
°
、-25
°
、-20
°
、0
°
、10
°
、20
°
、25
°
、50
°
、75
°
或89
°
等。具体地,若通过未相交的边的延长线顺时针旋转小于90
°
到第一平行线的延长线构成的夹角的角度可以大于0
°
且小于90
°
,若通过未相交的边的延长线逆时针旋转小于90
°
(也即,顺时针旋转大于270
°
)到第一平行线的延长线构成的夹角的角度可以大于-90
°
且小于0
°
,若未相交的边与第一平行线平行,则夹角的角度可以为0
°
。如图6所示,直线d1、直线d2、直线d3和直线d4的角度可以为0
°
,直线d5、直线d6、直线d7和直线d8的角度(也即角度c1)可以为25
°
。在一些示例中,第一平行线的角度可以为超参数,在训练过程可以进行优化。
[0107]
另外,也可以以待训练图像旋转的方式描述第一平行线的角度。第一平行线的角度可以为旋转的角度。具体地,第一平行线的角度可以为将待训练图像旋转以使待训练图像的与第一平行线不相交的任意边与第一平行线平行的旋转角度,其中,第一平行线平行的角度可以大于-90
°
且小于90
°
,顺时针旋转的旋转角度可以为正度数,逆时针旋转的旋转角度可以为负度数。
[0108]
但本公开的示例不限于此,在另一些示例中,根据第一平行线的角度的描述的方式不同,第一平行线的角度也可以为其他范围。例如,若基于与第一平行线相交的真实紧框的边进行描述,第一平行线的角度也可以大于0
°
且小于180
°

[0109]
在一些示例中,可以基于目标的真实紧框标之外的区域获取多个负包。如图6所示,待训练图像p1中区域a1为目标t1的真实紧框标b21之外的区域。在一些示例中,负包可
以为一个类别的所有目标的真实紧框标之外的区域的单个像素点(也即,一个像素点可以对应一个负包)。
[0110]
如上所述,在一些示例中,基于各个类别的多个待训练包可以获取分割损失。在一些示例中,分割损失可以包括一元项(也可以称为一元损失)和成对项(也可以称为成对损失)。在一些示例中,一元项可以描述每个待训练包属于各个真实类别的程度。在这种情况下,能够通过一元损失使紧框标同时通过正包和负包进行约束。在一些示例中,成对项可以描述待训练图像的像素点与该像素点相邻的像素点属于同类别的程度。在这种情况下,成对损失使预测分割结果平滑。
[0111]
在一些示例中,可以按类别获得类别的分割损失,基于类别的分割损失获取分割损失(也即总分割损失)。在一些示例中,总分割损失l
seg
可以满足公式:
[0112][0113]
其中,lc可以表示类别c的分割损失,c可以表示类别的数量。例如,若对眼底图像中的视杯和视盘进行识别,则c可以为2,若仅对视杯或仅对视盘进行识别,则c可以为1。
[0114]
在一些示例中,类别c的分割损失lc可以满足公式:
[0115][0116]
其中,φc可以表示一元项,可以表示成对项,p可以表示分割网络22预测的每个像素点属于各个类别的程度(也可以称为概率),可以表示多个正包的集合,可以表示多个负包的集合,λ可以表示权重因子。权重因子λ可以为超参数,在训练过程可以进行优化。在一些示例中,权重因子λ可以用于切换两个损失(也即一元项和成对项)。
[0117]
一般而言,在多示例学习中,若一个类别的各个正包中至少包括一个像素点属于该类别,则可以将各个正包中属于该类别的概率最大的像素点作为该类别的正样本;若一个类别的各个负包中不存在属于该类别的像素点,则负包中即使概率最大的像素点也是该类别的负样本。基于这种情况,在一些示例中,类别c对应的一元项φc可以满足公式:
[0118][0119]
其中,pc(b)可以表示一个待训练包属于类别c的概率(也可以称为属于类别c的程度或待训练包的概率),b可以表示一个待训练包,可以表示多个正包的集合,可以表示多个负包的集合,max可以表示最大值函数,可以表示多个正包的集合的基数(也即集合的元素个数),β可以表示权重因子,γ可以表示聚焦参数(focusing parameter)。在一些示例中,当正包对应的pc(b)等于1且负包对应的pc(b)等于0时一元项的值最小。也即,一元损失最小。
[0120]
在一些示例中,权重因子β可以在0至1之间。在一些示例中,聚焦参数γ可以大于等于0。
[0121]
在一些示例中,pc(b)可以为一个待训练包的像素点中属于类别c的最大概率。在一些示例中,pc(b)可以满足公式:pc(b)=max
k∈b
(p
kc
),其中,p
kc
可以表示待训练包b的第k个
位置的像素点属于类别c的概率。
[0122]
在一些示例中,可以基于最大值平滑近似函数(smooth maximum approximation)获取一个待训练包的像素点中属于一个类别的最大概率(也即获取pc(b))。由此,能够获得较稳定的最大概率。
[0123]
在一些示例中,最大值平滑近似函数可以为α-softmax函数和α-quasimax函数中的至少一种。
[0124]
在一些示例中,对于最大值函数f(x)=max
1≤i≤n
xi,max可以表示最大值函数,n可以表示元素个数(可以对应待训练包中的像素点的个数),xi可以表示元素的值(可以对应待训练包的第i个位置的像素点属于一个类别的概率。在这种情况下,α-softmax函数可以满足公式:
[0125][0126]
其中,α可以为常量。在一些示例中,α越大,越接近最大值函数的最大值。
[0127]
另外,α-quasimax函数可以满足公式:
[0128][0129]
其中,α可以为常量。在一些示例中,α越大,越接近最大值函数的最大值。
[0130]
如上所述,在一些示例中,成对项可以描述待训练图像的像素点与该像素点相邻的像素点属于同类别的程度。也即,成对项可以评估相邻的像素点属于同类别的概率的接近程度。在一些示例中,类别c对应的成对项可以满足公式:
[0131][0132]
其中,ε可以表示所有相邻像素点对的集合,(k,k')可以表示一对相邻像素点,k和k'可以分别表示相邻像素点对的两个像素点的位置,p
kc
可以表示第k个位置的像素点属于类别c的概率,p
k'c
可以表示第k'个位置的像素点属于类别c的概率。
[0133]
在一些示例中,相邻像素点可以为八邻域或四邻域的像素点。在一些示例中,可以获取待训练图像中的各个像素点的相邻像素点以获得相邻像素点对的集合。
[0134]
如上所述,训练损失可以包括回归损失。在一些示例中,可以基于训练样本对应的预测偏移和基于标签数据对应的真实偏移,获取回归网络23的回归损失。在这种情况下,能够通过回归损失使回归网络23的预测偏移近似真实偏移。
[0135]
在一些示例中,真实偏移可以为待训练图像的像素点的位置与标签数据中的目标的真实紧框标的偏移。在一些示例中,与预测偏移对应,真实偏移可以是基于各个类别的目标的平均大小进行归一化后的偏移。具体内容可以参见上述公式(1)的关于偏移的相关描述。
[0136]
在一些示例中,可以从待训练图像中的像素点选择相应的像素点作为正样本对回归网络23进行训练。也即,可以利用正样本对回归网络23进行优化。具体地,可以基于正样
本获取回归损失,然后利用回归损失对回归网络23进行优化。
[0137]
在一些示例中,回归损失可以满足公式:
[0138][0139]
其中,c可以表示类别的数量,mc可以表示第c个类别的正样本的数量,t
ic
可以表示第c个类别的第i个正样本对应的真实偏移,v
ic
可以表示第c个类别的第i个正样本对应的预测偏移,s(x)可以表示x中所有元素的smooth l1损失之和。在一些示例中,对于x为t
ic-v
ic
,s(t
ic-v
ic
)可以表示利用smooth l1损失计算第c个类别的第i个正样本对应的预测偏移与第i个正样本对应的真实偏移一致的程度。这里,正样本可以为被选择用于对回归网络23进行训练(也即,用于计算回归损失)的待训练图像中的像素点。由此,能够获取回归损失。
[0140]
在一些示例中,正样本对应的真实偏移可以为真实紧框标对应的偏移。在一些示例中,正样本对应的真实偏移可以为匹配紧框标对应的偏移。由此,能够适用于正样本落入多个真实紧框标的情况。
[0141]
在一些示例中,smooth l1损失函数可以满足公式:
[0142][0143]
其中,σ可以表示超参数,用于smooth l1损失函数与smooth l2损失函数之间的切换,x可以表示smooth l1损失函数的变量。
[0144]
如上所述,在一些示例中,可以从待训练图像中的像素点选择相应的像素点作为正样本对回归网络23进行训练。
[0145]
在一些示例中,正样本可以是待训练图像中至少落入一个目标的真实紧框标内的像素点(也即,可以从待训练图像中选择至少落入一个目标的真实紧框标内的像素点作为正样本)。在这种情况下,基于落入至少一个目标的真实紧框标内的像素点对回归网络23进行优化,能够提高回归网络23优化的效率。在一些示例中,可以按类别从待训练图像中选择至少落入一个目标的真实紧框标内的像素点作为各个类别的正样本。在一些示例中,基于各个类别的正样本可以获取各个类别的回归损失。
[0146]
如上所述,可以按类别从待训练图像中选择至少落入一个目标的真实紧框标内的像素点作为各个类别的正样本。在一些示例中,可以对上述的各个类别的正样本进行筛选,并基于筛选后的正样本对回归网络23进行优化。也即,用于计算回归损失的正样本可以是筛选后的正样本。
[0147]
在一些示例中,在获取各个类别的正样本后(也即,从待训练图像中选择至少落入一个目标的真实紧框标内的像素点作为正样本后),可以获取该正样本对应的匹配紧框标,然后基于匹配紧框标对各个类别的正样本进行筛选。由此,能够利用基于匹配紧框标筛选后的各个类别的正样本对回归网络23进行优化。
[0148]
在一些示例中,可以对像素点(例如正样本)落入的真实紧框标进行筛选以获取该像素点的匹配紧框标。在一些示例中,匹配紧框标可以为待训练图像的像素点落入的真实
紧框标中相对该像素点的位置的真实偏移最小的真实紧框标。对于正样本,匹配紧框标可以为正样本落入的真实紧框标中相对正样本的位置的真实偏移最小的真实紧框标。
[0149]
具体地,在一个类别中,若一个像素点(例如正样本)仅落入一个待测量对象的真实紧框标内,则将该真实紧框标作为匹配紧框标,若该像素点落入多个待测量对象的真实紧框标内,则可以将多个待测量对象的真实紧框标中相对该像素点的位置的真实偏移最小的真实紧框标作为匹配紧框标。由此,能够获得像素点对应的匹配紧框标。
[0150]
在一些示例中,可以通过比较真实偏移的l1范式获取最小的真实偏移(也即真实偏移最小的真实紧框标)。在这种情况下,能够基于l1范式获取最小的真实偏移,进而能够获得匹配紧框标。具体地,可以对多个真实偏移中的各个真实偏移的元素求绝对值然后再求和以获取多个偏移值,通过比较多个偏移值以获取偏移值最小的真实偏移作为最小的真实偏移。
[0151]
在一些示例中,可以利用像素点(例如正样本)对应的期望交并比对各个类别的正样本进行筛选。在这种情况下,能够筛除远离真实紧框标或匹配紧框标的中心的像素点。由此,能够降低远离中心的像素点对回归网络23优化的不利影响且能够提高回归网络23优化的效率。
[0152]
在一些示例中,可以基于匹配紧框标获取正样本对应的期望交并比并基于期望交并比对各个类别的正样本进行筛选。具体地,在获取各个类别的正样本后,可以获取该正样本对应的匹配紧框标,然后基于匹配紧框标获取正样本对应的期望交并比并基于期望交并比对各个类别的正样本进行筛选,最后可以利用筛选后的各个类别的正样本对回归网络23进行优化。但本公开的示例不限于此,在一些示例中,可以按类别并利用待训练图像的像素点对应的期望交并比对待训练图像的像素点进行筛选(也即,可以不先从待训练图像中选择至少落入一个目标的真实紧框标内的像素点作为正样本情况下,利用期望交并比对待训练图像的像素点进行筛选)。另外,对于未落入任何真实紧框标中的像素点(也即,不存在匹配紧框标的像素点)可以进行标识。由此,能够方便后续对该像素点进行筛选。例如可以令像素点的期望交并比为0以标识出该像素点。具体地,可以按类别并基于待训练图像的像素点对应的期望交并比对待训练图像的像素点进行筛选,并基于筛选后的像素点对回归网络23进行优化。
[0153]
在一些示例中,可以从待训练图像的像素点中筛选出期望交并比大于预设期望交并比的像素点对回归网络23进行优化。在一些示例中,可以从各个类别的正样本中筛选出期望交并比大于预设期望交并比的正样本对回归网络23进行优化。由此,能够获得符合预设期望交并比的像素点(例如正样本)。在一些示例中,预设期望交并比可以为大于0且小于等于1。例如预设期望交并比可以为0.2、0.3、0.4、0.5、0.6、0.7、0.8、0.9或1等。在一些示例中,预设期望交并比可以为超参数。预设期望交并比可以在回归网络23训练过程进行调整。
[0154]
在一些示例中,可以基于像素点(例如正样本)的匹配紧框标获取像素点对应的期望交并比。在一些示例中,若像素点未对应有匹配紧框标则该像素点可以忽略或可以令该像素点对应的期望交并比为0。在这种情况下,能够使不存在匹配紧框标的像素不用于回归网络23的训练或降低对回归损失的贡献。需要说明的是,除非特别说明,以下对像素点对应的期望交并比的描述同样适用于正样本对应的期望交并比。
[0155]
在一些示例中,期望交并比可以为像素点的匹配紧框标分别与以该像素点为中心
构建的多个边框的交并比(intersection-over-union,iou)中的最大值。由此,能够获得期望交并比。但本公开的示例不限于此,在另一些示例中,期望交并比可以为像素点的真实紧框标分别与以该像素点为中心构建的多个边框的交并比中的最大值。
[0156]
在一些示例中,可以以待训练图像的像素点为中心点构建的多个边框,获取多个边框分别与该像素点的匹配紧框标的交并比中的最大值并作为期望交并比。在一些示例中,多个边框的尺寸可以不同。具体地,多个边框中的各个边框与其他边框的宽度或高度可以不同。
[0157]
图7是示出了本公开示例所涉及的以像素点为中心构建的边框的示意图。
[0158]
为了更清楚地描述期望交并比,以下结合图7进行描述。如图7所示,像素点m1具有匹配紧框标b31,边框b32为以像素点m1为中心构建的一个示例性的边框。
[0159]
在一些示例中,可以令w为匹配紧框标的宽度,h为匹配紧框标的高度,(r1w,r2h)表示像素点的位置,r1,r2为像素点在匹配紧框标的相对位置,且满足条件:0《r1,r2《1。基于像素点可以构建多个边框。作为示例,如图7所示,像素点m1的位置可以表示为(r1w,r2h),匹配紧框标b31的宽度和高度可以分别为w和h。
[0160]
在一些示例中,可以利用匹配紧框标的两条中心线将匹配紧框标分成四个区域。四个区域可以为左上区域、右上区域、左下区域、右下区域。例如,如图7所示,匹配紧框标b31的中心线d9和中心线d10可以将匹配紧框标b31分成左上区域a3、右上区域a4、左下区域a5和右下区域a6。
[0161]
以下以像素点在左上区域(也即,r1,r2满足条件:0《r1,r2≤0.5)为例描述期望交并比。例如,如图7所示,像素点m1可以为左上区域a3中的点。
[0162]
首先,构建以像素点为中心构建的多个边框。具体地,对于r1,r2满足条件:0《r1,r2≤0.5,像素点m1对应的四个边界条件可以分别为:
[0163]
w1=2r1w,h1=2r2h;
[0164]
w2=2r1w,h2=2(1-r2)h;
[0165]
w3=2(1-r1)w,h3=2r2h;
[0166]
w4=2(1-r1)w,h4=2(1-r2)h;
[0167]
其中,w1和h1可以表示第一个边界条件的宽度和高度,w2和h2可以表示第二个边界条件的宽度和高度,w3和h3可以表示第三个边界条件的宽度和高度,w4和h4可以表示第四个边界条件的宽度和高度。
[0168]
其次,计算各个边界条件下的边框与匹配紧框标的交并比。具体地,上述四个边界条件对应的交并比可以满足公式(2):
[0169]
iou1(r1,r2)=4r1r2,
[0170]
iou2(r1,r2)=2r1/(2r1(1-2r2) 1),
[0171]
iou3(r1,r2)=2r2/(2r2(1-2r1) 1),
[0172]
iou4(r1,r2)=1/(4(1-r1)(1-r2)),
[0173]
其中,iou1(r1,r2)可以表示第一个边界条件对应的交并比,iou2(r1,r2)可以表示第二个边界条件对应的交并比,iou3(r1,r2)可以表示第三个边界条件对应的交并比,iou4(r1,r2)可以表示第四个边界条件对应的交并比。在这种情况下,能够获得各个边界条件对应的交并比。
[0174]
最后,多个边界条件的交并比中最大的交并比即为期望交并比。在一些示例中,对于r1,r2满足条件:0《r1,r2≤0.5,期望交并比可以满足公式(3):
[0175]
另外,对于位于其他区域(也即,右上区域、左下区域和右下区域)的像素点的期望交并比可以基于左上区域类似的方法获得。在一些示例中,对于r1满足条件:0.5≤r1《1,可以将公式(3)的r1替换为1-r1,对于r2满足条件:0.5≤r2《1,可以将公式(3)的r2替换为1-r2。由此,能够获得位于其他区域的像素点的期望交并比。也即,位于其他区域的像素点通过坐标转换可以映射至左上区域,进而可以基于以左上区域一致的方式获取期望交并比。因此,对于r1,r2满足条件:0《r1,r2《1,期望交并比可以满足公式(4):
[0176][0177]
其中,iou1(r1,r2)、iou2(r1,r2)、iou2(r1,r2)和iou2(r1,r2)可以由公式(2)获得。由此,能够获得期望交并比。
[0178]
如上所述,在一些示例中,可以基于像素点(例如正样本)的匹配紧框标获取像素点对应的期望交并比。但本公开的示例不限于此,在另一些示例中,在对各个类别的正样本或对待训练图像的像素点进行筛选过程中,也可以不获取匹配紧框标。具体地,可以基于像素点(例如正样本)对应的真实紧框标获取像素点对应的期望交并比并基于期望交并比对各个类别的像素点进行筛选。在这种情况下,期望交并比可以为各个真实紧框标对应的期望交并比中的最大值。基于真实紧框标获取像素点对应的期望交并比中可以参考基于像素点的匹配紧框标获取像素点对应的期望交并比的相关描述。
[0179]
以下,结合附图详细描述本公开涉及的测量方法。测量方法涉及的网络模块20可以由上述的训练方法进行训练。图8(a)是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的流程图。
[0180]
在一些示例中,如图8(a)所示,测量方法可以包括获取输入图像(步骤s220)、将输入图像输入网络模块20以获取第一输出和第二输出(步骤s240)、以及基于第一输出和第二输出对目标进行识别以获取各个类别的目标的紧框标(步骤s260)。
[0181]
在一些示例中,在步骤s220中,可以获取输入图像。在一些示例中,输入图像可以包括至少一个目标。在一些示例中,至少一个目标可以属于至少一个感兴趣的类别(感兴趣的类别可以简称为类别)。具体地,若输入图像包括一个目标,则该目标可以属于一个感兴趣的类别,若输入图像包括多个目标,则该多个目标可以属于至少一个感兴趣的类别。在一些示例中,输入图像也可以不包括目标。在这种情况下,能够对不存在目标的输入图像进行判断。
[0182]
在一些示例中,在步骤s240中,可以将输入图像输入网络模块20以获取第一输出和第二输出。在一些示例中,第一输出可以包括输入图像中的各个像素点属于各个类别的概率。在一些示例中,第二输出可以包括输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移。在一些示例中,可以将第二输出中的偏移作为目标偏移。在一些示例中,网络模块20可以包括骨干网络21、分割网络22和回归网络23。在一些示例中,分割网络22可以是基于弱监督学习的图像分割的。在一些示例中,回归网络23可以是基于边框回归的。在一些示例中,骨干网络21可以用于提取输入图像的特征图。在一些示例中,分割网络22可以
将特征图作为输入以获得第一输出,回归网络23可以将特征图作为输入以获得第二输出。在一些示例中,特征图的分辨率可以与输入图像一致。具体内容参见网络模块20的相关描述。
[0183]
在一些示例中,在步骤s260中,可以基于第一输出和第二输出对目标进行识别以获取各个类别的目标的紧框标。由此,后续能够基于目标的紧框标对目标进行精确测量。如上所述,第一输出可以包括输入图像中的各个像素点属于各个类别的概率,第二输出可以包括输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移。在一些示例中,可以基于第一输出从第二输出中选择相应位置的像素点对应类别的目标偏移,并基于该目标偏移获取各个类别的目标的紧框标。
[0184]
在一些示例中,可以从第一输出中获取属于各个类别的局部概率最大的像素点的位置作为第一位置,基于第二输出中与第一位置对应的位置且对应类别的目标偏移获取各个类别的目标的紧框标。在这种情况下,能够识别出各个类别的一个目标或多个目标。在一些示例中,可以采用非极大值抑制法(non-maximum suppression,nms)获取第一位置。在一些示例中,各个类别对应的第一位置的数量可以大于等于1。但本公开的示例不限于此,对于各个类别只有一个目标的输入图像,在一些示例中,可以从第一输出中获取属于各个类别的概率最大的像素点的位置作为第一位置,基于第二输出中与第一位置对应的位置且对应类别的目标偏移获取各个类别的目标的紧框标。也即,可以利用极大值法获取第一位置。在一些示例中,还可以利用平滑极大值抑制法获取第一位置。
[0185]
在一些示例中,可以基于第一位置和目标偏移获取各个类别的目标的紧框标。在一些示例中,可以将第一位置和目标偏移代入公式(1)以反推目标的紧框标。具体地,可以将第一位置作为公式(1)的像素点的位置(x,y)并将目标偏移作为偏移t以获取目标的紧框标b。
[0186]
图8(b)是示出了本公开示例所涉及的基于紧框标的深度学习的测量方法的另一种示例的流程图。在一些示例中,如图8(b)所示,测量方法还可以包括基于目标的紧框标对各个目标的尺寸进行测量(步骤s280)。由此,能够基于目标的紧框标对目标进行精确地测量。在一些示例中,目标的尺寸可以为目标的紧框标的宽度和高度。
[0187]
以下,结合附图详细描述本公开涉及的基于紧框标的深度学习的测量装置100。测量装置100还可以称为识别装置、紧框标测量装置、紧框标识别装置、自动测量装置、辅助测量装置等。本公开涉及的测量装置100用于实施上述的测量方法。图9(a)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置100的框图。
[0188]
如图9(a)所示,在一些示例中,测量装置100可以包括获取模块10、网络模块20和识别模块30。
[0189]
在一些示例中,获取模块10可以配置为获取输入图像。在一些示例中,输入图像可以包括至少一个目标。在一些示例中,至少一个目标可以属于至少一个感兴趣的类别。具体内容参见步骤s220中的相关描述。
[0190]
在一些示例中,网络模块20可以配置为接收输入图像并基于输入图像获取第一输出和第二输出。在一些示例中,第一输出可以包括输入图像中的各个像素点属于各个类别的概率。在一些示例中,第二输出可以包括输入图像中各个像素点的位置与每个类别的目标的紧框标的偏移。在一些示例中,可以将第二输出中的偏移作为目标偏移。在一些示例
中,网络模块20可以包括骨干网络21、分割网络22和回归网络23。在一些示例中,分割网络22可以是基于弱监督学习的图像分割的。在一些示例中,回归网络23可以是基于边框回归的。在一些示例中,骨干网络21可以用于提取输入图像的特征图。在一些示例中,分割网络22可以将特征图作为输入以获得第一输出,回归网络23可以将特征图作为输入以获得第二输出。在一些示例中,特征图的分辨率可以与输入图像一致。具体内容参见网络模块20的相关描述。
[0191]
在一些示例中,识别模块30可以配置为基于第一输出和第二输出对目标进行识别以获取各个类别的目标的紧框标。具体内容参见步骤s260中的相关描述。
[0192]
图9(b)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置100的另一个示例的框图。图9(c)是示出了本公开示例所涉及的基于紧框标的深度学习的测量装置100的另一个示例的框图。
[0193]
如图9(b)和图9(c)所示,在一些示例中,测量装置100还可以包括测量模块40。测量模块40可以配置为基于目标的紧框标对各个目标的尺寸进行测量。具体内容参见步骤s280中的相关描述。
[0194]
本公开涉及的测量方法及测量装置100,构建包括骨干网络21、基于弱监督学习的图像分割的分割网络22和基于边框回归的回归网络23的网络模块20,网络模块20是基于目标的紧框标进行训练的,骨干网络21接收输入图像(例如眼底图像)并提取与输入图像分辨率一致的特征图,将特征图分别输入分割网络22和回归网络23以获取第一输出和第二输出,然后基于第一输出和第二输出获取输入图像中目标的紧框标从而实现测量。在这种情况下,基于目标的紧框标的训练的网络模块20能够精确地预测输入图像中目标的紧框标,进而能够基于目标的紧框标进行精确地测量。另外,通过回归网络23预测归一化后的偏移,能够提高对尺寸变化不大的目标进行识别或测量的精确性。另外,利用期望交并比筛选用于优化回归网络23的像素点,能够降低远离中心的像素点对回归网络23优化的不利影响且能够提高回归网络23优化的效率。另外,回归网络23预测的是明确类别的偏移,能够进一步地提高目标识别或测量的精确性。
[0195]
虽然以上结合附图和示例对本公开进行了具体说明,但是可以理解,上述说明不以任何形式限制本公开。本领域技术人员在不偏离本公开的实质精神和范围的情况下可以根据需要对本公开进行变形和变化,这些变形和变化均落入本公开的范围内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献