一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于分割和误差引导的脑神经元迭代分割方法与流程

2022-02-20 05:36:08 来源:中国专利 TAG:


1.本发明属于计算机科学与生物医学技术领域,具体涉及一种基于分割和 误差引导的脑神经元迭代分割方法。


背景技术:

2.精确分割神经元是全脑神经元实例分割的关键。目前,深度学习方法应 用到显微图像的大量实例表明,深度学习可以有效提高目标分割结果。我们 建立的基于猕猴脑显微图像的数据集,涵盖了所有大脑解剖区域,在同一解 剖区域或不同解剖区域中,神经元的染色强度不同,神经元类内差异大,神 经元和组织结构类间差异小,使得全脑神经元分割非常具有挑战性。目前, 国内外学者对于细胞分割问题已经做了大量的研究工作,提出了许多自动分 割细胞的方法。但是,由于

全脑神经元染色强度不一致,类内差异性较大, 类间差异性较小;

专家标记的样本数量有限;

标记样本中不同类型的神 经元数量不平衡等,导致应用深度学习方法分割全脑神经元的精度受限。因 此,本发明基于分割和误差引导的脑神经元迭代分割方法能够很好地解决上 面的问题,有效提高不平衡小样本条件下全脑神经元的分割精度。


技术实现要素:

3.本发明的目的是提供一种基于分割和误差引导的脑神经元迭代分割方 法,解决了现有技术中存在的分割全脑神经元时的精度较低的问题。
4.本发明所采用的技术方案是,一种基于分割和误差引导的脑神经元迭代 分割方法,具体按照以下步骤实施:
5.步骤1、建立脑神经元分割数据库,将脑神经元分割数据库内的数据随 机分成训练集和测试集,并标记神经元像素,构建对应的训练集真值图和测 试集真值图;
6.步骤2、对步骤1建立的训练集和测试集分别进行预处理,得到归一化 的训练集图像和测试集图像;
7.步骤3、构建基于分割和误差引导的脑神经元迭代分割网络,采用步骤 2的训练集图像和步骤1的训练集真值图分别作为基于分割和误差引导的脑 神经元迭代分割网络的输入和输出,训练、更新网络参数,从而得到训练好 的基于分割和误差引导的脑神经元迭代分割网络的模型;
8.步骤4、将步骤2的测试集图像送入步骤3训练好的基于分割和误差引 导的脑神经元迭代分割网络模型的输入端,输出结果即为预测的测试集中神 经元的概率图;
9.步骤5、提取步骤4的神经元的概率图中概率大于0.5的像素,即为得 到的神经元分割结果。
10.本发明的特点还在于,
11.步骤1具体如下:
12.从2张猴脑冠状切片的显微图像中截取不同解剖区域的100张大小为 512
×
512像
素的显微图像构成脑神经元分割数据库,在100张图像中随机选 取n张图像作为训练集,使用剩余100-n张图像作为测试集,在上述100 张图像中手动标记神经元像素,得到脑神经元分割数据库的真值图。
13.步骤2具体如下:
14.对步骤1建立的数据库图像进行预处理,得到归一化的图像i:
15.i(x,y)=(0.299
×
r(x,y) 0.587
×
g(x,y) 0.114
×
b(x,y))/255
ꢀꢀ
(2)
16.式中,i(x,y)为图像i中像素(x,y)的归一化值,范围为0-1,步骤1的数据 库图像为彩色图像,由r、g、b分量构成,r(x,y)为像素(x,y)在r分量中的灰 度级,g(x,y)为像素(x,y)在g分量中的灰度级,b(x,y)为像素(x,y)在b分量中 的灰度级。
17.步骤3具体如下:
18.步骤3.1、构建多尺度编码器网络,在不同尺度提取神经元特征;
19.步骤3.2、构建多目标解码器网络,多目标解码器网络由3条路经组成, 分别用来预测神经元分割结果、神经元分割结果的假阴错误和神经元分割结 果的假阳错误;
20.步骤3.3、构建基于分割和误差引导的脑神经元迭代分割网络;
21.步骤3.4、将步骤2的训练集图像作为步骤3.1中构建的多尺度编码器网 络的输入,将步骤1的训练集真值图作为步骤3.2中构建的多目标解码器网 络中用来预测神经元分割结果路径的输出,使用反向传播和随机梯度下降法, 计算损失函数,根据最小化损失函数原理,训练、更新网络参数,直至训练 次数达到q次停止,得到基于分割和误差引导的脑神经元迭代网络模型。
22.步骤3.1中多尺度编码器网络由l1、l2、l3、l4、l5模块构成,步骤 3.1具体如下:
23.步骤3.1.1、在模块l1中,使用大小为3
×
3像素的32个卷积核对步骤2 的训练集图像进行两次连续的卷积操作和激活操作,得到特征图fm×n×d,m 和n代表特征图的长和宽,d代表特征图的维数,步骤3.1.1的特征图尺寸为 f
512
×
512
×
32

24.步骤3.1.2、对步骤3.1.1得到的特征图执行一次最大池化操作,得到特 征图f
256
×
256
×
32

25.步骤3.1.3、在模块l2中,使用大小为3
×
3像素的64个卷积核对步骤 3.1.2得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
256
×
256
×
64

26.步骤3.1.4、对步骤3.1.3得到的特征图执行一次最大池化操作,得到特 征图f
128
×
128
×
64

27.步骤3.1.5、在模块l3中,使用大小为3
×
3像素的128个卷积核对步骤 3.1.4得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
128
×
128
×
128

28.步骤3.1.6、对步骤3.1.5得到的特征图执行一次最大池化操作,得到特 征图f
64
×
64
×
128

29.步骤3.1.7、在模块l4中,使用大小为3
×
3像素的256个卷积核对步骤 3.1.6得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
64
×
64
×
256

30.步骤3.1.8、对步骤3.1.7得到的特征图执行一次最大池化操作,得到特 征图f
32
×
32
×
256

31.步骤3.1.9、在模块l5中,使用大小为3
×
3像素的512个卷积核对步骤 3.1.8得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
32
×
32
×
512
,至此,神经元的特
征在不同尺度上被提取。
32.步骤3.2中多目标解码器网络由3条路径组成,具体如下:
33.a.多目标解码器路径1由l4seg、l3seg、l2seg、l1seg模块构成,用来 预测神经元分割结果,具体步骤如下:
34.步骤3.2.a.1、对步骤3.1.9的结果进行一次上采样,使用大小为3
×
3像 素的256个卷积核得到特征图f
64
×
64
×
256

35.步骤3.2.a.2、在模块l4seg中,将步骤3.1.7的结果和步骤3.2.a.1的结 果级联,再使用大小为3
×
3像素的256个卷积核执行两次卷积操作,得到特 征图f
64
×
64
×
256

36.步骤3.2.a.3、对步骤3.2.a.2的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
64
×
64
×2,应用sigmoid激活函数,得到神经元概率图即为步骤1的训练集图像在l4seg模块中得到的每个像素为神经元的概率, 概率越大,该像素为神经元的可能性越大;
37.步骤3.2.a.4、对步骤3.2.a.2的结果进行一次上采样,使用大小为3
×
3 像素的128个卷积核得到特征图f
128
×
128
×
128

38.步骤3.2.a.5、在模块l3seg中,将步骤3.1.5的结果和步骤3.2.a.4的结 果级联,再使用大小为3
×
3像素的128个卷积核执行两次卷积操作,得到特 征图f
128
×
128
×
128

39.步骤3.2.a.6、对步骤3.2.a.5的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
128
×
128
×2,应用sigmoid激活函数,得到神经元概率图
40.步骤3.2.a.7、对步骤3.2.a.5的结果进行一次上采样,使用大小为3
×
3 像素的64个卷积核得到特征图f
256
×
256
×
64

41.步骤3.2.a.8、在模块l2seg中,将步骤3.1.3的结果和步骤3.2.a.7的结 果级联,再使用大小为3
×
3像素的64个卷积核执行两次卷积操作,得到特 征图f
256
×
256
×
64

42.步骤3.2.a.9、对步骤3.2.a.8的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
256
×
256
×2,应用sigmoid激活函数,得到神经元概率图
43.步骤3.2.a.10、对步骤3.2.a.8的结果进行一次上采样,使用大小为3
×
3 像素的32个卷积核得到特征图f
512
×
512
×
32

44.步骤3.2.a.11、在模块l1seg中,将步骤3.1.1的结果和步骤3.2.a.10的 结果级联,再使用大小为3
×
3像素的32个卷积核执行两次卷积操作,得到 特征图f
512
×
512
×
32
,得到的特征图的尺寸恢复为步骤2的训练集图像的尺寸 512
×
512,此时,特征图的维数为32;
45.步骤3.2.a.12、对步骤3.2.a.11的结果使用大小为3
×
3像素的2个卷积核 得到特征图f
512
×
512
×2,应用sigmoid激活函数,得到神经元概率图
46.b.多目标解码器路径2由l4e1、l3e1、l2e1、l1e1模块构成,用来预 测神经元分割结果的假阴错误,具体步骤与3.2.a.1到3.2.a.12一致,最后得 到l4e1到l1e1的概率图分别为分 别为l4e1、l3e1、l2e1、l1e1模块预测的神经元分割结果的假阴错误;
47.c.多目标解码器路径3由l4e2、l3e2、l2e2、l1e2等模块构成,用来 预测神经元分割结果的假阳错误,具体步骤与3.2.a.1到3.2.a.12一致,最后 得到l4e2到l1e2的概率图
分别为概率图分别为l4e2、l3e2、l2e2、l1e2 模块预测的神经元分割结果的假阳错误;至此,多目标解码器网络的3条路 径构建完成。
48.步骤3.3具体如下:
49.步骤3.3.1、为改善网络在下一次迭代后得到的分割结果和假阴错误,并 抑制假阳错误,根据公式(3)计算多目标解码器网络的3条路经在l4seg、l4e1、 l4e2模块的输出结果和的加权和,将加权和结果与步 骤3.1.6、步骤3.2.c.2的结果级联,作为下一次迭代时网络在l4模块的输入, 构成迭代结构,公式(3)计算如下:
50.eq=(p
1i
p
2i
)/2
×
(1-p
3i
)
ꢀꢀ
(3)
51.式中,i为神经网络中的第li层;
52.步骤3.3.2、根据公式(3)计算多目标解码器网络的3条路经在l3seg、l3e1、 l3e2模块的输出结果和的加权和,将结果与步骤 3.1.4、步骤3.2.c.5的结果级联,作为下一次迭代时网络在l3模块的输入, 构成迭代结构;
53.步骤3.3.3、根据公式(3)计算多目标解码器网络的3条路经在l2seg、l2e1、 l2e2模块的输出结果和的加权和,将结果与步骤 3.1.2、步骤3.2.c.8的结果级联,作为下一次迭代时网络在l2模块的输入, 构成迭代结构;
54.步骤3.3.4、根据公式(3)计算多目标解码器网络的3条路经在l1seg、l1e1、 l1e2模块的输出结果和的加权和,将结果与步骤 2的训练集图像、步骤3.2.c.11的结果级联,作为下一次迭代时网络在l1模 块的输入,构成迭代结构,至此,基于分割和误差引导的脑神经元迭代分割 网络构成。
55.步骤3.4具体如下:
56.对步骤2的训练集图像应用所述步骤3.3构建的基于分割和误差引导的 脑神经元迭代分割网络,在多次迭代后,脑神经元分割结果得到改善,所构 建的基于分割和误差引导的脑神经元迭代分割网络的学习率设置为1e-5,选 择adam作为优化器,根据定义的损失函数,使用反向传播和随机梯度下降 法训练、更新基于分割和误差引导的脑神经元迭代分割网络参数,直至训练 次数达到q次停止,至此,得到所有网络参数,即基于分割和误差引导的脑 神经元迭代分割网络构建完成,
57.其中,损失函数计算方式定义为:
[0058][0059]
式中,为损失函数,i为数字1,2,3,4,y
1,i,n
为人为标记的真值图, p
1,i,n
、p
2,i,n
、p
3,i,n
分别为多目标解码器网络的第1、2、3条路经上第li层 第n个像素的预测概率值,n为一幅图像中的像素总个数。
[0060]
步骤4具体如下:
[0061]
将步骤2的测试集图像送入步骤3训练好的基于分割和误差引导的脑神 经元迭代
分割网络模型,步骤3训练好的基于分割和误差引导的脑神经元迭 代分割网络模型的l1seg模块得到的输出结果,即步骤3.2.a.12得到的结果, 即为测试集中预测的神经元的概率图。
[0062]
步骤5具体如下:
[0063]
将步骤4的神经元的概率图中概率大于0.5的像素置为1,得到神经元 分割结果。
[0064]
本发明的有益效果是,一种基于分割和误差引导的脑神经元迭代分割方 法,研究的猕猴大脑包含了神经科学领域所研究的具有挑战性的解剖区域 (尾状核、屏状核、大脑皮质、海马体、壳、下托、丘脑、苍白球、缰核、 侧膝状体、脑桥等);在猕猴全脑显微图像中构建数据集,手动标注该数据 集中神经元和非神经元类,将其作为真值图,为深度学习在神经科学领域中 的应用扩充了数据库;构建的基于分割和误差引导的脑神经元迭代分割网络, 可以有效提高不平衡小样本条件下全脑神经元的分割精度。
附图说明
[0065]
图1是本发明的流程示意图;
[0066]
图2是本发明构建的基于分割和误差引导的脑神经元迭代分割网络;
[0067]
图3(a)是本发明实验使用图像;
[0068]
图3(b)是本发明使用实验图像的真值图;
[0069]
图4是应用random forest、fcn-8s、u-net、本发明所得到的神经元分 割结果。
具体实施方式
[0070]
下面结合附图和具体实施方式对本发明进行详细说明。
[0071]
本发明一种基于分割和误差引导的脑神经元迭代分割方法,流程图如图 1所示,具体按照以下步骤实施:
[0072]
步骤1、建立脑神经元分割数据库,将脑神经元分割数据库内的数据随 机分成训练集和测试集,并标记神经元像素,构建对应的训练集真值图和测 试集真值图;
[0073]
步骤1具体如下:
[0074]
从2张猴脑冠状切片的显微图像中截取不同解剖区域的100张大小为 512
×
512像素的显微图像构成脑神经元分割数据库,在100张图像中随机选 取n张图像作为训练集,使用剩余100-n张图像作为测试集,在上述100 张图像中手动标记神经元像素,得到脑神经元分割数据库的真值图。
[0075]
步骤2、对步骤1建立的训练集和测试集分别进行预处理,得到归一化 的训练集图像和测试集图像;
[0076]
步骤2具体如下:
[0077]
对步骤1建立的数据库图像进行预处理,得到归一化的图像i:
[0078]
i(x,y)=(0.299
×
r(x,y) 0.587
×
g(x,y) 0.114
×
b(x,y))/255
ꢀꢀ
(2)
[0079]
式中,i(x,y)为图像i中像素(x,y)的归一化值,范围为0-1,步骤1的数据 库图像为彩色图像,由r、g、b分量构成,r(x,y)为像素(x,y)在r分量中的灰 度级,g(x,y)为像素(x,y)在g分量中的灰度级,b(x,y)为像素(x,y)在b分量中 的灰度级。
[0080]
步骤3、构建基于分割和误差引导的脑神经元迭代分割网络,采用步骤 2的训练集
图像和步骤1的训练集真值图分别作为基于分割和误差引导的脑 神经元迭代分割网络的输入和输出,训练、更新网络参数,从而得到训练好 的基于分割和误差引导的脑神经元迭代分割网络的模型;
[0081]
步骤3具体如下:
[0082]
步骤3.1、构建多尺度编码器网络,在不同尺度提取神经元特征;
[0083]
步骤3.2、构建多目标解码器网络,多目标解码器网络由3条路经组成, 分别用来预测神经元分割结果、神经元分割结果的假阴错误和神经元分割结 果的假阳错误;
[0084]
步骤3.3、构建基于分割和误差引导的脑神经元迭代分割网络;
[0085]
步骤3.4、将步骤2的训练集图像作为步骤3.1中构建的多尺度编码器网 络的输入,将步骤1的训练集真值图作为步骤3.2中构建的多目标解码器网 络中用来预测神经元分割结果路径的输出,使用反向传播和随机梯度下降法, 计算损失函数,根据最小化损失函数原理,训练、更新网络参数,直至训练 次数达到q次(在本发明中,q=100)停止,得到基于分割和误差引导的脑 神经元迭代网络模型。
[0086]
步骤3.1中多尺度编码器网络由l1、l2、l3、l4、l5模块构成,步骤 3.1具体如下:
[0087]
步骤3.1.1、在模块l1中,使用大小为3
×
3像素的32个卷积核对步骤2 的训练集图像进行两次连续的卷积操作和激活操作,得到特征图fm×n×d,m 和n代表特征图的长和宽,d代表特征图的维数,步骤3.1.1的特征图尺寸为 f
512
×
512
×
32

[0088]
步骤3.1.2、对步骤3.1.1得到的特征图执行一次最大池化操作,得到特 征图f
256
×
256
×
32

[0089]
步骤3.1.3、在模块l2中,使用大小为3
×
3像素的64个卷积核对步骤 3.1.2得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
256
×
256
×
64

[0090]
步骤3.1.4、对步骤3.1.3得到的特征图执行一次最大池化操作,得到特 征图f
128
×
128
×
64

[0091]
步骤3.1.5、在模块l3中,使用大小为3
×
3像素的128个卷积核对步骤 3.1.4得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
128
×
128
×
128

[0092]
步骤3.1.6、对步骤3.1.5得到的特征图执行一次最大池化操作,得到特 征图f
64
×
64
×
128

[0093]
步骤3.1.7、在模块l4中,使用大小为3
×
3像素的256个卷积核对步骤 3.1.6得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
64
×
64
×
256

[0094]
步骤3.1.8、对步骤3.1.7得到的特征图执行一次最大池化操作,得到特 征图f
32
×
32
×
256

[0095]
步骤3.1.9、在模块l5中,使用大小为3
×
3像素的512个卷积核对步骤 3.1.8得到的特征图进行两次连续的卷积操作和激活操作,得到特征图 f
32
×
32
×
512
,至此,神经元的特征在不同尺度上被提取。
[0096]
步骤3.2中多目标解码器网络由3条路径组成,具体如下:
[0097]
a.多目标解码器路径1由l4seg、l3seg、l2seg、l1seg模块构成,用来 预测神经元分割结果,具体步骤如下:
[0098]
步骤3.2.a.1、对步骤3.1.9的结果进行一次上采样,使用大小为3
×
3像 素的256个卷积核得到特征图f
64
×
64
×
256

[0099]
步骤3.2.a.2、在模块l4seg中,将步骤3.1.7的结果和步骤3.2.a.1的结 果级联,再使用大小为3
×
3像素的256个卷积核执行两次卷积操作,得到特 征图f
64
×
64
×
256

[0100]
步骤3.2.a.3、对步骤3.2.a.2的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
64
×
64
×2,应用sigmoid激活函数,得到神经元概率图即为步骤1的训练集图像在l4seg模块中得到的每个像素为神经元的概率, 概率越大,该像素为神经元的可能性越大;
[0101]
步骤3.2.a.4、对步骤3.2.a.2的结果进行一次上采样,使用大小为3
×
3 像素的128个卷积核得到特征图f
128
×
128
×
128

[0102]
步骤3.2.a.5、在模块l3seg中,将步骤3.1.5的结果和步骤3.2.a.4的结 果级联,再使用大小为3
×
3像素的128个卷积核执行两次卷积操作,得到特 征图f
128
×
128
×
128

[0103]
步骤3.2.a.6、对步骤3.2.a.5的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
128
×
128
×2,应用sigmoid激活函数,得到神经元概率图
[0104]
步骤3.2.a.7、对步骤3.2.a.5的结果进行一次上采样,使用大小为3
×
3 像素的64个卷积核得到特征图f
256
×
256
×
64

[0105]
步骤3.2.a.8、在模块l2seg中,将步骤3.1.3的结果和步骤3.2.a.7的结 果级联,再使用大小为3
×
3像素的64个卷积核执行两次卷积操作,得到特 征图f
256
×
256
×
64

[0106]
步骤3.2.a.9、对步骤3.2.a.8的结果使用大小为3
×
3像素的2个卷积核得 到特征图f
256
×
256
×2,应用sigmoid激活函数,得到神经元概率图
[0107]
步骤3.2.a.10、对步骤3.2.a.8的结果进行一次上采样,使用大小为3
×
3 像素的32个卷积核得到特征图f
512
×
512
×
32

[0108]
步骤3.2.a.11、在模块l1seg中,将步骤3.1.1的结果和步骤3.2.a.10的 结果级联,再使用大小为3
×
3像素的32个卷积核执行两次卷积操作,得到 特征图f
512
×
512
×
32
,得到的特征图的尺寸恢复为步骤2的训练集图像的尺寸 512
×
512,此时,特征图的维数为32;
[0109]
步骤3.2.a.12、对步骤3.2.a.11的结果使用大小为3
×
3像素的2个卷积核 得到特征图f
512
×
512
×2,应用sigmoid激活函数,得到神经元概率图
[0110]
b.多目标解码器路径2由l4e1、l3e1、l2e1、l1e1模块构成,用来预 测神经元分割结果的假阴错误,具体步骤与3.2.a.1到3.2.a.12一致,最后得 到l4e1到l1e1的概率图分别为分 别为l4e1、l3e1、l2e1、l1e1模块预测的神经元分割结果的假阴错误;
[0111]
c.多目标解码器路径3由l4e2、l3e2、l2e2、l1e2等模块构成,用来 预测神经元分割结果的假阳错误,具体步骤与3.2.a.1到3.2.a.12一致,最后 得到l4e2到l1e2的概率图分别为概率图分别为l4e2、l3e2、l2e2、l1e2 模块预测的神经元分割结果的假阳错误;至此,多目标解码器网络的3条路 径构建完成。
[0112]
步骤3.3具体如下:
[0113]
步骤3.3.1、为改善网络在下一次迭代后得到的分割结果和假阴错误,并 抑制假
阳错误,根据公式(3)计算多目标解码器网络的3条路经在l4seg、l4e1、l4e2模块的输出结果和的加权和,将加权和结果与步 骤3.1.6、步骤3.2.c.2的结果级联,作为下一次迭代时网络在l4模块的输入, 构成迭代结构,公式(3)计算如下:
[0114]
eq=(p
1i
p
2i
)/2
×
(1-p
3i
)
ꢀꢀ
(3)
[0115]
式中,i为神经网络中的第li层;
[0116]
步骤3.3.2、根据公式(3)计算多目标解码器网络的3条路经在l3seg、l3e1、 l3e2模块的输出结果和的加权和,将结果与步骤 3.1.4、步骤3.2.c.5的结果级联,作为下一次迭代时网络在l3模块的输入, 构成迭代结构;
[0117]
步骤3.3.3、根据公式(3)计算多目标解码器网络的3条路经在l2seg、l2e1、 l2e2模块的输出结果和的加权和,将结果与步骤 3.1.2、步骤3.2.c.8的结果级联,作为下一次迭代时网络在l2模块的输入, 构成迭代结构;
[0118]
步骤3.3.4、根据公式(3)计算多目标解码器网络的3条路经在l1seg、l1e1、 l1e2模块的输出结果和的加权和,将结果与步骤 2的训练集图像、步骤3.2.c.11的结果级联,作为下一次迭代时网络在l1模 块的输入,构成迭代结构,至此,基于分割和误差引导的脑神经元迭代分割 网络构成。
[0119]
步骤3.4具体如下:
[0120]
对步骤2的训练集图像应用所述步骤3.3构建的基于分割和误差引导的 脑神经元迭代分割网络,在多次迭代后,脑神经元分割结果得到改善,所构 建的基于分割和误差引导的脑神经元迭代分割网络的学习率设置为1e-5,选 择adam作为优化器,根据定义的损失函数,使用反向传播和随机梯度下降 法训练、更新基于分割和误差引导的脑神经元迭代分割网络参数,直至训练 次数达到q次停止(在本发明中,q=100),至此,得到所有网络参数,即 基于分割和误差引导的脑神经元迭代分割网络构建完成,
[0121]
其中,损失函数计算方式定义为:
[0122][0123]
式中,为损失函数,i为数字1,2,3,4,y
1,i,n
为人为标记的真值图, p
1,i,n
、p
2,i,n
、p
3,i,n
分别为多目标解码器网络的第1、2、3条路经上第li层 第n个像素的预测概率值,n为一幅图像中的像素总个数。
[0124]
步骤4、将步骤2的测试集图像送入步骤3训练好的基于分割和误差引 导的脑神经元迭代分割网络模型的输入端,输出结果即为预测的测试集中神 经元的概率图;
[0125]
步骤4具体如下:
[0126]
将步骤2的测试集图像送入步骤3训练好的基于分割和误差引导的脑神 经元迭代分割网络模型,步骤3训练好的基于分割和误差引导的脑神经元迭 代分割网络模型的l1seg模块得到的输出结果,即步骤3.2.a.12得到的结果, 即为测试集中预测的神经元的概率图。
[0127]
步骤5、提取步骤4的神经元的概率图中概率大于0.5的像素,即为得 到的神经元
分割结果。
[0128]
步骤5具体如下:
[0129]
将步骤4的神经元的概率图中概率大于0.5的像素置为1,得到神经元 分割结果。
[0130]
结合图3(a)和图3(b),本发明所使用的数据库来自于合作单位法国 原子能和替代能源署(cea)提供的猕猴脑组织显微图像。本发明采用第81 和第101张脑冠状切片的组织显微图像中的100张图像(每张图像大小为 512
×
512像素)。
[0131]
图2是本发明构建的基于分割和误差引导的脑神经元迭代分割网络, conv代表卷积运算,relu代表激活函数,max pool代表最大池化运算,up 代表上采样运算,concatenation代表级联操作。
[0132]
结合图4,本发明构建的基于分割和误差引导的脑神经元迭代分割网络 使用测试集图像验证其分割结果的准确性。将步骤2的测试集图像送入神经 网络,利用训练好的基于分割和误差引导的脑神经元迭代分割网络模型得到 神经元自动分割结果,根据专家标记的真值图,采用recall(r)、precision (p)、f值(公式2)来评估本发明的性能。
[0133]
r=tp/(tp fn);p=tp/(tp fp);f=2 r
×
p/(r p)
ꢀꢀ
(1)
[0134]
式中,tp是预测结果和真值图中同一位置均为神经元的像素数目,fn 是同一位置处,预测结果为非神经元而真值图为神经元的像素数目,fp是 同一位置处,预测结果为神经元而真值图为非神经元的像素数目。f值越大, 自动分割方法的性能越好。如表1,本发明应用在测试集上得到的平均f值 和标准差均小于参考方法得到的结果。
[0135]
表1.对测试集应用random forest、fcn-8s、u-net、本发明得到的平均f值 和标准差
[0136][0137]
从表1可以看出,应用本发明分割神经元得到的平均f值最小,与 random forest、fcn-8s、u-net相比,全脑神经元正确分割率分别提高了 10.6%、4.0%和1.5%,尤其对于浅色神经元,正确分割率分别提高了66.1%、 23.9%和11.2%,且深色神经元分割的精度得以保持。此外,应用本发明分 割神经元得到的f值的标准差也最小,证明对于不平衡有限数据集下的不同 类型神经元组织显微图像,本发明比其他三种参考方法更鲁棒。
[0138]
参考方法:
[0139]
[1]l.breiman,“random forests,”mach.learn.,vol.45,no.1,pp.5

32,oct. 2001,doi:10.1023/a:1010933404324.
[0140]
[2]j.long,e.shelhamer,and t.darrell,“fully convolutional networks for semantic segmentation,”in 2015ieee conference on computer vision and pattern recognition(cvpr),jun.2015,pp.3431

3440,doi: 10.1109/cvpr.2015.7298965.
[0141]
[3]t.falk et al.,“u-net:deep learning for cell counting,detection,and morphometry,”nat.methods,vol.16,no.1,pp.67

70,2019,doi: 10.1038/s41592-018-0261-2.
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献