一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

距离正则水平集与卷积神经网络的水平集掩膜优化方法与流程

2021-12-15 02:40:00 来源:中国专利 TAG:


1.本发明属于芯片制造领域。利用深度学习预测的方法,优化芯片制造掩膜版,使得光刻过程的运行时间大大缩短。


背景技术:

2.随着集成电路工艺的特征尺寸不断减小,现有的制造技术面临着极大的挑战。由于电路的图形尺寸和光刻工艺所使用的光源波长相近,干涉效应将不可避免的产生,从而导致光刻图形失真,进而影响集成电路制造产能。分辨率增强技术的应用则是提升产能的关键步骤。光学临近校正则是最为核心的分辨率增强技术。在光学临近校正的过程中,待加工的掩模上的图形会进行调整,以达到补偿光学散射的影响。第一类是基于设计规则的方法,这一类方法的特点是应用简单并且速度快,能很好地处理简单的设计。而先进技术节点下大规模设计的设计规则呈指数级增长,因此基于设计规则的方法优化掩模版的质量有限。另一种是基于模型的方法,这类方法有着极大的解空间,因此想要得到一个高质量的结果会非常耗时。随着电路设计的复杂程度日益增加,以上基于设计规则和基于模型的方法都会面临效率或者产出质量的问题。因此解析类方法称为成为新的趋势。


技术实现要素:

3.有鉴于此,为了解决掩模版在先进工艺下的优化问题,逆光刻技术开始被广泛使用。
4.为实现上述目的,本发明提出如下技术方案:一种距离正则水平集与卷积神经网络的水平集掩膜优化方法,包括:
5.第一步,构建融合距离正则水平集与稠密神经网络架构模型;
6.第二步,选取深度水平集掩膜数据集以及对应的掩膜标签作为训练神经网络模型的样本数据集,挑选该样本数据集中的一组图片和对应标签,同时做随机的旋转、缩放、平移和裁剪处理,并重新调整图像顺序将其合成两份三维数据包:一份存深度水平集合数据,一份存对应的标签;
7.第三步,将两份重构的水平集数据包作为训练神经网络模型的数据样本输入神经网络模型,设置迭代次数,开始训练神经网络模型;
8.第四步,将非训练样本的水平集数据输入到模型预测函数,加载训练好的神经网络模型,得到最终的掩膜优化结果。
9.进一步的,构建融合距离正则水平集与稠密神经网络架构模型包括如下步骤:
10.建立下采样层,
11.将下采样层输出得到的通道特征,将特征通过上采样的输出作为水平集初始化能量函数;
12.将初始化输出与真值进行比较,作用于交叉熵损失函数,采用adam算法更新梯度。
13.进一步的,通过目标函数训练神经网络权重,优化目标函数如下:
[0014][0015]
其中n代表图片的宽度和高度方向上的像素点数量,z代表神经网络输出的图片,zt代表训练集中的掩膜优化的水平集函数。
[0016]
有益效果:本发明有效解决了传统水平集算法中需要手工初始化和大量迭代的问题,实现了卷积神经网络和水平集的联合分割效果。
附图说明
[0017]
图1是优化结果图。
具体实施方式
[0018]
在一种实施例中,本发明的技术术语说明:
[0019]
1)光刻模型及逆光刻技术建模
[0020]
依据正向光刻模型,能基于一个给定的掩模得到打印图形。这其中包含两个模型:光刻投影模型和光刻胶模型。光刻投影模型可以描述成光刻核和掩模之间的运算。光刻胶模型则通过判断透射光强度是否超过阈值,来确定实际打印形状。
[0021]
2)精确边距误差
[0022]
打印图形的失真是连续的,产生的图形失真部分只包含凸起或者凹陷。在目标图案轮廓线上插入大量探测点,并计算探测点处目标轮廓与实际打印图像的垂直距离(垂直于目标轮廓线)。如果误差之和超过一个阈值,那么在这个测量点上就被看做是有精确边距误差(edge placement error,epe)违例产生。
[0023]
打印图形的epe数值即为该图像上存在精确边距误差的探测点总数。epe误差函数即为
[0024][0025]
f
epe
=∑epe violations
[0026]
其中:(x,y):掩膜平面上的点;d:目标轮廓测量点与打印图片轮廓的垂直
[0027]
距离;th
epe
:epe计算误差阈值;f
epe
:epe误差优化目标函数。
[0028]
3)工艺偏差建模
[0029]
使得当工艺偏差出现时,打印图形受到的扰动影响最小。这样的扰动可以由工艺偏差环(process variation band,pvband)来衡量;基于这个思想,在普遍使用的最小化打印图形误差的优化目标中再加入一项对于工艺偏差环的惩罚项,以期望达到协同优化的目的,所以优化目标可以表达成。
[0030][0031]
f
exact
=αf
epe
βf
pvb
[0032]
其中:f
pvb
:工艺偏差环优化函数;z
k
:在第k个条件下生成的打印图片;
[0033]
z
t
:目标图形;n
p
:所考虑的不同光刻条件的数目;f
exact
:总优化目标函数;α,β:优化目标的权重。
[0034]
在建模过程中所涉及到的表达式都是连续可导函数,因此依然可以使用通用的基于梯度的一阶算法迭代求解。
[0035]
逆光刻技术是将光刻过程建模成一个成像的过程。与基于模型的技术不同的是,基于深度学习的水平集逆光刻技术关心的不只是像素上的梯度更新,而是将整个优化范围扩大到了掩膜的边界上。从而获得更好的光刻掩膜效果。
[0036]
本发明公开了一种基于unet的距离正则水平集与卷积神经网络的深度学习掩膜优化方法。该方法将水平集算法融入到卷积神经网络的训练过程,生成一个端到端的模型架构。该分割模型在卷积神经网络的向前传递中,学习掩膜优化过程的特征,自动形成水平集的初始化并指导其轮廓曲线演化趋近于目标掩膜的边界;在反向传播中,以水平集的迭代结果计算卷积神经网络的目标损失函数,并通过反向梯度传播更新卷积神经网络中的各层参数进行网络参数的快速收敛。通过上述两种方法互相结合、相互作用,实现卷积神经网络和水平集的联合分割。本发明有效解决了传统水平集算法中需要手工初始化和大量迭代的问题。
[0037]
一种距离正则水平集与卷积神经网络的水平集掩膜优化方法,其步骤如下:
[0038]
第一步,构建融合距离正则水平集与稠密神经网络架构模型:首先建立下采样层,然后将下采样层输出得到的通道特征,将特征通过上采样的输出作为水平集初始化能量函数;最后,将初始化输出与真值进行比较,作用于交叉熵损失函数,采用adam算法更新梯度。
[0039]
第二步,选取深度水平集掩膜数据集以及对应的掩膜标签作为训练神经网络模型的样本数据集,挑选该样本数据集中的一组图片和对应标签,同时做随机的旋转、缩放、平移和裁剪处理,并重新调整图像顺序将其合成两份三维数据包:一份存深度水平集合数据,一份存对应的标签。
[0040]
第三步,将两份重构的水平集数据包作为训练神经网络模型的数据样本输入神经网络模型,设置迭代次数,开始训练神经网络模型。
[0041]
第四步,将非训练样本的水平集数据输入到模型预测函数,加载训练好的神经网络模型,得到最终的掩膜优化结果。
[0042]
本发明区别于传统的深度学习掩膜优化方案,基于水平集的掩膜优化方案的输入输出均为水平集数据,而不是传统的掩膜像素图。
[0043]
本发明通过目标函数训练神经网络权重,优化目标函数如下:
[0044]
优化目标函数:
[0045][0046]
x,y表示图像中的像素坐标,n代表图片的宽度和高度方向上的像素点数量,z代表神经网络输出的图片,zt代表训练集中的掩膜优化的水平集函数,γ代表相关指数。
[0047]
在一种方案中,水平集光刻掩膜表示:
[0048]
[0049]
c表示光刻掩膜的边界,φ(x,y)表示对应的水平集合函数,x,y表示图像中的像素坐标,inside代表在边界中,outside代表在边界外。
[0050]
梯度函数:
[0051][0052]
m代表掩膜图像,z代表光刻结果,zt代表目标图像,γ为参数,θ
z
为sigmoid函数的斜率,h
flip
为卷积核的180度翻转,h为卷积核,代表卷积操作,h代表卷积核,

代表点乘操作。
[0053]
水平集更新:
[0054][0055]
其中φ
i 1
(x,y)代表更新后的水平集函数,i代表第i次更新,δt代表更新步长,t代表时间。
[0056]
该水平集掩膜是对所有的边界进行并行计算获得水平集掩膜,对所获得的掩膜图像以及卷积核分别进行fft运算,相应得到fft结果,再通过fft进行光刻模型演算,获得光刻结果,通过优化函数减少光刻目标和光刻结果的误差,获得梯度,并对水平集进行更新,通过梯度函数优化光刻结果。本优选实施例主要解决的技术问题能够简易、低成本地实现光刻掩膜优化处理的功能。
[0057]
以上所述,仅为本发明创造较佳的具体实施方式,但本发明创造的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明创造披露的技术范围内,根据本发明创造的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明创造的保护范围之内。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献