一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

基于投影梯度下降法生成对抗样本的隐私保护方法与流程

2021-10-20 01:14:00 来源:中国专利 TAG:隐私保护 梯度 样本 投影 对抗


1.本发明属于图像隐私保护领域(g06t 3/00、g06k 9/00),具体涉及一种基于投影梯度下降法生成对抗样本的隐私保护方法。


背景技术:

2.图像中包含着丰富的信息,已成为人们交流和获取信息的重要媒介。随着智能手机的普及和大量社交网络的涌现,比如微博、facebook、instagram等,用户能够随时随地上传自己随手抓拍的照片,通过照片来分享自己的生活。社交图片中可能隐含着用户的个人生活、家庭成员,社交关系等,在这些图片分享到社交平台的同时,图片中包含的大量个人隐私信息也随之暴露。
3.目前深度学习技术在计算视觉领域发展迅猛,在众多任务中代表了最先进的技术水平。利用深度学习技术,图像上存在的隐私信息可以更轻易的被挖掘和利用,除了可以给用户提供一些方便的个性化服务的同时,比如社交发现,目标跟踪,智能推荐等,也给用户的隐私安全带来隐患。
4.目前保护社交图片隐私安全的方法大多是从防止肉眼检测的角度进行研究。主要有两种方式,第一种通过筛选接触图片的人群进行隐私保护。具体措施为分析用户社交网络的人群特征,将人群按照亲密度分级,防止亲密度不高的人群接触到图像或者只接触到模糊化后的图像。第二种通过给图像添加隐私标签的方式进行隐私保护。具体措施为提取图像的特征并判断是否包含隐私信息,如果有将图像列为隐私图像并对用户进行警告或者将图像模糊化。但是,以上两种方式需要繁琐的人为先验知识才能够对人群或图像进行准确的划分,并且两种操作对象均为整张图像,粒度比较粗糙,容易忽略图像中未涉及隐私信息的内容,同时隐私识别之后的模糊化操作不仅会严重损坏图像的视觉质量而且对目前很多智能算法的识别干扰已失效,比如高分辨率重建算法等。
5.对抗样本方法通过在数据样本中设计一个微弱的干扰噪音后与原始样本相加得到对抗样本,对抗样本在人眼看来察觉不到差异,但是却可以干扰分类模型的识别准确率。目前对抗样本技术主要应用在图像分类领域,相关研究结果表明对抗样本有良好的鲁棒性,即可以同时对多个不同的深度神经网络进行干扰。目前有很多研究工作试图防御对抗样本对算法的干扰,但并没有得到共识的结论,目前为止,针对对抗样本的有效防御依然存在盲点。
6.本发明旨在从算法的角度来保护图像隐私,保护图像中的隐私不被深度学习的智能算法挖掘。具体来说,利用对抗样本技术,将图像上带有个人信息的物体进行“匿名化”处理,将个人信息内容隐藏在基于深度学习的检测器的“视野中”,阻止图像中隐私信息被检测,从而防止进一步的隐私分析,同时尽量减轻对图像视觉损害不影响用户的图像分享活动。隐私物体的检测与识别是图像内容隐私挖掘的前提,所以利用对抗样本的特点并很好的扩展到这些任务中使检测与识别图像中隐私目标失效是本发明的重点。


技术实现要素:

7.针对现有方法存在的不足以及对抗样本方法在分类任务中的优良表现,本发明提供一种基于投影梯度下降法生成对抗样本的隐私保护方法,可以使用户发布的图片中无法检测出隐私信息。
8.本发明的基于投影梯度下降法生成对抗样本的隐私保护方法,包括如下步骤:
9.步骤1对隐私信息进行检测。首先确定隐私目标,再利用目标检测器对原始图像进行目标检测,识别图像是否存在隐私信息,该目标检测器可以是任意的基于卷积神经网络的检测器。
10.步骤2根据目标检测器获取隐私区域信息和分类损失。根据步骤1中检测到的隐私区域信息,物体类别及类别概率与其对应的标签,利用类别损失函数计算分类损失
11.步骤3迭代生成对抗样本。步骤3将前两个步骤串联起来生成对抗噪声,并设置循环控制条件,使得迭代在生成的对抗样本满足条件时停止。
12.步骤3.1根据步骤2得到的分类损失反向传播计算梯度值,将投影算法应用于快速梯度法,根据梯度值生成基于像素点的对抗噪声,并在此步骤中利用颜色梯度图对生成噪声进行约束,使生成的噪声不会对图像质量造成肉眼可见的损失。
13.步骤3.2将生成的对抗噪声叠加到原图,生成对抗样本。再对对抗样本进行目标检测,对检测出的隐私目标按照上述步骤生成对抗噪声,将噪声叠加生成新的对抗样本,以此迭代。在迭代中设置停止条件,使其生成既能有效保护图片隐私又能较好保证图像质量的对抗样本。
14.步骤3.3为了保证生成的对抗扰动能够有效的干扰隐私检测器,在本发明中设置了迭代停止条件1为其中x δx
t
是生成的对抗样本,即图像x加上对抗噪声δx
t
,y是隐私信息对应的标签信息,w是检测器的模型权重,γ是常数参数,表示损失阈值,即当检测器对于隐私目标的识别结果损失大于某个阈值时,迭代停止。
15.步骤3.4在每一次的循环迭代过程中,均会生成新的对抗扰动叠加到对抗样本中形成新的对抗样本p
t
,具体来说,p
t
会根据δx
t
更新,更新后的p
t
会进一步影响下一次迭代时产生的δx
t 1
。在p
t
和δx
t
之间存在着双向影响,最终会导致不稳定的结果。为了解决这个问题,本发明通过计算对抗样本的目标检测区域与真实标记的区域的重合度来对生成扰动的区域进行约束,使检测到的目标区域与真实区域重合度大于阈值时保留,并只基于这些区域产生扰动。在迭代中当目标区域不存在时则迭代停止。
16.步骤4输出对抗样本。基于步骤3,设定最大迭代次数m,当迭代中出现步骤3中的迭代停止条件或者迭代次数大于m,迭代停止,输出对抗样本,将对抗样本输入目标检测器,检测样本中的隐私信息是否会被识别。
17.本发明的有益效果在于:
18.1.将在分类问题中表现良好的对抗样本方法迁移至图像隐私保护领域,可有效用于对图像隐私进行保护。
19.2.本发明的基于投影梯度下降法生成对抗样本的隐私保护方法可以使图像上的隐私信息屏蔽检测器的检测,同时生成的对抗扰动非常微小不会对图像的视觉质量带来影响。
20.3.基于上述效果,本发明可使用户发布在社交平台上的图片在不会对图像质量造
成影响的情况下同时保护用户的隐私。
附图说明
21.图1为基于对抗样本的隐私保护方法的基本流程图;
22.图2为扰动生成器产生对抗样本流程示意图;
23.图3为隐私检测区域扰动生成算法流程图;
24.图4为对抗样本与其他保护方法的对比情况图。
具体实施方式
25.为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应当了解,以下提供的实施例仅是为了详尽地且完全地公开本发明,并且向所属技术领域的技术人员充分传达本发明的技术构思,而并非要限制本发明的范围。
26.本发明的基于投影梯度下降法生成对抗样本的隐私保护方法,其具体实施如图1所示,主要包括以下步骤:
27.步骤1:输入需要保护的图片x,利用open

cv将其进行预处理,作为模型的输入。选择目标检测器,将预训练模型或者训练好的检测器模型载入检测器,本实例选取yolo

v4(https://arxiv.org/abs/2004.10934v1)和darknet(https://pjreddie.com/darknet/)作为检测器和模型预训练权重,在该实例中选取人作为隐私保护对象。
28.步骤2:利用目标检测器对其进行检测,获取隐私目标位置信息和分类损失。通过检测器获取到图像的m个隐私目标序列x=(x1,x2,x3,

,x
m
),m个目标对应的区域所在原图的坐标序列p=(p1,p2,p3,

,p
m
),其中x
i
=x(p
i
),i∈{1,2,3,

,m},表示图片x中用坐标p
i
表示的第i个隐私目标。
29.步骤3:基于步骤2目标检测器检测得到的位置信息和分类损失,在该步骤利用扰动生成器生成对抗扰动,如图2所示。该步骤使用投影梯度下降法生成扰动。梯度初始值和扰动初始值δx0分别取0和随机值,扰动的随机值用δx
rand
表示:
[0030][0031]
将初始扰动叠加到原始图像,形成对抗样本,再输入目标检测器,根据步骤2得到新的目标区域,然后基于这些区域再次生成对抗扰动,以此循环迭代直到产生满意的对抗样本。第t 1次迭代时产生的对抗扰动δx
t 1
的方法包括:
[0032][0033][0034]
其中代表第t次迭代中的梯度值,y为隐私区域对应的标签,包括类别和类别概率等信息,w为检测模型权重,表示根据对x δx
t
求导,求导过程中y和w保持固定,α代表生成扰动时每次迭代的步长,用于控制每次迭代添加的噪声的大小,β为梯度动量,用于控制梯度的更新,clip

指裁剪计算,用于将生成的对抗扰动范围限制在[

∈,∈],∈是扰动范围阈值,其中若生成的对抗扰动大于∈的置为∈,小


∈的置为

∈,为的2

范数。
[0035]
π

κ,κ
为基于颜色梯度图的投影计算,通过上述clip

计算可对整张图像的所有像素点进行粗粒度的范围限制,使得图像质量不会失真。但它可能无法欺骗人眼,特别是当图像中存在大面积的纯颜色时,如蓝天、白墙等,所以在本发明中应用颜色梯度图对像素进行限制,只在高梯度区域改变,只调整它的强度,而不改变它的颜色。具体来说,在π

κ,κ
计算中,根据输入图像x,利用边缘检测算子scharr算子计算每个颜色通道在x轴和y轴的梯度m
x
和m
y
,将其进行归一化得到和归一化后梯度值范围在0到1之间,再根据和计算颜色梯度图m
xy
,计算方式如式(4):
[0036][0037]
再根据颜色梯度图计算每个像素值的扰动,其中是位置为(i,j)的像素点的扰动值,计算方式如下:
[0038][0039]
m
ij
和x
ij
为颜色梯度图m
xy
和输入图像x中对应位置的对应元素,κ是大于0的一个超参数,可根据κ通过限制λ
ij
的范围控制生成扰动的范围,λ
ij
是与损失梯度和每个通道的颜色梯度相关的加权值,计算方式如式(6)所示:
[0040][0041]
其中clip

κ,κ
是一个裁剪操作,将λ
i
的范围限制于[

κ,κ],c从1到3进行求和代表对三个颜色通道分别计算后求和。
[0042]
为了保证生成的对抗扰动δx
t
能够有效的干扰隐私检测器,设置停止迭代的条件为:
[0043][0044]
其中γ是常数参数,表示损失阈值,即当检测器对于隐私目标的识别结果损失大于某个阈值时,迭代停止,(7)式为迭代停止条件1。
[0045]
在每一次的循环迭代过程中,均会生成新的对抗扰动叠加到对抗样本中形成新的对抗样本p
t
,具体来说,p
t
会根据δx
t
更新,更新后的p
t
会进一步影响下一次迭代时产生的δx
t 1
。在p
t
和δx
t
之间存在着双向影响,最终会导致不稳定的结果。为了解决这个问题,本发明提出如下的限制条件在每次迭代过程中筛选合理的目标区域p
t

[0046]
iou(x(p
gt
),x(p
t
))>n
ꢀꢀꢀꢀꢀꢀꢀ
(8)
[0047]
其中iou是交并比(intersection over union),union),p
gt
为真实标记的目标区域位置,根据标签信息获得;n是常数,代表iou的阈值,通常被设置为0.5。
[0048]
通过用(8)式来对每次迭代过程中产生对抗扰动的区域进行约束,使检测到的目
标区域与真实标记的区域重合度大于0.5时作保留,并只基于这些区域产生对抗扰动。在迭代中当目标区域不存在时则迭代停止,此为迭代停止条件2。扰动生成器产生对抗样本的算法流程示意图如图3所示。
[0049]
步骤4:根据步骤3中扰动生成器的方法迭代生成对抗样本,并设定最大迭代次数m以避免算法出现无限循环,当出现迭代停止条件或者迭代次数大于m时算法结束,输出最终的对抗样本,再将其输入目标检测器进行检测,确定生成的对抗样本是否能够避开目标检测器的检测。
[0050]
在整个实验中,我们固定了目标检测器所有层的权重,只允许梯度反向传播到输入图像,以避免对检测器的任何影响。然后,将扰动的迭代步长α设置为2.5,将梯度动量β设置为0.2,将扰动范围阈值∈设置为5,为输入的图像生成扰动。该实验是在nvidia tesla v100 gpu上进行的。
[0051]
基于上述实验步骤和硬件设施,该实例在生成的对抗样本与原图对比情况如图4所示。下表所示为使用本发明所述方法在pascal voc 2007数据集(http://host.robots.ox.ac.uk/pascal/voc/pubs/everingham10.pdf)人类子集上的防御效果(参看图4的图像(b))以及与高斯模糊(c)、马赛克(d)、低对比度(e)三种保护方法的对比情况。
[0052][0053]
所用的指标为平均召回率ar和平均失真度其中使用ar来评估我们的算法保护隐私目标不被检测的有效性。由于我们的算法是为了保护图像的隐私而设计的,而该实例中的隐私保护目标为“人”,所以我们只是在图像的“人”类别下计算ar。当预测结果的置信度评分大于0.4,预测区域与ground truth,也就是标签的iou大于0.5时认为是真阳性。用于测量添加到原始图像中的干扰噪音x

i

x
i
的平均尺度,此处使用这个指标来评估干扰算法对图像视觉质量的影响。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献

  • 日榜
  • 周榜
  • 月榜