CN114663665A - 基于梯度的对抗样本生成方法与*** - Google Patents
基于梯度的对抗样本生成方法与*** Download PDFInfo
- Publication number
- CN114663665A CN114663665A CN202210186455.1A CN202210186455A CN114663665A CN 114663665 A CN114663665 A CN 114663665A CN 202210186455 A CN202210186455 A CN 202210186455A CN 114663665 A CN114663665 A CN 114663665A
- Authority
- CN
- China
- Prior art keywords
- image sample
- sample
- original image
- gradient
- disturbance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000003062 neural network model Methods 0.000 claims abstract description 55
- 239000011159 matrix material Substances 0.000 claims abstract description 35
- 238000001914 filtration Methods 0.000 claims abstract description 27
- 238000010008 shearing Methods 0.000 claims abstract description 12
- 230000000875 corresponding effect Effects 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 22
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 23
- 238000002474 experimental method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 241000511338 Haliaeetus leucocephalus Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013524 data verification Methods 0.000 description 1
- 230000008260 defense mechanism Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于梯度的对抗样本生成方法与***,包括:获取原始图像样本和待攻击的神经网络模型;将原始图像样本输入神经网络模型,根据交叉熵损失函数获取原始图像样本的损失信息;根据损失信息得到对应的梯度符号矩阵并生成扰动信息,采用扰动信息对原始图像样本添加扰动,得到第一噪声图像样本;对第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;判断第二噪声图像样本是否满足对抗样本的要求,若未满足将其输入神经网络模型进行下一轮迭代,反之将其作为对抗样本并停止迭代。本发明可生成攻击成功率更高且噪声可见性更小的对抗样本,来增强神经网络模型抵御对抗攻击的能力。
Description
技术领域
本发明涉及计算机视觉和深度学习的技术领域,尤其是指一种基于梯度的对抗样本生成方法与***。
背景技术
近年来,机器学习和深度学习应用在日常生活中的各个方面,包括人脸识别、图像分类、自动驾驶和语义分割等。然而,深度学习的不可解释性又限制了它的应用。对抗攻击就是其中一个临床表现,它通过在干净样本上添加微小噪声来生成对抗样本愚弄神经网络模型,误导被攻击模型输出与正确结果不同或截然相反的答案。在这种情况下,更好地理解神经网络模型并提高它的鲁棒性是非常必要的,这离不开对抗样本的生成。
然而,现有方法或***生成的对抗样本在黑盒条件下的可转移性较差且噪声的可见性较大。因此,为了能更好地理解神经网络并提高它的鲁棒性,需要一种能够实现较高攻击成功率并且噪声可见性更小的方法和***,来增强其抵御对抗攻击的能力。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供一种基于梯度的对抗样本生成方法,能够生成攻击成功率更好、噪声可见性更小的对抗样本,从而利用对抗样本增强神经网络模型抵御对抗攻击的能力。
本发明的第二目的在于提供一种基于梯度的对抗样本生成***。
本发明的第一目的通过下述技术方案实现:基于梯度的对抗样本生成方法,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型;
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
进一步,在步骤S2中,所述损失信息的具体内容如下:
根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;
根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息;
式中,表示正常损失信息;表示辅助损失信息;λ表示辅助损失信息的权重;表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;adv表示图像添加过噪声。
进一步,在步骤S3中,根据所述损失信息得到对应的梯度符号矩阵的步骤包括:
采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;
将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。
进一步,在步骤S3中,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;
根据所述无穷范数距离,采用指数函数求出可变步长;
根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本;
其中,所述可变步长和第二噪声图像样本与所述原始图像样本之间的无穷范数距离反相关,其对应计算公式为:
式中,v表示可变步长;c表示权重系数;e表示指数函数的底数;L(·)表示无穷范数距离的计算函数;表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;t表示迭代次数;clean和adv用来区分图像是否添加过噪声。
进一步,在步骤S4中,所述过滤操作为中值过滤操作或均值过滤操作。
式中,表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;表示剪切操作函数;ε表示预设最大扰动阈值;F(·)表示过滤操作函数;v表示可变步长;sign(·)表示符号函数;表示损失信息;表示对损失信息求梯度;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;clean和adv用来区分图像是否添加过噪声;
判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
本发明的第二目的通过下述技术方案实现:基于梯度的对抗样本生成***,包括:
获取模块,用于获取原始图像样本和待攻击的神经网络模型;
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
样本生成模块,判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
进一步,所述损失计算模块,包括:
正常损失子模块,根据所述神经网络模型对所述原始图像样本的识别结果,计算交叉熵损失信息,称为正常损失信息;
辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的识别结果,计算交叉熵损失信息,称为辅助损失信息。
进一步,所述扰动生成模块,包括:
梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵,将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵;
可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;
扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
进一步,所述扰动限制模块,包括:
过滤操作子模块,用于中值过滤操作或均值过滤操作;
剪切操作子模块,将图像像素值大于或小于预设最大扰动阈值的像素值钳制为预设最大扰动阈值;其中,所述图像像素值大于或小于预设最大扰动阈值是指图像像素值超出[原始图像样本-ε,原始图像样本+ε]的范围,ε表示预设最大扰动阈值。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明在生成扰动信息的过程中使用可变步长,避免迭代攻击陷入局部最优,并且减少了由于剪切操作导致的重要图像特征信息的丢失。
2、本发明考虑了部分噪声容易被对抗攻击防御机制中的降噪操作消除,在迭代的过程中引入过滤操作来尽可能的保留不易被消除的顽固噪声。
3、通过实验数据验证,相比现有的基于梯度的对抗样本生成方法,本发明生成的对抗样本在黑盒情况下攻击集成模型的攻击成功率提升了14.4%,而且噪声大小在L1和L2范数度量下也较小。
附图说明
图1为本发明方法的流程示意图。
图2为损失信息组成图。
图3为可变步长原理图。
图4为获取原始图像样本的梯度符号矩阵的流程示意图。
图5为获取第一噪声图像样本的流程示意图。
图6是本发明***的架构图。
图7是本发明***的场景示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
本实施例公开了一种基于梯度的对抗样本生成方法,该方法同时适用于白盒攻击和黑盒攻击。其中,白盒攻击是指攻击时已知待攻击神经网络模型的所有信息,如结构、参数、训练过程和训练数据。黑盒攻击是指攻击时只知道待攻击神经网络模型有限信息,如置信度和标签。
如图1所示,所述基于梯度的对抗样本生成方法,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型。
具体地,本实验采用的原始图像样本数据集为ImageNet-compatible数据集,它是2017年神经信息处理***进展大会举办的对抗竞赛的官方数据集,包含1000张大小为299×299×3的图片及其对应的真实标签。本实验采用的神经网络模型包括Inception V3、Inception V4、Inception-ResNet V2、ResNet50 V2、ResNet101 V2、ResNet152 V2、Inc-v3adv、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens一共10种。这些模型都由ImageNet数据集训练得到,但它们的正确率与分类边界有着较大的差异。
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息。
如图2所示,损失信息由两部分组成,第一部分设为表示根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;第二部分设为表示根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息。故最终的损失信息计算公式为:
式中,λ表示辅助损失信息的权重。两部分损失信息相加得到的结果能够更加准确的表示梯度的方向。本实验中预设λ的值为1.0。
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本。
其中,如图3所示,根据损失信息得到对应的梯度符号矩阵的具体步骤包括:
其中,如图4所示,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离,表示为其中,L(·)表示无穷范数距离的计算函数;表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;adv表示图像添加过噪声;xclean表示原始图像样本。
根据所述无穷范数距离,采用指数函数求出可变步长。其对应计算公式为:
式中,v表示可变步长;c表示权重系数;e表示指数函数的底数。本实验中预设c的值为10。其原理图如图5所示,图中横纵坐标分别表示两个输入维度,灰色区域表示神经网络模型识别正确的区域,白色区域表示寻神经网络模型识别错误的区域,※表示原始图像样本,·表示对抗样本。在找类别边界的过程中,由当前迭代次数下第二噪声图像样本与原始图像样本的无穷范数距离决定步长大小:距离越大,步长越小;反之,步长越大。
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本。
具体地,对于过滤操作,本实验使用中值过滤方法来攻击Inception V3、Inception V4、Inception-ResNet V2、ResNet50 V2、ResNet101 V2和ResNet152 V2模型,过滤核大小设置为3×3;使用均值过滤方法来攻击Inc-v3adv、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens模型,过滤核大小设置为3×3。其中,F(·)为过滤函数。对于剪切操作,为了避免生成的对抗样本与原始图像样本差别较大,预设最大扰动阈值ε大小为16,预设最大扰动阈值ε与最大迭代次数T的比值即为每次迭代的最大扰动数据范围。示例性的,对扰动数据进行限制后的第t次迭代的第二噪声图像样本可以表示为:
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
具体地,所述判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
即每次迭代完成后生成的第二噪声图像样本被认为是对原始图像样本添加了一次扰动数据,将添加扰动数据后得到的第二噪声图像样本输入到待攻击的神经网络模型输出其对应的预测结果;将预测结果和原始图像样本对应的真实标签比较,若相同则认为该第二噪声图像样本对神经网络模型没有攻击成功,还需要在此轮迭代生成的第二噪声图像样本的基础上从步骤S2开始进一步迭代生成新的扰动数据,再基于新的扰动数据对第二噪声图像样本添加扰动得到新的第二噪声图像样本,以此类推,直到当前迭代次数超过了预设最大迭代次数或者将得到的第二噪声图像样本输入到待攻击的神经网络模型预测结果和原始图像样本对应的真实标签不相同,即攻击成功,才停止迭代。所述预设最大迭代次数可以根据实际情况进行设置,本实验中设置最大迭代次数为10。具体地,用t表示迭代次数,即将第t次按照上述步骤生成的第二噪声图像样本作为第t+1次步骤S2中的原始图像样本,重复10次步骤S2至步骤S4,得到的第二噪声图像样本作为最终的对抗样本;或当迭代次数少于10次,且生成的第二噪声图像样本能够成功攻击神经网络模型时提前停止迭代训练,并将此次迭代得到第二噪声图像样本作为最终的对抗样本。
实施例2
本实施例公开了一种基于梯度的对抗样本生成***,如图6所示,其包括以下功能模块:
获取模块,用于获取原始图像样本和待攻击的神经网络模型。其中,原始图像样本的图片格式为.png或.jpg格式,神经网络模型文件的格式为.ckpt格式。
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息。所述损失计算模块的输入为所述获取模块获取的原始图像样本和待攻击的神经网络模型,输出为损失信息。其中,tensorflow中交叉熵损失函数为tf.nn.softmax_cross_entropy_with_logits()。
具体地,所述损失计算模块包括正常损失子模块和辅助损失子模块。正常损失子模块,根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息。
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本。所述扰动生成模块的输入为所述损失信息,输出为第一噪声图像样本。其中,第一噪声图像样本为tensorflow张量数据类型。
具体地,所述扰动生成模块包括梯度计算子模块、可变步长计算子模块和扰动添加子模块。梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本。所述扰动限制模块的输入为所述扰动生成模块输出的第一噪声图像样本,输出为第二噪声图像样本。其中,第二噪声图像样本为tensorflow张量数据类型。
具体地,所述扰动限制模块包括过滤操作子模块和剪切操作子模块。过滤操作子模块用于中值过滤操作或均值过滤操作;剪切操作子模块,将图像像素值大于或小于预设值的元素值限制在[原始图像样本-ε,原始图像样本+ε]范围内,ε表示预设最大扰动阈值。
样本生成模块,用于判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。所述样本生成模块的输入为所述扰动限制模块的第二噪声图像样本,若第二噪声图像样本满足对抗样本的需求,其输出为对抗样本。其中,对抗样本的图片格式为.png或.jpg格式。
所述***的具体场景如图7所示,对于获取模块中的一张原始图像样本,其标签为“秃鹰”,依次经过损失计算模块、扰动生成模块和扰动限制模块,最终在样本生成模块得到其对应的对抗样本,神经网络模型对该对抗样本的识别结果为“披肩鸡”,表示攻击成功。
综上所述,本发明提供的基于梯度的对抗样本生成方法和***,其实现对抗攻击的攻击的表达式如下:
本发明生成的对抗样本在黑盒条件下具有更好可转移性,且噪声的可见性更小,因此为更好地理解神经网络并提高它的鲁棒性奠定基础,增强神经网络模型抵御对抗攻击的能力,具有实际推广价值,值得推广。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.基于梯度的对抗样本生成方法,其特征在于,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型;
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
2.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S2中,所述损失信息的具体内容如下:
根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;
根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息;
3.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S3中,根据所述损失信息得到对应的梯度符号矩阵的步骤包括:
采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;
将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。
4.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S3中,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;
根据所述无穷范数距离,采用指数函数求出可变步长;
根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本;
其中,所述可变步长和第二噪声图像样本与所述原始图像样本之间的无穷范数距离反相关,其对应计算公式为:
5.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S4中,所述过滤操作为中值过滤操作或均值过滤操作。
6.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S5中,对抗样本的迭代公式为:
式中,表示第t+1次迭代时的第一噪声图像样本;表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;表示剪切操作函数;ε表示预设最大扰动阈值;F(·)表示过滤操作函数;v表示可变步长;sign(·)表示符号函数;表示损失信息;表示对损失信息求梯度;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;clean和adv用来区分图像是否添加过噪声;
判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
7.基于梯度的对抗样本生成***,其特征在于,包括:
获取模块,用于获取原始图像样本和待攻击的神经网络模型;
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
样本生成模块,判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
8.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述损失计算模块,包括:
正常损失子模块,根据所述神经网络模型对所述原始图像样本的识别结果,计算交叉熵损失信息,称为正常损失信息;
辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的识别结果,计算交叉熵损失信息,称为辅助损失信息。
9.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述扰动生成模块,包括:
梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵,将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵;
可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;
扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
10.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述扰动限制模块,包括:
过滤操作子模块,用于中值过滤操作或均值过滤操作;
剪切操作子模块,将图像像素值大于或小于预设最大扰动阈值的像素值钳制为预设最大扰动阈值;其中,所述图像像素值大于或小于预设最大扰动阈值是指图像像素值超出[原始图像样本-ε,原始图像样本+ε]的范围,ε表示预设最大扰动阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210186455.1A CN114663665B (zh) | 2022-02-28 | 2022-02-28 | 基于梯度的对抗样本生成方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210186455.1A CN114663665B (zh) | 2022-02-28 | 2022-02-28 | 基于梯度的对抗样本生成方法与*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114663665A true CN114663665A (zh) | 2022-06-24 |
CN114663665B CN114663665B (zh) | 2024-04-05 |
Family
ID=82026704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210186455.1A Active CN114663665B (zh) | 2022-02-28 | 2022-02-28 | 基于梯度的对抗样本生成方法与*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663665B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861893A (zh) * | 2022-07-07 | 2022-08-05 | 西南石油大学 | 一种多通路聚合的对抗样本生成方法、***及终端 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648095A (zh) * | 2018-05-10 | 2018-10-12 | 浙江工业大学 | 一种基于图卷积网络梯度的节点信息隐藏方法 |
CN109948663A (zh) * | 2019-02-27 | 2019-06-28 | 天津大学 | 一种基于模型抽取的步长自适应的对抗攻击方法 |
US20210089866A1 (en) * | 2019-09-24 | 2021-03-25 | Robert Bosch Gmbh | Efficient black box adversarial attacks exploiting input data structure |
CN113449783A (zh) * | 2021-06-17 | 2021-09-28 | 广州大学 | 一种对抗样本生成方法、***、计算机设备和存储介质 |
-
2022
- 2022-02-28 CN CN202210186455.1A patent/CN114663665B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648095A (zh) * | 2018-05-10 | 2018-10-12 | 浙江工业大学 | 一种基于图卷积网络梯度的节点信息隐藏方法 |
CN109948663A (zh) * | 2019-02-27 | 2019-06-28 | 天津大学 | 一种基于模型抽取的步长自适应的对抗攻击方法 |
US20210089866A1 (en) * | 2019-09-24 | 2021-03-25 | Robert Bosch Gmbh | Efficient black box adversarial attacks exploiting input data structure |
CN113449783A (zh) * | 2021-06-17 | 2021-09-28 | 广州大学 | 一种对抗样本生成方法、***、计算机设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861893A (zh) * | 2022-07-07 | 2022-08-05 | 西南石油大学 | 一种多通路聚合的对抗样本生成方法、***及终端 |
CN114861893B (zh) * | 2022-07-07 | 2022-09-23 | 西南石油大学 | 一种多通路聚合的对抗样本生成方法、***及终端 |
CN115270891A (zh) * | 2022-08-22 | 2022-11-01 | 苏州大学 | 一种信号对抗样本的生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114663665B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299274B (zh) | 一种基于全卷积神经网络的自然场景文本检测方法 | |
CN112183203B (zh) | 一种基于多尺度像素特征融合的实时交通标志检测方法 | |
CN113674140B (zh) | 一种物理对抗样本生成方法及*** | |
CN113128442B (zh) | 基于卷积神经网络的汉字书法风格识别方法和评分方法 | |
CN114663665A (zh) | 基于梯度的对抗样本生成方法与*** | |
CN111310582A (zh) | 基于边界感知和对抗学习的湍流退化图像语义分割方法 | |
CN113283356B (zh) | 多级注意力尺度感知人群计数方法 | |
CN112418216A (zh) | 一种复杂自然场景图像中的文字检测方法 | |
CN111914698A (zh) | 图像中人体的分割方法、分割***、电子设备及存储介质 | |
CN111507337A (zh) | 基于混合神经网络的车牌识别方法 | |
CN116342601B (zh) | 基于边缘引导和多层级搜索的图像篡改检测方法 | |
CN116311214B (zh) | 车牌识别方法和装置 | |
Jiang et al. | Baidu Meizu deep learning competition: Arithmetic operation recognition using end-to-end learning OCR technologies | |
CN112634288A (zh) | 设备区域图像分割方法及装置 | |
CN109145723A (zh) | 一种***识别方法、***、终端装置及存储介质 | |
CN103455816B (zh) | 一种笔画宽度提取方法、装置及一种文字识别方法、*** | |
CN113963333B (zh) | 一种基于改进yolof模型的交通标志牌检测方法 | |
CN111414938A (zh) | 一种板式换热器内气泡的目标检测方法 | |
CN114821048A (zh) | 目标物分割方法和相关装置 | |
CN115641584B (zh) | 一种雾天图像识别方法及装置 | |
CN111563513A (zh) | 基于注意力机制的散焦模糊检测方法 | |
CN111612803A (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
CN115424250A (zh) | 一种车牌识别方法及装置 | |
CN115393491A (zh) | 一种基于实例分割和参考帧的水墨视频生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |