CN114663665A - 基于梯度的对抗样本生成方法与*** - Google Patents

基于梯度的对抗样本生成方法与*** Download PDF

Info

Publication number
CN114663665A
CN114663665A CN202210186455.1A CN202210186455A CN114663665A CN 114663665 A CN114663665 A CN 114663665A CN 202210186455 A CN202210186455 A CN 202210186455A CN 114663665 A CN114663665 A CN 114663665A
Authority
CN
China
Prior art keywords
image sample
sample
original image
gradient
disturbance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210186455.1A
Other languages
English (en)
Other versions
CN114663665B (zh
Inventor
李家春
夏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202210186455.1A priority Critical patent/CN114663665B/zh
Publication of CN114663665A publication Critical patent/CN114663665A/zh
Application granted granted Critical
Publication of CN114663665B publication Critical patent/CN114663665B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于梯度的对抗样本生成方法与***,包括:获取原始图像样本和待攻击的神经网络模型;将原始图像样本输入神经网络模型,根据交叉熵损失函数获取原始图像样本的损失信息;根据损失信息得到对应的梯度符号矩阵并生成扰动信息,采用扰动信息对原始图像样本添加扰动,得到第一噪声图像样本;对第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;判断第二噪声图像样本是否满足对抗样本的要求,若未满足将其输入神经网络模型进行下一轮迭代,反之将其作为对抗样本并停止迭代。本发明可生成攻击成功率更高且噪声可见性更小的对抗样本,来增强神经网络模型抵御对抗攻击的能力。

Description

基于梯度的对抗样本生成方法与***
技术领域
本发明涉及计算机视觉和深度学习的技术领域,尤其是指一种基于梯度的对抗样本生成方法与***。
背景技术
近年来,机器学习和深度学习应用在日常生活中的各个方面,包括人脸识别、图像分类、自动驾驶和语义分割等。然而,深度学习的不可解释性又限制了它的应用。对抗攻击就是其中一个临床表现,它通过在干净样本上添加微小噪声来生成对抗样本愚弄神经网络模型,误导被攻击模型输出与正确结果不同或截然相反的答案。在这种情况下,更好地理解神经网络模型并提高它的鲁棒性是非常必要的,这离不开对抗样本的生成。
然而,现有方法或***生成的对抗样本在黑盒条件下的可转移性较差且噪声的可见性较大。因此,为了能更好地理解神经网络并提高它的鲁棒性,需要一种能够实现较高攻击成功率并且噪声可见性更小的方法和***,来增强其抵御对抗攻击的能力。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供一种基于梯度的对抗样本生成方法,能够生成攻击成功率更好、噪声可见性更小的对抗样本,从而利用对抗样本增强神经网络模型抵御对抗攻击的能力。
本发明的第二目的在于提供一种基于梯度的对抗样本生成***。
本发明的第一目的通过下述技术方案实现:基于梯度的对抗样本生成方法,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型;
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
进一步,在步骤S2中,所述损失信息的具体内容如下:
根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;
根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息;
所述损失信息设为
Figure BDA0003522945310000021
均由所述神经网络模型输出的高级表示logit值计算的,其对应公式为:
Figure BDA0003522945310000022
式中,
Figure BDA0003522945310000023
表示正常损失信息;
Figure BDA0003522945310000024
表示辅助损失信息;λ表示辅助损失信息的权重;
Figure BDA0003522945310000025
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;adv表示图像添加过噪声。
进一步,在步骤S3中,根据所述损失信息得到对应的梯度符号矩阵的步骤包括:
采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;
将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。
进一步,在步骤S3中,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;
根据所述无穷范数距离,采用指数函数求出可变步长;
根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本;
其中,所述可变步长和第二噪声图像样本与所述原始图像样本之间的无穷范数距离反相关,其对应计算公式为:
Figure BDA0003522945310000031
式中,v表示可变步长;c表示权重系数;e表示指数函数的底数;L(·)表示无穷范数距离的计算函数;
Figure BDA0003522945310000032
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;t表示迭代次数;clean和adv用来区分图像是否添加过噪声。
进一步,在步骤S4中,所述过滤操作为中值过滤操作或均值过滤操作。
进一步,在步骤S5中,对抗样本
Figure BDA0003522945310000033
的迭代公式为:
Figure BDA0003522945310000034
式中,
Figure BDA0003522945310000035
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;
Figure BDA0003522945310000036
表示剪切操作函数;ε表示预设最大扰动阈值;F(·)表示过滤操作函数;v表示可变步长;sign(·)表示符号函数;
Figure BDA0003522945310000041
表示损失信息;
Figure BDA0003522945310000042
表示对损失信息求梯度;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;clean和adv用来区分图像是否添加过噪声;
判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
本发明的第二目的通过下述技术方案实现:基于梯度的对抗样本生成***,包括:
获取模块,用于获取原始图像样本和待攻击的神经网络模型;
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
样本生成模块,判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
进一步,所述损失计算模块,包括:
正常损失子模块,根据所述神经网络模型对所述原始图像样本的识别结果,计算交叉熵损失信息,称为正常损失信息;
辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的识别结果,计算交叉熵损失信息,称为辅助损失信息。
进一步,所述扰动生成模块,包括:
梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵,将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵;
可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;
扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
进一步,所述扰动限制模块,包括:
过滤操作子模块,用于中值过滤操作或均值过滤操作;
剪切操作子模块,将图像像素值大于或小于预设最大扰动阈值的像素值钳制为预设最大扰动阈值;其中,所述图像像素值大于或小于预设最大扰动阈值是指图像像素值超出[原始图像样本-ε,原始图像样本+ε]的范围,ε表示预设最大扰动阈值。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明在生成扰动信息的过程中使用可变步长,避免迭代攻击陷入局部最优,并且减少了由于剪切操作导致的重要图像特征信息的丢失。
2、本发明考虑了部分噪声容易被对抗攻击防御机制中的降噪操作消除,在迭代的过程中引入过滤操作来尽可能的保留不易被消除的顽固噪声。
3、通过实验数据验证,相比现有的基于梯度的对抗样本生成方法,本发明生成的对抗样本在黑盒情况下攻击集成模型的攻击成功率提升了14.4%,而且噪声大小在L1和L2范数度量下也较小。
附图说明
图1为本发明方法的流程示意图。
图2为损失信息组成图。
图3为可变步长原理图。
图4为获取原始图像样本的梯度符号矩阵的流程示意图。
图5为获取第一噪声图像样本的流程示意图。
图6是本发明***的架构图。
图7是本发明***的场景示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
本实施例公开了一种基于梯度的对抗样本生成方法,该方法同时适用于白盒攻击和黑盒攻击。其中,白盒攻击是指攻击时已知待攻击神经网络模型的所有信息,如结构、参数、训练过程和训练数据。黑盒攻击是指攻击时只知道待攻击神经网络模型有限信息,如置信度和标签。
如图1所示,所述基于梯度的对抗样本生成方法,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型。
具体地,本实验采用的原始图像样本数据集为ImageNet-compatible数据集,它是2017年神经信息处理***进展大会举办的对抗竞赛的官方数据集,包含1000张大小为299×299×3的图片及其对应的真实标签。本实验采用的神经网络模型包括Inception V3、Inception V4、Inception-ResNet V2、ResNet50 V2、ResNet101 V2、ResNet152 V2、Inc-v3adv、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens一共10种。这些模型都由ImageNet数据集训练得到,但它们的正确率与分类边界有着较大的差异。
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息。
具体地,所述损失信息设为
Figure BDA0003522945310000071
其中,
Figure BDA0003522945310000072
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;adv表示图像添加过噪声;y表示与原始图像样本数据对应的真实标签。
如图2所示,损失信息由两部分组成,第一部分设为
Figure BDA0003522945310000073
表示根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;第二部分设为
Figure BDA0003522945310000074
表示根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息。故最终的损失信息计算公式为:
Figure BDA0003522945310000075
式中,λ表示辅助损失信息的权重。两部分损失信息相加得到的结果能够更加准确的表示梯度的方向。本实验中预设λ的值为1.0。
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本。
其中,如图3所示,根据损失信息得到对应的梯度符号矩阵的具体步骤包括:
采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵,用
Figure BDA0003522945310000081
表示对损失信息求梯度;
将所述梯度信息矩阵输入符号函数sign(·),得到所述梯度符号矩阵。用来表示
Figure BDA0003522945310000082
梯度变化方向。
其中,如图4所示,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离,表示为
Figure BDA0003522945310000083
其中,L(·)表示无穷范数距离的计算函数;
Figure BDA0003522945310000084
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;adv表示图像添加过噪声;xclean表示原始图像样本。
根据所述无穷范数距离,采用指数函数求出可变步长。其对应计算公式为:
Figure BDA0003522945310000085
式中,v表示可变步长;c表示权重系数;e表示指数函数的底数。本实验中预设c的值为10。其原理图如图5所示,图中横纵坐标分别表示两个输入维度,灰色区域表示神经网络模型识别正确的区域,白色区域表示寻神经网络模型识别错误的区域,※表示原始图像样本,·表示对抗样本。在找类别边界的过程中,由当前迭代次数下第二噪声图像样本与原始图像样本的无穷范数距离决定步长大小:距离越大,步长越小;反之,步长越大。
根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,并将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。第t+1次迭代时的第一噪声图像样本
Figure BDA0003522945310000086
可以表示为:
Figure BDA0003522945310000087
式中,
Figure BDA0003522945310000088
表示对损失信息求梯度;sign(·)表示符号函数。
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本。
具体地,对于过滤操作,本实验使用中值过滤方法来攻击Inception V3、Inception V4、Inception-ResNet V2、ResNet50 V2、ResNet101 V2和ResNet152 V2模型,过滤核大小设置为3×3;使用均值过滤方法来攻击Inc-v3adv、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens模型,过滤核大小设置为3×3。其中,F(·)为过滤函数。对于剪切操作,为了避免生成的对抗样本与原始图像样本差别较大,预设最大扰动阈值ε大小为16,预设最大扰动阈值ε与最大迭代次数T的比值即为每次迭代的最大扰动数据范围。示例性的,对扰动数据进行限制后的第t次迭代的第二噪声图像样本
Figure BDA0003522945310000091
可以表示为:
Figure BDA0003522945310000092
式中,
Figure BDA0003522945310000093
为裁剪函数,可以将图像像素值大于或小于预设值的元素值限制在[原始图像样本-ε,原始图像样本+ε]范围内。
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
具体地,所述判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
即每次迭代完成后生成的第二噪声图像样本被认为是对原始图像样本添加了一次扰动数据,将添加扰动数据后得到的第二噪声图像样本输入到待攻击的神经网络模型输出其对应的预测结果;将预测结果和原始图像样本对应的真实标签比较,若相同则认为该第二噪声图像样本对神经网络模型没有攻击成功,还需要在此轮迭代生成的第二噪声图像样本的基础上从步骤S2开始进一步迭代生成新的扰动数据,再基于新的扰动数据对第二噪声图像样本添加扰动得到新的第二噪声图像样本,以此类推,直到当前迭代次数超过了预设最大迭代次数或者将得到的第二噪声图像样本输入到待攻击的神经网络模型预测结果和原始图像样本对应的真实标签不相同,即攻击成功,才停止迭代。所述预设最大迭代次数可以根据实际情况进行设置,本实验中设置最大迭代次数为10。具体地,用t表示迭代次数,即将第t次按照上述步骤生成的第二噪声图像样本
Figure BDA0003522945310000101
作为第t+1次步骤S2中的原始图像样本,重复10次步骤S2至步骤S4,得到的第二噪声图像样本
Figure BDA0003522945310000102
作为最终的对抗样本;或当迭代次数少于10次,且生成的第二噪声图像样本能够成功攻击神经网络模型时提前停止迭代训练,并将此次迭代得到第二噪声图像样本作为最终的对抗样本。
实施例2
本实施例公开了一种基于梯度的对抗样本生成***,如图6所示,其包括以下功能模块:
获取模块,用于获取原始图像样本和待攻击的神经网络模型。其中,原始图像样本的图片格式为.png或.jpg格式,神经网络模型文件的格式为.ckpt格式。
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息。所述损失计算模块的输入为所述获取模块获取的原始图像样本和待攻击的神经网络模型,输出为损失信息。其中,tensorflow中交叉熵损失函数为tf.nn.softmax_cross_entropy_with_logits()。
具体地,所述损失计算模块包括正常损失子模块和辅助损失子模块。正常损失子模块,根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息。
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本。所述扰动生成模块的输入为所述损失信息,输出为第一噪声图像样本。其中,第一噪声图像样本为tensorflow张量数据类型。
具体地,所述扰动生成模块包括梯度计算子模块、可变步长计算子模块和扰动添加子模块。梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本。所述扰动限制模块的输入为所述扰动生成模块输出的第一噪声图像样本,输出为第二噪声图像样本。其中,第二噪声图像样本为tensorflow张量数据类型。
具体地,所述扰动限制模块包括过滤操作子模块和剪切操作子模块。过滤操作子模块用于中值过滤操作或均值过滤操作;剪切操作子模块,将图像像素值大于或小于预设值的元素值限制在[原始图像样本-ε,原始图像样本+ε]范围内,ε表示预设最大扰动阈值。
样本生成模块,用于判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。所述样本生成模块的输入为所述扰动限制模块的第二噪声图像样本,若第二噪声图像样本满足对抗样本的需求,其输出为对抗样本。其中,对抗样本的图片格式为.png或.jpg格式。
所述***的具体场景如图7所示,对于获取模块中的一张原始图像样本,其标签为“秃鹰”,依次经过损失计算模块、扰动生成模块和扰动限制模块,最终在样本生成模块得到其对应的对抗样本,神经网络模型对该对抗样本的识别结果为“披肩鸡”,表示攻击成功。
综上所述,本发明提供的基于梯度的对抗样本生成方法和***,其实现对抗攻击的攻击的表达式如下:
Figure BDA0003522945310000121
本发明生成的对抗样本在黑盒条件下具有更好可转移性,且噪声的可见性更小,因此为更好地理解神经网络并提高它的鲁棒性奠定基础,增强神经网络模型抵御对抗攻击的能力,具有实际推广价值,值得推广。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.基于梯度的对抗样本生成方法,其特征在于,包括以下步骤:
S1、获取原始图像样本和待攻击的神经网络模型;
S2、将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
S3、根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
S4、对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
S5、判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
2.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S2中,所述损失信息的具体内容如下:
根据所述神经网络模型对所述原始图像样本的输出结果,计算交叉熵损失信息,称为正常损失信息;
根据所述神经网络模型中辅助分类器对所述原始图像样本的输出结果,计算交叉熵损失信息,称为辅助损失信息;
所述损失信息设为
Figure FDA0003522945300000011
均由所述神经网络模型输出的高级表示logit值计算的,其对应公式为:
Figure FDA0003522945300000012
式中,
Figure FDA0003522945300000013
表示正常损失信息;
Figure FDA0003522945300000014
表示辅助损失信息;λ表示辅助损失信息的权重;
Figure FDA0003522945300000015
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;adv表示图像添加过噪声。
3.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S3中,根据所述损失信息得到对应的梯度符号矩阵的步骤包括:
采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵;
将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵。
4.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S3中,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本的步骤包括:
计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;
根据所述无穷范数距离,采用指数函数求出可变步长;
根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本;
其中,所述可变步长和第二噪声图像样本与所述原始图像样本之间的无穷范数距离反相关,其对应计算公式为:
Figure FDA0003522945300000021
式中,v表示可变步长;c表示权重系数;e表示指数函数的底数;L(·)表示无穷范数距离的计算函数;
Figure FDA0003522945300000022
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;t表示迭代次数;clean和adv用来区分图像是否添加过噪声。
5.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S4中,所述过滤操作为中值过滤操作或均值过滤操作。
6.根据权利要求1所述的基于梯度的对抗样本生成方法,其特征在于:在步骤S5中,对抗样本的迭代公式为:
Figure FDA0003522945300000031
式中,
Figure FDA0003522945300000032
表示第t+1次迭代时的第一噪声图像样本;
Figure FDA0003522945300000033
表示第t次迭代时的第一噪声图像样本,若为第一次迭代,则表示原始图像样本;xclean表示原始图像样本;
Figure FDA0003522945300000034
表示剪切操作函数;ε表示预设最大扰动阈值;F(·)表示过滤操作函数;v表示可变步长;sign(·)表示符号函数;
Figure FDA0003522945300000035
表示损失信息;
Figure FDA0003522945300000036
表示对损失信息求梯度;y表示与原始图像样本数据对应的真实标签;t表示迭代次数;clean和adv用来区分图像是否添加过噪声;
判断所述第二噪声图像样本是否满足对抗样本的要求如下:
判断生成所述第二噪声图像样本时的迭代次数是否已经达到预设最大迭代次数;或判断所述第二噪声图像样本是否能够成功攻击所述神经网络模型。
7.基于梯度的对抗样本生成***,其特征在于,包括:
获取模块,用于获取原始图像样本和待攻击的神经网络模型;
损失计算模块,将所述原始图像样本输入所述神经网络模型,根据交叉熵损失函数获取所述原始图像样本的损失信息;
扰动生成模块,根据所述损失信息得到对应的梯度符号矩阵并生成扰动信息,采用所述扰动信息对所述原始图像样本添加扰动,得到第一噪声图像样本;
扰动限制模块,对所述第一噪声图像样本进行过滤操作和剪切操作,得到第二噪声图像样本;
样本生成模块,判断所述第二噪声图像样本是否满足对抗样本的要求,若未满足,则将其输入所述神经网络模型进行下一轮迭代,反之,将其作为对抗样本并停止迭代。
8.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述损失计算模块,包括:
正常损失子模块,根据所述神经网络模型对所述原始图像样本的识别结果,计算交叉熵损失信息,称为正常损失信息;
辅助损失子模块,根据所述神经网络模型中辅助分类器对所述原始图像样本的识别结果,计算交叉熵损失信息,称为辅助损失信息。
9.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述扰动生成模块,包括:
梯度计算子模块,采用Adam梯度下降法,获取所述损失信息相对于所述原始图像样本的梯度信息矩阵,将所述梯度信息矩阵输入符号函数,得到所述梯度符号矩阵;
可变步长计算子模块,首先计算当前迭代次数下第二噪声图像样本与所述原始图像样本之间的无穷范数距离;其次根据所述无穷范数距离,采用指数函数求出可变步长;
扰动添加子模块,根据所述可变步长与所述梯度符号矩阵作乘法得到扰动数据,将所述扰动数据添加到所述原始图像样本,得到第一噪声图像样本。
10.根据权利要求7所述的基于梯度的对抗样本生成***,其特征在于,所述扰动限制模块,包括:
过滤操作子模块,用于中值过滤操作或均值过滤操作;
剪切操作子模块,将图像像素值大于或小于预设最大扰动阈值的像素值钳制为预设最大扰动阈值;其中,所述图像像素值大于或小于预设最大扰动阈值是指图像像素值超出[原始图像样本-ε,原始图像样本+ε]的范围,ε表示预设最大扰动阈值。
CN202210186455.1A 2022-02-28 2022-02-28 基于梯度的对抗样本生成方法与*** Active CN114663665B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210186455.1A CN114663665B (zh) 2022-02-28 2022-02-28 基于梯度的对抗样本生成方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210186455.1A CN114663665B (zh) 2022-02-28 2022-02-28 基于梯度的对抗样本生成方法与***

Publications (2)

Publication Number Publication Date
CN114663665A true CN114663665A (zh) 2022-06-24
CN114663665B CN114663665B (zh) 2024-04-05

Family

ID=82026704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210186455.1A Active CN114663665B (zh) 2022-02-28 2022-02-28 基于梯度的对抗样本生成方法与***

Country Status (1)

Country Link
CN (1) CN114663665B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114861893A (zh) * 2022-07-07 2022-08-05 西南石油大学 一种多通路聚合的对抗样本生成方法、***及终端
CN115270891A (zh) * 2022-08-22 2022-11-01 苏州大学 一种信号对抗样本的生成方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648095A (zh) * 2018-05-10 2018-10-12 浙江工业大学 一种基于图卷积网络梯度的节点信息隐藏方法
CN109948663A (zh) * 2019-02-27 2019-06-28 天津大学 一种基于模型抽取的步长自适应的对抗攻击方法
US20210089866A1 (en) * 2019-09-24 2021-03-25 Robert Bosch Gmbh Efficient black box adversarial attacks exploiting input data structure
CN113449783A (zh) * 2021-06-17 2021-09-28 广州大学 一种对抗样本生成方法、***、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108648095A (zh) * 2018-05-10 2018-10-12 浙江工业大学 一种基于图卷积网络梯度的节点信息隐藏方法
CN109948663A (zh) * 2019-02-27 2019-06-28 天津大学 一种基于模型抽取的步长自适应的对抗攻击方法
US20210089866A1 (en) * 2019-09-24 2021-03-25 Robert Bosch Gmbh Efficient black box adversarial attacks exploiting input data structure
CN113449783A (zh) * 2021-06-17 2021-09-28 广州大学 一种对抗样本生成方法、***、计算机设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114861893A (zh) * 2022-07-07 2022-08-05 西南石油大学 一种多通路聚合的对抗样本生成方法、***及终端
CN114861893B (zh) * 2022-07-07 2022-09-23 西南石油大学 一种多通路聚合的对抗样本生成方法、***及终端
CN115270891A (zh) * 2022-08-22 2022-11-01 苏州大学 一种信号对抗样本的生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN114663665B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN112183203B (zh) 一种基于多尺度像素特征融合的实时交通标志检测方法
CN113674140B (zh) 一种物理对抗样本生成方法及***
CN113128442B (zh) 基于卷积神经网络的汉字书法风格识别方法和评分方法
CN114663665A (zh) 基于梯度的对抗样本生成方法与***
CN111310582A (zh) 基于边界感知和对抗学习的湍流退化图像语义分割方法
CN113283356B (zh) 多级注意力尺度感知人群计数方法
CN112418216A (zh) 一种复杂自然场景图像中的文字检测方法
CN111914698A (zh) 图像中人体的分割方法、分割***、电子设备及存储介质
CN111507337A (zh) 基于混合神经网络的车牌识别方法
CN116342601B (zh) 基于边缘引导和多层级搜索的图像篡改检测方法
CN116311214B (zh) 车牌识别方法和装置
Jiang et al. Baidu Meizu deep learning competition: Arithmetic operation recognition using end-to-end learning OCR technologies
CN112634288A (zh) 设备区域图像分割方法及装置
CN109145723A (zh) 一种***识别方法、***、终端装置及存储介质
CN103455816B (zh) 一种笔画宽度提取方法、装置及一种文字识别方法、***
CN113963333B (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN111414938A (zh) 一种板式换热器内气泡的目标检测方法
CN114821048A (zh) 目标物分割方法和相关装置
CN115641584B (zh) 一种雾天图像识别方法及装置
CN111563513A (zh) 基于注意力机制的散焦模糊检测方法
CN111612803A (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN116433909A (zh) 基于相似度加权多教师网络模型的半监督图像语义分割方法
CN115424250A (zh) 一种车牌识别方法及装置
CN115393491A (zh) 一种基于实例分割和参考帧的水墨视频生成方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant