CN117857083A - 一种基于拟态防御的后门攻击防御办法和*** - Google Patents
一种基于拟态防御的后门攻击防御办法和*** Download PDFInfo
- Publication number
- CN117857083A CN117857083A CN202311616675.4A CN202311616675A CN117857083A CN 117857083 A CN117857083 A CN 117857083A CN 202311616675 A CN202311616675 A CN 202311616675A CN 117857083 A CN117857083 A CN 117857083A
- Authority
- CN
- China
- Prior art keywords
- data
- classifier
- sample data
- classifiers
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007123 defense Effects 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 105
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000003062 neural network model Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 29
- 238000013135 deep learning Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 20
- 238000012544 monitoring process Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 10
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1441—Countermeasures against malicious traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1408—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
- H04L63/1425—Traffic logging, e.g. anomaly detection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出了一种基于拟态防御的后门攻击防御办法和***。所述基于拟态防御的后门攻击防御办法包括:利用不同神经网络结构设置分类器,形成分类器组;针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。所述***包括与所述方法步骤对应的模块。
Description
技术领域
本发明提出了一种基于拟态防御的后门攻击防御办法和***,属于攻击防御技术领域。
背景技术
在深度学习神经网络(DNN)训练过程中在DNN中嵌入隐藏的后门,以便受攻击的DNN在良性样本上表现正常,如果隐藏的后门被攻击者使用特定的触发器激活,模型的预测结果将会导向攻击者的目标标签。后门攻击可能发生在训练的各个环节。因此需要对后门攻击进行特定的防御以免分类模型遭受后门攻击。由于深度学习神经网络的复杂性与不可知性导致深度学习模型一旦被植入后门便难以发现。当攻击者使用带有触发器的输入攻击模型时,模型会对输入进行错误的分类,分类模型会将带有触发器的模型分类到攻击者的目标标签中,让攻击者的攻击得逞。
发明内容
本发明提供了一种基于拟态防御的后门攻击防御办法和***,用以解决现有技术中后门攻击防御能力不足的问题,所采取的技术方案如下:
一种基于拟态防御的后门攻击防御办法,所述基于拟态防御的后门攻击防御办法包括:
利用不同神经网络结构设置分类器,形成分类器组;
针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
进一步地,利用不同神经网络结构设置分类器,形成分类器组,包括:
提取所述分类器的功能需求;
根据所述功能需求向数据库中调取深度学习神经网络模型;
将所述深度学习神经网络模型嵌入至其对应的分类器中;
将所述分类器进行整合,形成分类器组。
进一步地,针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练,包括:
提取所述分类器的功能需求;
针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
将所述衍生数据结合样本数据生成分类器对应的数据集;
利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
进一步地,根据所述样本数据的数据参数设置衍生样本数据,包括:
提取样本数据的所有数据数值;
通过所述数据数值获取所述样本数据的均值;
利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
进一步地,构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果,包括:
构建包含分类器组中所有分类器的分类器架构;
实时监测分类器的输出端是否存在分类结果输出;
当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
一种基于拟态防御的后门攻击防御***,所述基于拟态防御的后门攻击防御***包括:
分类器组生成模块,用于利用不同神经网络结构设置分类器,形成分类器组;
模型训练模块,用于针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
分类器架构建模块,用于构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
进一步地,所述分类器组生成模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
神经网络模型调取模块,用于根据所述功能需求向数据库中调取深度学习神经网络模型;
神经网络模型嵌入模块,用于将所述深度学习神经网络模型嵌入至其对应的分类器中;
分类器整合模块,用于将所述分类器进行整合,形成分类器组。
进一步地,所述模型训练模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
样本数据调取模块,用于针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
数量比较模块,用以提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
衍生样本数据模块,用于当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
数据集生成模块,用于将所述衍生数据结合样本数据生成分类器对应的数据集;
分类器训练模块,用于利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
进一步地,所述衍生样本数据模块包括:
数据数值提取模块,用于提取样本数据的所有数据数值;
均值获取模块,用于通过所述数据数值获取所述样本数据的均值;
衍生样本数据获取模块,用于利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
进一步地,所述分类器架构建模块包括:
分类器架构构建模块,用于构建包含分类器组中所有分类器的分类器架构;
实时监测控制模块,用于实时监测分类器的输出端是否存在分类结果输出;
分类结果获取模块,用于当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
投票决策模块,用于利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
本发明有益效果:
本发明提出的一种基于拟态防御的后门攻击防御办法和***每个分类器分别使用不同的深度学习神经网络进行训练,并且每个分类器所使用的数据集也都有所不同,从而实现底层的冗余与异构。当有输入进入分类器中时,多个子分类器同时对输入进行分类,多个子分类器进行投票决定本次分类结果。本发明提出的一种基于拟态防御的后门攻击防御办法和***实现的拟态防御后门攻击办法可以有效防止用户的分类模型遭受后门攻击。用户不可能同时攻破所有子分类器,当多数子分类器处于良性状态时,本分类器架构始终能够保证鲁棒性。
附图说明
图1为本发明所述方法的流程图;
图2为本发明所述***的***框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提出的一种基于拟态防御的后门攻击防御办法,如图1所示,所述基于拟态防御的后门攻击防御办法包括:
S1、利用不同神经网络结构设置分类器,形成分类器组;
S2、针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
S3、构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
上述技术方案的工作原理为:设置分类器组(S1):首先,使用不同的神经网络结构设置多个分类器,这些分类器可以用于检测后门攻击。每个分类器在分类器组中代表一种检测策略。
收集数据集并模型训练(S2):为了训练这些分类器,需要为每个分类器收集对应的数据集。这些数据集可能包括不同类型的输入数据,包括正常数据和可能包含后门的数据。然后,使用这些数据集对每个分类器进行模型训练。模型训练可以包括监督学习,其中分类器被训练以区分正常数据和潜在后门数据。
构建分类器架构和集成(S3):在这一步骤,构建一个包含分类器组中所有分类器的分类器架构。这个分类器架构可以用于集成分类器组中各个分类器的分类结果。通常,采用投票决策方式,通过对每个分类器的分类结果进行投票,从而确定输入数据是否包含后门。如果多数分类器认为输入数据是正常的,那么结果会被判定为正常,否则可能被判定为包含后门。
上述技术方案的效果为:多样性的分类器组:通过使用不同的神经网络结构和不同的数据集来训练多个分类器,提供了分类器组的多样性,从而提高了检测后门攻击的能力。
防御后门攻击:通过投票决策方式,这个方法能够在分类器组中的分类器之间进行协同工作,提高了检测后门攻击的精度和鲁棒性。
鲁棒性:因为采用了多个分类器,即使其中某些分类器被攻击者破坏,其他分类器仍然可以提供有效的防御。
总的来说,本实施例的技术方案旨在通过构建多样性的分类器组和集成决策方式来提高对后门攻击的防御能力,从而保护深度学习模型免受潜在的后门攻击威胁。
本发明的一个实施例,利用不同神经网络结构设置分类器,形成分类器组,包括:
S101、提取所述分类器的功能需求;
S102、根据所述功能需求向数据库中调取深度学习神经网络模型;
S103、将所述深度学习神经网络模型嵌入至其对应的分类器中;
S104、将所述分类器进行整合,形成分类器组。
上述技术方案的工作原理为:提取分类器的功能需求(S101):首先,确定所需的分类器的功能需求。这可能包括分类任务的具体要求、性能指标、输入数据的特性等。这些需求将用于指导分类器的设计和选择。
调取深度学习神经网络模型(S102):根据分类器的功能需求,从数据库中调取适当的深度学习神经网络模型。这些模型可能是预训练的、已经存在的神经网络结构,也可以是根据需求设计的自定义神经网络结构。
嵌入神经网络模型至分类器(S103):将调取的深度学习神经网络模型嵌入到对应的分类器中。这意味着将所选神经网络模型的结构和参数与分类器的设计进行整合,以创建一个符合功能需求的分类器。
整合分类器组(S104):将不同分类器整合到一个分类器组中,形成一个多分类器组合。这可以通过一种协同工作的方式,如投票决策,来组织分类器组,以最终确定输入数据的分类结果。
上述技术方案的效果为:多样性的分类器组:通过利用不同的神经网络结构和模型,形成多样性的分类器组,从而提高了分类器组的覆盖能力,能够适应不同类型的输入数据和分类任务。
高性能和适应性:通过嵌入深度学习神经网络模型,可以获得高性能的分类器,并根据功能需求进行定制,以适应特定任务。
提高准确性和鲁棒性:通过整合多个分类器,分类器组能够通过协同工作来提高分类准确性和鲁棒性,减少误判的可能性。
总的来说,本实施例的技术方案的目标是通过构建多样性的分类器组,以满足不同的功能需求,并通过整合决策来提高分类器的性能和鲁棒性,适用于各种深度学习分类任务。
本发明的一个实施例,针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练,包括:
S201、提取所述分类器的功能需求;
S202、针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
S203、提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
S204、当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
S205、将所述衍生数据结合样本数据生成分类器对应的数据集;
S206、利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
上述技术方案的工作原理为:提取分类器的功能需求(S201):首先,确定每个分类器的功能需求,包括任务的具体要求、性能指标、输入数据的特性等。
调取数据库中的样本数据(S202):根据每个分类器的功能需求,从数据库中调取与这些功能需求对应的样本数据。这些样本数据应该包括用于训练和评估分类器的数据。
比较数据量(S203):将所提取的样本数据的数量与训练基础数据量进行比较。训练基础数据量可以是为了确保模型训练足够数据的基准值。
衍生样本数据(S204):如果所提取的样本数据的数量低于训练基础数据量,那么需要根据这些样本数据的数据参数(如标签分布、特征分布等)设置衍生样本数据,以增加训练数据量。
生成数据集(S205):将原始样本数据与衍生数据结合,生成用于分类器训练的数据集。
模型训练(S206):使用生成的数据集对每个分类器进行模型训练。这通常包括将数据集分为训练集和验证集,训练分类器模型,并根据验证集的性能进行调整,直到满足性能要求。
上述技术方案的效果为:数据量满足需求:通过比较数据量并生成衍生数据,确保每个分类器获得足够的训练数据,以满足其功能需求。
个性化训练:每个分类器可以根据其功能需求和数据集的特点进行个性化的模型训练,从而提高分类器的性能和适应性。
提高分类器性能:通过充分训练,可以提高分类器的性能,使其更好地执行特定的分类任务。
总的来说,本实施例的技术方案旨在为不同的分类器提供充分的训练数据,以满足其功能需求,从而改进整个分类器组的性能和准确性。这对于多分类器组合的应用非常有益。
本发明的一个实施例,根据所述样本数据的数据参数设置衍生样本数据,包括:
S2041、提取样本数据的所有数据数值;
S2042、通过所述数据数值获取所述样本数据的均值;
S2043、利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
上述技术方案的工作原理为:提取样本数据的所有数据数值(S2041):首先,从已有的样本数据中提取所有的数据数值,包括特征数据和标签数据。
计算样本数据的均值(S2042):通过对提取的数据数值计算均值,确定原始样本数据的特征均值。均值是数据分布的一个统计特征,可以用于生成具有相似特征的衍生样本数据。
生成多个衍生样本数据(S2043):根据均值和数据数值,生成多个衍生样本数据。这些衍生样本数据可以根据不同的生成方法来生成,以确保数据的多样性和分布。生成的衍生样本数据数量足够,以使数据集的大小至少达到训练基础数据量。
上述技术方案的效果为:数据量满足训练需求:通过生成衍生样本数据,确保数据集的大小至少达到训练基础数据量,从而使分类器获得足够的训练数据,提高模型性能。
数据分布多样性:生成的衍生样本数据可以具有多样性的数据分布,有助于训练模型更好地适应不同的输入情况。
提高模型泛化性能:通过增加训练数据的数量和多样性,有助于提高模型的泛化性能,减少过拟合风险。
总的来说,本实施例的技术方案的目标是通过生成衍生样本数据,提供足够数量和多样性的训练数据,以满足模型训练的需求,从而改善分类器的性能和准确性。这对于处理数据稀缺或不平衡的情况非常有用。
本发明的一个实施例,构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果,包括:
S301、构建包含分类器组中所有分类器的分类器架构;
S302、实时监测分类器的输出端是否存在分类结果输出;
S303、当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
S304、利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
上述技术方案的工作原理为:构建分类器架构(S301):首先,构建一个分类器架构,该架构包含了分类器组中的所有分类器。这个架构用于整合各个分类器的分类结果。
实时监测分类器的输出端(S302):监测每个分类器的输出端是否有分类结果输出。这是为了检测每个分类器的识别情况。
拟态防御处理(S303):当一个分类器的输出端有分类结果输出时,对分类结果进行拟态防御处理。这可能包括去除噪声、对抗性训练和数据增强等拟态防御技术。这些技术的目的是在保护模型的安全性的同时,提供合理的分类结果。
投票决策(S304):使用其他分类器对拟态防御处理后的分类结果进行投票决策。即,每个分类器为每个输入数据提供一个分类结果,然后通过投票的方式选择得到最多分类器投票的类别作为最终分类结果。
上述技术方案的效果为:防御后门攻击:通过使用拟态防御方法,可以有效防御后门攻击,避免恶意攻击者通过后门注入的数据影响模型的输出。
鲁棒性:通过投票决策方式,将多个分类器的输出结合起来,提高了分类结果的鲁棒性,减少误判的可能性。
安全性和隐私保护:使用拟态防御方法可以保护模型的输出数据安全性和隐私,防止泄漏敏感信息。
总的来说,本实施例的技术方案的目标是通过构建分类器架构、使用拟态防御方法和投票决策方式,提供对模型输出结果的防御、鲁棒性和隐私保护,特别是对抗后门攻击。这对于提高深度学习模型的安全性和可信度非常有益。
本发明实施例提出了一种基于拟态防御的后门攻击防御***,如图2所示,所述基于拟态防御的后门攻击防御***包括:
分类器组生成模块,用于利用不同神经网络结构设置分类器,形成分类器组;
模型训练模块,用于针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
分类器架构建模块,用于构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
上述技术方案的工作原理为:首先,使用不同的神经网络结构设置多个分类器,这些分类器可以用于检测后门攻击。每个分类器在分类器组中代表一种检测策略。为了训练这些分类器,需要为每个分类器收集对应的数据集。这些数据集可能包括不同类型的输入数据,包括正常数据和可能包含后门的数据。然后,使用这些数据集对每个分类器进行模型训练。模型训练可以包括监督学习,其中分类器被训练以区分正常数据和潜在后门数据。构建一个包含分类器组中所有分类器的分类器架构。这个分类器架构可以用于集成分类器组中各个分类器的分类结果。通常,采用投票决策方式,通过对每个分类器的分类结果进行投票,从而确定输入数据是否包含后门。如果多数分类器认为输入数据是正常的,那么结果会被判定为正常,否则可能被判定为包含后门。
上述技术方案的效果为:通过使用不同的神经网络结构和不同的数据集来训练多个分类器,提供了分类器组的多样性,从而提高了检测后门攻击的能力。通过投票决策方式,这个方法能够在分类器组中的分类器之间进行协同工作,提高了检测后门攻击的精度和鲁棒性。因为采用了多个分类器,即使其中某些分类器被攻击者破坏,其他分类器仍然可以提供有效的防御。
总的来说,本实施例的技术方案旨在通过构建多样性的分类器组和集成决策方式来提高对后门攻击的防御能力,从而保护深度学习模型免受潜在的后门攻击威胁。
本发明的一个实施例,所述分类器组生成模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
神经网络模型调取模块,用于根据所述功能需求向数据库中调取深度学习神经网络模型;
神经网络模型嵌入模块,用于将所述深度学习神经网络模型嵌入至其对应的分类器中;
分类器整合模块,用于将所述分类器进行整合,形成分类器组。
上述技术方案的工作原理为:首先,确定所需的分类器的功能需求。这可能包括分类任务的具体要求、性能指标、输入数据的特性等。这些需求将用于指导分类器的设计和选择。
根据分类器的功能需求,从数据库中调取适当的深度学习神经网络模型。这些模型可能是预训练的、已经存在的神经网络结构,也可以是根据需求设计的自定义神经网络结构。
将调取的深度学习神经网络模型嵌入到对应的分类器中。这意味着将所选神经网络模型的结构和参数与分类器的设计进行整合,以创建一个符合功能需求的分类器。
将不同分类器整合到一个分类器组中,形成一个多分类器组合。这可以通过一种协同工作的方式,如投票决策,来组织分类器组,以最终确定输入数据的分类结果。
上述技术方案的效果为:通过利用不同的神经网络结构和模型,形成多样性的分类器组,从而提高了分类器组的覆盖能力,能够适应不同类型的输入数据和分类任务。通过嵌入深度学习神经网络模型,可以获得高性能的分类器,并根据功能需求进行定制,以适应特定任务。通过整合多个分类器,分类器组能够通过协同工作来提高分类准确性和鲁棒性,减少误判的可能性。
总的来说,本实施例的技术方案的目标是通过构建多样性的分类器组,以满足不同的功能需求,并通过整合决策来提高分类器的性能和鲁棒性,适用于各种深度学习分类任务。
本发明的一个实施例,所述模型训练模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
样本数据调取模块,用于针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
数量比较模块,用以提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
衍生样本数据模块,用于当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
数据集生成模块,用于将所述衍生数据结合样本数据生成分类器对应的数据集;
分类器训练模块,用于利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
上述技术方案的工作原理为:首先,确定每个分类器的功能需求,包括任务的具体要求、性能指标、输入数据的特性等。根据每个分类器的功能需求,从数据库中调取与这些功能需求对应的样本数据。这些样本数据应该包括用于训练和评估分类器的数据。将所提取的样本数据的数量与训练基础数据量进行比较。训练基础数据量可以是为了确保模型训练足够数据的基准值。如果所提取的样本数据的数量低于训练基础数据量,那么需要根据这些样本数据的数据参数(如标签分布、特征分布等)设置衍生样本数据,以增加训练数据量。将原始样本数据与衍生数据结合,生成用于分类器训练的数据集使用生成的数据集对每个分类器进行模型训练。这通常包括将数据集分为训练集和验证集,训练分类器模型,并根据验证集的性能进行调整,直到满足性能要求。
上述技术方案的效果为:通过比较数据量并生成衍生数据,确保每个分类器获得足够的训练数据,以满足其功能需求。每个分类器可以根据其功能需求和数据集的特点进行个性化的模型训练,从而提高分类器的性能和适应性。通过充分训练,可以提高分类器的性能,使其更好地执行特定的分类任务。
总的来说,本实施例的技术方案旨在为不同的分类器提供充分的训练数据,以满足其功能需求,从而改进整个分类器组的性能和准确性。这对于多分类器组合的应用非常有益。
本发明的一个实施例,所述衍生样本数据模块包括:
数据数值提取模块,用于提取样本数据的所有数据数值;
均值获取模块,用于通过所述数据数值获取所述样本数据的均值;
衍生样本数据获取模块,用于利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
上述技术方案的工作原理为:首先,从已有的样本数据中提取所有的数据数值,包括特征数据和标签数据。通过对提取的数据数值计算均值,确定原始样本数据的特征均值。均值是数据分布的一个统计特征,可以用于生成具有相似特征的衍生样本数据。根据均值和数据数值,生成多个衍生样本数据。这些衍生样本数据可以根据不同的生成方法来生成,以确保数据的多样性和分布。生成的衍生样本数据数量足够,以使数据集的大小至少达到训练基础数据量。
上述技术方案的效果为:通过生成衍生样本数据,确保数据集的大小至少达到训练基础数据量,从而使分类器获得足够的训练数据,提高模型性能。生成的衍生样本数据可以具有多样性的数据分布,有助于训练模型更好地适应不同的输入情况。通过增加训练数据的数量和多样性,有助于提高模型的泛化性能,减少过拟合风险。
总的来说,本实施例的技术方案的目标是通过生成衍生样本数据,提供足够数量和多样性的训练数据,以满足模型训练的需求,从而改善分类器的性能和准确性。这对于处理数据稀缺或不平衡的情况非常有用。
本发明的一个实施例,所述分类器架构建模块包括:
分类器架构构建模块,用于构建包含分类器组中所有分类器的分类器架构;
实时监测控制模块,用于实时监测分类器的输出端是否存在分类结果输出;
分类结果获取模块,用于当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
投票决策模块,用于利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
上述技术方案的工作原理为:首先,构建一个分类器架构,该架构包含了分类器组中的所有分类器。这个架构用于整合各个分类器的分类结果。监测每个分类器的输出端是否有分类结果输出。这是为了检测每个分类器的识别情况。当一个分类器的输出端有分类结果输出时,对分类结果进行拟态防御处理。这可能包括去除噪声、对抗性训练和数据增强等拟态防御技术。这些技术的目的是在保护模型的安全性的同时,提供合理的分类结果。使用其他分类器对拟态防御处理后的分类结果进行投票决策。即,每个分类器为每个输入数据提供一个分类结果,然后通过投票的方式选择得到最多分类器投票的类别作为最终分类结果。
上述技术方案的效果为:通过使用拟态防御方法,可以有效防御后门攻击,避免恶意攻击者通过后门注入的数据影响模型的输出。通过投票决策方式,将多个分类器的输出结合起来,提高了分类结果的鲁棒性,减少误判的可能性。使用拟态防御方法可以保护模型的输出数据安全性和隐私,防止泄漏敏感信息。
总的来说,本实施例的技术方案的目标是通过构建分类器架构、使用拟态防御方法和投票决策方式,提供对模型输出结果的防御、鲁棒性和隐私保护,特别是对抗后门攻击。这对于提高深度学习模型的安全性和可信度非常有益。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于拟态防御的后门攻击防御办法,其特征在于,所述基于拟态防御的后门攻击防御办法包括:
利用不同神经网络结构设置分类器,形成分类器组;
针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
2.根据权利要求1所述基于拟态防御的后门攻击防御办法,其特征在于,利用不同神经网络结构设置分类器,形成分类器组,包括:
提取所述分类器的功能需求;
根据所述功能需求向数据库中调取深度学习神经网络模型;
将所述深度学习神经网络模型嵌入至其对应的分类器中;
将所述分类器进行整合,形成分类器组。
3.根据权利要求1所述基于拟态防御的后门攻击防御办法,其特征在于,针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练,包括:
提取所述分类器的功能需求;
针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
将所述衍生数据结合样本数据生成分类器对应的数据集;
利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
4.根据权利要求3所述基于拟态防御的后门攻击防御办法,其特征在于,根据所述样本数据的数据参数设置衍生样本数据,包括:
提取样本数据的所有数据数值;
通过所述数据数值获取所述样本数据的均值;
利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
5.根据权利要求1所述基于拟态防御的后门攻击防御办法,其特征在于,构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果,包括:
构建包含分类器组中所有分类器的分类器架构;
实时监测分类器的输出端是否存在分类结果输出;
当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
6.一种基于拟态防御的后门攻击防御***,其特征在于,所述基于拟态防御的后门攻击防御***包括:
分类器组生成模块,用于利用不同神经网络结构设置分类器,形成分类器组;
模型训练模块,用于针对分类器组中不同的分类器收集对应的数据集,并利用所述数据集对所述分类器进行模型训练;
分类器架构建模块,用于构建包含分类器组中所有分类器的分类器架构,并通过投票决策方式集成所述分类器的分类结果。
7.根据权利要求6所述基于拟态防御的后门攻击防御***,其特征在于,所述分类器组生成模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
神经网络模型调取模块,用于根据所述功能需求向数据库中调取深度学习神经网络模型;
神经网络模型嵌入模块,用于将所述深度学习神经网络模型嵌入至其对应的分类器中;
分类器整合模块,用于将所述分类器进行整合,形成分类器组。
8.根据权利要求6所述基于拟态防御的后门攻击防御***,其特征在于,所述模型训练模块包括:
功能需求提取模块,用于提取所述分类器的功能需求;
样本数据调取模块,用于针对所述功能需求调取数据库中与所述功能需求对应的样本数据;
数量比较模块,用以提取所述所述分类器的功能需求对应的训练基础数据量,并将所述样本数据的个数与训练基础数据量进行比较;
衍生样本数据模块,用于当所述样本数据的个数低于训练基础数据量时,根据所述样本数据的数据参数设置衍生样本数据;
数据集生成模块,用于将所述衍生数据结合样本数据生成分类器对应的数据集;
分类器训练模块,用于利用所述数据集对所述分类器进行模型训练,获得完成训练的分类器。
9.根据权利要求8所述基于拟态防御的后门攻击防御***,其特征在于,所述衍生样本数据模块包括:
数据数值提取模块,用于提取样本数据的所有数据数值;
均值获取模块,用于通过所述数据数值获取所述样本数据的均值;
衍生样本数据获取模块,用于利用所述样本数据的所有数据数值和所述样本数据的均值设置多个衍生样本数据;其中,衍生样本数据的个数使所述数据集中的样本数据的数量至少达到训练基础数据量;
同时,所述衍生样本数据的数据数值的数值范围为:
其中,X表示衍生样本数据的数据数值;n表示样本数据的数据个数;Xp表示样本数据的数据平均值;Xi表示样本数据中的第i个样本数据的数据值。
10.根据权利要求1所述基于拟态防御的后门攻击防御办法,其特征在于,所述分类器架构建模块包括:
分类器架构构建模块,用于构建包含分类器组中所有分类器的分类器架构;
实时监测控制模块,用于实时监测分类器的输出端是否存在分类结果输出;
分类结果获取模块,用于当所述分类器的输出端存在分类结果输出时,使用拟态防御方法对分类结果输出的数据进行处理,获得拟态防御处理后的分类结果;其中,所述拟态防御处理包括去除噪声、对抗性训练和数据增强;
投票决策模块,用于利用其他分类器对所述拟态防御处理后的分类结果进行投票决策,选择得到最多分类器投票的类别作为最终分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311616675.4A CN117857083A (zh) | 2023-11-29 | 2023-11-29 | 一种基于拟态防御的后门攻击防御办法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311616675.4A CN117857083A (zh) | 2023-11-29 | 2023-11-29 | 一种基于拟态防御的后门攻击防御办法和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117857083A true CN117857083A (zh) | 2024-04-09 |
Family
ID=90535592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311616675.4A Pending CN117857083A (zh) | 2023-11-29 | 2023-11-29 | 一种基于拟态防御的后门攻击防御办法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117857083A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210256125A1 (en) * | 2019-05-29 | 2021-08-19 | Anomalee Inc. | Post-Training Detection and Identification of Backdoor-Poisoning Attacks |
US20210319098A1 (en) * | 2018-12-31 | 2021-10-14 | Intel Corporation | Securing systems employing artificial intelligence |
CN116595511A (zh) * | 2023-05-13 | 2023-08-15 | 中国人民解放军战略支援部队信息工程大学 | 基于动态异构冗余构造内生安全人工智能***的方法及装置 |
-
2023
- 2023-11-29 CN CN202311616675.4A patent/CN117857083A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210319098A1 (en) * | 2018-12-31 | 2021-10-14 | Intel Corporation | Securing systems employing artificial intelligence |
US20210256125A1 (en) * | 2019-05-29 | 2021-08-19 | Anomalee Inc. | Post-Training Detection and Identification of Backdoor-Poisoning Attacks |
CN116595511A (zh) * | 2023-05-13 | 2023-08-15 | 中国人民解放军战略支援部队信息工程大学 | 基于动态异构冗余构造内生安全人工智能***的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108718310B (zh) | 基于深度学习的多层次攻击特征提取及恶意行为识别方法 | |
CN111914256B (zh) | 一种机器学习训练数据受投毒攻击的防御方法 | |
CN108566364B (zh) | 一种基于神经网络的入侵检测方法 | |
CN111783442A (zh) | 入侵检测方法、设备和服务器、存储介质 | |
Chang et al. | Intrusion detection by backpropagation neural networks with sample-query and attribute-query | |
CN101360023A (zh) | 一种异常检测方法、装置及*** | |
CN107360152A (zh) | 一种基于语义分析的Web威胁感知*** | |
Shitharth et al. | An enriched RPCO-BCNN mechanisms for attack detection and classification in SCADA systems | |
CN102045358A (zh) | 一种基于整合相关性分析与分级聚类的入侵检测方法 | |
CN113556319B (zh) | 物联网下基于长短期记忆自编码分类器的入侵检测方法 | |
CN111818102B (zh) | 一种应用于网络靶场的防御效能评估方法 | |
CN104836805A (zh) | 基于模糊免疫理论的网络入侵检测方法 | |
CN113660196A (zh) | 一种基于深度学习的网络流量入侵检测方法及装置 | |
CN113098862A (zh) | 一种基于混合采样与膨胀卷积相结合的入侵检测方法 | |
CN117056951A (zh) | 一种数字平台的数据安全管理方法 | |
CN111898129A (zh) | 基于Two-Head异常检测模型的恶意代码样本筛选器及方法 | |
CN110166422A (zh) | 域名行为识别方法、装置、可读存储介质和计算机设备 | |
CN112287345B (zh) | 基于智能风险检测的可信边缘计算*** | |
CN117857083A (zh) | 一种基于拟态防御的后门攻击防御办法和*** | |
CN112884069A (zh) | 一种对抗网络样本检测的方法 | |
Al-Nafjan et al. | Intrusion detection using PCA based modular neural network | |
Mokhtari et al. | A Machine Learning Approach for Anomaly Detection in Industrial Control Systems Based on Measurement Data. Electronics 2021, 10, 407 | |
KR102556463B1 (ko) | 공격자 그룹 유사도 기법을 활용한 사회이슈 기반 사이버 표적공격 예측 시스템 및 그 방법 | |
Zhou et al. | Research on computer network security based on pattern recognition | |
CN117521042B (zh) | 基于集成学习的高危授权用户识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |