CN117012204B - 一种针对说话人识别***对抗样本的防御方法 - Google Patents

一种针对说话人识别***对抗样本的防御方法 Download PDF

Info

Publication number
CN117012204B
CN117012204B CN202310918349.2A CN202310918349A CN117012204B CN 117012204 B CN117012204 B CN 117012204B CN 202310918349 A CN202310918349 A CN 202310918349A CN 117012204 B CN117012204 B CN 117012204B
Authority
CN
China
Prior art keywords
benign
model
cyclegan
data
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310918349.2A
Other languages
English (en)
Other versions
CN117012204A (zh
Inventor
徐洋
杨凌一
张思聪
谢晓尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Education University
Original Assignee
Guizhou Education University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Education University filed Critical Guizhou Education University
Priority to CN202310918349.2A priority Critical patent/CN117012204B/zh
Publication of CN117012204A publication Critical patent/CN117012204A/zh
Application granted granted Critical
Publication of CN117012204B publication Critical patent/CN117012204B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种针对说话人识别***对抗样本的防御方法,包括:(1)制作所需的数据集;(2)构建网络模型,通过改进的CycleGAN‑VC2模型构建出最终的模型CycleGAN‑L2;(3)利用减量学习对模型进行训练;(4)使用训练得到的模型在测试集中进行性能测试,并对CW2、MIM、ADA和FGSM产生的对抗样本进行防御。本发明以CycleGAN‑VC2为骨干网络,在训练集中加入对抗样本和良性样本,减轻防御方法的副作用。并根据减量学习的思想,在训练的过程中删除良性样本,加快模型的训练,使用L2距离对损失函数进行约束,鼓励模型筛选更多的特征,从而实现对抗样本的防御。

Description

一种针对说话人识别***对抗样本的防御方法
技术领域
本发明属于语音***技术领域,具体涉及说话人识别中的对抗防御领域,更具体的是一种针对说话人识别***对抗样本的防御方法。
背景技术
防御音频对抗样本是对抗防御中一项重要的课题,其防御效果直接影响到身份验证、司法认证以及智能设备上的个性化服务的可靠性。随着音频对抗攻击的不断演化和增强,保护说话人识别***免受恶意干扰和攻击的挑战变得越来越重要。在防御音频对抗样本时,关键在于有效地防御对抗样本,同时不影响良性样本的准确率。这对于维护说话人识别***的准确性和鲁棒性至关重要。
目前,图像领域中的安全性已经得到了广泛的研究。然而,在语音领域,尤其是说话人识别***中,对抗样本的防御方法却没有得到充分的探索和研究。而且,说话人识别***中的安全问题不可忽视。如果说话人识别***用于提供与金融相关的业务或涉及个人隐私的服务,而无法得到充分的安全保障,那么个人的财产和名誉将会受到极大的损害。
对抗防御可以分为主动防御和被动防御两种方法。主动防御采用对抗样本进行数据增强,重新训练说话人识别模型以提高其鲁棒性。而被动防御则是通过添加新的组件而无需修改原始模型,根据新组件的功能,被动防御方法可以分为检测方法和净化方法,用于检测和消除对抗样本的影响。
申请号202310123820.9的专利申请公开了一种针对说话人识别***对抗样本的通用检测***及方法,***包括多通道音频干扰模块,用于对输入的原始音频进行音频干扰,生成与原始音频对应的音频变种集合;说话人***识别模块,用于将生成的音频变种集合输入至说话人识别***中,提取音频变种集合对应的得分序列和判别结果序列;稳定性特征提取模块,用于对获得的得分序列和判别结果序列进行统计数特征提取,并将提取获得的特征值与得分序列进行联接,获得稳定性表示特征;单类别判别模块,根据稳定性表示特征,对输入的原始音频是否为对抗样本进行判断。还公开了一种通用检测方法。本发明提供的***可以可自适应多种情况下的对抗样本攻击检测,从而强化语音识别的安全性。
申请号202210659947.8的专利申请公开了一种基于不同迁移能力和决策边界攻击的声纹识别对抗样本检测方法,首先对说话人信号进行数据预处理,划分为训练集和测试集;根据训练数据搭建声纹识别模型;利用不同的对抗攻击方法在目标模型上生成对抗样本;将干净样本和对抗样本的混合样本集输入目标模型和检测模型中,得到对应的两个标签,比较标签是否一致,若不一致,设定检测值即对抗扰动比例为0,若标签一致则利用决策边界攻击方法对标签不变的样本进行攻击,来获得对抗扰动比例;在干净样本集中利用决策边界攻击,来获得一批对抗扰动比例,在这些扰动比例中确定检测的决策阈值;利用确定的决策阈值来检测对抗样本,若样本的扰动比例值大于阈值,则样本为干净样本,反之为对抗样本。
以上两个专利都属于防御方法中的检测方法,其中,《一种针对说话人识别***对抗样本的通用检测***及方法》是对待检测的音频进行预处理,从而丰富待识别的音频变种类型,然后把音频放入识别***中获得得分序列和判别结果序列,对获得的得分序列和判别结果序列进行特征提取用于检测。《基于不同迁移能力和决策边界攻击的声纹识别对抗样本检测方法》是训练两个说话人识别模型,如果两个模型输出结果不一致则检测到对抗样本,此时输入中可能还存在一些对抗样本没有检测到,对这些对抗样本采取HopSkipJumpAttack(HSJA)决策边界攻击方法,使这些对抗样本移动到决策边界外,与决策阈值进行比较,检测出对抗样本。
而本发明人设计的是不同于上述两个专利的、防御方法中的净化方法,经检索,未有相同的专利文献。
发明内容
本发明的目的在于提供一种针对说话人识别***对抗样本的防御方法,该方法针对生成对抗网络中训练非常缓慢的问题和防御的副作用,以CycleGAN-VC2为骨干网络,在训练集中加入对抗样本和良性样本,减轻防御对良性样本的副作用;并根据减量学习的思想,在训练的过程中删除良性样本,加快模型的训练,使用L2距离对损失函数进行约束,鼓励模型筛选更多的特征,从而实现对抗样本的防御。
本发明的技术方案是:
一种针对说话人识别***对抗样本的防御方法,通过融合减量学习和改进的CycleGAN-VC2、维护了说话人识别***的准确性和鲁棒性;首先,在数据集中加入了良性样本和对抗样本进行生成器的训练,并在训练过程中融入了减量学习的方法对良性数据进行删除;其次对CycleGAN-VC2进行改进,采用L2距离约束损失函数,包括如下步骤:
步骤1、制作所需的数据集;
步骤2、构建网络模型,通过改进的CycleGAN-VC2模型构建出最终的模型CycleGAN-L2;
步骤3、利用减量学习对模型CycleGAN-L2进行训练;
步骤4、使用训练得到的模型在测试集中进行性能测试,并对CW2、MIM、ADA和FGSM产生的对抗样本进行防御。
更具体的步骤为:
步骤1、获取Librispeech语音数据集,并从中随机选取10个说话人,每个人100个音频文件用作良性数据集,对良性数据集进行PGD攻击,产生1000个对抗样本用作对抗样本数据集,合并良性数据集和对抗样本数据集获得实验所需自然数据集,并把自然数据集按照9:1的比例划分为训练集和测试集,其中训练集和测试集中良性样本和对抗样本的比例是1:1;
步骤2、对CycleGAN-VC2模型中的循环一致性损失Lcyc和身份映射性损失Lid进行修改得到CycleGAN-L2模型,具体公式如下:
其中Gnat→ori和Gori→nat是生成器;循环一致性损失中,Gnat→ori(x)是把自然数据集中的x生成良性数据y,Gori→nat(y)是把良性样本y生成自然数据x;身份映射性损失中,Gnat→ori(y)是把良性数据y生成良性数据y,Gori→nat(x)是把自然数据x生成自然数据x;循环一致性损失Lcyc和身份映射性损失Lid分别用L2距离进行约束;
步骤3、采用减量学习的方法对CycleGAN-L2模型进行训练,在训练的过程中如果Gnat→ori输入的是良性样本,输出的良性样本使说话人识别模型x-vector的准确率不变或者下降则去掉自然数据集中的良性数据;
步骤4、对测试集的良性样本和对抗样本分开进行测试,并用CW2、MIM、ADA和FGSM分别生成1000个对抗样本,进行防御效果测试。
本发明具有以下特点:
1、本发明针对说话人识别***对CycleGAN-VC2模型做了改进,使用L2距离约束损失函数,鼓励模型训练时选择更多的特征,提高模型的学习性能。
2、本发明针对说话人识别***使用自然数据集代替对抗样本数据集,使模型学习到了良性数据的特征,降低了模型对良性样本的副作用。
3、本发明针对说话人识别***在训练的过程中使用了减量学习,在训练模型时对训练集中的数据进行了减少,大大减少了训练生成对抗网络所需要的时间。
附图说明
图1是本发明的业务流程图;
图2是本发明的主要训练流程图;
图3是本发明的次要训练流程图;
图4是生成器的结构图;
图5是判别器的结构图;
图6是不同损失函数对PGD进行防御的效果对比;
图7是不同防御产生的波形图;
图8是不同防御产生的频谱图。
具体实施方式
下面通过附图和实施例对本发明作进一步描述。
参见图1-5,一种针对说话人识别***对抗样本的防御方法,通过融合减量学习和改进的CycleGAN-VC2、维护了说话人识别***的准确性和鲁棒性,包括如下步骤:
步骤1、制作所需的数据集;
步骤2、构建网络模型,通过改进的CycleGAN-VC2模型构建出最终的模型CycleGAN-L2;
步骤3、利用减量学习对模型进行训练;
步骤4、使用训练得到的模型在测试集中进行性能测试,并对CW2、MIM、ADA和FGSM产生的对抗样本进行防御。
具体的步骤为:
步骤1、获取Librispeech语音数据集,并从中随机选取10个说话人,每个人100个音频文件用作良性数据集,对良性数据集进行PGD攻击,产生1000个对抗样本用作对抗样本数据集,合并良性数据集和对抗样本数据集获得实验所需自然数据集,并把自然数据集按照9:1的比例划分为训练集和测试集,其中训练集和测试集中良性样本和对抗样本的比例是1:1;
步骤2、对CycleGAN-VC2模型中的循环一致性损失Lcyc和身份映射性损失Lid进行修改得到CycleGAN-L2模型,具体公式如下:
其中Gnat→ori和Gori→nat是生成器。Gnat→ori(x)是把自然数据集中的x生成良性数据y,Gori→nat(y)是把良性样本y生成自然数据x。Gnat→ori(y)是把良性数据y生成良性数据y,Gori→nat(x)是把自然数据x生成自然数据x。循环一致性损失Lcyc和身份映射性损失Lid分别用L2距离进行约束。
步骤3、采用减量学习的方法对CycleGAN-L2模型进行训练,在训练的过程中如果Gnat→ori输入的是良性样本,输出的良性样本使说话人识别模型x-vector的准确率不变或者下降则去掉自然数据集中的良性数据。
步骤4、对测试集的良性样本和对抗样本分开进行测试,并用CW2、MIM、ADA和FGSM分别生成1000个对抗样本,进行防御效果测试。
在CycleGAN-VC2中,L1距离用于模型训练。本发明结合说话人识别场景的具有多个说话人的特点,在CycleGAN-VC2模型的基础上进行部分修改,使用L2距离约束损失函数,鼓励生成器模型学习更多的特征。
参见图6,为了验证L2损失函数在本发明中的有效性,在测试集上验证CycleGAN-L1和CycleGAN-L2两种不同损失函数方法的防御效果。其中,CSI代表闭集识别中无目标攻击,OSI-simple代表开集识别中简单目标攻击,CSI-hard代表闭集识别中困难目标攻击。通过图6可以看出,在不同说话人识别任务下,CycleGAN-L2中目标模型的准确率accadv要好于CycleGAN-L1。这验证了L2距离对于本发明的有效性。
在基于对抗防御的生成对抗网络的选取上,本发明目的是降低CycleGAN-L2模型的对于良性样本的副作用,并对各种类型的攻击有一定的防御效果。
为此,本发明的生成器Gnat→ori的输入是分两次进行,第一次输入的是真实的数据,包括对抗样本和良性样本,第二次输入的是良性样本,保证CycleGAN-L2模型对良性样本的副作用最小。
在表1和表2中,accben和accadv分别是说话人识别模型识别良性样本的准确率和说话人识别模型识别对抗样本的准确率。我们主要防御以下无目标攻击:FGSM(FastGradient Sign Method)是快速梯度符号攻击、MIM(Momentum Iterative Fast GradientSign Method)是基于梯度的动量迭代攻击、PGD(Project Gradient Descent)是投影梯度下降攻击、CW2(Carlini&Wagner)是基于优化的攻击、ADA(A Highly Stealthy AdaptiveDecay Attack)是高隐蔽性的自适应攻击。
QT(Quantization)、AS(Average Smoothing)和MS(Median Smo-othing)是基于时域的方法,分别通过量化、平均平滑和中位数平滑进行防御。DS(Down Sampling)、LPF(LowPass Filter)和BPF(B and Pass Filter)是基于频域的方法,分别通过下采样、低通滤波和带通滤波进行防御。OPUS和SPEEX是基于语音压缩的方法,分别通过不同的语音压缩算法进行防御。CycleGAN-L2和CycleGAN-L1是基于语音合成的方法,CycleGAN-L2是对CycleGAN-L1的改进。
从表1可以看出,在闭集识别任务中,无论使用L1还是L2,只要训练数据中加入对抗样本的同时加入良性样本,accben的值都保持在99.9%。而且CycleGAN-L2相比于QT、AS、MS、DS、LPF、BPF、OPUS、SPEEX这些防御方法,accben的值占据优势。在防御其他攻击方法下,CYC-L2也好于其他方法,accadv分别达到94.7%、35.5%、75.1%、99.6%和88.5%。但是CYC-L2在对ADA进行防御的效果略差于QT,仅仅相差3.2%。
表1
表2
从表2可以看出,在开集识别任务中,使用L2方法的accben的值为97.7%,高于使用L1方法,这表明L2比L1更好,对良性样本产生极小的副作用。CYC-L2在防御其他攻击时效果好于其他方法,如CYC-L2在防御FGSM时,模型的准确率为88.3%。而且CYC-L2与CYC-L1、QT、AS、LPF相比,accadv分别相差1.1%、12.3%、40.3%、38.2%。
本发明提出了一种针对说话人识别***对抗样本的防御方法,模型命名为CycleGAN-L2,该模型使用L2距离约束损失函数,鼓励模型训练时选择更多的特征,使训练效果进一步提升,并引入减量学习的方法,大大减少了训练生成对抗网络所需时间。而且为了降低模型对良性样本的副作用,在训练集加入对抗样本的同时又加入了良性样本。实验结果表明,本发明在闭集识别和开集识别任务中,accben分别到达99.9%和97.7%,对良性样本的影响最小。在对开集识别中FGSM、MIM、PGD、CW2和ADA进行防御时,accadv要好于其他方法,对不同的攻击都有一定的抵御作用。图7和8是不同防御方法对MIM攻击的防御可视化。
综上,本发明基于生成对抗网络把对抗样本转化为良性样本,在数据集中加入良性样本从而不会影响目标模型对良性样本的识别准确率,在训练模型时使用了减量学***减少了模型的训练时间,并且可以部署在任何的说话人识别模型上。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (1)

1.一种针对说话人识别***对抗样本的防御方法,其特征在于:通过融合减量学习和改进的CycleGAN-VC2、维护了说话人识别***的准确性和鲁棒性;首先,在数据集中加入了良性样本和对抗样本进行生成器的训练,并在训练过程中融入了减量学习的方法对良性数据进行删除;其次对CycleGAN-VC2进行改进,采用L2距离约束损失函数,包括如下步骤:
步骤1、制作所需的数据集;
步骤2、构建网络模型,通过改进的CycleGAN-VC2模型构建出最终的模型CycleGAN-L2;
步骤3、利用减量学习对模型CycleGAN-L2进行训练;
步骤4、使用训练得到的模型在测试集中进行性能测试,并对CW2、MIM、ADA和FGSM产生的对抗样本进行防御;
所述步骤1具体为,获取Librispeech语音数据集,并从中随机选取10个说话人,每个人100个音频文件用作良性数据集,对良性数据集进行PGD攻击,产生1000个对抗样本用作对抗样本数据集,合并良性数据集和对抗样本数据集获得实验所需自然数据集,并把自然数据集按照9:1的比例划分为训练集和测试集,其中训练集和测试集中良性样本和对抗样本的比例是1∶1;
所述步骤2具体为,对CycleGAN-VC2模型中的循环一致性损失Lcyc和身份映射性损失Lid进行修改得到CycleGAN-L2模型,具体公式如下:
其中Gnat→ori和Gori→nat是生成器;循环一致性损失中,Gnat→ori(x)是把自然数据集中的x生成良性数据y,Gori→nat(y)是把良性样本y生成自然数据x;身份映射性损失中,Gnat→ori(y)是把良性数据y生成良性数据y,Gori→nat(x)是把自然数据x生成自然数据x;循环一致性损失Lcyc和身份映射性损失Lid分别用L2距离进行约束;
所述步骤3具体为,采用减量学习的方法对CycleGAN-L2模型进行训练,在训练的过程中如果Gnat→ori输入的是良性样本,输出的良性样本使说话人识别模型x-vector的准确率不变或者下降则去掉自然数据集中的良性数据;
所述步骤4具体为,对测试集的良性样本和对抗样本分开进行测试,并用CW2、MIM、ADA和FGSM分别生成1000个对抗样本,进行防御效果测试。
CN202310918349.2A 2023-07-25 2023-07-25 一种针对说话人识别***对抗样本的防御方法 Active CN117012204B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310918349.2A CN117012204B (zh) 2023-07-25 2023-07-25 一种针对说话人识别***对抗样本的防御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310918349.2A CN117012204B (zh) 2023-07-25 2023-07-25 一种针对说话人识别***对抗样本的防御方法

Publications (2)

Publication Number Publication Date
CN117012204A CN117012204A (zh) 2023-11-07
CN117012204B true CN117012204B (zh) 2024-04-09

Family

ID=88566646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310918349.2A Active CN117012204B (zh) 2023-07-25 2023-07-25 一种针对说话人识别***对抗样本的防御方法

Country Status (1)

Country Link
CN (1) CN117012204B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117292690B (zh) * 2023-11-24 2024-03-15 南京信息工程大学 一种语音转换主动防御方法、装置、***及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110767216A (zh) * 2019-09-10 2020-02-07 浙江工业大学 一种基于pso算法的语音识别攻击防御方法
CN111627429A (zh) * 2020-05-20 2020-09-04 浙江工业大学 一种基于CycleGAN的语音识别模型的防御方法及装置
WO2021169292A1 (zh) * 2020-02-24 2021-09-02 上海理工大学 生成对抗神经网络训练过程的对抗优化方法
WO2021205746A1 (en) * 2020-04-09 2021-10-14 Mitsubishi Electric Corporation System and method for detecting adversarial attacks
CN115188384A (zh) * 2022-06-09 2022-10-14 浙江工业大学 基于余弦相似性和语音去噪的声纹识别对抗样本的防御方法
CN115309897A (zh) * 2022-07-27 2022-11-08 方盈金泰科技(北京)有限公司 基于对抗训练和对比学习的中文多模态对抗样本防御方法
CN116013318A (zh) * 2022-12-13 2023-04-25 浙江大学 一种针对声纹识别防御模块的对抗样本构造方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075012A1 (ja) * 2019-10-17 2021-04-22 日本電気株式会社 話者認証システム、方法およびプログラム
CN113052203B (zh) * 2021-02-09 2022-01-18 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种面向多种类数据的异常检测方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110767216A (zh) * 2019-09-10 2020-02-07 浙江工业大学 一种基于pso算法的语音识别攻击防御方法
WO2021169292A1 (zh) * 2020-02-24 2021-09-02 上海理工大学 生成对抗神经网络训练过程的对抗优化方法
WO2021205746A1 (en) * 2020-04-09 2021-10-14 Mitsubishi Electric Corporation System and method for detecting adversarial attacks
CN111627429A (zh) * 2020-05-20 2020-09-04 浙江工业大学 一种基于CycleGAN的语音识别模型的防御方法及装置
CN115188384A (zh) * 2022-06-09 2022-10-14 浙江工业大学 基于余弦相似性和语音去噪的声纹识别对抗样本的防御方法
CN115309897A (zh) * 2022-07-27 2022-11-08 方盈金泰科技(北京)有限公司 基于对抗训练和对比学习的中文多模态对抗样本防御方法
CN116013318A (zh) * 2022-12-13 2023-04-25 浙江大学 一种针对声纹识别防御模块的对抗样本构造方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cyclegan-VC2: Improved Cyclegan-based Non-parallel Voice Conversion;Takuhiro Kaneko;ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing;20190517;第6820-6823页 *
基于边界值不变量的对抗样本检测方法;严飞;张铭伦;张立强;;网络与信息安全学报;20200215(第01期);第1-3页 *

Also Published As

Publication number Publication date
CN117012204A (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
CN113554089B (zh) 一种图像分类对抗样本防御方法、***及数据处理终端
CN108549940B (zh) 基于多种对抗样例攻击的智能防御算法推荐方法及***
Chen et al. Robust deep feature for spoofing detection—The SJTU system for ASVspoof 2015 challenge
CN117012204B (zh) 一种针对说话人识别***对抗样本的防御方法
CN109887496A (zh) 一种黑盒场景下的定向对抗音频生成方法及***
CN112287323B (zh) 基于生成对抗网络的语音验证码生成方法
CN112883874B (zh) 针对深度人脸篡改的主动防御方法
CN115147682B (zh) 一种具有迁移性的隐蔽白盒对抗样本生成方法及装置
Yin et al. Defense against adversarial attacks by low‐level image transformations
Peng et al. Pairing Weak with Strong: Twin Models for Defending Against Adversarial Attack on Speaker Verification.
CN113222120B (zh) 基于离散傅立叶变换的神经网络后门注入方法
Alegre et al. Evasion and obfuscation in automatic speaker verification
CN111881446B (zh) 一种工业互联网恶意代码识别方法及装置
CN113113023A (zh) 面向自动声纹识别***的黑盒定向对抗攻击方法及***
CN116309031B (zh) 人脸伪造主动干扰方法、***、设备及存储介质
CN114640518B (zh) 一种基于音频隐写的个性化触发器后门攻击方法
CN116013318A (zh) 一种针对声纹识别防御模块的对抗样本构造方法
CN110163163A (zh) 一种针对单张人脸查询次数受限攻击的防御方法及防御装置
Panariello et al. Malafide: a novel adversarial convolutive noise attack against deepfake and spoofing detection systems
Kawa et al. Defense against adversarial attacks on audio deepfake detection
Wang et al. ADDITION: Detecting Adversarial Examples With Image-Dependent Noise Reduction
Kaushal et al. The societal impact of Deepfakes: Advances in Detection and Mitigation
CN111353403A (zh) 一种深度神经网络图像对抗样本检测方法和***
CN113987955B (zh) 一种基于陷阱式集成网络的对抗样本防御方法
Liang et al. Revisiting Backdoor Attacks against Large Vision-Language Models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant