CN113205030A - 一种防御对抗性攻击的行人重识别方法 - Google Patents

一种防御对抗性攻击的行人重识别方法 Download PDF

Info

Publication number
CN113205030A
CN113205030A CN202110457404.3A CN202110457404A CN113205030A CN 113205030 A CN113205030 A CN 113205030A CN 202110457404 A CN202110457404 A CN 202110457404A CN 113205030 A CN113205030 A CN 113205030A
Authority
CN
China
Prior art keywords
picture
pedestrian
network
sampling
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110457404.3A
Other languages
English (en)
Inventor
梁超
周建力
张梦萱
陈军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110457404.3A priority Critical patent/CN113205030A/zh
Publication of CN113205030A publication Critical patent/CN113205030A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种防御对抗性攻击的行人重识别方法,首先将对抗性图片进行下采样处理,用下采样后的图片训练生成对抗式网络模型,然后对查询集中的图片进行下采样处理,通过生成对抗式网络的变分自编码器重新生成图片,最后将重新生成的图片输入行人重识别模型进行检索,匹配到对应的图片得到行人重识别结果。本发明先通过对抗性图片训练生成对抗式网络模型,然后通过生成对抗式网络的变分自编码器重新生成图片,在尽可能保留原图特征的前提下削弱了对抗样本图片中的噪声,增强了行人重识别模型对于对抗攻击样本的防御能力,有效解决了深度神经网络易遭受攻击的问题,使得输入图片受到攻击时行人重识别网络匹配的准确度得到有效提升。

Description

一种防御对抗性攻击的行人重识别方法
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种防御对抗性攻击的行人重识别方法。
背景技术
行人重识别是一个图片检索问题,其目标是在多个不重叠的摄像机视角下匹配出目标人物。近年来,它在视频监控和安全领域得到了越来越广泛的应用。受深度学习在各种视觉任务中的成功启发,基于深度神经网络的行人重识别模型开始成为研究热点,并在图片检索方面获得较高的识别精度。
但最近的研究发现,深度神经网络很容易受到攻击。输入的图片经过精心修改,添加视觉上难以察觉的干扰变成对抗性图片,就会干扰深度神经网络的正常运行,从而影响基于深度神经网络的行人重识别模型对图片的识别精度。行人重识别框架在安全相关***中的广泛部署,使得增强行人重识别模型对于对抗攻击图片的防御能力变得至关重要。
论文《Adversarial Metric Attack and Defense for Person Re-identification》中使用了对抗性度量训练的方法进行对于对抗性样本的防御训练,该防御训练有效提升了行人重识别模型的识别精度,但该方法仅对特定方法的攻击做训练,迁移性不足,难以抵抗其他攻击方法产生的对抗样本。
论文《Vulnerability of Person Re-Identification Models to MetricAdversarial Attacks》基于上述方法进行改进,提出了指导抽样在线对抗训练(GOAT),通过多次迭代计算出指导示例对距离度量进行修正。该方法的精度较上述方法有所提高,增强了模型的鲁棒性,但对行人重识别网络内部参数有所调整,改变了原先的行人重识别网络。
发明内容
本发明针对现有技术的不足,提供一种防御对抗性攻击的行人重识别方法,首先将对抗性图片进行下采样处理,接着用下采样后的图片训练生成对抗式网络模型,然后对查询集中的图片进行下采样处理,通过生成对抗式网络的变分自编码器重新生成图片,将重新生成的图片输入行人重识别模型进行检索,匹配到对应的图片得到行人重识别结果。
为了达到上述目的,本发明提供的技术方案是一种防御对抗性攻击的行人重识别方法,包括以下步骤:
步骤1,训练生成对抗式网络模型,具体包括以下几个步骤:
步骤1.1,将对抗性图片进行下采样处理;
步骤1.2,通过编码器输出分布并采样生成隐变量;
步骤1.3,将隐变量通过解码器输出分布并采样生成新的图片;
步骤1.4,通过生成对抗式网络判断新的图片是否像真实图片;
步骤1.5,计算最终的损失函数;
步骤1.6,按照步骤1.1~1.5训练生成对抗式神经网络直到训练集全部学习完毕;
步骤2,重新生成查询集中的图片,具体包括以下子步骤:
步骤2.1,对查询集图片进行下采样处理;
步骤2.2,通过步骤1训练得到的生成对抗式网络的生成器中的编码器输出分布并采样生成隐变量;
步骤2.3,将隐变量通过步骤1训练得到的生成对抗式网络的生成器中的解码器输出分布并采样生成新的图片;
步骤2.4,计算损失函数;
步骤2.5,从步骤2.4中选出损失函数小于临界值τ=0.03的图片,计算其与原图的欧氏距离,选择欧氏距离最小的一张图片输出;
步骤3,将步骤2中重新生成的图片输入行人重识别网络,匹配到对应的图片并输出。
而且,所述步骤1.2是将步骤1.1下采样后的图片x输入编码器,经过六层卷积提取输入图片的特征,计算出隐变量z的后验分布q(z|x),根据后验分布采样得到隐变量z,再计算隐变量z的后验分布q(z|x)与z的分布p(z)的KL散度DKL(q(z|x)‖p(z))。其中,预设p(z)服从
Figure RE-GDA0003097186420000021
而且,所述步骤1.3是将步骤1.2中隐变量z通过一个由四个全连接层组成的映射网络f 转换为一组中间隐向量W,将W通过AdaIN操作后输入解码器的每个卷积层,解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x′的条件概率分布p(x′|z),并采样得到生成图片x′。
而且,所述步骤1.4是将步骤1.3中生成的图片x′输入判别器,判别器通过多层卷积提取特征,其中每两层卷积后进行一次下采样,最后通过一个全连接层输出判断结果。将步骤1.2 和步骤1.3中的变分自编码器作为生成器,和判别器的结果一同计算生成对抗式网络的损失函数LGAN
Figure RE-GDA0003097186420000031
其中,
Figure RE-GDA0003097186420000032
表示交叉熵损失,D(x)表示图片x被认为是降采样前真实图片的概率,D(x′) 表示生成的图片x′被认为是降采样前真实图片的概率。
而且,所述步骤1.5中最终的损失函数Lloss为编码器输出后计算得到的KL散度和生成对抗式网络的损失函数相加,即:
Figure RE-GDA0003097186420000033
其中,KL散度DKL(q(z|x′)||p(z))的计算方式与步骤1.2一致。
而且,所述步骤2.2是将步骤2.1中下采样后的图片x1输入训练后的编码器,经过六层卷积提取输入图片的特征,计算出隐变量z1的后验分布q(z1|x1)。根据后验分布采样得到隐变量 z1,再计算隐变量z1的后验分布q(z1|x1)与z1的分布p(z1)的KL散度DKL(q(z1|x1)‖p(z1))。其中,预设p(z1)服从
Figure RE-GDA0003097186420000034
而且,所述步骤2.3中将步骤2.2中隐变量z1通过一个由四个全连接层组成的映射网络f 转换为一组中间隐向量W,将W通过AdaIN操作后输入训练后的解码器的每个卷积层。解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x′1的条件概率分布p(x'1|z1),并采样得到生成图片x′1
而且,所述步骤2.4中损失函数L为编码器输出后计算得到的KL散度,即:
L=DKL(q(z1|x1')||p(z1)) (3)
其中,KL散度DKL(q(z1|x1')||p(z1))的计算方式与步骤2.2一致。
而且,所述步骤3中行人重识别网络可以采用ResNet50,将交叉熵损失作为损失函数进行训练,测试及实施时通过神经网络提取特征,并根据特征之间的度量由小到大进行排序从而匹配到对应的图片。
与现有技术相比,本发明具有如下优点:与现有技术直接对输入的图片进行计算和匹配相比,本发明先通过对抗性图片训练生成对抗式网络模型,然后通过生成对抗式网络的变分自编码器重新生成图片,在尽可能保留原图特征的前提下削弱了对抗样本图片中的噪声,增强了行人重识别模型对于对抗攻击样本的防御能力,有效解决了深度神经网络易遭受攻击的问题,使得输入图片受到攻击时行人重识别网络匹配的准确度得到有效提升。
附图说明
图1为本发明实施例生成对抗式网络的训练流程图。
图2为本发明实施例的技术流程图。
图3为本发明实施例的生成对抗式网络的网络结构图。
具体实施方式
本发明针对行人重识别任务中,现有的深度神经网络难以防御对抗性攻击样本的问题,提出一种防御对抗性攻击的行人重识别方法,首先将对抗性图片进行下采样处理,接着用下采样后的图片训练生成对抗式网络模型,然后对查询集中的图片进行下采样处理,通过生成对抗式网络的变分自编码器重新生成图片,将重新生成的图片输入行人重识别模型进行检索,匹配到对应的图片得到行人重识别结果。
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本发明实施例的流程包括以下步骤:
步骤1,训练生成对抗式网络模型,具体包括以下几个步骤:
步骤1.1,将对抗性图片进行下采样处理。
步骤1.2,通过编码器输出分布并采样生成隐变量。将下采样后的图片x输入编码器,经过六层卷积提取输入图片的特征,计算出隐变量z的后验分布q(z|x)。根据后验分布采样得到隐变量z,再计算隐变量z的后验分布q(z|x)与z的分布p(z)的KL散度DKL(q(z|x)‖p(z))。其中,预设p(z)服从
Figure RE-GDA0003097186420000041
步骤1.3,将隐变量通过解码器输出分布并采样生成新的图片。将步骤1.2中隐变量z通过一个由四个全连接层组成的映射网络f转换为一组中间隐向量W,将W通过AdaIN操作后输入解码器的每个卷积层。解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x′的条件概率分布p(x′|z),并采样得到生成图片x′。
步骤1.4,通过生成对抗式网络判断新的图片是否像真实图片。将步骤1.3中生成的图片 x′输入判别器,判别器通过多层卷积提取特征,其中每两层卷积后进行一次下采样,最后通过一个全连接层输出判断结果。将步骤1.2和步骤1.3中的变分自编码器作为生成器,和判别器的结果一同计算生成对抗式网络的损失函数LGAN
Figure RE-GDA0003097186420000042
其中,
Figure RE-GDA0003097186420000043
表示交叉熵损失,D(x)表示图片x被认为是降采样前真实图片的概率,D(x′) 表示生成的图片x′被认为是降采样前真实图片的概率。
步骤1.5,计算最终的损失函数。最终的损失函数Lloss为编码器输出后计算得到的KL散度和生成对抗式网络的损失函数相加,即:
Figure RE-GDA0003097186420000051
其中,KL散度DKL(q(z|x′)||p(z))的计算方式与步骤1.2一致。
步骤1.6,按照步骤1.1~1.5训练生成对抗式神经网络直到训练集全部学习完毕。训练得到的生成对抗式网络变分自编码器可以使重新生成的图片在尽可能保留原图特征的前提下削弱对抗样本图片中的噪声。
步骤2,重新生成查询集中的图片,具体包括以下子步骤:
步骤2.1,对查询集图片进行下采样处理。
步骤2.2,通过步骤1训练得到的生成对抗式网络的生成器中的编码器输出分布并采样生成隐变量。将步骤2.1中下采样后的图片x1输入训练后的编码器,经过六层卷积提取输入图片的特征,计算出隐变量z1的后验分布q(z1|x1)。根据后验分布采样得到隐变量z1,再计算隐变量z1的后验分布q(z1|x1)与z1的分布p(z1)的KL散度DKL(q(z1|x1)‖p(z1))。其中,预设p(z1) 服从
Figure RE-GDA0003097186420000052
步骤2.3,将隐变量通过步骤1训练得到的生成对抗式网络的生成器中的解码器输出分布并采样生成新的图片。将步骤2.2中隐变量z1通过一个由四个全连接层组成的映射网络f转换为一组中间隐向量W,将W通过AdaIN操作后输入训练后的解码器的每个卷积层。解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x′1的条件概率分布p(x'1|z1),并采样得到生成图片x′1
步骤2.4,计算损失函数。损失函数L为编码器输出后计算得到的KL散度,即:
L=DKL(q(z1|x1')||p(z1)) (3)
其中,KL散度DKL(q(z1|x1')||p(z1))的计算方式与步骤2.2一致。
步骤2.5,从步骤2.4中选出损失函数小于临界值τ=0.03的图片,计算其与原图的欧氏距离,选择欧氏距离最小的一张图片输出。
步骤3,将步骤2中重新生成的图片输入行人重识别网络,匹配到对应的图片并输出。本实施例行人重识别网络采用ResNet50,将交叉熵损失作为损失函数进行训练,测试及实施时通过神经网络提取特征,并根据特征之间的度量由小到大进行排序从而匹配到对应的图片。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种防御对抗性攻击的行人重识别方法,其特征在于,包括如下步骤:
步骤1,训练生成对抗式网络模型,具体包括以下几个步骤:
步骤1.1,将对抗性图片进行下采样处理,得到x;
步骤1.2,通过编码器输出分布并采样生成隐变量z;
步骤1.3,将隐变量通过解码器输出分布并采样生成新的图片x′;
步骤1.4,通过生成对抗式网络判断新的图片是否像真实图片;
步骤1.5,计算最终的损失函数;
步骤1.6,按照步骤1.1~1.5训练生成对抗式神经网络直到训练集全部学习完毕;
步骤2,重新生成查询集中的图片,具体包括以下子步骤:
步骤2.1,对查询集图片进行下采样处理,得到x1
步骤2.2,通过步骤1训练得到的生成对抗式网络的生成器中的编码器输出分布并采样生成隐变量z1
步骤2.3,将隐变量通过步骤1训练得到的生成对抗式网络的生成器中的解码器输出分布并采样生成新的图片x′1
步骤2.4,计算损失函数;
步骤2.5,从步骤2.4中选出损失函数小于临界值τ的图片,τ为常数,计算其与原图的欧氏距离,选择欧氏距离最小的一张图片输出;
步骤3,将步骤2中重新生成的图片输入行人重识别网络,匹配到对应的图片并输出。
2.如权利要求1所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤1.2是将步骤1.1下采样后的图片x输入编码器,经过六层卷积提取输入图片的特征,计算出隐变量z的后验分布q(z|x),根据后验分布采样得到隐变量z,再计算隐变量z的后验分布q(z|x)与z的分布p(z)的KL散度DKZ(q(z|x)||p(z)),其中,预设p(z)服从N(0,I)。
3.如权利要求2所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤1.3是将步骤1.2中隐变量z通过一个由四个全连接层组成的映射网络f转换为一组中间隐向量W,将W通过AdaIN操作后输入解码器的每个卷积层,解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x′的条件概率分布p(x′|z),并采样得到生成图片x′。
4.如权利要求3所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤1.4是将步骤1.3中生成的图片x′输入判别器,判别器通过多层卷积提取特征,其中每两层卷积后进行一次下采样,最后通过一个全连接层输出判断结果,将步骤1.2和步骤1.3中的变分自编码器作为生成器,和判别器的的结果一同计算生成对抗式网络的损失函数LGAN
Figure FDA0003041027030000021
其中,
Figure FDA0003041027030000022
表示交叉熵损失,D(x)表示图片x被认为是降采样前真实图片的概率,D(x′)表示生成的图片x′被认为是降采样前真实图片的概率。
5.如权利要求4所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤1.5中最终的损失函数Lloss为编码器输出后计算得到的KL散度和生成对抗式网络的损失函数相加,即:
Figure FDA0003041027030000023
其中,KL散度DKL(q(z|x′)||p(z))的计算方式与步骤1.2一致。
6.如权利要求1所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤2.2是将步骤2.1中下采样后的图片x1输入训练后的编码器,经过六层卷积提取输入图片的特征,计算出隐变量z1的后验分布q(z1|x1),根据后验分布采样得到隐变量z1,再计算隐变量z1的后验分布q(z1|x1)与z1的分布p(z1)的KL散度DKZ(q(z1|x1)||p(z1)),其中,预设p(z1)服从N(0,I)。
7.如权利要求6所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤2.3中将步骤2.2中隐变量z1通过一个由四个全连接层组成的映射网络f转换为一组中间隐向量W,将W通过AdaIN操作后输入训练后的解码器的每个卷积层,解码器通过多层卷积提取W的特征,其中从第二次卷积开始逐步上采样,最终得到生成图片x1′的条件概率分布p(x'1|z1),并采样得到生成图片x′1
8.如权利要求7所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤2.4中损失函数L为编码器输出后计算得到的KL散度,即:
L=DKL(q(z1|x'1)||p(z1)) (3)
其中,KL散度DKL(q(z1|x'1)||p(z1))的计算方式与步骤2.2一致。
9.如权利要求1所述的一种防御对抗性攻击的行人重识别方法,其特征在于:所述步骤3中行人重识别网络可以采用ResNet50,将交叉熵损失作为损失函数进行训练,测试及实施时通过神经网络提取特征,并根据特征之间的度量由小到大进行排序从而匹配到对应的图片。
CN202110457404.3A 2021-04-27 2021-04-27 一种防御对抗性攻击的行人重识别方法 Withdrawn CN113205030A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110457404.3A CN113205030A (zh) 2021-04-27 2021-04-27 一种防御对抗性攻击的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110457404.3A CN113205030A (zh) 2021-04-27 2021-04-27 一种防御对抗性攻击的行人重识别方法

Publications (1)

Publication Number Publication Date
CN113205030A true CN113205030A (zh) 2021-08-03

Family

ID=77028805

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110457404.3A Withdrawn CN113205030A (zh) 2021-04-27 2021-04-27 一种防御对抗性攻击的行人重识别方法

Country Status (1)

Country Link
CN (1) CN113205030A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688781A (zh) * 2021-09-08 2021-11-23 北京邮电大学 一种遮挡弹性的行人重识别对抗攻击方法
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826059A (zh) * 2019-09-19 2020-02-21 浙江工业大学 面向恶意软件图像格式检测模型的黑盒攻击的防御方法及其装置
CN112288627A (zh) * 2020-10-23 2021-01-29 武汉大学 一种面向识别的低分辨率人脸图像超分辨率方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826059A (zh) * 2019-09-19 2020-02-21 浙江工业大学 面向恶意软件图像格式检测模型的黑盒攻击的防御方法及其装置
CN112288627A (zh) * 2020-10-23 2021-01-29 武汉大学 一种面向识别的低分辨率人脸图像超分辨率方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANLI ZHOU 等: "Manifold Projection for Adversarial Defense on Face Recognition", 《SPRINGERLINK》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688781A (zh) * 2021-09-08 2021-11-23 北京邮电大学 一种遮挡弹性的行人重识别对抗攻击方法
CN113688781B (zh) * 2021-09-08 2023-09-15 北京邮电大学 一种遮挡弹性的行人重识别对抗攻击方法
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Similar Documents

Publication Publication Date Title
Rao et al. Selfie video based continuous Indian sign language recognition system
CN109784258A (zh) 一种基于多尺度特征切割与融合的行人重识别方法
CN111274921B (zh) 一种利用姿态掩模进行人体行为识别的方法
CN107358195B (zh) 基于重建误差的非特定异常事件检测及定位方法、计算机
CN107066951B (zh) 一种人脸自发表情的识别方法及***
CN111325169B (zh) 基于胶囊网络的深度视频指纹算法
CN113205030A (zh) 一种防御对抗性攻击的行人重识别方法
CN110084130B (zh) 基于多目标跟踪的人脸筛选方法、装置、设备及存储介质
CN110728183A (zh) 一种基于注意力机制的神经网络的人体动作识别方法
CN111126307B (zh) 联合稀疏表示神经网络的小样本人脸识别方法
CN110738153A (zh) 异质人脸图像转换方法、装置、电子设备及存储介质
CN106650617A (zh) 一种基于概率潜在语义分析的行人异常识别方法
Huang et al. Deepfake mnist+: a deepfake facial animation dataset
CN110880010A (zh) 基于卷积神经网络的视觉slam闭环检测算法
Rao et al. Neural network classifier for continuous sign language recognition with selfie video
CN113378949A (zh) 一种基于胶囊网络和混合注意力的双重生成对抗学习方法
CN114663685A (zh) 一种行人重识别模型训练的方法、装置和设备
Kumar et al. Selfie continuous sign language recognition using neural network
CN111368763A (zh) 基于头像的图像处理方法、装置及计算机可读存储介质
CN113807237A (zh) 活体检测模型的训练、活体检测方法、计算机设备及介质
CN111079585B (zh) 图像增强结合伪孪生卷积神经网络的行人再识别方法
CN110163489B (zh) 一种戒毒运动锻炼成效评价方法
CN114821174B (zh) 一种基于内容感知的输电线路航拍图像数据清洗方法
CN111047537A (zh) 一种图像去噪中恢复细节的***
CN113553895A (zh) 一种基于人脸正面化的多姿态人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210803