CN111062329A - 基于增广网络的无监督行人重识别方法 - Google Patents

基于增广网络的无监督行人重识别方法 Download PDF

Info

Publication number
CN111062329A
CN111062329A CN201911310016.1A CN201911310016A CN111062329A CN 111062329 A CN111062329 A CN 111062329A CN 201911310016 A CN201911310016 A CN 201911310016A CN 111062329 A CN111062329 A CN 111062329A
Authority
CN
China
Prior art keywords
network
augmentation
pedestrian
image
augmented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911310016.1A
Other languages
English (en)
Other versions
CN111062329B (zh
Inventor
郑伟诗
袁子逸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201911310016.1A priority Critical patent/CN111062329B/zh
Publication of CN111062329A publication Critical patent/CN111062329A/zh
Application granted granted Critical
Publication of CN111062329B publication Critical patent/CN111062329B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于增广网络的无监督行人重识别方法,该方法以原始数据库中的行人图像数据为基础,进行多种形式的数据增广,将增广后的图像数据视作基础数据的同一标签数据通入参数不共享的网络分别提取特征,帮助网络进行训练。本发明的方法主要考虑如何在数据集不够丰富的情况下对无法直接作为输入的无标签数据进行利用,可以直接使用这种方法得到的主网络模型直接在测试集上进行特征提取后用于测试;也可以用这种方式先使用无标签的数据进行多个增广网络与主网络的预训练,再使用有标签的数据对主网络参数进行微调,从而有效利用无标签信息并提升行人重识别的准确率。

Description

基于增广网络的无监督行人重识别方法
技术领域
本发明涉及深度学习领域,更具体地,涉及一种无监督的行人重识别方法。
背景技术
近年来,深度学习技术不断发展,基于深度神经网络的深度学习方法早已应用在我们生活中的方方面面。例如自然语言处理(Natural Language Processing)领域的文本翻译、文本分类等;计算机视觉(Computer Vison)领域的图像检索、人脸识别等。深度学习方法的出现给人类社会带来了极大的便捷性。
行人重识别方法就是基于深度学习方法的一种重要应用。行人重识别(Personre-identification)也称行人再识别,是利用计算机视觉技术判断由互相视野不覆盖的摄像头获取的图像或者视频序列中是否存在特定行人的技术。由于不同摄像设备之间的差异,同时行人兼具刚性和柔性的特性,外观易受穿着、尺度、遮挡、姿态和视角等影响,使得行人重识别成为计算机视觉领域中一个既具有研究价值同时又极具挑战性的热门课题。
行人重识别在学术领域有一些专门的数据库,但是由于数据的获取与标定需要花费大量的人力与财力,这些数据集的图像数量都很少。Market-1501与DukeMTMC-reID是其中两个常用数据集。
Market-1501数据集在清华大学校园中采集,图像来自6个不同的摄像头。训练集包含12,936张图像,测试集包含19,732张图像。训练数据中一共有751人,测试集中有750人。所以在训练集中,平均每类(每个人)有17.2张训练数据。
DukeMTMC-reID数据集在杜克大学内采集,图像来自8个不同摄像头。训练集包含16,522张图像,测试集包含17,661张图像。训练数据中一共有702人,平均每类(每个人)有23.5张训练数据。
以上这两个常用的行人重识别数据集只有33,000张左右的图像数据,对比企业中动辄千万上亿的图像数据来说差距明显。而数据集太小时,神经网络的训练会趋于过拟合(Overfitting),导致在原始数据集训练出的神经网络在其他数据集上测试准确率降低。
在此情况下,许多数据增广(Data Augmentation)方法开始在行人重识别领域被使用,例如随机裁剪、随机翻转等等。但这种方法只是在原有有标签数据集上对图像数据的二次处理,而其他无标签的数据集仍然没有得到合理利用。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,一种新颖的切骨逻辑而提供的一套操作方便并且可实现准确定位的一种膝关节置换手术用股骨远端个性化切骨导板,且在满足条件的情况下尽量的减材和减少设计难度,提高设计效率。
为了达到上述目的,本发明采用以下技术方案:
一种基于增广网络的无监督行人重识别方法,包括以下步骤:
S1:对无标签的原始行人图像数据集D0进行增广操作,所述增广操作包括图像缩放、随机裁剪、随机擦除、加噪和高斯模糊的一种或多种,得到M个新的增广数据集D1~DM,M为正整数;
S2:将原始行人图像数据集D0中的原始图像数据通入一个卷积神经网络作为主网络N0进行前向传播提取得到特征F0;
S3:将M个增广数据集D1~DN中对应的增广图像数据分别输入M个参数不共享的卷积神经网络作为增广网络N1~NM进行前向传播提取得到特征F1~FM;
S4:从原始行人图像数据集D0中随机选取一张图像Inegative作为负样本,通入主网络N0前向传播提取得到特征Fnegative;
S5:用输出特征F0分别与输出特征F1~FM计算欧式距离,得到M个损失值L1~LM;
S6:用输出特征Fnegative分别与输出特征F0~FM计算欧氏距离,得到M+1个损失值L0nagetive~LMnegative;
S7:将S5中得到的M个损失值L1~LM分别与S6中得到的M个损失值L1negative~LMnegative相减后得到的结果作为损失对增广网络N1~NM进行后向传播计算梯度更新增广网络参数;
S8:将S5中得到的M个损失值L1~LM进行求和与S6中得到的损失值L0negative~LMnegative求和的结果相减,得到总损失值L0;
S9:将S8中得到的总损失值L0作为损失对主网络N0进行后向传播计算梯度更新主网络参数;
S10:重复S2~S9的操作,直到主网络与增广网络收敛;
S11:将主网络模型作为输出。
作为优选的技术方案,步骤S1中,当增广操作中包括图像缩放处理时,使用双线性插值的方法对图像进行缩放,从而模拟自然数据集中可能出现的各种不同分辨率的图像,具体计算方式如下:
Figure BDA0002324253080000041
其中Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2)为点(x,y)最为接近的四个像素点。
作为优选的技术方案,步骤S1中,当增广操作中包括随机剪裁处理时,使用随机裁剪方法进行增广,从而模拟自然数据集中可能出现的各种局部行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点作为裁剪的结果进行输出。
作为优选的技术方案,步骤S1中,当增广操作中包括随机擦除处理时,使用随机擦除方法进行增广,从而模拟自然数据集中可能出现的各种缺失或不完整行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点的像素值全部置为黑,即像素值(0,0,0),然后将操作后的整张图像作为随机擦除的结果进行输出。
作为优选的技术方案,步骤S1中,当增广操作中包括加噪方法处理时,使用加噪方法进行增广,从而模拟自然数据集中可能出现的图像噪声,具体操作为:
对每个像素点都有一定的概率值变为白点,即像素值(255,255,255))或黑点,即像素值(0,0,0),然后将操作后的整张图像作为加噪结果进行输出。
作为优选的技术方案,步骤S1中,当增广操作中包括高斯模糊处理时,使用高斯模糊方法进行增广,从而模拟自然数据集中可能出现的图像模糊的情况,根据以下公式:
Figure BDA0002324253080000051
设定好σ值后即可计算出权重矩阵,从而以图像中的每一个像素为中心进行矩阵运算,就能达到对图像进行模糊的目的。
作为优选的技术方案,步骤S2和步骤S3中,将各自的行人图像数据传入对应卷积神经网络,使用前向传播法进行特征提取,前向传播具体公式如下:
Figure BDA0002324253080000052
其中a表示中间层输出;σ表示激活函数;z表示激活层的输入;上标表示层数;*表示卷积操作;W表示卷积核;b表示偏置。
作为优选的技术方案,步骤S5具体为:
用主网络N0提取到的特征F0分别与增广网络N1~NM提取到的特征F1~FM计算欧式距离,具体公式如下:
Figure BDA0002324253080000053
其中x带入主网络提取到的特征F0;y分别带入五个增广网络提取到的特征F1~FM;xi与yi为对应特征各个维度上的值;
步骤S6具体为:
所述特征Fnegative为负样本,随机选取一张图像作为负样本Fnegative与输出特征F0~FM计算欧氏距离。
作为优选的技术方案,步骤S7具体为:
将计算好的误差值传回对应的卷积神经网络,利用后向传播算法对卷积神经网络的参数值进行迭代更新,具体公式如下:
Figure BDA0002324253080000054
其中上标表示层数;δ表示梯度值;*表示卷积操作;W表示卷积核;rot180表示对矩阵进行180度翻转,即上下翻转一次,再左右翻转一次;o表示点对点乘法;σ'表示激活函数的导数。
作为优选的技术方案,步骤S8具体为:
将增广网络得到的特征与主网络得到的特征分别求欧式距离后得到的误差值L1~LM求和与L0negative~LMnegative求和的结果相减得到总误差值L0,具体公式如下:
Figure BDA0002324253080000061
其中λi,i∈[1,M]为正样本权重值,Li,i∈[1,M]对应的正样本误差值,此处取λi=1,i∈[1,M];λinegative,inegative∈[0,M]为负样本权重值,Linegative,inegative∈[0,M]对应的负样本误差值,此处取λineg=1,ineg∈[0,M]。
本发明与现有技术相比,具有如下优点和有益效果:
本发明方法使用增广网络的方法对原本无法直接作为深度神经网络的输入进行训练的无标签行人图像数据加以利用,在将无标签数据集进行增广操作之后即可端到端的进行对增广网络与主网络进行训练。利用了原始数据与由原始数据得到的增广数据提取到的特征应尽保持一致这一信息对深度神经网络进行训练。对于数据集与数据量本身就比较缺乏的行人重识别领域有极大的好处,另外,各种不同的增广操作也一定程度上模拟了行人重识别数据本身可能出现的模糊、缺失的情况,所以本发明提出的方法能够提升训练出的深度神经网络的泛化性,缓解过拟合,最终达到提升识别准确率的效果
附图说明
图1为本发明基于增广网络的无监督行人重识别方法的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例提供了一种基于增广网络的无监督行人重识别方法,包括下述步骤:
S1:对无标签的行人图像数据集D0进行增广操作,包括图像缩放、随机裁剪、随机擦除、加噪和高斯模糊(这五种增广操作可以选择其中几种进行组合呼出量,也可以全部选择,本实施例以5中增广操作为例做进一步的说明),得到五个新的增广数据集D1~D5。
步骤S1中图像缩放、随机裁剪、随机擦除、加噪和高斯模糊具体为:
S11:对原始无标签行人图像数据,使用双线性插值的方法对图像进行缩放,从而模拟自然数据集中可能出现的各种不同分辨率的图像,具体计算方式如下公式所示:
Figure BDA0002324253080000071
其中Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2)为点(x,y)最为接近的四个像素点。
S12:对原始无标签行人图像数据,使用随机裁剪方法进行增广,从而模拟自然数据集中可能出现的各种局部行人图像,具体操作为:先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点作为裁剪的结果进行输出。
S13:对原始无标签行人图像数据,使用随机擦除方法进行增广,从而模拟自然数据集中可能出现的各种缺失或不完整行人图像,具体操作为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点的像素值全部置为黑(即像素值(0,0,0)),然后将操作后的整张图像作为随机擦除的结果进行输出。
S14:对原始无标签行人图像数据,使用加噪方法进行增广,从而模拟自然数据集中可能出现的图像噪声,具体操作为:
对每个像素点都有一定的概率值变为白点(即像素值(255,255,255))或黑点(即像素值(0,0,0)),然后将操作后的整张图像作为加噪结果进行输出。
S15:对原始无标签行人图像数据,使用高斯模糊方法进行增广,从而模拟自然数据集中可能出现的图像模糊的情况。根据以下公式:
Figure BDA0002324253080000081
设定好σ值后即可计算出权重矩阵,从而以图像中的每一个像素为中心进行矩阵运算,就能达到对图像进行模糊的目的。
S2:将原始行人图像数据集D0中的原始图像数据通入一个卷积神经网络作为主网络N0进行前向传播提取得到特征F0;即将各自的行人图像数据传入对应卷积神经网络,使用前向传播法进行特征提取,前向传播具体公式如下:
Figure BDA0002324253080000082
其中a表示中间层输出;σ表示激活函数;z表示激活层的输入;上标表示层数;*表示卷积操作;W表示卷积核;b表示偏置。
S3:将五个增广数据集D1~D5中对应的增广图像数据分别输入五个参数不共享的卷积神经网络作为增广网络N1~N5进行前向传播提取得到特征F1~F5;步骤S3中的前向传播采用和步骤S2中相同的方法。
S4、从原始行人图像数据集D0中随机选取一张图像Inegative作为负样本,通入主网络N0前向传播提取得到特征Fnegative;
S5:用输出特征F0分别与输出特征F1~F5计算欧式距离,得到五个损失值L1~L5,具体为:
用主网络N0提取到的特征F0分别与增广网络N1~N5提取到的特征F1~F5计算欧式距离,具体公式如下:
Figure BDA0002324253080000091
其中x带入主网络提取到的特征F0;y分别带入五个增广网络提取到的特征F1~F5;xi与yi为对应特征各个维度上的值。
S6:用输出特征Fnegative分别与输出特征F0~F5计算欧氏距离,得到6个损失值L0nagetive~LMnegative;由于一般而言数据集中的数据量较大,同类别数据相对于总体数据量比例小,所以此处将随机选取的一张图像作为负样本,在绝大多数情况下是可行的。
S7:将S5中得到的五个损失值L1~L5分别与S6中得到的5个损失值L1negative~LMnegative相减后得到的结果作为损失对增广网络N1~N5进行后向传播计算梯度更新增广网络参数。
即将计算好的误差值传回对应的卷积神经网络,利用后向传播算法对卷积神经网络的参数值进行迭代更新,具体公式如下:
Figure BDA0002324253080000092
其中上标表示层数;δ表示梯度值;*表示卷积操作;W表示卷积核;rot180表示对矩阵进行180度翻转,即上下翻转一次,再左右翻转一次;o表示点对点乘法;σ'表示激活函数的导数。
S8:将S4中得到的五个损失值L1~L5进行求和与S6中得到的损失值L0negative~L5negative求和的结果相减,得到总损失值L0,具体公式如下:
Figure BDA0002324253080000101
其中λi,i∈[1,5]为正样本权重值,Li,i∈[1,5]对应的正样本误差值,此处取λi=1,i∈[1,5];λinegative,inegative∈[0,5]为负样本权重值,Linegative,inegative∈[0,5]对应的负样本误差值,此处取λinegative=1,inegative∈[0,5]。
S9:将S6中得到的总损失值L0作为损失对主网络N0进行后向传播计算梯度更新主网络参数。
S10:重复S2~S10的操作,直到主网络与增广网络收敛。
S11:将主网络模型作为输出。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种基于增广网络的无监督行人重识别方法,其特征在于,包括以下步骤:
S1:对无标签的原始行人图像数据集D0进行增广操作,所述增广操作包括图像缩放、随机裁剪、随机擦除、加噪和高斯模糊的一种或多种,得到M个新的增广数据集D1~DM,M为正整数;
S2:将原始行人图像数据集D0中的原始图像数据通入一个卷积神经网络作为主网络N0进行前向传播提取得到特征F0;
S3:将M个增广数据集D1~DN中对应的增广图像数据分别输入M个参数不共享的卷积神经网络作为增广网络N1~NM进行前向传播提取得到特征F1~FM;
S4:从原始行人图像数据集D0中随机选取一张图像Inegative作为负样本,通入主网络N0前向传播提取得到特征Fnegative;
S5:用输出特征F0分别与输出特征F1~FM计算欧式距离,得到M个损失值L1~LM;
S6:用输出特征Fnegative分别与输出特征F0~FM计算欧氏距离,得到M+1个损失值L0nagetive~LMnegative;
S7:将S5中得到的M个损失值L1~LM分别与S6中得到的M个损失值L1negative~LMnegative相减后得到的结果作为损失对增广网络N1~NM进行后向传播计算梯度更新增广网络参数;
S8:将S5中得到的M个损失值L1~LM进行求和与S6中得到的损失值L0negative~LMnegative求和的结果相减,得到总损失值L0;
S9:将S8中得到的总损失值L0作为损失对主网络N0进行后向传播计算梯度更新主网络参数;
S10:重复S2~S9的操作,直到主网络与增广网络收敛;
S11:将主网络模型作为输出。
2.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括图像缩放处理时,使用双线性插值的方法对图像进行缩放,从而模拟自然数据集中可能出现的各种不同分辨率的图像,具体计算方式如下:
Figure FDA0002324253070000021
其中Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2)为点(x,y)最为接近的四个像素点。
3.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括随机剪裁处理时,使用随机裁剪方法进行增广,从而模拟自然数据集中可能出现的各种局部行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点作为裁剪的结果进行输出。
4.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括随机擦除处理时,使用随机擦除方法进行增广,从而模拟自然数据集中可能出现的各种缺失或不完整行人图像,具体方法为:
先随机在图像中选取一个像素点,再以该像素点作为左上角随机以一定的长与宽构成一个矩形,将这整个矩形中的像素点的像素值全部置为黑,即像素值(0,0,0),然后将操作后的整张图像作为随机擦除的结果进行输出。
5.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括加噪方法处理时,使用加噪方法进行增广,从而模拟自然数据集中可能出现的图像噪声,具体操作为:
对每个像素点都有一定的概率值变为白点,即像素值(255,255,255))或黑点,即像素值(0,0,0),然后将操作后的整张图像作为加噪结果进行输出。
6.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S1中,当增广操作中包括高斯模糊处理时,使用高斯模糊方法进行增广,从而模拟自然数据集中可能出现的图像模糊的情况,根据以下公式:
Figure FDA0002324253070000031
设定好σ值后即可计算出权重矩阵,从而以图像中的每一个像素为中心进行矩阵运算,就能达到对图像进行模糊的目的。
7.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S2和步骤S3中,将各自的行人图像数据传入对应卷积神经网络,使用前向传播法进行特征提取,前向传播具体公式如下:
Figure FDA0002324253070000032
其中a表示中间层输出;σ表示激活函数;z表示激活层的输入;上标表示层数;*表示卷积操作;W表示卷积核;b表示偏置。
8.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S5具体为:
用主网络N0提取到的特征F0分别与增广网络N1~NM提取到的特征F1~FM计算欧式距离,具体公式如下:
Figure FDA0002324253070000033
其中x带入主网络提取到的特征F0;y分别带入五个增广网络提取到的特征F1~FM;xi与yi为对应特征各个维度上的值;
步骤S6具体为:
所述特征Fnegative为负样本,随机选取一张图像作为负样本Fnegative与输出特征F0~FM计算欧氏距离。
9.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S7具体为:
将计算好的误差值传回对应的卷积神经网络,利用后向传播算法对卷积神经网络的参数值进行迭代更新,具体公式如下:
Figure FDA0002324253070000034
其中上标表示层数;δ表示梯度值;*表示卷积操作;W表示卷积核;rot180表示对矩阵进行180度翻转,即上下翻转一次,再左右翻转一次;o表示点对点乘法;σ'表示激活函数的导数。
10.根据权利要求1所述基于增广网络的无监督行人重识别方法,其特征在于,步骤S8具体为:
将增广网络得到的特征与主网络得到的特征分别求欧式距离后得到的误差值L1~LM求和与L0negative~LMnegative求和的结果相减得到总误差值L0,具体公式如下:
Figure FDA0002324253070000041
其中λi,i∈[1,M]为正样本权重值,Li,i∈[1,M]对应的正样本误差值,此处取λi=1,i∈[1,M];λinegative,inegative∈[0,M]为负样本权重值,Linegative,inegative∈[0,M]对应的负样本误差值,此处取λinegative=1,inegative∈[0,M]。
CN201911310016.1A 2019-12-18 2019-12-18 基于增广网络的无监督行人重识别方法 Active CN111062329B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911310016.1A CN111062329B (zh) 2019-12-18 2019-12-18 基于增广网络的无监督行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911310016.1A CN111062329B (zh) 2019-12-18 2019-12-18 基于增广网络的无监督行人重识别方法

Publications (2)

Publication Number Publication Date
CN111062329A true CN111062329A (zh) 2020-04-24
CN111062329B CN111062329B (zh) 2023-05-30

Family

ID=70302269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911310016.1A Active CN111062329B (zh) 2019-12-18 2019-12-18 基于增广网络的无监督行人重识别方法

Country Status (1)

Country Link
CN (1) CN111062329B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111985645A (zh) * 2020-08-28 2020-11-24 北京市商汤科技开发有限公司 一种神经网络的训练方法、装置、电子设备及存储介质
CN112043260A (zh) * 2020-09-16 2020-12-08 杭州师范大学 基于局部模式变换的心电图分类方法
CN112200187A (zh) * 2020-10-16 2021-01-08 广州云从凯风科技有限公司 一种目标检测方法、装置、机器可读介质及设备
CN112580720A (zh) * 2020-12-18 2021-03-30 华为技术有限公司 一种模型训练方法及装置
CN113033410A (zh) * 2021-03-26 2021-06-25 中山大学 基于自动数据增强的域泛化行人重识别方法、***及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583379A (zh) * 2018-11-30 2019-04-05 常州大学 一种基于随机擦除行人对齐网络的行人重识别方法
US20190220746A1 (en) * 2017-08-29 2019-07-18 Boe Technology Group Co., Ltd. Image processing method, image processing device, and training method of neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190220746A1 (en) * 2017-08-29 2019-07-18 Boe Technology Group Co., Ltd. Image processing method, image processing device, and training method of neural network
CN109583379A (zh) * 2018-11-30 2019-04-05 常州大学 一种基于随机擦除行人对齐网络的行人重识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEI-SHI ZHENG ET AL.: "Fast Open-World Person Re-Identification", 《IEEE TRANSACTIONS ON IMAGE PROCESSING 》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111985645A (zh) * 2020-08-28 2020-11-24 北京市商汤科技开发有限公司 一种神经网络的训练方法、装置、电子设备及存储介质
CN112043260A (zh) * 2020-09-16 2020-12-08 杭州师范大学 基于局部模式变换的心电图分类方法
CN112200187A (zh) * 2020-10-16 2021-01-08 广州云从凯风科技有限公司 一种目标检测方法、装置、机器可读介质及设备
CN112580720A (zh) * 2020-12-18 2021-03-30 华为技术有限公司 一种模型训练方法及装置
CN113033410A (zh) * 2021-03-26 2021-06-25 中山大学 基于自动数据增强的域泛化行人重识别方法、***及介质
CN113033410B (zh) * 2021-03-26 2023-06-06 中山大学 基于自动数据增强的域泛化行人重识别方法、***及介质

Also Published As

Publication number Publication date
CN111062329B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN111339903B (zh) 一种多人人体姿态估计方法
CN107945118B (zh) 一种基于生成式对抗网络的人脸图像修复方法
CN111062329A (zh) 基于增广网络的无监督行人重识别方法
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
WO2022000420A1 (zh) 人体动作识别方法、人体动作识别***及设备
Ning et al. Accurate and lightweight image super-resolution with model-guided deep unfolding network
CN107749052A (zh) 基于深度学习神经网络的图像去雾方法及***
CN112232134B (zh) 一种基于沙漏网络结合注意力机制的人体姿态估计方法
CN110675462A (zh) 一种基于卷积神经网络的灰度图像彩色化方法
Chavan et al. Convolutional neural network hand gesture recognition for American sign language
CN113052775B (zh) 一种图像去阴影方法及装置
CN112149563A (zh) 一种注意力机制人体图像关键点姿态估计方法及***
CN113486700A (zh) 一种教学场景下基于注意力机制的面部表情分析方法
CN110598537A (zh) 一种基于深度卷积网络的视频显著性检测方法
Kutlugün et al. The effects of augmented training dataset on performance of convolutional neural networks in face recognition system
CN113378812A (zh) 一种基于Mask R-CNN和CRNN的数字表盘识别方法
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN110826534B (zh) 一种基于局部主成分分析的人脸关键点检测方法及***
Ali et al. Constructed model for micro-content recognition in lip reading based deep learning
CN116092190A (zh) 一种基于自注意力高分辨网络的人体姿态估计方法
Renjith et al. Indian sign language recognition: A comparative analysis using cnn and rnn models
Sakurai et al. Restoring aspect ratio distortion of natural images with convolutional neural network
Bende et al. VISMA: A Machine Learning Approach to Image Manipulation
CN109583406B (zh) 基于特征关注机制的人脸表情识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant