CN109117823A - 一种基于多层神经网络的跨场景行人重识别的方法 - Google Patents

一种基于多层神经网络的跨场景行人重识别的方法 Download PDF

Info

Publication number
CN109117823A
CN109117823A CN201811010519.2A CN201811010519A CN109117823A CN 109117823 A CN109117823 A CN 109117823A CN 201811010519 A CN201811010519 A CN 201811010519A CN 109117823 A CN109117823 A CN 109117823A
Authority
CN
China
Prior art keywords
sample
pedestrian
layer
neural network
multilayer neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811010519.2A
Other languages
English (en)
Inventor
顾晓清
倪彤光
王洪元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN201811010519.2A priority Critical patent/CN109117823A/zh
Publication of CN109117823A publication Critical patent/CN109117823A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多层神经网络的跨场景行人重识别的方法,其步骤如下:(1)采集当前场景下摄像头中的行人视频,截取视频帧;(2)对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,使用样本对构成目标域训练集Xt,得到测试集Xo;(3)对相关场景下的带标识数据进行处理,使用样本对构成源域训练集Xs;(4)建立训练集X,X=[Xs,Xt];(5)使用X来训练多层神经网络模型;(6)根据步骤5得到的模型在测试集Xo中对待识别样本进行识别。本发明选用具备可实现复杂非线性映射的多层神经网络作为学习模型,使用迁移学习思想将相关场景的带标识数据加入到新场景的模型学习中,使得对新场景的学习更准确有效。

Description

一种基于多层神经网络的跨场景行人重识别的方法
技术领域
本发明涉及计算机视觉与模式识别领域,具体涉及一种基于多层神经网络的跨场景行人重识别的方法
背景技术
随着大量摄像机在公共场所的普及,基于行人的图片和视频数据的应用也逐渐受到更加广泛的重视,其中一项重要的应用是行人重识别。行人重识别是指通过非重叠摄像机采集的多时间段行人视频数据查找关于同一行人的技术。在公共安全日益受到重视的今天,行人重识别越来越受到人们的关注。伴随行人重识别在各种新领域中的应用,在实际条件下一个很重要的技术问题是如何在一个新的场景中部署行人重识别***。因为新场景中往往没有大量的已标记数据,而且标记数据非常耗时耗力,训练数据及其标识的匮乏影响了新场景中对行人重识别模型的建立,也容易造成目标的错误识别。
解决此问题的一个有效方法是引入迁移学***等人发明了基于迁移学习的行人重识别方法(基于迁移学习的行人重识别方法,专利申请号201510445055.8),首先求得源域数据的模型参数,再将模型参数迁移到目标域,得到目标域数据的模型。但这两种方法都存在缺陷,前一种方法通过线性变换将原始空间的数据投影到新的特征空间,往往不能捕捉到行人图像的非线性结构;后一种方法目标域数据没有参与到构建源域模型的构建中,两个领域的差异没有充分考虑,另外,该方法也没有考虑数据之间的类别差异性,容易导致模型的局部学习能力不足。针对行人重识别方法的现状和诸多不足,本发明提出了一种基于多层神经网络的跨场景行人重识别的方法。
发明内容
本发明的主要目的是利用神经网络具备的处理非线性和高精度的处理能力,提供一种易操作、高可靠的基于多层神经网络的跨场景行人重识别的方法,重点改进了现有方法所建立的跨场景行人重识别模型的识别精度不高的缺陷。
本发明采用下述技术方案来实现:
一种基于多层神经网络的跨场景行人重识别的方法,其特征在于,包括以下步骤:
步骤1.采集当前场景下摄像头中的行人视频,截取视频帧;
步骤2.对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,得到当前场景下带标识的目标域训练数据和不带标识的目标域测试集xti和xoi分别是目标域训练样本和目标域测试样本,yti是xti的标识,Nt和N0分别是目标域训练样本和测试样本的数量,根据样本的标识,将具有相同标识的训练样本组成正样本对,不同标识的训练样本组成负样本对,样本对构成目标域训练集Xt
步骤3.使用步骤2所述的特征提取和降维方法对相关场景下的带标识数据进行处理,根据样本的标识,将具有相同标识的训练样本组成正样本对,不同标识的训练样本组成负样本对,样本对构成源域训练集Xs,xsi是源域训练样本,ysi是xsi的标识,Ns是源域训练样本的数量;
步骤4.建立训练集X,X=[Xs,Xt];
步骤5.使用训练集X来训练多层神经网络模型;
步骤6.根据步骤5得到的多层神经网络模型在目标域测试集Xo中对待行人重识别的样本z进行行人重识别;
其中,上述步骤2所述的对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,其特征在于:首先将待提取特征的图像进行归一化处理,图像分块为像素大小,图像的每一小块在水平和垂直方向的区域块重叠率为50%;然后对于分块后的图像进行特征提取,主要提取RGB、YCbCr和HS颜色特征共8个颜色通道,建立16bin的直方图,以及提取HOG和LBP特征并建立直方图;对于每个行人图像共有75个分块,根据特征提取的内容,每个块中有484维的特征向量;再采用主成分分析方法对行人图像的高维特征进行降维处理;
上述步骤5所述的使用训练集X来训练多层神经网络模型,其特征在于,所述多层神经网络由输入层、多个隐含层和输出层组成,其中第一层是输入层,第二层到第M层是隐含层,最后一层即第M+1层是输出层,层与层之间是全连接,前一层的任意一个神经元与后一层的任意一个神经元相连;
所述建立使用训练集X来训练多层神经网络模型包含以下步骤:
步骤5.1.初始化第1层到第M层的权重矩阵和偏置向量其中b(m)初始化为0向量,W(m)中的每个分量服从均匀分布,
其中表示W(m)的第i行第j列个元素,当m=1时,n的值等于神经网络第一层上的神经元数,当m=2,...,M时,n的值等于神经网络第m-1层上的神经元数;
步骤5.2.所述多层神经网络的第一层接受输入数据集,即训练集X;
步骤5.3.每一次迭代,通过下式计算得到所述多层神经网络第一层的输出h(1)
其中是非线性激活函数,可以是tanh或者sigmoid函数,x表示X中的任意样本;
步骤5.4.将h(1)作为隐含层的输入,隐含层逐层前向传播,每个层将前一层的输出作为本层的输入,通过下式计算得到所述多层神经网络的第m层的输出
其中第M层的输出记为f(x):
步骤5.5.根据步骤5.4得到的f(x),建立源域和目标域的跨场景相似性度量SMCS(similarity measure for cross scenario):
其中||·||2表示2-范数运算,式(5)的第一项为目标域训练集所有行人样本f(x)的均值,第二项是源域中正样本对的行人样本的f(x)的均值,第三项是源域中负样本对的行人样本的f(x)的均值,正样本对的行人样本标识为行人数为Ns+,负样本对的行人样本标识为行人数为Ns-Ns+
步骤5.6.在所述多层神经网络的输出层建立多层神经网络模型的最优化函数J:
其中g()是Logistic损失函数α和β都是正常数,源域Xs和目标域Xt训练集中的样本对(xi,xj)参与式(6)的第一项的计算,i和j分别表示样本的标号,如果样本对(xi,xj)是正样本对,则lij=1,如果样本对(xi,xj)是负样本对,则使用下式定义lij
其中函数τ是一个正常数,||·||F表示F-范数运算;
采用梯度下降法求解式(6)中的
其中λ是学习率,对式(6)求导,得到具体的计算式如下,按照从输出层到输入层的方向调整W(m)和b(m)的值,
其中 T表示矩阵的转置运算,当m=1,2,...,M-1时,具体的计算式如下:
当m=M时,具体的计算式如下:
其中Θ表示点积运算,c、可用下式计算,
步骤5.7.根据步骤5.6得到的的值计算式(6)的值,记为Jk,其中k表示当前迭代的次数,计算与上一次迭代得到的最优化函数Jk-1的差值,判断|Jk-Jk-1|是否小于ε或者k的值是否大于最大迭代次数,若不是,则转向步骤5.3;若是,则当前为模型最优解,至此模型训练完毕,转向步骤6;
上述步骤6所述的根据步骤5得到的多层神经网络模型在目标域测试集Xo中对待行人重识别的样本z进行行人重识别,其特征在于:将待行人重识别样本z和数据集Xo中的每个待匹配图像的样本代入步骤5得到的多层神经网络模型,计算的值,其中xoi∈Xo,如果的值小于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人为同一个行人,如果的值大于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人不是同一个行人。
与现有技术相比,本发明的优点是:
1)识别精度高:本行人重识别方法选用具备可实现任何复杂非线性映射的多层神经网络作为具体的智能学习模型,多层神经网络的层数可以根据实际需要自由设置,本发明具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能力。
2)本发明使用迁移学习的思想将相关场景的带标识数据加入到新场景的模型学习中,帮助对新场景中模型的学习,另外,SMCS度量利用了源域样本的标识信息来表现源域和目标域上的全局和局部分布差异,使得对新场景的学习更准确有效。
3)预测简单、方便:本预测方法实现对行人重识别的自动识别,用户操作简单、方便。
附图说明
图1是本发明的一种基于多层神经网络的跨场景行人重识别的方法的总流程图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体事实例,并参照附图,对本发明进一步详细说明。
本发明的总实施流程图如图1所示,具体实施如下:
步骤1.采集当前场景下摄像头中的行人视频,截取视频帧,本实施例使用数据集i-LIDS图像作为当前场景下的视频帧图像;
步骤2.对数据集i-LIDS的视频帧中的行人图像进行特征提取和降维处理;i-LIDS数据集共包括119个行人476幅图像,具体实施中,首先将待提取特征的图像进行归一化处理,每一副图像的像素都处理成128×48,本实施例取像素大小16×16的区域块,图像的每一小块在水平和垂直方向每次移动间隔8个像素,重叠率为50%。然后对于分块后的图像进行特征提取,主要提取RGB、YCbCr和HS颜色特征共8个颜色通道,建立16bin的直方图,以及提取HOG和LBP特征并建立直方图,这样每个行人图像共有75个分块,根据特征提取的内容,每个块中有484维特征向量,每一张图像共36300维特征。本实施例采用主成分分析方法对行人图像的高维特征进行降维处理,降至300维。i-LIDS数据集分成训练集和测试集两个部分,本实施例中构成目标域训练集Xt共76幅行人图像,根据样本的标识,将具有相同标识的训练样本组成正样本对15对,不同标识的训练样本组成负样本对23对,目标域测试集Xo共400幅图像,目标域训练集和目标域测试集样本分别表示为xti和xoi
步骤3.使用步骤2所述的特征提取和降维方法对相关场景下的带标识的数据进行处理,xsi是源域训练样本,ysi是xsi的标识,Ns是源域训练样本的数量,本实施例中使用CAVIAR数据集作为源域训练集,选择CAVIAR数据集50个行人1000幅图像,根据样本的标识,将具有相同标识的训练样本组成正样本对250对,不同标识的训练样本组成负样本对250对,样本对构成源域训练集Xs
步骤4.建立训练集X,X=[Xs,Xt];
步骤5.使用训练集X来训练多层神经网络模型,其特征在于,所述多层神经网络由输入层、多个隐含层和输出层组成,其中第一层是输入层,第二层到第M层是隐含层,最后一层即第M+1层是输出层,层与层之间是全连接,前一层的任意一个神经元与后一层的任意一个神经元相连;使用训练集X来训练多层神经网络模型的详细步骤如下:
步骤5.1.初始化第1层到第M层的权重矩阵和偏置向量其中b(m)初始化为0向量,W(m)中的每个分量服从均匀分布,
其中表示W(m)的第i行第j列的元素,当m=1时,n的值等于第一层上的神经元数,当m=2,...,M时,n的值等于第m-1层上的神经元数,本实施例中取M=3,神经网络共4层,从第一层到最顶层的神经元数是400→300→200→200;
步骤5.2.所述多层神经网络的第一层接受输入数据集,即训练集X;
步骤5.3.每一次迭代,通过下式计算得到所述多层神经网络第一层的输出h(1)
其中x表示X中的任意样本,是非线性激活函数,本实施例中使用tanh函数,
步骤5.4.将h(1)作为隐含层的输入,隐含层逐层前向传播,每个层将前一层的输出作为本层的输入,通过下式计算得到所述多层神经网络的第2层和第3层的输出h(2)和h(3)分别是:
步骤5.5.根据步骤5.4得到的f(x),建立源域和目标域的跨场景相似性度量SMCS(similarity measure for cross scenario):
其中||·||2表示2-范数运算,式(5)的第一项为目标域所有行人样本f(x)的均值,第二项是源域中正样本对的行人样本的f(x)的均值,第三项是源域中负样本对的行人样本的f(x)的均值,正样本对的行人样本标识为行人数为Ns+,负样本对的行人样本标识为行人数为Ns-Ns+
步骤5.6.在所述多层神经网络的输出层建立多层神经网络模型的最优化函数J:
其中g()是Logistic损失函数本实施例中λ=1,α和β都是正常数,本实施例中α=0.1,β=10,源域Xs和目标域Xt训练集中的样本对(xi,xj)参与式(6)的第一项的计算,i和j分别表示样本的标号,如果样本对(xi,xj)是正样本对,则lij=1,如果样本对(xi,xj)是负样本对,则使用下式定义lij
其中函数·||F表示F-范数运算,τ是一个正常数,本实施例中τ=3;
采用梯度下降法求解式(6)中的
其中λ是学习率,本实施例中λ=0.3,对式(6)求导,得到具体的计算式如下,按照从输出层到输入层的方向调整W(m)和b(m)的值,
其中 T表示矩阵的转置运算,当m=1,2,...,M-1时,具体的计算式如下:
当m=M时,具体的计算式如下:
其中Θ表示点积运算,c、可用下式计算,
步骤5.7.根据步骤5.6得到的的解计算式(6)的值,记为Jk,其中k表示当前迭代的次数,计算与上一次迭代得到的最优化函数Jk-1的差值,判断|Jk-Jk-1|是否小于ε或者k的值是否大于最大迭代次数,若不是,则转向步骤5.3;若是,则当前为模型最优解,至此模型训练完毕,转向步骤6,本实施例中ε=0.01,最大迭代次数是1000;
步骤6.根据步骤5得到的多层神经网络模型在目标域测试集Xo中对待行人重识别的样本z进行行人重识别,其特征在于:将待行人重识别样本z和数据集Xo中的每个待匹配图像的样本代入步骤5得到的多层神经网络模型,计算的值,其中xoi∈Xo,如果的值小于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人为同一个行人,如果的值大于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人不是同一个行人。
本实施例将本发明的方法与现有的一些主流的行人重识别方法进行了比较,比较结果如表1所示。从表1可以看出,在对比的所有方法中,本发明方法的识别准确率最高,识别准确率已经达到了领域先进水平。
表1:本发明方法与KISSME、DDML、GPLMNN、cAMT-DCA和OurTransD识别准确率比较
以上所述的实例只是用于说明本发明,而不构成对本发明的限制。本领域的技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种修改和变更,这些修改和变更仍然在本发明的保护范围内。

Claims (1)

1.一种基于多层神经网络的跨场景行人重识别的方法,其特征在于,包括以下步骤:
步骤1.采集当前场景下摄像头中的行人视频,截取视频帧;
步骤2.对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,得到当前场景下带标识的目标域训练数据和不带标识的目标域测试集xti和xoi分别是目标域训练样本和目标域测试样本,yti是xti的标识,Nt和N0分别是目标域训练样本和测试样本的数量,根据样本的标识,将具有相同标识的训练样本组成正样本对,不同标识的训练样本组成负样本对,样本对构成目标域训练集Xt
步骤3.使用步骤2所述的特征提取和降维方法对相关场景下的带标识数据进行处理,根据样本的标识,将具有相同标识的训练样本组成正样本对,不同标识的训练样本组成负样本对,样本对构成源域训练集Xs,xsi是源域训练样本,ysi是xsi的标识,Ns是源域训练样本的数量;
步骤4.建立训练集X,X=[Xs,Xt];
步骤5.使用训练集X来训练多层神经网络模型;
步骤6.根据步骤5得到的多层神经网络模型在目标域测试集Xo中对待行人重识别的样本z进行行人重识别;
其中,上述步骤2所述的对步骤1截取到的视频帧中的行人图像进行特征提取和降维处理,其特征在于:首先将待提取特征的图像进行归一化处理,图像分块为像素大小,图像的每一小块在水平和垂直方向的区域块重叠率为50%;然后对于分块后的图像进行特征提取,主要提取RGB、YCbCr和HS颜色特征共8个颜色通道,建立16bin的直方图,以及提取HOG和LBP特征并建立直方图;对于每个行人图像共有75个分块,根据特征提取的内容,每个块中有484维的特征向量;再采用主成分分析方法对行人图像的高维特征进行降维处理;
上述步骤5所述的使用训练集X来训练多层神经网络模型,其特征在于,所述多层神经网络由输入层、多个隐含层和输出层组成,其中第一层是输入层,第二层到第M层是隐含层,最后一层即第M+1层是输出层,层与层之间是全连接,前一层的任意一个神经元与后一层的任意一个神经元相连;
所述建立使用训练集X来训练多层神经网络模型包含以下步骤:
步骤5.1.初始化第1层到第M层的权重矩阵和偏置向量其中b(m)初始化为0向量,W(m)中的每个分量服从均匀分布,
其中表示W(m)的第i行第j列个元素,当m=1时,n的值等于神经网络第一层上的神经元数,当m=2,...,M时,n的值等于神经网络第m-1层上的神经元数;
步骤5.2.所述多层神经网络的第一层接受输入数据集,即训练集X;
步骤5.3.每一次迭代,通过下式计算得到所述多层神经网络第一层的输出h(1)
其中是非线性激活函数,可以是tanh或者sigmoid函数,x表示X中的任意样本;
步骤5.4.将h(1)作为隐含层的输入,隐含层逐层前向传播,每个层将前一层的输出作为本层的输入,通过下式计算得到所述多层神经网络的第m层的输出
其中第M层的输出记为f(x):
步骤5.5.根据步骤5.4得到的f(x),建立源域和目标域的跨场景相似性度量SMCS(similarity measure for cross scenario):
其中||·||2表示2-范数运算,式(5)的第一项为目标域所有行人样本f(x)的均值,第二项是源域中正样本对的行人样本的f(x)的均值,第三项是源域中负样本对的行人样本的f(x)的均值,正样本对的行人样本标识为行人数为Ns+,负样本对的行人样本标识为行人数为Ns-Ns+
步骤5.6.在所述多层神经网络的输出层建立多层神经网络模型的最优化函数J:
其中g()是Logistic损失函数α和β都是正常数,源域Xs和目标域Xt训练集中的样本对(xi,xj)参与式(6)的第一项的计算,i和j分别表示样本的标号,如果样本对(xi,xj)是正样本对,则lij=1,如果样本对(xi,xj)是负样本对,则使用下式定义lij
其中函数τ是一个正常数,||·||F表示F-范数运算;
采用梯度下降法求解式(6)中的
其中λ是学习率,对式(6)求导,得到具体的计算式如下,按照从输出层到输入层的方向调整W(m)和b(m)的值,
其中 T表示矩阵的转置运算,当m=1,2,...,M-1时,具体的计算式如下:
当m=M时,具体的计算式如下:
其中Θ表示点积运算,c、可用下式计算,
步骤5.7.根据步骤5.6得到的的值计算式(6)的值,记为Jk,其中k表示当前迭代的次数,计算与上一次迭代得到的最优化函数Jk-1的差值,判断|Jk-Jk-1|是否小于ε或者k的值是否大于最大迭代次数,若不是,则转向步骤5.3;若是,则当前为模型最优解,至此模型训练完毕,转向步骤6;
上述步骤6所述的根据步骤5得到多层神经网络模型在目标域测试集Xo中对待行人重识别的样本z进行行人重识别,其特征在于:将待行人重识别样本z和数据集Xo中的每个待匹配图像的样本代入步骤5得到多层神经网络模型,计算的值,其中xoi∈Xo,如果的值小于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人为同一个行人,如果的值大于阈值τ,则确定所述目标行人图像中的目标行人和所述测试集中的待匹配行人不是同一个行人。
CN201811010519.2A 2018-08-31 2018-08-31 一种基于多层神经网络的跨场景行人重识别的方法 Pending CN109117823A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811010519.2A CN109117823A (zh) 2018-08-31 2018-08-31 一种基于多层神经网络的跨场景行人重识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811010519.2A CN109117823A (zh) 2018-08-31 2018-08-31 一种基于多层神经网络的跨场景行人重识别的方法

Publications (1)

Publication Number Publication Date
CN109117823A true CN109117823A (zh) 2019-01-01

Family

ID=64860364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811010519.2A Pending CN109117823A (zh) 2018-08-31 2018-08-31 一种基于多层神经网络的跨场景行人重识别的方法

Country Status (1)

Country Link
CN (1) CN109117823A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488760A (zh) * 2019-01-25 2020-08-04 复旦大学 基于深度多示例学习的少样本行人重识别方法
WO2020186914A1 (zh) * 2019-03-20 2020-09-24 北京沃东天骏信息技术有限公司 行人再识别方法、装置及存储介质
WO2020258714A1 (zh) * 2019-06-24 2020-12-30 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN113780135A (zh) * 2021-08-31 2021-12-10 中国科学技术大学先进技术研究院 跨场景的VOCs气体泄漏检测方法、***及存储介质
CN114758081A (zh) * 2022-06-15 2022-07-15 之江实验室 基于神经辐射场的行人重识别三维数据集构建方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TONGGUANG NI等: "Discriminative deep transfer metric learning for cross-scenario person re-identification", 《JOURNAL OF ELECTRONIC IMAGING》 *
王冲等: "基于跨场景迁移学习的行人再识别", 《计算机工程与设计》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488760A (zh) * 2019-01-25 2020-08-04 复旦大学 基于深度多示例学习的少样本行人重识别方法
CN111488760B (zh) * 2019-01-25 2023-05-02 复旦大学 基于深度多示例学习的少样本行人重识别方法
WO2020186914A1 (zh) * 2019-03-20 2020-09-24 北京沃东天骏信息技术有限公司 行人再识别方法、装置及存储介质
CN111723611A (zh) * 2019-03-20 2020-09-29 北京沃东天骏信息技术有限公司 行人再识别方法、装置及存储介质
WO2020258714A1 (zh) * 2019-06-24 2020-12-30 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN113780135A (zh) * 2021-08-31 2021-12-10 中国科学技术大学先进技术研究院 跨场景的VOCs气体泄漏检测方法、***及存储介质
CN113780135B (zh) * 2021-08-31 2023-08-04 中国科学技术大学先进技术研究院 跨场景的VOCs气体泄漏检测方法、***及存储介质
CN114758081A (zh) * 2022-06-15 2022-07-15 之江实验室 基于神经辐射场的行人重识别三维数据集构建方法和装置
WO2023093186A1 (zh) * 2022-06-15 2023-06-01 之江实验室 基于神经辐射场的行人重识别三维数据集构建方法和装置

Similar Documents

Publication Publication Date Title
CN108596277B (zh) 一种车辆身份识别方法、装置和存储介质
CN109117823A (zh) 一种基于多层神经网络的跨场景行人重识别的方法
CN111259850B (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
Li et al. Infrared and visible image fusion using a deep learning framework
Zhang et al. Curriculum domain adaptation for semantic segmentation of urban scenes
CN106250870B (zh) 一种联合局部和全局相似性度量学习的行人再识别方法
CN105469041B (zh) 基于多任务正则化与逐层监督神经网络的人脸点检测***
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及***
CN110517293A (zh) 目标跟踪方法、装置、***和计算机可读存储介质
CN108389220B (zh) 遥感视频图像运动目标实时智能感知方法及其装置
CN106446930A (zh) 基于深层卷积神经网络的机器人工作场景识别方法
CN109978918A (zh) 一种轨迹追踪方法、装置和存储介质
CN110246181B (zh) 基于锚点的姿态估计模型训练方法、姿态估计方法和***
CN109410171B (zh) 一种用于雨天图像的目标显著性检测方法
CN107220603A (zh) 基于深度学习的车辆检测方法及装置
CN110176024B (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
CN107689157B (zh) 基于深度学习的交通路口可通行道路规划方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN104517095A (zh) 一种基于深度图像的人头分割方法
CN106127812A (zh) 一种基于视频监控的客运站非出入口区域的客流统计方法
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法
CN110516512B (zh) 行人属性分析模型的训练方法、行人属性识别方法及装置
CN109255382A (zh) 用于图片匹配定位的神经网络***,方法及装置
Madani et al. A human-like visual-attention-based artificial vision system for wildland firefighting assistance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190101

WD01 Invention patent application deemed withdrawn after publication