CN111008618A - 一种自注意力深度学习端到端的行人再识别方法 - Google Patents
一种自注意力深度学习端到端的行人再识别方法 Download PDFInfo
- Publication number
- CN111008618A CN111008618A CN202010016162.XA CN202010016162A CN111008618A CN 111008618 A CN111008618 A CN 111008618A CN 202010016162 A CN202010016162 A CN 202010016162A CN 111008618 A CN111008618 A CN 111008618A
- Authority
- CN
- China
- Prior art keywords
- feature
- self
- attention
- image
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种自注意力深度学习端到端的行人再识别方法,涉及机器学习与模式识别技术领域,用于提升行人再识别的性能,包括以下步骤:1)以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;2)在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;3)融合自注意力特征与深度特征,产生更具辨识力的图像特征;4)以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型。
Description
技术领域
本发明涉及机器学习与模式识别技术领域,具体涉及一种自注意力深度学习端到端的行人再识别方法。
背景技术
行人再识别,作为一种重要的智能视频分析技术,对跨摄像头行人目标追踪、行人行为分析等具有重要的研究价值。行人再识别,即是跨多个摄像头识别具有相同身份的行人图像。跨摄像头行人图像常常面临复杂的背景杂乱、光照变化、严重遮挡、显著的姿态变化等,因此对行人再识别的研究极具挑战性。
从原始行人图像中提取更具辨识力和鲁棒性的特征,是行人再识别的重要研究任务之一。随着深度学习技术的发展,深度特征提取已成为行人再识别技术研究的主流。卷积神经网络(CNN)作为深度学习研究的典型模型,采用了卷积层、池化层以及全连接层,并且利用反向传播算法计算误差用于调整网络参数。然而,摄像机视角和行人姿态的变化会引起跨摄像头行人图像间不可控的误对齐问题,导致难于学习一个更具辨识力和鲁棒性的特征模型,以应对跨摄像头复杂的场景变化。
发明内容
本发明的目的在于克服上述现有技术的缺陷,将深度学习、自注意力学习和多任务学习相结合,提出一种自注意力深度学习端到端的行人再识别方法。此方法能够在有限样本标注条件下,获取更具辨识力和鲁棒性的优选特征模型,更好地克服了跨摄像头复杂的场景变化给行人外观带来的影响,具有较优的行人再识别性能。
按照本发明所采用的技术方案,所述自注意力深度学习端到端的行人再识别方法包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征;
步骤4,以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。
具体的,步骤1中所述Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。
具体的,Resnet50深度网络由5组卷积层组成,包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
具体的,步骤2中基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的特征向量,通过训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像的多个可辨识的局部图像区域;
所述自注意力特征的计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组图像的特征图不同区域的自注意力特征。
具体的,步骤3中,应用步骤2获取的三元组图像的自注意力特征,与一个尺度因子相乘后,再与步骤1所述的Resnet50深度网络提取的三元组图像的深度特征进行融合,获取三元组图像融合特征。
具体的,步骤4中,由多分类任务的损失函数和验证任务的损失函数两部分组成多任务学***方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学习中。
具体的,所述平方层的定义用公式表示如下:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),ya,yp,yn分别表示三元组图像中锚图像、正例图像、负例图像的融合特征。
本发明的有益效果如下:
1、本发明借助多个自注意力模型,获取输入图像多个局部区域的自注意力特征,用于表示行人图像的多处细节信息,有助于解决跨摄像机行人图像相应位置特征未对齐问题。
2、本发明结合深度学习、自注意力学习和多任务学习,在有限样本标注条件下,能够提取行人图像更具辨识力和鲁棒性的特征描述子。
附图说明
图1是本发明所述自注意力深度学习模型示意图。
图2是本发明所述Resnet50残差块结构示意图。
图3是本发明所述自注意力特征提取模型工作原理图。
图4是本发明所述的多任务学习模型工作原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚,以下结合附图和实施例对本发明进行进一步详细说明。
本发明的基本思路在于,提出一种自注意力深度学习端到端的行人再识别方法,其自注意力深度学习模型如图1所示。本发明利用已有训练样本,基于Resnet50深度网络和自注意力网络,学习自注意力深度特征。应用多任务损失函数,监督指导行人特征在网络中的学习,获取更具辨识力和鲁棒性的行人特征,提高行人再识别的辨识力和鲁棒性。
本发明提供的自注意力深度学习端到端的行人再识别方法包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征。三元组图像由锚图像、与锚图像身份相同的正例图像、与锚图像身份不同的负例图像共同构成。Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。Resnet50残差块结构如图2所示。本发明所采用的Resnet50深度网络由5组卷积层组成,具体包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征。自注意力特征提取模型如图3所示。基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的8*4网格细胞特征向量,分别用{xi,g}g=1,...,G表示全局深度特征,其中i=a,p,n分别表示锚图像、正例图像、负例图像,G=32表示网格细胞数,xi,g为D=2048维网格细胞向量。然后,基于三元组图像的全局深度特征{xi,g}g=1,...,G,训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像多个可辨识的局部区域。自注意力特征的具体计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组特征图不同区域的自注意力特征。
具体用公式表示如下:
步骤2.1,应用特征变换空间f∈(f1,f2,f3)进行特征的线性变换,用如下公式表示:
其中分别表示3个不同的特征变换空间f1,f2,f3对应的特征变换矩阵,使用1×1的卷积核进行不同尺度不同空间特征图的线性组合来实现特征的线性变换,通过整个网络的训练获取其相应的参数矩阵。为了减少模型的训练参数,降低特征空间的维度,设置xk,k=a,p,n分别表示锚图像、正例图像、负例图像的深度特征图。
步骤2.2,应用Re-LU激活函数对f1(xk)和f2(xk)进行非线性处理,获取特征变换响应ei,j,用如下公式表示:
ei,j=(max(f1(xk),0))T(max(f2(xk),0))
步骤2.3,对ei,j进行Softmax归一化,获取特征图第i个位置第j个区域的自注意力分数si,j,用如下公式表示:
步骤2.4,基于si,j和f3(xk),计算特征图第j个区域的自注意力特征oj,用如下公式表示:
基于所述自注意力特征的计算过程,获取三元组图像,即:锚图像、正例图像、负例图像的自注意力特征,分别用oa,op,on表示。
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征。应用步骤2所述的三元组图像的自注意力特征o∈(oa,op,on),与一个尺度因子α相乘后,再与步骤1所述的Resnet50深度网络提取的深度特征x∈(xa,xp,xn)进行融合,获取三元组融合特征y,用如下公式表示:
y=αo+x
其中y∈(ya,yp,yn),其中ya,yp,yn分别表示锚图像、正例图像、负例图像的融合特征。尺度因子α通过网络训练获取合适的参数,初始化为0。
步骤4,以多分类任务和验证任务的损失函数监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。多任务学***方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学***方层定义用如下公式表示:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),
对于多分类任务,选取Softmax函数作为全连接层的激活函数,全连接层的输出表示目标的预测概率,其输出维度取决于训练数据集中图像的身份标签数N。多分类任务交叉熵损失函数用如下公式表示:
多任务学习的损失函数用如下公式表示:
L=Lm+Lv。
Claims (7)
1.一种自注意力深度学习端到端的行人再识别方法,其特征在于,包括以下步骤:
步骤1,以三元组图像作为深度学习网络的输入数据,采用预先训练的Resnet50深度网络去除最后一层分类层提取图像的深度特征;
步骤2,在深度特征的基础上,通过自注意力网络,进一步获取自注意力特征;
步骤3,融合自注意力特征与深度特征,获取更具辨识力的图像特征;
步骤4,以多分类任务和验证任务的损失函数共同监督网络的训练,经过多次迭代不断地优化网络模型参数,从而获取用于行人再识别的优选模型,利用该模型进行行人再识别。
2.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤1中,所述Resnet50深度网络初始化采用大规模ImageNet图像集上已经训练好的Resnet50模型参数。
3.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤1中,Resnet50深度网络由5组卷积层组成,具体包括:
第1组卷积层由1个7×7卷积层组成,卷积层输出64个特征平面;
第2组卷积层由3个相同的Resnet50残差块组成,卷积层输出256个特征平面;
第3组卷积层由3个相同的Resnet50残差块组成,卷积层输出512个特征平面;
第4组卷积层由3个相同的Resnet50残差块组成,卷积层输出1024个特征平面;
第5组卷积层由3个相同的Resnet50残差块组成,卷积层输出2048个特征平面。
4.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤2中,基于所述的Resnet50深度网络,在三元组图像上分别提取锚图像、正例图像、负例图像的特征向量,通过训练多个自注意力模型,计算多个自注意力特征,用于定位输入图像的多个可辨识的局部图像区域;
所述自注意力特征的计算过程包含以下步骤:
步骤2.1,应用3个特征变换空间进行特征的线性变换,应用1×1的卷积核来实现;
步骤2.2,应用Re-LU激活函数对2个线性特征变换进行非线性处理,获取特征变换响应;
步骤2.3,对特征变换响应进行Softmax归一化,获取特征图不同区域的自注意力分数;
步骤2.4,基于不同区域的自注意力分数和第3个特征变换,计算三元组图像的特征图不同区域的自注意力特征。
5.根据权利要求1所述的自注意力深度学习端到端的行人再识别方法,其特征在于,步骤3中,应用步骤2获取的三元组图像的自注意力特征,与一个尺度因子相乘后,再与步骤1所述的Resnet50深度网络提取的三元组图像的深度特征进行融合,获取三元组图像融合特征。
6.根据权利要求1所述的自注意力深度学***方层,再经过全连接层,同样以交叉熵损失函数作为目标函数,用来决定两张输入图像是否属于相同身份,应用于验证任务学习中。
7.根据权利要求6所述的自注意力深度学***方层的定义用公式表示如下:
yij=(yi-yj)2
其中i≠j且yi,yj∈(ya,yp,yn),ya,yp,yn分别表示三元组图像中锚图像、正例图像、负例图像的融合特征。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911038607 | 2019-10-29 | ||
CN2019110386078 | 2019-10-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111008618A true CN111008618A (zh) | 2020-04-14 |
CN111008618B CN111008618B (zh) | 2023-03-31 |
Family
ID=70120614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010016162.XA Active CN111008618B (zh) | 2019-10-29 | 2020-01-07 | 一种自注意力深度学习端到端的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111008618B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582206A (zh) * | 2020-05-13 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 用于生成生物体姿态关键点信息的方法和装置 |
CN111798445A (zh) * | 2020-07-17 | 2020-10-20 | 北京大学口腔医院 | 一种基于卷积神经网络的牙齿图像龋坏识别方法及*** |
CN112149643A (zh) * | 2020-11-09 | 2020-12-29 | 西北工业大学 | 基于多级注意力机制的面向无人机平台的车辆重识别方法 |
CN113191386A (zh) * | 2021-03-26 | 2021-07-30 | 中国矿业大学 | 基于网格重构学习的染色体分类模型 |
CN113343909A (zh) * | 2021-06-29 | 2021-09-03 | 南京星云数字技术有限公司 | 多任务分类网络的训练方法、行人重识别方法 |
CN114155496A (zh) * | 2021-11-29 | 2022-03-08 | 西安烽火软件科技有限公司 | 一种基于自注意力的车辆属性多任务协同识别方法 |
US20220180132A1 (en) * | 2020-12-09 | 2022-06-09 | Tongji University | Cross-modality person re-identification method based on local information learning |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019010950A1 (zh) * | 2017-07-13 | 2019-01-17 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN109784197A (zh) * | 2018-12-21 | 2019-05-21 | 西北工业大学 | 基于孔洞卷积与注意力学习机制的行人再识别方法 |
CN110175527A (zh) * | 2019-04-29 | 2019-08-27 | 北京百度网讯科技有限公司 | 行人再识别方法及装置、计算机设备及可读介质 |
-
2020
- 2020-01-07 CN CN202010016162.XA patent/CN111008618B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019010950A1 (zh) * | 2017-07-13 | 2019-01-17 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN109784197A (zh) * | 2018-12-21 | 2019-05-21 | 西北工业大学 | 基于孔洞卷积与注意力学习机制的行人再识别方法 |
CN110175527A (zh) * | 2019-04-29 | 2019-08-27 | 北京百度网讯科技有限公司 | 行人再识别方法及装置、计算机设备及可读介质 |
Non-Patent Citations (1)
Title |
---|
王兴柱等: "三元组在非监督行人再识别中的应用", 《仪表技术》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582206B (zh) * | 2020-05-13 | 2023-08-22 | 抖音视界有限公司 | 用于生成生物体姿态关键点信息的方法和装置 |
CN111582206A (zh) * | 2020-05-13 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 用于生成生物体姿态关键点信息的方法和装置 |
CN111798445B (zh) * | 2020-07-17 | 2023-10-31 | 北京大学口腔医院 | 一种基于卷积神经网络的牙齿图像龋坏识别方法及*** |
CN111798445A (zh) * | 2020-07-17 | 2020-10-20 | 北京大学口腔医院 | 一种基于卷积神经网络的牙齿图像龋坏识别方法及*** |
CN112149643A (zh) * | 2020-11-09 | 2020-12-29 | 西北工业大学 | 基于多级注意力机制的面向无人机平台的车辆重识别方法 |
CN112149643B (zh) * | 2020-11-09 | 2022-02-22 | 西北工业大学 | 基于多级注意力机制的面向无人机平台的车辆重识别方法 |
US11836224B2 (en) * | 2020-12-09 | 2023-12-05 | Tongji University | Cross-modality person re-identification method based on local information learning |
US20220180132A1 (en) * | 2020-12-09 | 2022-06-09 | Tongji University | Cross-modality person re-identification method based on local information learning |
CN113191386A (zh) * | 2021-03-26 | 2021-07-30 | 中国矿业大学 | 基于网格重构学习的染色体分类模型 |
CN113191386B (zh) * | 2021-03-26 | 2023-11-03 | 中国矿业大学 | 基于网格重构学习的染色体分类模型 |
CN113343909B (zh) * | 2021-06-29 | 2023-09-26 | 南京星云数字技术有限公司 | 多任务分类网络的训练方法、行人重识别方法 |
CN113343909A (zh) * | 2021-06-29 | 2021-09-03 | 南京星云数字技术有限公司 | 多任务分类网络的训练方法、行人重识别方法 |
CN114155496A (zh) * | 2021-11-29 | 2022-03-08 | 西安烽火软件科技有限公司 | 一种基于自注意力的车辆属性多任务协同识别方法 |
CN114155496B (zh) * | 2021-11-29 | 2024-04-26 | 西安烽火软件科技有限公司 | 一种基于自注意力的车辆属性多任务协同识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111008618B (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111008618B (zh) | 一种自注意力深度学习端到端的行人再识别方法 | |
CN108960140B (zh) | 基于多区域特征提取和融合的行人再识别方法 | |
CN107506740B (zh) | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN112906720B (zh) | 基于图注意力网络的多标签图像识别方法 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
Xia et al. | Loop closure detection for visual SLAM using PCANet features | |
CN110717526A (zh) | 一种基于图卷积网络的无监督迁移学习方法 | |
CN111709311A (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN109325440B (zh) | 人体动作识别方法及*** | |
Tang et al. | Deep fishernet for object classification | |
CN110765960B (zh) | 一种自适应多任务深度学习的行人再识别方法 | |
CN113269224A (zh) | 一种场景图像分类方法、***及存储介质 | |
CN112686242A (zh) | 一种基于多层聚焦注意力网络的细粒度图像分类方法 | |
CN113920472A (zh) | 一种基于注意力机制的无监督目标重识别方法及*** | |
Singh et al. | Leaf identification using feature extraction and neural network | |
Zhao et al. | Cbph-net: A small object detector for behavior recognition in classroom scenarios | |
CN116649191A (zh) | 基于plc的远程施肥灌溉控制***及其方法 | |
CN114792430A (zh) | 基于极化自注意力的行人重识别方法、***及相关设备 | |
Kabir et al. | An evolution of CNN object classifiers on low-resolution images | |
CN113011506A (zh) | 一种基于深度重分形频谱网络的纹理图像分类方法 | |
CN117154256A (zh) | 锂电池的电化学修复方法 | |
Gakiza et al. | Human trafficking solution by deep learning with keras and OpenCV | |
CN113205545B (zh) | 区域环境下的行为识别分析方法、*** | |
Mery et al. | Deep learning in x-ray testing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |