CN113158901A - 一种域自适应行人重识别方法 - Google Patents

一种域自适应行人重识别方法 Download PDF

Info

Publication number
CN113158901A
CN113158901A CN202110437973.1A CN202110437973A CN113158901A CN 113158901 A CN113158901 A CN 113158901A CN 202110437973 A CN202110437973 A CN 202110437973A CN 113158901 A CN113158901 A CN 113158901A
Authority
CN
China
Prior art keywords
foreground
background
network
module
pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110437973.1A
Other languages
English (en)
Other versions
CN113158901B (zh
Inventor
雷建军
秦天一
彭勃
张哲�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110437973.1A priority Critical patent/CN113158901B/zh
Publication of CN113158901A publication Critical patent/CN113158901A/zh
Application granted granted Critical
Publication of CN113158901B publication Critical patent/CN113158901B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种域自适应行人重识别方法,所述方法包括:构建前景‑背景联合聚类网络,所述前景‑背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性;使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别,提高了识别的精度。

Description

一种域自适应行人重识别方法
技术领域
本发明涉及行人重识别、计算机视觉领域,尤其涉及一种域自适应行人重识别方法。
背景技术
作为计算机视觉领域的热点研究任务之一,行人重识别能够在海量监控数据中检索特定人员,目前已广泛应用于智能监控、智慧城市等领域。近年来,随着大量监控摄像头的部署,海量的无标记视频数据随之产生。然而,利用源域(数据集)有标记的行人数据集训练的模型,在应用到包含大量无标记样本的目标域(数据集)时,性能会因为域差异的存在而明显下降。为了解决这一问题,需要研究域自适应行人重识别方法,以有效将源域的预训练模型适配到目标域。
域自适应行人重识别方法可主要分为基于生成的方法,基于域对齐的方法和基于伪标签的方法等。作为当前性能更优的域自适应行人重识别方法,基于伪标签的方法通常在源域中使用有标记样本对网络进行预训练,然后在目标域利用聚类等方式生成的样本伪标签,进一步在目标域精炼预训练模型。在基于伪标签的方法中,Fu等人提出了一种自相似性分组方法,通过利用提取特征的潜在相似性来设计从全局到局部的多个聚类单元。Zhao等人提出了一种新的交互学习方法,通过两分支网络的交互学习来减少生成伪标签的噪声。尽管现有方法已经实现了较好的性能,但如何进一步降低域差异以获得更高的性能提升,仍然存在很多挑战。
此外,源域和目标域之间的背景通常存在较为明显的差异。尽管在源域预训练的模型能够从源域样本中提取具有区分性的前景特征,但将模型应用于目标域样本时,由于背景引发的域差异的存在,模型无法有效区分目标样本中的前景与背景区域。为进一步降低域差异,可以有效利用前景与背景区域之间的互斥性,在提取目标域样本的背景特征的同时,帮助模型获得具有更少背景扰动的前景特征,进而提升域自适应行人重识别的性能。
因此,以基于伪标签的域自适应行人重识别方法为依托,通过所设计的网络减轻背景对前景特征的影响,探索域自适应行人重识别方法具有重要的研究意义及研究价值。
发明内容
为了有效降低源域与目标域间的域差异,并充分挖掘目标域无标记样本中的潜在隐藏信息,本发明提出了一种域自适应行人重识别方法,利用双分支的网络分别提取目标域样本的前景信息及背景信息,在背景信息的引导下进一步优化样本的前景特征,从而实现准确的行人重识别,详见下文描述:
一种域自适应行人重识别方法,所述方法包括:
构建前景-背景联合聚类网络,所述前景-背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;
在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;
利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性,
使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别。
其中,所述前景背景特征提取模块包括:两分支的残差卷积神经网络,
前景特征提取网络利用残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同;
前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征及背景特征分别关注样本的不同特征区域。
进一步地,所述特征聚类模块包括:以前景-背景特征提取模块的两分支特征作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签及背景特征对应的l类背景伪标签。
其中,所述基于注意力的特征分离模块包括:前景通道注意力子模块和背景通道注意力子模块,
所述前景通道注意力子模块由池化层、全连接层及激活层组成:
Figure BDA0003033916010000021
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数。
进一步地,所述背景通道注意力子模块和前景通道注意力子模块保持互补关系。
在一种实现方式中,所述分离损失为:
Figure BDA0003033916010000022
其中,||·||2表示L2距离。
本发明提供的技术方案的有益效果是:
1、本发明设计了一种域自适应的行人重识别方法,该方法能够通过区分背景和前景来有效增强行人特征,并提升跨域行人重识别任务的性能;
2、本方法提出了一种前景背景联合聚类模块,两分支的网络结构通过聚类分别生成行人伪标签及背景伪标签,以提取目标域样本可区分的前景和背景特征;
3、为进一步分离前景和背景的特征,本方法设计了一个基于注意力的特征分离模块,以减少背景信息对前景行人特征的干扰;
4、本发明采用的分离损失函数能够有效约束网络提取得到的前景和背景特征,在提高样本特征可分度的同时,有利于行人重识别算法性能的提高。
附图说明
图1为一种域自适应行人重识别方法的流程图;
图2为一种域自适应行人重识别方法目标域训练网络结构图;
图3为不同方法在Market1501到DukeMTMC-ReID数据集的跨域任务上的可视化结果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种域自适应行人重识别方法,参见图1,该方法包括以下步骤:
一、构建前景-背景联合聚类网络
其中,前景-背景联合聚类网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块。
(1)前景背景特征提取模块包括:两分支的残差卷积神经网络。前景特征提取网络利用总计50层的4个残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同,利用总计50层的4个残差块以提取样本的背景特征表示。前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征F+及背景特征F-分别关注样本的不同特征区域。
其中,残差卷积神经网络为本领域技术人员所公知,本发明实施例对此不做赘述。
(2)特征聚类模块以前景-背景特征提取模块的两分支特征F+及F-作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签Yk及背景特征对应的l类背景伪标签Zl
(3)分类模块分别利用全连接层C+及C-将前景-背景特征提取模块输出的前景行人特征F+和背景特征F-表示分别映射为k维和l维向量,这两个向量的维度分别与聚类算法所生成行人伪标签类别数k和背景特征类别数l保持一致。
二、构建基于注意力的特征分离模块
基于注意力的特征分离模块包括:实例正则化层及通道注意力模块。该模块被设计于上述前景背景特征提取模块的各残差块后,共计4个。该模块旨在区分前景背景特征,以确保前背景联合聚类网络提取的伪标签分别能有效表征行人和背景类别。
该模块输入为第i个残差块所提取的前景特征
Figure BDA0003033916010000041
及背景特征
Figure BDA0003033916010000042
经过实例正则化层分别得到正则化后的特征
Figure BDA0003033916010000043
Figure BDA0003033916010000044
Figure BDA0003033916010000045
其中,μ(·)及σ(·)分别表示均值和标准差的运算,γ及β为跟随网络更新的两个超参数。
此后,将实例正则化层处理后的特征分别经过不同的通道注意力模块,提取特征中更重要的关注区域。
其中,前景通道注意力子模块由池化层、全连接层及激活层组成:
Figure BDA0003033916010000046
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示两个不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数。
考虑到样本图像中前景和背景区域之间的互斥性,背景通道注意力子模块和前景通道注意力子模块保持互补关系:
Figure BDA0003033916010000047
其中,Sub(·)表示像素级的减法运算。此后,基于注意力的特征分离模块对于两分支的输出特征分别表示为:
Figure BDA0003033916010000048
Figure BDA0003033916010000051
其中,
Figure BDA0003033916010000052
为输出的前景特征,
Figure BDA0003033916010000053
为输出的背景特征,⊙表示像素级的乘法运算。
三、设计基于损失函数的网络更新机制
(1)两分支网络分别进行参数更新
为了分别优化前景-背景特征提取模块得到的前景特征和背景特征,利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程。
具体来说,分类模块得到的前景分类结果
Figure BDA0003033916010000054
及背景聚类结果
Figure BDA0003033916010000055
分别受前景行人聚类伪标签Yk和背景聚类伪标签Zl的约束,以计算分类损失。所设计的分类损失为:
Figure BDA0003033916010000056
Figure BDA0003033916010000057
其中,N为输入的样本数,Lce为交叉熵损失。
同时,将与输入样本相同伪标记的样本Fi,p视为正样本,而将具有不同伪标记的样本Fi,n视为负样本。为了进一步优化提取得到的特征,分别计算三元组损失,以最大化负样本与基准样本的距离,并最小化正样本与基准样本的距离。所设计的三元组损失为:
Figure BDA0003033916010000058
Figure BDA0003033916010000059
其中,||·||2表示L2距离,m为阈值,在本发明实施例中将m设置为0.5。
(2)两分支网络联合更新
为了有效地分离前景和背景特征以鼓励网络的两分支关注不重叠的区域,引入分离损失以最小化两分支所提取的特征间的相似性,以降低由于错误关注的背景区域对前景特征的干扰。分离损失可表示为:
Figure BDA00030339160100000510
其中,||·||2表示L2距离。
(3)设计参数更新选择策略。网络训练的每个迭代过程前均通过聚类模块进行一次聚类结果(即伪标签)的更新。在网络优化的过程中,聚类结果(伪标签)也会随之更新,进而可以提取到更准确的特征。
四、有监督的源域网络预训练
在源域预训练过程中,网络结构包括:前景背景联合聚类模块、特征聚类模块、分类模块及基于注意力的特征分离模块。
损失函数包括上述分类损失及三元组损失。在该训练阶段,网络输入为源域的有标记样本,并在损失函数的约束下进行有监督的训练。该阶段的总损失函数可以表示为:
Figure BDA0003033916010000061
五、无监督的目标域网络模型优化
在目标域优化过程中,网络结构包括:前景背景联合聚类模块、特征聚类模块、分类模块,以及基于注意力的特征分离模块。损失函数包括分类损失、三元组损失,以及特征分离损失。在该训练阶段,网络输入为目标域的无标记样本,使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别。该阶段的总损失函数可以表示为:
Figure BDA0003033916010000062
其中,λ为分离损失的权重系数。在本发明实施例中,λ设置为200。
本发明实施例提出的方法在公开数据集Market1501到公开数据集DukeMTMC-ReID的跨域任务中进行了实验。实验结果表明,所提出的方法优于先进的行人重识别方法LOMO和SPGAN。图3展示了本发明实施例提出的方法与LOMO和SPGAN在评价指标“首位命中率”和“平均精度均值”上的对比结果,两个评价指标的数值越小,代表方法性能越好。
其中,上述方法LOMO、SPGAN,Market1501、DukeMTMC-ReID数据集以及评价指标首位命中率、平均精度均值皆为本领域技术人员所公知,本发明实施例对此不做赘述。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种域自适应行人重识别方法,其特征在于,所述方法包括:
构建前景-背景联合聚类网络,所述网络包括:前景背景特征提取模块、特征聚类模块、以及分类模块;
在前景背景特征提取模块的各残差块后构建基于注意力的特征分离模块,用于区分前景背景特征,确保前景背景特征提取模块所输出的特征表示能分别有效表征行人和背景类别;
利用特征聚类模块得到的聚类结果分别监督网络两分支的学习过程,引入分离损失以最小化两分支所提取的特征间的相似性;
使用源域预训练好的模型对网络参数进行初始化,采用无监督的方式优化网络模型,以实现域自适应的行人重识别。
2.根据权利要求1所述的一种域自适应行人重识别方法,其特征在于,所述前景背景特征提取模块包括:两分支的残差卷积神经网络,
前景特征提取网络利用残差块以提取样本的前景行人特征表示,背景特征提取网络结构与前景网络相同;
前景特征提取网络与背景特征提取网络结构对称但互不共享参数,旨在使两分支网络提取到的前景特征及背景特征分别关注样本的不同特征区域。
3.根据权利要求1所述的一种域自适应行人重识别方法,其特征在于,所述特征聚类模块包括:以前景-背景特征提取模块的两分支特征作为输入,通过对两分支特征分别利用聚类算法以得到前景特征对应的k类行人伪标签及背景特征对应的l类背景伪标签。
4.根据权利要求1所述的一种域自适应行人重识别方法,其特征在于,所述基于注意力的特征分离模块包括:前景通道注意力子模块和背景通道注意力子模块,
所述前景通道注意力子模块由池化层、全连接层及激活层组成:
Figure FDA0003033915000000011
其中,pool(·)表示池化层,W1(·)及W2(·)分别表示不同的全连接层的权重,ReLU(·)表示ReLU激活函数,sigmoid(·)表示sigmoid激活函数。
5.根据权利要求1所述的一种域自适应行人重识别方法,其特征在于,所述背景通道注意力子模块和前景通道注意力子模块保持互补关系。
6.根据权利要求1所述的一种域自适应行人重识别方法,其特征在于,所述分离损失为:
Figure FDA0003033915000000021
其中,||·||2表示L2距离。
CN202110437973.1A 2021-04-22 2021-04-22 一种域自适应行人重识别方法 Active CN113158901B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110437973.1A CN113158901B (zh) 2021-04-22 2021-04-22 一种域自适应行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110437973.1A CN113158901B (zh) 2021-04-22 2021-04-22 一种域自适应行人重识别方法

Publications (2)

Publication Number Publication Date
CN113158901A true CN113158901A (zh) 2021-07-23
CN113158901B CN113158901B (zh) 2023-04-07

Family

ID=76869606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110437973.1A Active CN113158901B (zh) 2021-04-22 2021-04-22 一种域自适应行人重识别方法

Country Status (1)

Country Link
CN (1) CN113158901B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011440A (zh) * 2021-03-19 2021-06-22 中联煤层气有限责任公司 一种煤层气井井场监控重识别技术

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321813A (zh) * 2019-06-18 2019-10-11 南京信息工程大学 基于行人分割的跨域行人重识别方法
CN111008992A (zh) * 2019-11-28 2020-04-14 驭势科技(南京)有限公司 目标跟踪方法、装置和***及存储介质
CN111179440A (zh) * 2020-01-02 2020-05-19 哈尔滨工业大学 一种面向自然场景的三维物体模型检索方法
CN111489372A (zh) * 2020-03-11 2020-08-04 天津大学 基于级联卷积神经网络的视频前背景分离方法
CN111666851A (zh) * 2020-05-28 2020-09-15 大连理工大学 一种基于多粒度标签的交叉域自适应行人重识别方法
CN111783753A (zh) * 2020-09-04 2020-10-16 中国科学院自动化研究所 基于语义一致水平条和前景修正的行人重识别方法
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法
CN111860678A (zh) * 2020-07-29 2020-10-30 中国矿业大学 一种基于聚类的无监督跨域行人重识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321813A (zh) * 2019-06-18 2019-10-11 南京信息工程大学 基于行人分割的跨域行人重识别方法
CN111008992A (zh) * 2019-11-28 2020-04-14 驭势科技(南京)有限公司 目标跟踪方法、装置和***及存储介质
CN111179440A (zh) * 2020-01-02 2020-05-19 哈尔滨工业大学 一种面向自然场景的三维物体模型检索方法
CN111489372A (zh) * 2020-03-11 2020-08-04 天津大学 基于级联卷积神经网络的视频前背景分离方法
CN111666851A (zh) * 2020-05-28 2020-09-15 大连理工大学 一种基于多粒度标签的交叉域自适应行人重识别方法
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法
CN111860678A (zh) * 2020-07-29 2020-10-30 中国矿业大学 一种基于聚类的无监督跨域行人重识别方法
CN111783753A (zh) * 2020-09-04 2020-10-16 中国科学院自动化研究所 基于语义一致水平条和前景修正的行人重识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JIANJUN LEI 等: "Person Re-Identification by Semantic Region Representation and Topology Constraint", 《ARXIV:1808.06280V1 [CS.CV]》 *
LE AN 等: "Multi-Level Common Space Learning for Person Re-Identification", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
张宝华 等: "软多标签和深度特征融合的无监督行人重识别", 《光电工程》 *
祁 磊 等: "弱监督场景下的行人重识别研究综述", 《软件学报》 *
陶冶等: "基于光流优化的堆叠Unet背景建模神经网络", 《计算机应用研究》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011440A (zh) * 2021-03-19 2021-06-22 中联煤层气有限责任公司 一种煤层气井井场监控重识别技术
CN113011440B (zh) * 2021-03-19 2023-11-28 中联煤层气有限责任公司 一种煤层气井井场监控重识别技术

Also Published As

Publication number Publication date
CN113158901B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110956185B (zh) 一种图像显著目标的检测方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN107506712B (zh) 一种基于3d深度卷积网络的人类行为识别的方法
Wang et al. A deep neural network with spatial pooling (DNNSP) for 3-D point cloud classification
CN112069940B (zh) 一种基于分阶段特征学习的跨域行人重识别方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111339849A (zh) 一种融合行人属性的行人重识别的方法
Zuo et al. HF-FCN: Hierarchically fused fully convolutional network for robust building extraction
CN111695531B (zh) 一种基于异构卷积网络的跨域行人再识别方法
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及***
CN116798070A (zh) 一种基于光谱感知和注意力机制的跨模态行人重识别方法
CN115457082A (zh) 一种基于多特征融合增强的行人多目标跟踪算法
CN113158901B (zh) 一种域自适应行人重识别方法
Wen et al. Semantic segmentation using a GAN and a weakly supervised method based on deep transfer learning
Qin et al. Application of video scene semantic recognition technology in smart video
Rao et al. Roads detection of aerial image with FCN-CRF model
Hao et al. Research on image semantic segmentation based on FCN-VGG and pyramid pooling module
CN112396126A (zh) 一种基于检测主干与局部特征优化的目标检测方法及***
Ai et al. Improve SegNet with feature pyramid for road scene parsing
Choudhury et al. Detection of One-horned Rhino from Green Environment Background using Deep Learning
Zhang A Fine‐Grained Image Classification and Detection Method Based on Convolutional Neural Network Fused with Attention Mechanism
Talebi et al. Nonparametric scene parsing in the images of buildings
CN114387623B (zh) 一种基于多粒度块特征的无监督行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant