CN109740480A - 一种监控场景下的基于非机动车再识别的行人检索方法 - Google Patents

一种监控场景下的基于非机动车再识别的行人检索方法 Download PDF

Info

Publication number
CN109740480A
CN109740480A CN201811598250.4A CN201811598250A CN109740480A CN 109740480 A CN109740480 A CN 109740480A CN 201811598250 A CN201811598250 A CN 201811598250A CN 109740480 A CN109740480 A CN 109740480A
Authority
CN
China
Prior art keywords
picture
pedestrian
motor vehicle
monitoring scene
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811598250.4A
Other languages
English (en)
Inventor
尚凌辉
张兆生
王弘玥
李红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Original Assignee
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd filed Critical ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority to CN201811598250.4A priority Critical patent/CN109740480A/zh
Publication of CN109740480A publication Critical patent/CN109740480A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种监控场景下的基于非机动车再识别的行人检索方法。本发明首先进行建模,包括数据采集,训练样本制作和模型训练。其中数据采集包括从监控场景获取原始视频、截取相同行人视频片段和抽帧、标框。训练样本制作包括抠图、扩边和对图片进行编号。在得到训练完的模型后便可以进行行人检索,包括将监控场景中数据库的所有图片和将待检索的非机动车图像输入至模型中得到多维的特征向量;计算特征向量的差异,得到多个数值;对数值进行排序,取排在前几位的结果,由办案人员进行最终确定是否为同一个行人。本发明数据来源更实际、且数据形式更统一,同时还提供一些候选图像,再经过人工筛选,使得检索结果更加准确。

Description

一种监控场景下的基于非机动车再识别的行人检索方法
技术领域
本发明属于计算机视觉技术领域,涉及一种监控场景下的基于非机动车再识别的行人检索方法。
背景技术
进入大数据时代,面对日益普及的视频监控技术,如何从海量图像或视频中快速地检索到出特定人员变得越来越重要。而对目前的监控场景来说,尤其是交通监控,有相当多的摄像头由于架设高度、位置、图像分辨率等因素的影响,获取高质量的用于检索的图像数据是非常困难的。
相反地,这些监控场景架设的摄像头中出现的目标中有很大一部分是非机动车,包含自行车、电瓶车等。同时,这些监控场景对基于非机动车再识别的行人检索方法的需求也变得日益迫切,比如在“飞抢”案件中、入室盗窃后作案嫌疑人乘坐非机动车逃离现场等需求场景,就需要从监控视频中快速地检索出嫌疑人。目前采用的技术还是人工来对可能经过的每个摄像头的视频进行查看,所耗费的人力、物力资源是很大的。因此需要一个基于非机动车再识别的行人检索方法来辅助办案人员,提高检索效率。
目前的行人检索方法主要建立在行人再识别方法上,比如专利[CN106960182A]集成不同的特征来增加特征的表现能力,从而提高行人检索性能。然而,由于监控场景中摄像头架设问题,获取高质量行人数据很困难;同时,单纯的行人数据中只有行人,与人驾驶非机动车的数据有很大的不同,无法采用行人再识别的技术来很好地解决监控场景下的行人检索问题。
目前的行人检索主要借助基于行人再识别的方法来从海量数据中检索出特定人员,有两个不足:
1、数据来源受限:对监控场景来说,目前的摄像头基本都架设于主干道路的上方用来抓取机动车辆与非机动车辆,由于摄像头高度、角度、分辨率等的影响,很难获取到满足行人检索的图像数据,而由于单纯的行人数据很难获取,会带来两个问题:
1-1、缺少数据,将会使得基于行人再识别的行人检索方法性能不够鲁棒,无法为办案人员提供有效的筛选结果。
1-2、在进行检索时,由于数据库中的行人图像非常少,绝大多数是非机动车与机动车图像。而单纯的行人图像与驾驶非机动车的行人图像,在特征表达上有很大的不同,这会进一步降低基于行人再识别的行人检索性能。
2、面对日益增加的视频监控需求,目前尚没有针对非机动车再识别的行人检索方法,而在诸如“飞抢”等案件中,需要将驾驶非机动车的人检索出来。
针对以上存在的问题,需要提出新的基于非机动车再识别的行人检索方法,使得此方法能够满足现在视频监控场景的需求。
发明内容
对于基于行人再识别的行人检索方法来说,由于采用了端到端的深度学习策略,需要大量的行人数据,而目前监控场景中摄像头的架设不利于行人数据的采集;同时,采用行人数据学习到的模型只能用来对人进行识别,无法对人驾驶非机动车这种情况进行识别。而对目前监控场景的需求来说,更多的是需要对驾驶非机动车的行人进行检索。
针对这个问题,本发明提出了一个新的基于非机动车再识别的行人检索方法,对训练样本的采集、制作、训练以及行人检索进行设计,从而使得行人检索方法最终能够达到视频监控场景的需求。
本发明包括以下步骤:
建立非机动车再识别模型,具体是:
一.数据采集
A1、从监控场景获取原始视频:根据摄像头的分布位置找到可能有同一目标同时经过若干摄像头的场景,采集这些摄像头的监控视频。
A2、截取相同行人视频片段:对每个摄像头一个小时的视频片段进行播放、查找,从这些个摄像头中找到相同的行人,一旦找到,则将行人从出现到离开这段时间内的视频截取出来保存为视频片段。
A3、抽帧、标框:对得到的视频片段进行抽帧,将视频片段保存为图片,然后对得到的图片进行标注,将出现的相同行人用矩形框进行标注,将图片与矩形框标注文件进行存储。
二.训练样本制作
B1、抠图:根据得到的图片与矩形框标注文件,将矩形框对应的行人抠出来保存为图片。
B2、扩边:经过抠图之后,得到紧致包围行人的图片。
B3、编号:对得到的行人图片进行编号。
三.训练模型
模型采用14层的卷积网络、全连接层与Softmax损失函数。
行人检索,具体是:
C1、将监控场景中数据库的所有图片作为输入送入训练好的模型,每张图片会得到一个M维的特征向量。
C2、将待检索的非机动车图像送入训练好的模型,得到一个M维的特征向量。
C3、采用如下公式计算由步骤C2得到的特征向量与由步骤C1得到的Z个特征向量的差异,得到Z个数值:
这里qj表示由步骤C2得到的M维特征的第j个分量;gij表示数据库中第i张图片得到M维特征的第j个分量;di表示待检索的图片与数据库中第i张图片的特征差异,i∈[0,Z],j∈[0,M]。
C4、对由步骤C3得到的Z个数值进行升序排序并保留其排序前的索引,取排在前几位的结果,将索引所对应的图片进行显示,由办案人员进行最终确定是否为同一个行人。
本发明的有益效果:
1、数据来源更实际:采用的数据来源为目前监控场景中已有的摄像头,无需再另行架设摄像头,极大的降低了成本。
2、数据形式更统一:训练数据与最终检索时用到的图像数据一致,均为人驾驶非机动车,这会使的方法的检索成功率更高
3、方法可信性更高:本检索方法提供一些候选图像,然后再经过人工筛选,使得检索结果更加准确。
附图说明
图1.摄像头排布示意图;
图2.矩形框标注不同摄像头中的同一个人;
图3.抠图后及扩边后结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他的实施例,都属于本发明保护的范围。
由于无法采用现有的基于行人再识别技术的行人检索方法来进行监控场景下的行人检索,因此本发明设计了一个新的基于非机动车再识别的行人检索方法,包含四个部分:数据采集、训练样本制作、网络训练以及行人检索。
一.数据采集
当使用深度学习进行端到端的非机动车再识别模型训练时,需要大量标注好的训练数据,因此采集训练数据是第一步,包括以下几个步骤:
1、从监控场景获取原始视频:根据摄像头的分布位置找到可能有同一目标同时经过若干摄像头的场景,采集这些摄像头的监控视频。假设当前采集场景有三个摄像头A、B、C,每个摄像头各采集一天的视频片段。
2、截取相同行人视频片段:对A、B、C三个摄像头一个小时的视频片段进行播放、查找,从这三个摄像头中找到相同的行人,一旦找到,则将行人从出现到离开这段时间内的视频截取出来保存为视频片段
3、抽帧、标框:对2得到的视频片段进行抽帧,将视频片段保存为图片,然后对得到的图片进行标注,将出现的相同行人用矩形框进行标注,将图片与矩形框标注文件进行存储。
二.训练样本制作
经过第一部分数据采集之后,假设得到了1000个不同行人的图片集合,接下来要制作训练样本,包括以下几个步骤:
1、抠图:根据第一部分第3步得到的图片与矩形框标注文件,将矩形框对应的行人抠出来保存为图片。
2、扩边:经过第1步抠图之后,得到了紧致包围行人的图片。为了使网络学习到更加鲁棒的特征,需要对样本进行旋转等数据增广操作,旋转之后的图片比输入图片要大,通常的做法是进行补零。补零之后,图片内容发生的变化,与原图片信息有较大差异,为了解决这个问题,对抠好的图片进行扩边,使得扩边之后的图片中含有一部分背景,这样在进行旋转等增广操作后,图片中保留的仍是原图的信息。
3、编号:对1000个行人图片进行编号,比如第一个行人在A摄像头的第一张图片编号为00000_A_1,同一个摄像头下的第二张图片编号为00000_A_2;B摄像头中第一个行人的第一张图片编号为00000_B_1;C摄像头中第一个行人的第三张图片编号为00000_C_3;第二个行人在A摄像头的第一张图片编号为00001_A_1;以此类推,将1000个行人的图片均进行编号。
三.训练
经过第一、二两部分的准备,训练样本已经准备完毕,将这些制作好的样本作为模型的输入进行学习:
1、模型:采用14层的卷积网络、全连接层与Softmax损失函数,分为以下四个部分:
1-1、卷积参数为:128*3*3*32,128*3*3*64,其中128是一次输入图片的个数,3*3是卷积核的大小,32与64是输出特征图的个数,本部分包含2个128*3*3*32的卷积层,每个卷积层后面跟一个批归一化层(Batch Normalization Layer),最后跟一个2*2的最大池化层(Max Pooling Layer)。
1-2、卷积参数为:128*3*3*128,其中128是一次输入图片的个数,3*3是卷积核的大小,128是输出特征图的个数,本部分包含3个128*3*3*128的卷积层,每个卷积层后面跟一个批归一化层(Batch Normalization Layer),最后跟一个2*2的最大池化层(MaxPooling Layer)。
1-3、卷积参数为:128*3*3*256,其中128是一次输入图片的个数,3*3是卷积核的大小,256是输出特征图的个数,本部分包含4个128*3*3*256的卷积层,每个卷积层后面跟一个批归一化层(Batch Normalization Layer),最后跟一个2*2的最大池化层(MaxPooling Layer)。
1-4、卷积参数为:128*3*3*M,其中128是一次输入图片的个数,3*3是卷积核的大小,M是输出特征图的个数,本部分包含5个128*3*3*M的卷积层,每个卷积层后面跟一个批归一化层(Batch Normalization Layer),最后跟一个全局池化层(Global PoolingLayer),输出为128*1*1*M,这里的M是模型最终采用的特征长度。
1-5、全连接层,假设训练样本有5000个不同的行人,则此全连接层的分类数为5000。
1-6、损失函数:采用如下所示的多分类Softmax损失函数:
这里N表示训练样本总数。
2、数据增广:为了使训练得到的模型具有更好的泛华性能,需要进行数据增广,采用旋转、镜像、平移、随机裁剪、高斯噪音、颜色空间扰动这些数据增广操作。
四.行人检索
经过上述三部分的工作,已经得到训练好的模型,执行以下步骤来进行行人检索:
1-1、将监控场景中数据库的所有图片作为输入送入训练好的模型,每张图片会得到一个M维的特征向量,假设数据库中有10000张图片,则会得到10000个M维的特征向量。
1-2、将待检索的非机动车图像送入训练好的模型,得到一个M维的特征向量。
1-3、采用如下公式计算由1-2得到的特征向量与由1-1得到的10000个特征向量的差异,会得到10000个数值:
这里qj表示由2得到的M维特征的第j个分量;gij表示数据库中第i张图片得到M维特征的第j个分量;di表示待检索的图片与数据库中第i张图片的特征差异,i∈[0,10000],j∈[0,M]。
1-4、对由3得到的10000个数值进行升序排序并保留其排序前的索引,取排在前5的结果,假设它们排序前的索引分别是10、55、125、561、7845,则将数据库中的编号为10、55、125、561、7845的这些图片进行显示,由办案人员进行最终确定是否为同一个行人。
实施例:
例如,当某地发生“飞抢”案件时,首先调取案发地监控,截取作案人员图片,然后在监控数据库中进行查找,可以迅速地在其它摄像头中找到目标嫌疑人,从而可以描绘出其逃跑路线,为破案提供非常有利的线索。
数据采集:
假设有如图1所标的四个摄像头1,2,3,4,可以看到同一目标可能会同时经过这四个摄像头,将这四个摄像头的视频数据进行采集,通常采集一天的即可。
将这四个摄像头中的同一个人从出现到离开的视频片段保存下来。
对截取到的视频片段进行抽帧、标框,得到图2的结果:
样本制作:
1、根据标注框,将目标从大图中抠出来。
2、对抠出的图片进行扩充,以方便数据增广,见图3,从图片边界可以看出扩边前后的差别。
3、对所有图片进行编号,比如00000_A_1.jpg,00001_B_2.jpg等训练:
将制作好的训练样本作为网络的输入进行训练,得到训练好的模型,在训练的同时要进行数据增广来增加模型的泛华能力,采用的增广操作有旋转、镜像、平移、随机裁剪、高斯噪音、颜色空间扰动。
行人检索
在得到训练好的模型之后,对输入的待检索的图片与数据库中的所有图片都提取特征向量,然后计算待检索图片特征与数据库中所有图片特征的差值进行升序排序,取排在前5的图片并将它们在排序前的索引对应的图片作为候选给办案人员进行人工筛选来确认最终检索到的行人。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应当理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。

Claims (5)

1.一种监控场景下的基于非机动车再识别的行人检索方法,其特征在于该方法包括以下步骤:
建立非机动车再识别模型,具体是:
一.数据采集
A1、从监控场景获取原始视频:根据摄像头的分布位置找到可能有同一目标同时经过若干摄像头的场景,采集这些摄像头的监控视频;
A2、截取相同行人视频片段:对每个摄像头一个小时的视频片段进行播放、查找,从这些个摄像头中找到相同的行人,一旦找到,则将行人从出现到离开这段时间内的视频截取出来保存为视频片段;
A3、抽帧、标框:对得到的视频片段进行抽帧,将视频片段保存为图片,然后对得到的图片进行标注,将出现的相同行人用矩形框进行标注,将图片与矩形框标注文件进行存储;
二.训练样本制作
B1、抠图:根据得到的图片与矩形框标注文件,将矩形框对应的行人抠出来保存为图片;
B2、扩边:经过抠图之后,得到紧致包围行人的图片;
B3、编号:对得到的行人图片进行编号;
三.训练模型
模型采用14层的卷积网络、全连接层与Softmax损失函数;
行人检索,具体是:
C1、将监控场景中数据库的所有图片作为输入送入训练好的模型,每张图片会得到一个M维的特征向量;
C2、将待检索的非机动车图像送入训练好的模型,得到一个M维的特征向量;
C3、采用如下公式计算由步骤C2得到的特征向量与由步骤C1得到的Z个特征向量的差异,得到Z个数值:
这里qj表示由步骤C2得到的M维特征的第j个分量;gij表示数据库中第i张图片得到M维特征的第j个分量;di表示待检索的图片与数据库中第i张图片的特征差异,i∈[0,Z],j∈[0,M];
C4、对由步骤C3得到的Z个数值进行升序排序并保留其排序前的索引,取排在前几位的结果,将索引所对应的图片进行显示,由办案人员进行最终确定是否为同一个行人。
2.根据权利要求1所述的一种监控场景下的基于非机动车再识别的行人检索方法,其特征在于:步骤B2中为了使网络学习到更加鲁棒的特征,对图片进行旋转并补零。
3.根据权利要求3所述的一种监控场景下的基于非机动车再识别的行人检索方法,其特征在于:补零之后,对抠好的图片进行扩边,使得扩边之后的图片中含有一部分背景,这样在进行图片旋转后,图片中保留的仍是原图的信息。
4.根据权利要求1所述的一种监控场景下的基于非机动车再识别的行人检索方法,其特征在于:
所述的非机动车再识别模型的结构如下:
卷积参数为:128*3*3*32,128*3*3*64,其中128是一次输入图片的个数,3*3是卷积核的大小,32与64是输出特征图的个数,本部分包含2个128*3*3*32的卷积层,每个卷积层后面跟一个批归一化层,最后跟一个2*2的最大池化层;
卷积参数为:128*3*3*128,其中128是一次输入图片的个数,3*3是卷积核的大小,128是输出特征图的个数,本部分包含3个128*3*3*128的卷积层,每个卷积层后面跟一个批归一化层,最后跟一个2*2的最大池化层;
卷积参数为:128*3*3*256,其中128是一次输入图片的个数,3*3是卷积核的大小,256是输出特征图的个数,本部分包含4个128*3*3*256的卷积层,每个卷积层后面跟一个批归一化层,最后跟一个2*2的最大池化层;
卷积参数为:128*3*3*M,其中128是一次输入图片的个数,3*3是卷积核的大小,M是输出特征图的个数,本部分包含5个128*3*3*M的卷积层,每个卷积层后面跟一个批归一化层,最后跟一个全局池化层,输出为128*1*1*M,这里的M是模型最终采用的特征长度;
全连接层:假设训练样本有Q个不同的行人,则此全连接层的分类数为Q;
损失函数:采用多分类Softmax损失函数。
5.根据权利要求1所述的一种监控场景下的基于非机动车再识别的行人检索方法,其特征在于:为了使训练得到的模型具有更好的泛华性能,需要进行数据增广,采用旋转、镜像、平移、随机裁剪、高斯噪音、颜色空间扰动进行增广操作。
CN201811598250.4A 2018-12-26 2018-12-26 一种监控场景下的基于非机动车再识别的行人检索方法 Pending CN109740480A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811598250.4A CN109740480A (zh) 2018-12-26 2018-12-26 一种监控场景下的基于非机动车再识别的行人检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811598250.4A CN109740480A (zh) 2018-12-26 2018-12-26 一种监控场景下的基于非机动车再识别的行人检索方法

Publications (1)

Publication Number Publication Date
CN109740480A true CN109740480A (zh) 2019-05-10

Family

ID=66359934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811598250.4A Pending CN109740480A (zh) 2018-12-26 2018-12-26 一种监控场景下的基于非机动车再识别的行人检索方法

Country Status (1)

Country Link
CN (1) CN109740480A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826449A (zh) * 2019-10-30 2020-02-21 杭州叙简科技股份有限公司 基于轻量型卷积神经网络的非机动车再识别目标检索方法
CN111898475A (zh) * 2020-07-10 2020-11-06 浙江大华技术股份有限公司 非机动车的状态估计方法及装置、存储介质、电子装置
CN112686087A (zh) * 2019-10-20 2021-04-20 广东毓秀科技有限公司 基于开源state-of-the-art的行人重识别方法
CN112949539A (zh) * 2021-03-16 2021-06-11 安徽领云物联科技有限公司 一种基于摄像头位置的行人重识别交互检索方法及***
CN115580721A (zh) * 2022-11-18 2023-01-06 南方电网数字电网研究院有限公司 变电站设备监控视频的质量检测方法、装置、设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN106778464A (zh) * 2016-11-09 2017-05-31 深圳市深网视界科技有限公司 一种基于深度学习的行人重识别方法和装置
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
CN108491884A (zh) * 2018-03-27 2018-09-04 中山大学 基于轻量级网络的行人再识别***及实现方法
CN108921140A (zh) * 2018-08-07 2018-11-30 安徽云森物联网科技有限公司 行人再识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN106778464A (zh) * 2016-11-09 2017-05-31 深圳市深网视界科技有限公司 一种基于深度学习的行人重识别方法和装置
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法
CN107862300A (zh) * 2017-11-29 2018-03-30 东华大学 一种基于卷积神经网络的监控场景下行人属性识别方法
CN108491884A (zh) * 2018-03-27 2018-09-04 中山大学 基于轻量级网络的行人再识别***及实现方法
CN108921140A (zh) * 2018-08-07 2018-11-30 安徽云森物联网科技有限公司 行人再识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GMHAPPY: "行人重识别(ReID)-数据集描述Market-1501", 《CSDN》 *
曹立宇等: "一种基于BNN的行人再识别方法", 《信息技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686087A (zh) * 2019-10-20 2021-04-20 广东毓秀科技有限公司 基于开源state-of-the-art的行人重识别方法
CN110826449A (zh) * 2019-10-30 2020-02-21 杭州叙简科技股份有限公司 基于轻量型卷积神经网络的非机动车再识别目标检索方法
CN111898475A (zh) * 2020-07-10 2020-11-06 浙江大华技术股份有限公司 非机动车的状态估计方法及装置、存储介质、电子装置
CN112949539A (zh) * 2021-03-16 2021-06-11 安徽领云物联科技有限公司 一种基于摄像头位置的行人重识别交互检索方法及***
CN115580721A (zh) * 2022-11-18 2023-01-06 南方电网数字电网研究院有限公司 变电站设备监控视频的质量检测方法、装置、设备和介质
CN115580721B (zh) * 2022-11-18 2023-03-31 南方电网数字电网研究院有限公司 变电站设备监控视频的质量检测方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
CN109740480A (zh) 一种监控场景下的基于非机动车再识别的行人检索方法
CN101911098B (zh) 根据图像和位置识别图像环境
CN102207966B (zh) 基于对象标签的视频内容快速检索方法
RU2608261C2 (ru) Автоматическое генерирование тега на основании содержания изображения
CN110516586A (zh) 一种人脸图像聚类方法、***、产品及介质
CN110070066A (zh) 一种基于姿态关键帧的视频行人重识别方法及***
Zhu et al. Multi-drone-based single object tracking with agent sharing network
CN103530638B (zh) 多摄像头下的行人匹配方法
CN109241349A (zh) 一种基于深度学习的监控视频多目标分类检索方法及***
CN102209975A (zh) 从眼睛图像获取关注区域和/或认知信息的方法
CN102880729A (zh) 基于人脸检测与识别的人物图片索引方法及装置
CN109376580B (zh) 一种基于深度学习的电力塔架部件识别方法
CN112507853B (zh) 一种基于互注意力机制的跨模态行人重识别方法
CN103853794B (zh) 一种基于部件关联的行人检索方法
CN108764018A (zh) 一种基于卷积神经网络的多任务车辆再识别方法及装置
CN110516707A (zh) 一种图像标注方法及其装置、存储介质
CN114972506B (zh) 一种基于深度学习和街景图像的图像定位方法
Singh et al. Animal localization in camera-trap images with complex backgrounds
Sambolek et al. Person detection in drone imagery
CN106777350B (zh) 一种基于卡口数据的以图搜图方法和装置
CN107704509A (zh) 一种联合稳定区域与深度学习的重排序方法
Zhang et al. Tracking small and fast moving objects: A benchmark
Pultar Improving the hardnet descriptor
CN117292176A (zh) 一种架空输电线路关键部件及缺陷的检测方法
Divecha et al. Large-scale geolocalization of overhead imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190510

WD01 Invention patent application deemed withdrawn after publication