CN115100591A - 基于联合学习的多目标跟踪与目标重识别***及方法 - Google Patents
基于联合学习的多目标跟踪与目标重识别***及方法 Download PDFInfo
- Publication number
- CN115100591A CN115100591A CN202210692213.XA CN202210692213A CN115100591A CN 115100591 A CN115100591 A CN 115100591A CN 202210692213 A CN202210692213 A CN 202210692213A CN 115100591 A CN115100591 A CN 115100591A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- pedestrian
- identification
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012544 monitoring process Methods 0.000 claims description 76
- 238000000605 extraction Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000012806 monitoring device Methods 0.000 claims 2
- 238000010276 construction Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006872 improvement Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
基于联合学***台上实现多目标跟踪,并在某一嵌入式设备出现感兴趣目标行人时,提取该目标的跟踪模型并将跟踪模型传输到监控中心,监控中心通过有线/无线网络将该跟踪模型发送至其他嵌入式平台。本发明同时提出了改进的多目标跟踪与跨域行人重识别模型,能够大幅减小模型的算法复杂度,提高多目标跟踪与行人重识别方法的实时性。
Description
技术领域
本发明涉及图像识别领域。
背景技术
随着小型化监控设备的不断普及以及嵌入式设备算力的不断进步与发展,绝大部分城市的街道、小区,以及各类人员密集的活动场所的视频监控***已经十分完善,城市视频监控***的应用潜力可以说十分强大且有待发掘,无论是后疫情时代下的人员流量监控,还是智能驾驶领域发展不可或缺的视觉***,都需要对视频信息进行高效的在线处理。目前已有一些基于图像的多目标跟踪与行人重识别方法,根据采集的图像对其中的人物进行跟踪,但是目前的多目标跟踪与跨域重识别的方法复杂度高,导致跨域重识别的实时性较差,不适合进行大规模跨域跟踪。
发明内容
本发明是为了解决现有多目标跟踪与跨域行人重识别方法存在实时性要求的问题,从而提供一种基于联合学习的多目标跟踪与目标重识别***及方法。
基于联合学习的多目标跟踪与目标重识别***,它包括监控中心、M个监控摄像头和M个嵌入式设备,所述M为正整数;
所述M个监控摄像头分布设置在待监控区域;
每个所述监控摄像头均用于采集其所在待监控的区域的图像信息;
每个所述嵌入式设备内分别嵌入改进的多目标跟踪与跨域行人重识别模型,每个所述嵌入式设备均用于处理其所在监控摄像头采集到的图像数据,所述M个嵌入式设备分别嵌入所述M个监控摄像头中,每个所述嵌入式设备还用于将嵌入式设备处理后的对应监控摄像头的目标跟踪与跨域行人重识别数据通过有线网络或无线网络发送给其它M-1个嵌入式设备;
所述改进的多目标跟踪与跨域行人重识别模型是利用Ghost模块对现有多目标跟踪与跨域行人重识别模型的主干网络进行了轻量化的再设计和构建获得的。
联合学习的多目标跟踪与目标重识别方法,在一个时间周期下,它包括以下步骤:
步骤一、将已标记不同编号的M个监控摄像头分别采集待监控的区域的图像信息;获得M张监控摄像头采集图像;
步骤二、每个监控摄像头分别通过所述监控摄像头内的嵌入式设备中内嵌入的改进的多目标跟踪与跨域行人重识别模型对步骤一获得的M张监控摄像头采集图像进行处理,获得处理后的M张监控摄像头数据;M个监控摄像头中的某一监控摄像头对感兴趣行人目标利用改进的多目标跟踪与跨域行人重识别模型提取跟踪图像数据,获得处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据。
步骤三、步骤二中所述的监控摄像头将步骤二获得的该处理后的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据通过有线网络或无线网络发送给监控中心;
步骤四、监控中心接收步骤三发送的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据,并将该处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据通过有线网络或无线网络向其它M-1个嵌入式设备发送;
步骤五、每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配,若未找出符合要求的跟踪目标的图像数据,则结束当前次联合学习的多目标跟踪与目标重识别,若找出符合要求的跟踪目标的图像数据,则并将找到的目标位置信息通过有线网络或无线网络传递回监控中心,完成一次基于联合学习的多目标跟踪与目标重识别。
进一步地,步骤五中每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配的具体方法是:
步骤五一、每个其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,首先对自身拍摄画面数据进行缩放与灰度填充,并根据改进的多目标跟踪与跨域行人重识别模型对画面中的行人进行语义特征提取,并对提取的语义特征进行二范数归一化处理,平衡特征维度。
步骤五二、对步骤五一进行二范数归一化处理后的语义特征,将其与监控中心通过有线/网络或无线网络发来的处理后的跟踪模型进行多级匹配,具体操作为:将归一化后的语义特征与发来的跟踪模型特征进行余弦距离计算,利用余弦距离构建代价矩阵,进行多级匹配,并在最后进行置信度由高到低排列,记录置信度最高的行人作为匹配结果进行输出。
本发明获得的有益效果:本发明提出一种基于联合学***台上实现多目标跟踪,并在某一嵌入式设备出现感兴趣目标行人时,提取该目标的跟踪模型并将跟踪模型传输到监控中心,监控中心通过有线/无线网络将该跟踪模型发送至其他嵌入式平台。本发明同时提出了改进的多目标跟踪模型与行人重识别模型,能够大幅减小模型的算法复杂度,提高多目标跟踪与行人重识别方法的实时性。
附图说明
图1是本发明所述改进的多目标跟踪模型与行人重识别模型的网络结构示意图;
图2是本发明所述的特征提取的结果示意图;
图3是本发明所述的多级匹配流程示意图;
图4是本发明中改进的多目标跟踪与跨域行人重识别模型的改进前网络预测结构示意图;
图5是本发明中改进的多目标跟踪与跨域行人重识别模型的改进后网络预测结构示意图;
图6是本发明中改进的多目标跟踪与跨域行人重识别模型的主干网络示意图;
图7是本发明中改进的多目标跟踪与跨域行人重识别模型的整体结构示意图;
具体实施方式
结合图1至图7说明本实施方式,基于联合学习的多目标跟踪与目标重识别***,它包括监控中心、M个监控摄像头和M个嵌入式设备,所述M为正整数;
所述M个监控摄像头分布设置在待监控区域;
每个所述监控摄像头均用于采集其所在待监控的区域的图像信息;
每个所述嵌入式设备内分别嵌入改进的多目标跟踪与跨域行人重识别模型,每个所述嵌入式设备均用于处理其所在监控摄像头采集到的图像数据,所述M个嵌入式设备分别嵌入所述M个监控摄像头中,每个所述嵌入式设备还用于将嵌入式设备处理后的对应监控摄像头的目标跟踪与跨域行人重识别数据通过有线网络或无线网络发送给其它M-1个嵌入式设备;
所述改进的多目标跟踪与跨域行人重识别模型是利用Ghost模块对现有多目标跟踪与跨域行人重识别模型的主干网络进行了轻量化的再设计和构建获得的。
具体实施方式二、联合学习的多目标跟踪与目标重识别方法,在一个时间周期下,它包括以下步骤:
步骤一、将已标记不同编号的M个监控摄像头分别采集待监控的区域的图像信息;获得M张监控摄像头采集图像;
步骤二、每个监控摄像头分别通过所述监控摄像头内的嵌入式设备中内嵌入的改进的多目标跟踪与跨域行人重识别模型对步骤一获得的M张监控摄像头采集图像进行处理,获得处理后的M张监控摄像头数据;M个监控摄像头中的某一监控摄像头对感兴趣行人目标利用改进的多目标跟踪与跨域行人重识别模型提取跟踪图像数据,获得处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据。步骤二的具体方法是:
利用M个嵌入式设备对步骤一获得的M张监控摄像头采集图像进行按比例的缩放大小与图像维度的调整,然后采用改进的多目标跟踪模型提取行人的浅层纹理特征与深层语义特征,形成带有行人像素位置信息与深度语义信息的输出视频流;将所述带有行人像素位置信息与深度语义信息的输出视频流,作为处理后的监控摄像头数据。M个监控摄像头中的某一监控摄像头对感兴趣行人目标利用改进的行人重识别算法提取跟踪模型,作为处理后的跟踪模型。
步骤三、步骤二中所述的监控摄像头将步骤二获得的该处理后的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据通过有线网络或无线网络发送给监控中心;
步骤四、监控中心接收步骤三发送的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据,并将该处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据通过有线网络或无线网络向其它M-1个嵌入式设备发送;
步骤五、每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配,若未找出符合要求的跟踪目标的图像数据,则结束当前次联合学习的多目标跟踪与目标重识别,若找出符合要求的跟踪目标的图像数据,则并将找到的目标位置信息通过有线网络或无线网络传递回监控中心,完成一次基于联合学习的多目标跟踪与目标重识别。
进一步地,步骤五中每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配的具体方法是:
步骤五一、每个其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,首先对自身拍摄画面数据进行缩放与灰度填充,并根据改进的多目标跟踪与跨域行人重识别模型对画面中的行人进行语义特征提取,并对提取的语义特征进行二范数归一化处理,平衡特征维度。
步骤五二、对步骤五一进行二范数归一化处理后的语义特征,将其与监控中心通过有线/网络或无线网络发来的处理后的跟踪模型进行多级匹配,具体操作为:将归一化后的语义特征与发来的跟踪模型特征进行余弦距离计算,利用余弦距离构建代价矩阵,进行多级匹配,并在最后进行置信度由高到低排列,记录置信度最高的行人作为匹配结果进行输出。
以下详细描述本发明的工作原理:
基于联合学习的多目标跟踪与目标重识别方法与其硬件***,其工作方式包括以下步骤:
步骤一、基于分布式监控的主干特征提取与特征融合网络:
①改进的多目标跟踪与改进的跨域行人重识别模型,利用Ghost模块对主干网络进行了轻量化的再设计和构建,改进的主干特征提取网络结构如表1所示
表1改进后的主干特征提取网络结构
②利用深度可分离卷积块改进特征金字塔结构,加深网络深度,改进的特征金字塔的网络结构如图1所示;
原始多目标跟踪与行人重识别模型的主干特征提取部分由Darknet53网络与平均池化层组成,这里利用Ghost模块对主干网络进行了轻量化的再设计和构建,修剪网络中的权值连接,减少模型参数,利用改进的多目标跟踪与改进的行人重识别模型从视频流中提取目标特征,特征提取的结果如图2所示;
③此外,为证明改进模型的有效性,除对改进算法进行指标测试外,还将多种其他轻量化网络模型与改进前的特征提取模型Darknet53网络,进行了相同测试集下的指标对比,以证明提出的改进算法的优异表现,三种不同的网络模型的对比分别如表2、表3、表4所示,表3为Densenet121作为网络模型的指标表现、表4为Darknet-Tiny作为网络模型的指标表现,表5为Darknet53作为网络模型的指标表现:可见改进后的联合模型在多目标跟踪功能上的各项指标表现均优于其他两种轻量级的网络模型Densenet121与Darknet-Tiny,这得益于Ghost模块的加入与特征融合阶段深度可分离卷积模块对网络深度的加深,而对比改进之前过于精细冗余的Darknet53网络,各项指标虽有轻微下降,但处理帧率却提升了4倍,模型大小压缩1/10。可见改进后的算法能力提升较为明显。
表2改进后算法指标测试
表3 Densenet121指标测试
表4 Darknet-Tiny指标测试
表5 Darknet53指标测试
步骤二、基于分布式监控的数据传输:
从监控摄像头(搭载的嵌入式设备)到监控中心传输视频流,分为两种情况,第一种为有线直连和无线直连;第二种为采用无线自组网的方式进行连接,下面对两种情况分别说明:
第一种为监控摄像头(搭载的嵌入式设备)和监控中心通过有线或者无线的方式直连,可以直接通信传输视频流数据;
第二种为监控摄像头(搭载的嵌入式设备)和监控中心通过无线自组网的方式连接,即不是每个监控摄像头(搭载的嵌入式设备)都可直接与监控中心通信时,采用无线自组网路由协议建立每个监控摄像头(搭载的嵌入式设备)到监控中心的路由,以多跳方式将骨骼模型由监控摄像头(搭载的嵌入式设备)传输到监控中心,相应的步骤如下:
①每个监控摄像头处的嵌入式设备搭载无线网卡,用于数据传输;
②配置无线网卡,使其工作在AD-HOC模式下;
③采用无线自组网路由协议建立每个监控摄像头(搭载的嵌入式设备)到监控中心的路由,采用最优链路状态路由协议(OLSR)进行自组网,在每个监控摄像头处的嵌入式设备上和监控中心处配置OLSR协议。每个节点均运行OLSR协议,通过无线自组网实现了监控摄像头(搭载的嵌入式设备)到监控中心视频流的多跳传输。
步骤三、基于改进的多目标跟踪与改进的行人重识别模型的跨域多级匹配算法:
①实现跨域多级匹配算法,需要对上述改进的多目标跟踪与改进的行人重识别模型的预测网络部分进行进一步修改,如图4所示,首先将预测网络输出的特征维度设置为512维,之后连接一个全连接层,输出预测的类别,输出的结果用来计算ID-Loss,即预测网络的输出被分为两部分,第一部分通过分类损失训练检测框获得正样本和负样本分类,和检测框的位置回归偏移量;第二部分用于将特征维度扩展为14455的全连接层输出,以获得精确的预测结果。其次增加以下两方面修改来适应行人检测:
1.根据数量、比例和长宽比重新设计检测框,以适应目标。根据前期目标检测经验,目标框的长宽比设置为1:3,检测框模板的数量设置为12,使得每个尺度特征图上A =4。
2.用于前景/背景分类的双重阈值优化。通过可视化分析,确定交并比IOU>0.5为前景,IOU<0.4为背景,优化的双重阈值可以有效抑制误报与虚报。
②修改改进的多目标跟踪与改进的行人重识别模型的损失函数,利用联合学习的方案对三种损失函数进行加权,根据任务相关的不确定性进行损失函数权重的自动学习,可将联合目标表达为各尺度、各要素的权重线性损失之和,如下式:
搜索其余两个独立的损失权重以获得最佳性能。
③基于上述模型,设计了跨域多级匹配算法,使用多级级联计分制策略。具体流程如图3所示。在跨域行人检索时,对当前帧所有行人检测框提取特征,将提取后的特征与目标行人特征进行余弦距离计算,利用余弦距离构建代价矩阵,计算关联代价矩阵C和其阈值B。解决目标关联问题具体流程:将目前处于跟踪态的行人与丢失态的行人集合作为关联的备选项,加入丢失态的行人集合是为了应对临时遮挡问题,删除门限值设置为150帧(视频中体现为5秒),若跟踪行人连续5秒没有出现在当前画面中,就将当前行人标记为删除态,从丢失态集合中去除;多级匹配算法优先选择截至当前帧已连续30帧出现的行人优先进行匹配,首先设置距离门限,将可能的行人ID全部加入备选列表,并根据距离为备选行人ID进行分级计分,然后将距离门限降低为,对距离的限制逐渐严苛,对于依旧符合条件的行人ID进行计分,然后再次降低距离门限为进行匹配,跟踪态的行人全部匹配计算完成后,对丢失态的行人按照同样的步骤进行匹配,区别在于对于丢失态的轨迹,计分分值较小,具体匹配策略与跟踪态轨迹相同,然后对两份备选轨迹进行置信度(计分)由高到低排列,得出置信度最高的轨迹行人ID作为匹配结果进行输出。最后,对每一帧图像循环以上步骤,直至匹配结束。
为证明改进模型的有效性,对改进算法进行指标测试,并将多种其他轻量化网络模型与改进前的特征提取模型Darknet53网络,进行了相同测试集下的行人重识别指标对比,三种不同的网络模型的对比分别如表7、表8、表9所示,表7为Densenet121作为特征提取网络的指标表现、表8为Darknet-Tiny作为特征提取网络的指标表现,表9为Darknet53作为特征提取网络的指标表现。
通过比对可以看出改进后的模型,在行人重识别功能的各项指标上表现均优于其他两种轻量级的网络模型Densenet121与Darknet-Tiny,IDF1仅下降0.008,IDR下降了0.017,IDP提升了0.007,但处理帧率却提升了4倍,模型大小压缩1/10。可见改进后的算法能力提升较为明显。
表6改进后算法指标
表7 Densenet121算法指标
表8 Darknet-Tiny算法指标
表9 Darknet53算法指标
步骤四、监控中心显示的跨域跟踪位置信息
①监控中心接收到嵌入式设备发来的跟踪模型,立即通过有线/无线传输将该跟踪模型发送至其他嵌入式终端进行跨域跟踪。
②其他终端如果根据该跟踪模型多级匹配到相关行人,则将该行人位置信息与监控所拍摄到的图像发送回监控中心,实现对目标行人的跨域跟踪。
Claims (5)
1.基于联合学习的多目标跟踪与目标重识别***,其特征是:它包括监控中心、M个监控摄像头和M个嵌入式设备,所述M为正整数;
所述M个监控摄像头分布设置在待监控区域;
每个所述监控摄像头均用于采集其所在待监控的区域的图像信息;
每个所述嵌入式设备内分别嵌入改进的多目标跟踪与跨域行人重识别模型,每个所述嵌入式设备均用于处理其所在监控摄像头采集到的图像数据,所述M个嵌入式设备分别嵌入所述M个监控摄像头中,每个所述嵌入式设备还用于将嵌入式设备处理后的对应监控摄像头的目标跟踪与跨域行人重识别数据通过有线网络或无线网络发送给其它M-1个嵌入式设备;
所述改进的多目标跟踪与跨域行人重识别模型是利用Ghost模块对现有多目标跟踪与跨域行人重识别模型的主干网络进行了轻量化的再设计和构建获得的。
2.根据权利要求1所述的基于联合学习的多目标跟踪与目标重识别***,其特征在于监控中心采用PC机或服务器实现。
3.根据权利要求1所述的基于联合学习的多目标跟踪与目标重识别***,其特征在于每个监控摄像头均是固定式监控装置或移动式监控装置。
4.基于权利要求1的联合学习的多目标跟踪与目标重识别方法,其特征是:在一个时间周期下,它包括以下步骤:
步骤一、将已标记不同编号的M个监控摄像头分别采集待监控的区域的图像信息;获得M张监控摄像头采集图像;
步骤二、每个监控摄像头分别通过所述监控摄像头内的嵌入式设备中内嵌入的改进的多目标跟踪与跨域行人重识别模型对步骤一获得的M张监控摄像头采集图像进行处理,获得处理后的M张监控摄像头数据;M个监控摄像头中的某一监控摄像头对感兴趣行人目标利用改进的多目标跟踪与跨域行人重识别模型提取跟踪图像数据,获得处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据。
步骤三、步骤二中所述的监控摄像头将步骤二获得的该处理后的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据通过有线网络或无线网络发送给监控中心;
步骤四、监控中心接收步骤三发送的处理后的感兴趣行人目标的跟踪与跨域行人重识别模型数据,并将该处理后的感兴趣行人目标的跟踪与跨域行人重识别图像数据通过有线网络或无线网络向其他M-1个嵌入式设备发送;
步骤五、每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配,若未找出符合要求的跟踪目标的图像数据,则结束当前次联合学习的多目标跟踪与目标重识别,若找出符合要求的跟踪目标的图像数据,则并将找到的目标位置信息通过有线网络或无线网络传递回监控中心,完成一次基于联合学习的多目标跟踪与目标重识别。
5.根据权利要求4所述的联合学习的多目标跟踪与目标重识别方法,其特征在于步骤五、每个所述其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,将其与自身监控范围内检测到的行人进行特征匹配的具体方法是:
步骤五一、每个其他嵌入式设备接收到步骤四跟踪与跨域行人重识别图像数据后,首先对自身拍摄画面数据进行缩放与灰度填充,并根据改进的多目标跟踪与跨域行人重识别模型对画面中的行人进行语义特征提取,并对提取的语义特征进行二范数归一化处理,平衡特征维度。
步骤五二、对步骤五一进行二范数归一化处理后的语义特征,将其与监控中心通过有线/网络或无线网络发来的处理后的跟踪模型进行多级匹配,具体操作为:将归一化后的语义特征与发来的跟踪模型特征进行余弦距离计算,利用余弦距离构建代价矩阵,进行多级匹配,并在最后进行置信度由高到低排列,记录置信度最高的行人作为匹配结果进行输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210692213.XA CN115100591A (zh) | 2022-06-17 | 2022-06-17 | 基于联合学习的多目标跟踪与目标重识别***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210692213.XA CN115100591A (zh) | 2022-06-17 | 2022-06-17 | 基于联合学习的多目标跟踪与目标重识别***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115100591A true CN115100591A (zh) | 2022-09-23 |
Family
ID=83291511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210692213.XA Pending CN115100591A (zh) | 2022-06-17 | 2022-06-17 | 基于联合学习的多目标跟踪与目标重识别***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100591A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104284150A (zh) * | 2014-09-23 | 2015-01-14 | 同济大学 | 基于道路交通监控的智能摄像头自主协同跟踪方法及其监控*** |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN111126360A (zh) * | 2019-11-15 | 2020-05-08 | 西安电子科技大学 | 基于无监督联合多损失模型的跨域行人重识别方法 |
CN112102372A (zh) * | 2020-09-16 | 2020-12-18 | 上海麦图信息科技有限公司 | 一种针对机场地面对象的跨摄像头轨迹跟踪*** |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN113065495A (zh) * | 2021-04-13 | 2021-07-02 | 深圳技术大学 | 图像相似度的计算方法、目标对象重识别方法及*** |
CN114240997A (zh) * | 2021-11-16 | 2022-03-25 | 南京云牛智能科技有限公司 | 一种智慧楼宇在线跨摄像头多目标追踪方法 |
-
2022
- 2022-06-17 CN CN202210692213.XA patent/CN115100591A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104284150A (zh) * | 2014-09-23 | 2015-01-14 | 同济大学 | 基于道路交通监控的智能摄像头自主协同跟踪方法及其监控*** |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN111126360A (zh) * | 2019-11-15 | 2020-05-08 | 西安电子科技大学 | 基于无监督联合多损失模型的跨域行人重识别方法 |
CN112102372A (zh) * | 2020-09-16 | 2020-12-18 | 上海麦图信息科技有限公司 | 一种针对机场地面对象的跨摄像头轨迹跟踪*** |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN113065495A (zh) * | 2021-04-13 | 2021-07-02 | 深圳技术大学 | 图像相似度的计算方法、目标对象重识别方法及*** |
CN114240997A (zh) * | 2021-11-16 | 2022-03-25 | 南京云牛智能科技有限公司 | 一种智慧楼宇在线跨摄像头多目标追踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539370B (zh) | 一种基于多注意力联合学习的图像行人重识别方法和*** | |
CN103679674B (zh) | 一种无人飞行器实时图像拼接方法及*** | |
CN110188611A (zh) | 一种引入视觉注意力机制的行人重识别方法及*** | |
CN112487862B (zh) | 基于改进EfficientDet模型的车库行人检测方法 | |
CN110322453A (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN111161317A (zh) | 一种基于多重网络的单目标跟踪方法 | |
CN112990077B (zh) | 基于联合学习与光流估计的面部动作单元识别方法及装置 | |
CN104794219A (zh) | 一种基于地理位置信息的场景检索方法 | |
CN111323024B (zh) | 定位方法及装置、设备、存储介质 | |
CN108229435B (zh) | 一种用于行人识别的方法 | |
CN112863186B (zh) | 一种基于车载无人机的逃逸车辆快速识别和追踪方法 | |
CN114241464A (zh) | 基于深度学习的跨视角影像实时匹配地理定位方法及*** | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN113505719B (zh) | 基于局部-整体联合知识蒸馏算法的步态识别模型压缩***及方法 | |
CN107066635A (zh) | 一种基于图像对比识别的建筑信息导览的方法和*** | |
CN116222577B (zh) | 闭环检测方法、训练方法、***、电子设备及存储介质 | |
CN116258817A (zh) | 一种基于多视图三维重建的自动驾驶数字孪生场景构建方法和*** | |
CN111160356A (zh) | 一种图像分割分类方法和装置 | |
CN111008979A (zh) | 一种鲁棒的夜晚图像语义分割方法 | |
CN113762039A (zh) | 一种交通标志牌的信息匹配方法及相关装置 | |
CN115713546A (zh) | 移动终端设备用的轻量化目标跟踪算法 | |
CN113269099B (zh) | 基于图匹配的异构无人***下车辆重新识别方法 | |
CN114445691A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN113936019A (zh) | 一种基于卷积神经网络技术的大田作物产量估算方法 | |
CN113160250A (zh) | 一种基于ads-b位置先验的机场场面监控视频目标分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |