CN109409250A - 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 - Google Patents
一种基于深度学习的无交叠视域跨摄像机行人再识别方法 Download PDFInfo
- Publication number
- CN109409250A CN109409250A CN201811168809.XA CN201811168809A CN109409250A CN 109409250 A CN109409250 A CN 109409250A CN 201811168809 A CN201811168809 A CN 201811168809A CN 109409250 A CN109409250 A CN 109409250A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- identified
- deep learning
- video camera
- recognition methods
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明属于行人再识别技术领域,具体涉及一种基于深度学习的非交叠视域跨摄像机行人再识别方法,其首先训练行人姿态模型、背景分割模型和特征提取模型,利用模型对监控视频网络的行人图片进行行人姿态过滤、背景去除和光照归一化的预处理后,再利用特征提取模型对行人的深层特征进行自动提取,最后通过特征匹配完成行人再识别。此方法利用深度学习网络模仿人脑的机制对行人深层特征进行理解,对光照、拍摄角度、尺度、行人姿态等变化因素具有更好的鲁棒性,可有效地实现行人再识别。
Description
技术领域
本发明属于行人再识别技术领域,具体涉及一种基于深度学习的无交叠视域跨摄像机行人再识别方法,主要用于公安派出所的办案过程视频监控。
背景技术
随着公安办案过程管理规范化及电子化趋势的发展和办案区视频监控网络的普及,民警在办案完成后,需要从办案区不同区域(如信息采集室、讯问室、侯问室等)的监控视频中,把同一嫌疑人在办案过程中的活动轨迹视频挑选出来形成案件视频记录。这种案件视频记录的生成需要处理海量的监控视频数据,现有的人工挑选方法耗费大量人力、物力以及时间,难以满足办案过程管理的需求。为了提高公安民警办案过程的工作效率,提出针对公安办案区开发一套***,其通过对嫌疑人活动轨迹的跟踪,实现视频的自动截取拼接。该***包括行人检测与行人再识别算法,本文主要是针对此应用场景开发一个行人再识别算法。
行人再识别技术利用一张给定的目标行人图像,通过视觉比对的方式,从非重叠视域的多个摄像机的视频图像中识别出目标行人。借助行人再识别技术,视频监控网络可实现多摄像机对特定行人的协同监控,完成不同场景下的摄像机拍摄的属于同一行人的视频片段的自动关联。现有的行人再识别技术主要通过提取行人衣着颜色、纹理等浅层特征进行相似性量度分析,完成行人再识别。此类方法缺陷较为明显,其容易受到公安派出所办案区监控摄像机的拍摄视角、尺度、环境光照、行人服饰、行人姿态、遮挡等变化因素的影响,导致行人再识别鲁棒性差,不能达到公安派出所对案宗视频自动截取生成的要求。
公开号为“CN104268583A”的发明提出了一种基于颜色区域特征的行人再识别方法,其容易受到环境光照的影响,且当目标行人的衣着颜色与其他行人的衣着颜色相似时,该方法容易将其他行人误识别为目标行人。
公开号为“CN106250870A”的发明专利提出了一种联合局部和全局相似性度量学习的行人再识别方法,其将3种颜色直方图特征和2种纹理直方图特征组成6种颜色纹理特征,联合局部和全局图像的6种颜色纹理特征,通过训练得到相似度度量矩阵,利用该矩阵度量待识别行人与目标行人的相似性,完成行人再识别。这种方法容易受到行人姿态和拍摄角度的影响,鲁棒性不足。
发明内容
本发明的目的是提出一种基于深度学习的无交叠视域跨摄像机行人再识别方法,以解决现有技术中选用对环境变化敏感的浅层特征对行人进行再识别,且未对行人图像进行有效的预处理,其识别效果容易受到光照、拍摄角度、尺度、行人姿态、遮挡等变化因素的影响,鲁棒性差,导致难以对行人进行准确地再识别的问题。
本发明通过以下技术方案实现:
一种基于深度学习的无交叠视域跨摄像机行人再识别方法,该方法分为模型训练阶段和行人再识别测试阶段,具体包括如下步骤:
(1)首先训练行人姿态模型、背景分割模型和特征提取模型;
(2)然后利用行人姿态模型对行人姿态进行过滤,获取包含有正面或背面的行人图像,利用背景分割模型对背景进行去除;
(3)利用特征提取模型对行人的深层特征进行自动提取;
(4)最后通过特征匹配完成行人再识别。
进一步地,所述的步骤(1)具体为,利用大量从非交叠视域的多场景视频中获取的行人图片样本集训练卷积神经网络,得到行人姿态模型、背景分割模型以及特征提取模型。
进一步地,所述的步骤(4)具体为,通过深层特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而完成行人再识别。
其中,模型训练阶段进一步包括步骤:
S1:从公安派出所办案区各个场景的监控视频中,收集各类场景各种角度下各姿态的行人图像,将其划分为训练集样本和测试样本;
S2:对S1收集的训练集样本的样本图像素点按照前景/背景的不同进行标准化命名和标注,得到每张行人样本图中各像素点的前景/背景类别,行程第一训练集样本;
S3:利用S2处理完成的第一训练集样本离线训练全卷积网络,得到背景分割模型;
S4:对S1收集的训练样本集根据行人姿态的类型进行标注和标准化命名,得到行人样本的所属姿态类别,形成第二训练集样本;
S5:利用S4处理完成的第二训练集样本离线训练AlexNet网络,得到行人姿态模型;
S6:从公安派出所办案区各个场景的监控视频中,收集各行人的多场景行人图像集合,利用S3得到的背景分割模型对其进行去背景处理和光照补偿处理后,将其作为第三训练集样本;
S7:利用S6处理完成的第三训练集样本离线训练卷积神经网络,得到特征提取模型。
优选的,所述的场景包括信息采集室、侯问室、讯问室以及进出通道。
其中,行人再识别测试阶段进一步包括步骤:
S8:从公安办案区监控视频录像中选取标准测试视频,选定目标行人图;
S9:输入S8选取的标准测试视频和目标行人图;
S10:对测试视频进行行人检测并进行跟踪;
S11:利用S5得到的行人姿态模型对S10得到的待识别行人图序列进行姿态处理,将经过姿态处理后的行人图导入待识别行人图库;
S12:利用对S3得到的背景分离模型对S11得到待识别行人图和S9输入的目标行人图进行去背景预处理;
S13:利用图像增强算法对S12得到的待识别行人图进行光照归一化处理。
进一步包括步骤:S14:利用S7得到的特征提取模型分别对目标行人图和S13预处理后的待识别行人图和目标行人图进行行人深层的特征提取。
进一步包括步骤:S15:对S14得到的两个512维特征向量进行特征匹配,用余弦距离量度两者相似度,输出待识别行人与目标行人之间的相似度。
进一步包括步骤:S16:设置相似度阀值,若S15得到的相似度大于阀值,则待识别行人被再识别为目标行人,否则待识别行人被再识别为非目标行人,将S11得到的待识别行人图库分为目标行人图库和非目标行人图库。
本发明还包括一种非易失性存储介质,其包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现上述基于深度学习的无交叠视域跨摄像机行人再识别方法。
与现有技术相比,本发明至少具有下述的有益效果或优点:
本发明提供的这种基于深度学习的无交叠视域跨摄像机行人再识别方法,利用深度学习训练得到的行人姿态过滤模型、行人背景分割模型以及深度特征提取模型对监控视频网络中的行人图片进行预处理和再识别,以确定其是否是目标行人,进而满足案件视频片段自动截取拼接的需求。此方法利用深度学习网络模仿人脑的机制对行人深层特征进行理解,对光照、拍摄角度、尺度、行人姿态等变化因素具有更好的鲁棒性,可有效地实现行人再识别。
附图说明
以下将结合附图对本发明做进一步详细说明;
图1是本发明的行人再识别方法的整体流程图;
图2是本发明的背景分离模型训练与测试过程流程图;
图3是本发明的行人姿态模型训练与测试过程流程图;
图4是本发明的特征提取模型训练与测试过程流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对现有行人再识别技术难以完成非交叠视域跨摄像机的行人再识别问题,本发明提出了一种基于深度学习的非交叠视域跨摄像机行人再识别方法,其基于深度学习思想,设计卷积神经网络(Convolutional NeuralNetwork,CNN),利用大量从非交叠视域的多场景视频中获取的行人图片样本集训练CNN,得到行人姿态模型、背景分割模型以及特征提取模型,然后利用这些模型依次对监控视频网络中的行人图片进行行人姿态过滤、背景去除操作和行人深层特征的自动提取,最后通过深层特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而完成行人再识别。
根据以上简述,具体方案如下:
1.1整体方案
一种基于深度学习的无交叠视域跨摄像机行人再识别方法,其整体方案可分为模型训练阶段和行人再识别测试阶段,如图1所示,其具体包括以下步骤:
S1:从公安派出所办案区各个场景(信息采集室、侯问室、讯问室、进出通道)的监控视频中,收集各类场景各种角度下各姿态的行人图像,将其划分为训练集样本和测试样本;
S2:对S1收集的训练集样本的样本图像素点按照前景/背景的不同进行标准化命名和标注,得到每张行人样本图中各像素点的前景/背景类别,形成第一训练集样本;
S3:设计全卷积网络(Fully Convolutional Networks,FCN),利用S2处理完成的第一训练集样本离线训练FCN网络,得到背景分割模型;
S4:对S1收集的训练样本集根据行人姿态的类型进行标注和标准化命名,得到行人样本的所属姿态类别,形成第二训练集样本;
S5:利用S4处理完成的第二训练集样本离线训练AlexNet网络,得到行人姿态模型;
S6:从公安派出所办案区各个场景(信息采集室、侯问室、讯问室、进出通道)的监控视频中,收集各行人的多场景行人图像集合,利用S3得到的背景分割模型对其进行去背景处理和光照补偿处理后,将其作为第三训练集样本;
S7:利用S6处理完成的第三训练集样本离线训练卷积神经网络,得到特征提取模型;
S8:从公安办案区监控视频录像中选取标准测试视频,选定目标行人图;
S9:输入S8选取的标准测试视频和目标行人图;
S10:对测试视频进行行人检测并进行跟踪;
S11:利用S5得到的行人姿态模型对S10得到的待识别行人图序列进行姿态处理,将经过姿态处理后的行人图导入待识别行人图库;
S12:利用对S3得到的背景分离模型对S11得到待识别行人图和S9输入的目标行人图进行去背景预处理;
S13:利用图像增强算法对S12得到的待识别行人图进行光照归一化处理。
S14:利用S7得到的特征提取模型分别对目标行人图和S13预处理后的待识别行人图和目标行人图进行行人深层的特征提取。
S15:对S14得到的两个512维特征向量进行特征匹配,用余弦距离量度两者相似度,输出待识别行人与目标行人之间的相似度。
S16:设置相似度阀值,若S15得到的相似度大于阀值,则待识别行人被再识别为目标行人,否则待识别行人被再识别为非目标行人,将S11得到的待识别行人图库分为目标行人图库和非目标行人图库。
1.2背景分割模型训练与测试过程
从公安派出所办案区监控视频中收集并标注各个场景的行人样本,利用标注好的样本离线训练和测试背景分割模型,其具体流程如图2。
1.3行人姿态模型训练与测试过程
从公安派出所办案区监控视频中收集并标注各个场景的行人样本,利用标注好的样本离线训练和测试行人姿态模型,其具体流程如图3。
1.4特征提取模型训练与测试过程
从公安派出所办案区监控视频中收集并标注各个场景的行人样本,利用标注好的样本离线训练和测试特征提取模型,其具体流程如图4。
1.5实验与结果
本方案实验案例使用公安派出所办案区各个场景的监控视频录像,采用本发明提出的基于深度学习的无交叠视域跨摄像机行人再识别方法,对在多个场景视频中出现的行人进行再识别,统计行人再识别的结果。通过分别统计被识别为目标行人的图库中属于目标行人和非目标行人的行人图数目,得到结果如表1所示:
表1基于深度学习的无交叠视域跨摄像机行人再识别方法测试结果
由表1可知,基于深度学***均耗时为134ms,基本满足现实场景应用的需求。
表2行人再识别测试所用硬件配置
综上所述,为了满足公安派出所办案区案宗视频记录自动生成需求,本发明提出一种基于深度学习的无交叠视域跨摄像机行人再识别方法,其首先从派出所办案区各场景下的监控视频获取大量多场景多姿态的行人图片样本,建立图片样本集,利用图片样本集训练CNN,得到行人姿态模型、背景分割模型以及特征提取模型,然后利用这些模型依次对监控视频网络中的行人图片进行姿态过滤、背景去除和光照归一化等预处理操作和行人特征的自动提取,最后通过特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而有效完成无交叠视域跨摄像机行人再识别。本发明所提出的方法可有效地实现无交叠视域跨摄像机的行人再识别,大大地减少了目标行人的误识别,且实时性和鲁棒性都较高,可满足现实场景的应用需求。
现有技术CN104268583A提到的一种基于颜色区域特征的行人再识别方法,其容易受到环境光照的影响,且容易将目标行人误识别为衣着颜色相近的行人。现有技术CN106250870A提到的一种联合局部和全局相似性度量学习的行人再识别方法,其容易受到行人姿态和摄像机角度的影响,鲁棒性不足,无法适应公安派出所办案区内多拍摄角度、多行人姿态的变化。
本方案基于深度学习思想,首先利用无交叠视域跨场景多姿态的行人图训练行人姿态模型、背景分割模型和特征提取模型,利用模型对监控视频网络的行人图片进行行人姿态过滤和光照归一化的预处理后,再利用特征提取模型自动提取行人的深层特征,通过特征匹配完成行人再识别。本发明隐式提取的深层特征是CNN模仿人脑的机制对行人特征的自动理解,该深层特征有别于现有技术中发明显式提取的浅层特征,具有更好的适应性和特征表达能力。在实际应用中,该方法对行人再识别的准确率和实时性高,对光照、拍摄角度、尺度、行人姿态等因素变化的鲁棒性好,能有很好地满足派出所办案区案宗视频自动截取生成的需求。
本发明还包括一种非易失性存储介质,其包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现上述基于深度学习的无交叠视域跨摄像机行人再识别方法。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。在不脱离本发明之精神和范围内,所做的任何修改、等同替换、改进等,同样属于本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,该方法分为模型训练阶段和行人再识别测试阶段,具体包括如下步骤:
(1)首先训练行人姿态模型、背景分割模型和特征提取模型;
(2)然后利用行人姿态模型对行人姿态进行过滤,获取包含有正面或背面的行人图像,利用背景分割模型对背景进行去除;
(3)利用特征提取模型对行人的深层特征进行自动提取;
(4)最后通过特征匹配完成行人再识别。
2.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,所述的步骤(1)具体为,,利用大量从非交叠视域的多场景视频中获取的行人图片样本集训练卷积神经网络,得到行人姿态模型、背景分割模型以及特征提取模型。
3.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,所述的步骤(4)具体为,通过深层特征向量之间的余弦距离评价待识别行人图像与目标行人图像的相似度,实现特征匹配,设定相似度阀值以判断待识别行人是否是目标行人,从而完成行人再识别。
4.根据权利要求1所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,模型训练阶段进一步包括步骤:
S1:从公安派出所办案区各个场景的监控视频中,收集各类场景各种角度下各姿态的行人图像,将其划分为训练集样本和测试集样本;
S2:对S1收集的训练集样本按照前景/背景的不同进行标注,得到每张行人样本图中各像素点的前景/背景类别,形成第一训练集样本;
S3:利用S2处理完成的第一训练集样本离线训练全卷积网络,得到背景分割模型;
S4:对S1收集的训练样本集根据行人姿态的类型进行标注和标准化命名,得到行人样本的所属姿态类别,形成第二训练集样本;
S5:利用S4处理完成的第二训练集样本离线训练AlexNet网络,得到行人姿态模型;
S6:从公安派出所办案区各个场景的监控视频中,收集各行人的多场景行人图像集合,利用S3得到的背景分割模型对检测到的行人图像进行去背景处理和光照补偿处理后,将其作为第三训练集样本;
S7:利用S6处理完成的第三训练集样本离线训练卷积神经网络,得到特征提取模型。
5.根据权利要求4所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,所述的场景包括信息采集室、侯问室、讯问室以及进出通道。
6.根据权利要求4所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,行人再识别测试阶段进一步包括步骤:
S8:从公安办案区监控视频录像中选取标准测试视频,选定目标行人图;
S9:输入S8选取的标准测试视频和目标行人图;
S10:对测试视频进行行人检测并进行跟踪;
S11:利用S5得到的行人姿态模型对S10得到的待识别行人图序列进行姿态处理将经过姿态处理后的行人图导入待识别行人图库;
S12:利用对S3得到的背景分离模型对S11得到待识别行人图和S9输入的目标行人图进行去背景预处理;
S13:利用图像增强算法对S12得到的待识别行人图进行光照归一化处理。
7.根据权利要求6所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,进一步包括步骤:
S14:利用S7得到的特征提取模型分别对目标行人图和S13预处理后的待识别行人图和目标行人图进行行人深层的特征提取。
8.根据权利要求7所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,进一步包括步骤:
S15:对S14得到的两个512维特征向量进行特征匹配,用余弦距离度量两者相似度,输出待识别行人与目标行人之间的相似度。
9.根据权利要求8所述的基于深度学习的无交叠视域跨摄像机行人再识别方法,其特征在于,进一步包括步骤:
S16:设置相似度阀值,若S15得到的相似度大于阀值,则待识别行人被再识别为目标行人,否则待识别行人被再识别为非目标行人,将S11得到的待识别行人图库分为目标行人图库和非目标行人图库。
10.一种非易失性存储介质,其特征在于,包括一条或多条计算机指令,所述一条或多条计算机指令在执行时实现上述权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811168809.XA CN109409250A (zh) | 2018-10-08 | 2018-10-08 | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811168809.XA CN109409250A (zh) | 2018-10-08 | 2018-10-08 | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109409250A true CN109409250A (zh) | 2019-03-01 |
Family
ID=65466834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811168809.XA Pending CN109409250A (zh) | 2018-10-08 | 2018-10-08 | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109409250A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919141A (zh) * | 2019-04-09 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架姿态的行人再识别方法 |
CN109934177A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人再识别方法、***及计算机可读存储介质 |
CN111460977A (zh) * | 2020-03-30 | 2020-07-28 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN111897993A (zh) * | 2020-07-20 | 2020-11-06 | 杭州叙简科技股份有限公司 | 一种基于行人再识别的高效目标人物轨迹生成方法 |
CN113435443A (zh) * | 2021-06-28 | 2021-09-24 | 中国兵器装备集团自动化研究所有限公司 | 一种从视频中自动识别地标的方法 |
CN114820724A (zh) * | 2022-06-28 | 2022-07-29 | 浙江树人学院 | 一种跨场景跟踪的智能监控方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711146B2 (en) * | 2006-03-09 | 2010-05-04 | General Electric Company | Method and system for performing image re-identification |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN105574515A (zh) * | 2016-01-15 | 2016-05-11 | 南京邮电大学 | 一种无重叠视域下的行人再识别方法 |
CN107153817A (zh) * | 2017-04-29 | 2017-09-12 | 深圳市深网视界科技有限公司 | 行人重识别数据标注方法和装置 |
CN107704838A (zh) * | 2017-10-19 | 2018-02-16 | 北京旷视科技有限公司 | 目标对象的属性识别方法及装置 |
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
-
2018
- 2018-10-08 CN CN201811168809.XA patent/CN109409250A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711146B2 (en) * | 2006-03-09 | 2010-05-04 | General Electric Company | Method and system for performing image re-identification |
CN105518744A (zh) * | 2015-06-29 | 2016-04-20 | 北京旷视科技有限公司 | 行人再识别方法及设备 |
CN105574515A (zh) * | 2016-01-15 | 2016-05-11 | 南京邮电大学 | 一种无重叠视域下的行人再识别方法 |
CN107153817A (zh) * | 2017-04-29 | 2017-09-12 | 深圳市深网视界科技有限公司 | 行人重识别数据标注方法和装置 |
CN107704838A (zh) * | 2017-10-19 | 2018-02-16 | 北京旷视科技有限公司 | 目标对象的属性识别方法及装置 |
CN108537136A (zh) * | 2018-03-19 | 2018-09-14 | 复旦大学 | 基于姿态归一化图像生成的行人重识别方法 |
Non-Patent Citations (1)
Title |
---|
杜久伦: ""多视图行人重识别算法研究与数据采集"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934177A (zh) * | 2019-03-15 | 2019-06-25 | 艾特城信息科技有限公司 | 行人再识别方法、***及计算机可读存储介质 |
CN109919141A (zh) * | 2019-04-09 | 2019-06-21 | 广东省智能制造研究所 | 一种基于骨架姿态的行人再识别方法 |
CN111460977A (zh) * | 2020-03-30 | 2020-07-28 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN111460977B (zh) * | 2020-03-30 | 2024-02-20 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN111897993A (zh) * | 2020-07-20 | 2020-11-06 | 杭州叙简科技股份有限公司 | 一种基于行人再识别的高效目标人物轨迹生成方法 |
CN113435443A (zh) * | 2021-06-28 | 2021-09-24 | 中国兵器装备集团自动化研究所有限公司 | 一种从视频中自动识别地标的方法 |
CN114820724A (zh) * | 2022-06-28 | 2022-07-29 | 浙江树人学院 | 一种跨场景跟踪的智能监控方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409250A (zh) | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 | |
CN104881637B (zh) | 基于传感信息及目标追踪的多模信息***及其融合方法 | |
CN109190508B (zh) | 一种基于空间坐标系的多摄像头数据融合方法 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN110796079A (zh) | 基于人脸深度特征和人体局部深度特征的多相机访客识别的方法及*** | |
CN106447680B (zh) | 动态背景环境下雷达与视觉融合的目标检测与跟踪方法 | |
CN105701467B (zh) | 一种基于人体形态特征的多人异常行为识别方法 | |
WO2019127273A1 (zh) | 一种多人脸检测方法、装置、服务器、***及存储介质 | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN110458025B (zh) | 一种基于双目摄像头的目标识别与定位方法 | |
CN106991370B (zh) | 基于颜色和深度的行人检索方法 | |
CN111797653A (zh) | 基于高维图像的图像标注方法和装置 | |
CN102521565A (zh) | 低分辨率视频的服装识别方法及*** | |
CN105069448A (zh) | 一种真假人脸识别方法及装置 | |
CN113269091A (zh) | 一种面向智慧园区的人员轨迹分析方法、设备及介质 | |
CN109784130A (zh) | 行人重识别方法及其装置和设备 | |
Park et al. | Detection of construction workers in video frames for automatic initialization of vision trackers | |
CN109344842A (zh) | 一种基于语义区域表达的行人重识别方法 | |
CN109492534A (zh) | 一种基于Faster RCNN的跨场景多姿态的行人检测方法 | |
CN108932509A (zh) | 一种基于视频跟踪的跨场景目标检索方法及装置 | |
CN111460884A (zh) | 基于人体跟踪的多人脸识别方法 | |
CN112668557A (zh) | 一种行人再识别***中防御图像噪声攻击的方法 | |
CN115100716A (zh) | 一种智慧社区行人跟踪定位方法及*** | |
CN115620090A (zh) | 模型训练方法、低照度目标重识别方法和装置、终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190301 |
|
RJ01 | Rejection of invention patent application after publication |