CN108932509A - 一种基于视频跟踪的跨场景目标检索方法及装置 - Google Patents
一种基于视频跟踪的跨场景目标检索方法及装置 Download PDFInfo
- Publication number
- CN108932509A CN108932509A CN201810937002.1A CN201810937002A CN108932509A CN 108932509 A CN108932509 A CN 108932509A CN 201810937002 A CN201810937002 A CN 201810937002A CN 108932509 A CN108932509 A CN 108932509A
- Authority
- CN
- China
- Prior art keywords
- target
- track
- tracking
- scene
- scene objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于视频跟踪的跨场景目标检索方法及装置,所述方法包括:对多个关联摄像头进行视频跟踪获得目标的轨迹,将该目标的轨迹作为训练样本;根据所述训练样本进行目标的分类模型训练;利用所述目标的分类模型构建目标特征数据库;提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。本发明可以提高目标在检索中的准确度及鲁棒性,使得目标在检索比对时可以提供轨迹的多帧信息,提高了目标检索效果。
Description
技术领域
本发明涉及视频监控领域,更具体地,涉及在有多个关联摄像头的监控场景下,对出现的目标进行跨场景检索。
背景技术
给定一个监控场景下的目标图像,检索在其它摄像头下该目标出现的情况,可广泛应用于智能视频监控、智能安保等领域。但目标在单一场景下也会随运动或与场景等发生视角变化,用其中的一帧代表目标进行检索,并不能表达出目标在该场景下的所有情况,当选择不好时,常常导致检索不到需要的目标,或者相同目标的相似度排序不高。
目前大多目标检索用到的特征多是手工设计的,比如颜色、纹理或梯度直方图等,当目标在发生姿态或尺度变化,或被场景遮挡或光线变化等复杂情况下,这些手工设计的特征并不能很好的进行表征,很容易造成检索失效。
另外,采用深度神经网络训练模型进行检索的方法,效果会有提升,但由于深度模型训练需要大量的数据,而标注视频中的目标,并将相同目标在不同视频中找出,这样的工作量是巨大的,往往会耗费大量人力物力。
发明内容
有鉴于此,本专利提出一种基于视频跟踪的跨场景目标检索方法及装置,通过对关联场景中目标进行跟踪,可以获取目标检索时需要的数据来源,并且可以为模型训练产生样本。目标在检索比对时可以提供轨迹的多帧信息,提高了目标检索效果。
为达到上述目的,本发明的技术方案实现如下:
本发明提供一种基于视频跟踪的跨场景目标检索方法,其特征在于:
对多个关联摄像头进行视频跟踪获得目标的轨迹,将该目标的轨迹作为训练样本;
根据所述训练样本进行目标的分类模型训练;
利用所述目标的分类模型构建目标特征数据库;
提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
优选地,通过视频跟踪生成训练样本包括对每个摄像头下的目标进行检测跟踪;
对目标轨迹进行过滤,从而去除轨迹中的干扰项;
将多个摄像头下的视频中所有该目标的轨迹进行融合;
得到目标轨迹样本集合。
优选地,根据所述生成的训练样本进行模型训练包括获得带标签的训练样本;
对上述样本的数据进行预处理;
采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
优选地,构建目标特征数据库包括每个摄像头下的目标进行检测和跟踪,得到目标轨迹;
选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;
利用训练模型提取各目标特征;
将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
优选地,所述提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算包括通过L2范数或余弦距离的计算得出目标与数据库中各目标的相似度。
本发明还提供了一种基于视频跟踪的跨场景目标检索装置,其特征在于包括:
训练样本生成装置,用于对多个关联摄像头进行视频跟踪获得目标的轨迹,将该目标的轨迹作为训练样本;
模型训练装置,用于根据所述训练样本进行目标的分类模型训练;
构建目标特征数据库装置,利用所述目标的分类模型构建目标特征数据库;
跨场景检索装置,用于提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
优选地,训练样本生成装置包括
检测跟踪装置,用于包括对每个摄像头下的目标进行检测跟踪;
过滤装置,用于对目标轨迹进行过滤,从而去除轨迹中的干扰项;
融合装置,用于将多个摄像头下的视频中所有该目标的轨迹进行融合;
目标轨迹样本装置,用于得到目标轨迹样本集合。
优选地,根据所述生成的训练样本进行模型训练包括获得带标签的训练样本;
对上述样本的数据进行预处理;
采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
优选地,构建目标特征数据库装置包括
检测跟踪装置,用于对每个摄像头下的目标进行检测和跟踪,得到目标轨迹;
代表帧选取装置,用于选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;
提取装置,用于利用训练模型提取各目标特征;
送入装置,用于将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
优选地,所述提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算包括通过L2范数或余弦距离的计算得出目标与数据库中各目标的相似度。
本发明还提供了一种计算机可读存储介质,其特征在于:所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述跨场景目标检索方法的方法步骤。
本发明还提供了一种基于视频跟踪的跨场景目标检索***,其特征在于:包括处理器、以及存储有可执行指令的存储器,当所述可执行指令被处理器执行时实现权利要求1-5任一所述的跨场景目标检索方法。
本发明提出的一种基于视频跟踪的跨场景目标检索方法,通过视频跟踪生成训练样本;根据所述生成的训练样本进行模型训练;构建目标特征数据库;提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。可以提高目标在检索中的准确度及鲁棒性,使得目标在检索比对时可以提供轨迹的多帧信息,提高了目标检索效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例所述的视频跟踪生成训练样本流程图。
图2为本发明实施例所述的模型训练框架图。
图3为本发明实施例所述的构建目标特征数据库流程图。
图4为本发明实施例所述的目标跨场景检索流程图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案进行清楚、完整地描述。
本发明提出一种基于视频跟踪的跨场景目标检索方法,通过对关联场景中目标进行跟踪,可以获取目标检索时需要的数据来源,并且可以为模型训练产生样本。目标在检索比对时可以提供轨迹的多帧信息,提高了目标检索效果。
如图1所述的视频跟踪生成训练样本流程图。
通过视频跟踪生成训练样本,包括对每个摄像头下的目标进行检测跟踪;对目标轨迹进行过滤,从而去除轨迹中的干扰项;将多个摄像头下的视频中所有该目标的轨迹进行融合;得到目标轨迹样本集合。
ROI(Regions ofInterest),感兴趣区域模型训练。在实际的监控中,人们往往只对监控画面中的一些特定区域比较关注,比如画面中的车牌、人脸等等,而对背景的蓝天、草地等并不在意。这些特定的区域,被称为“感兴趣区域”。ROI编码技术是ISO组织在2000年制定的新一代静态图像压缩编码标准JPEG2000中最大的亮点之一,也是当今图像编码领域的研究热点。此项技术可以对图像中的感兴趣区域(ROI)进行低压缩比的无损压缩或近无损压缩,在背景区域进行高压缩比的有损压缩训练样本。这样在码流不变的情况下,即可保证不丢失重要信息又能有效地压缩数据量,很好地解决了压缩比和图像质量之间的矛盾
首先对每个视频采用Faster-RCNN或SSD/Yolo等深度检测方法进行目标检测,提取出每个目标。选用Fast DSST基于判别尺度空间的单目标跟踪方法,通过构建尺度空间估计目标在视频序列中的尺度变化,可以对目标进行较准确的跟踪。通过给每个目标分配一个***,扩展至多目标跟踪。
通过跟踪获得目标在视频中的轨迹,人工介入进行筛选,检查该轨迹中是否存在不属于该目标的图像ROI,如果有将其删除,然后与其它视频中包含该目标的所有轨迹进行融合,具体的是将不同视频源中同一目标的轨迹作为一个集合,这样每个集合就代表一类目标实例,可以快速得到成千上万类目标实例,比手工标注的速度快很多,而且可以节省人力。
如图2所述的模型训练框架图。
根据所述生成的训练样本进行模型训练包括获得带标签的训练样本;对上述样本的数据进行预处理;采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
在得到训练样本后,可以通过设计一个识别网络进行模型训练,具体采用DenseNet作为主干网络,之前获取的实例数目作为类别数,选用SoftmaxWithLoss作为分类损失函数,在训练模型通过验证后,可以取倒数第二层特征或多尺度特征融合,作为足以区分各类目标的细粒度特征。一般为减少后续存储,可设定128维或256维特征。
如图3所述的模型训练框架图。
构建目标特征数据库包括每个摄像头下的目标进行检测和跟踪,得到目标轨迹;选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;利用训练模型提取各目标特征;将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
构建目标特征数据库,对于关联的多摄像头采集的新视频数据,采用与之前相同的方式进行目标的检测提取和跟踪,在拿到目标的轨迹后,选取目标轨迹踪具有代表性的一帧或多帧图像数据,利用已训好的模型提取图像中目标ROI的特征,对于目标多帧的ROI,可以在分别提取特征之后进行加权融合。
将提取出的目标特征及其对应索引送入数据库中。具体的将每个目标的ID及特征作为一行放入列表中,然后在数据库中按顺序排放,便于后续比对检索使用。
如图4所述的目标跨场景检索流程图。
基于视频跟踪的跨场景目标检索方法,通过视频跟踪生成训练样本;根据所述生成的训练样本进行模型训练;构建目标特征数据库;提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
将待检索目标ROI送入相同的网络,利用训好的模型,按统一格式提取特征。然后与数据库中已有目标的特征进行相似性度量计算,可通过L2范数或余弦距离的计算得出目标与数据库中各目标的相似度。将度量结果按大小进行排序,取相似度最高的或前N个目标作为检索结果输出,从而实现对目标的跨场景检索。
根据跟踪获取同一目标在一个场景下的轨迹,并去除轨迹中冗余的样本,得到目标在一个场景下的不同姿态及尺度的样本集,然后归一化到相同尺寸,计算样本集中每张图片的特征,对这些特征求max pooling或者average pooling(图像分类处理,卷积神经网络),用得到的平均特征作为该目标的检索特征。这种方法可以提高目标在检索中的准确度及鲁棒性。
通过对关联场景中目标进行跟踪,可以获取目标检索时需要的数据来源,并且可以为模型训练产生样本。目标在检索比对时可以提供轨迹的多帧信息,提高了目标检索效果。
对应于上述的基于视频跟踪的跨场景目标检索方法,本发明还提供了一种基于视频跟踪的跨场景目标检索装置。包括:训练样本生成装置,用于通过视频跟踪生成训练样本;模型训练装置,用于根据所述生成的训练样本进行模型训练;构建目标特征数据库装置,用于构建目标特征数据库;跨场景检索装置,用于提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
首先,对每个视频采用Faster-RCNN或SSD/Yolo等深度检测方法进行目标检测,提取出每个目标。选用Fast DSST基于判别尺度空间的单目标跟踪方法,通过构建尺度空间估计目标在视频序列中的尺度变化,可以对目标进行较准确的跟踪。通过给每个目标分配一个***,扩展至多目标跟踪。
通过跟踪获得目标在视频中的轨迹,人工介入进行筛选,检查该轨迹中是否存在不属于该目标的图像ROI,如果有将其删除,然后与其它视频中包含该目标的所有轨迹进行融合,具体的是将不同视频源中同一目标的轨迹作为一个集合,这样每个集合就代表一类目标实例,可以快速得到成千上万类目标实例,比手工标注的速度快很多,而且可以节省人力。
所述训练样本生成装置包括:检测跟踪装置,用于包括对每个摄像头下的目标进行检测跟踪;过滤装置,用于对目标轨迹进行过滤,从而去除轨迹中的干扰项;融合装置,用于将多个摄像头下的视频中所有该目标的轨迹进行融合;目标轨迹样本装置,用于得到目标轨迹样本集合。
在得到训练样本后,可以通过设计一个识别网络进行模型训练,具体采用DenseNet作为主干网络,之前获取的实例数目作为类别数,选用SoftmaxWithLoss作为分类损失函数,在训练模型通过验证后,可以取倒数第二层特征或多尺度特征融合,作为足以区分各类目标的细粒度特征。一般为减少后续存储,可设定128维或256维特征。
根据所述生成的训练样本进行模型训练包括获得带标签的训练样本;对上述样本的数据进行预处理;采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
构建目标特征数据库,对于关联的多摄像头采集的新视频数据,采用与之前相同的方式进行目标的检测提取和跟踪,在拿到目标的轨迹后,选取目标轨迹踪具有代表性的一帧或多帧图像数据,利用已训好的模型提取图像中目标ROI的特征,对于目标多帧的ROI,可以在分别提取特征之后进行加权融合。
将提取出的目标特征及其对应索引送入数据库中。具体的将每个目标的ID及特征作为一行放入列表中,然后在数据库中按顺序排放,便于后续比对检索使用。
构建目标特征数据库装置包括检测跟踪装置,用于对每个摄像头下的目标进行检测和跟踪,得到目标轨迹;代表帧选取装置,用于选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;提取装置,用于利用训练模型提取各目标特征;送入装置,用于将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
所述提取待检索视频目标的特征,与所述目标特征数据库中已有目标的特征进行相似性度量计算包括通过L2范数或余弦距离的计算得出目标与数据库中各目标的相似度。
将待检索目标ROI送入相同的网络,利用训好的模型,按统一格式提取特征。然后与数据库中已有目标的特征进行相似性度量计算,可通过L2范数或余弦距离的计算得出目标与数据库中各目标的相似度。将度量结果按大小进行排序,取相似度最高的或前N个目标作为检索结果输出,从而实现对目标的跨场景检索。
根据跟踪获取同一目标在一个场景下的轨迹,并去除轨迹中冗余的样本,得到目标在一个场景下的不同姿态及尺度的样本集,然后归一化到相同尺寸,计算样本集中每张图片的特征,对这些特征求max pooling或者average pooling(图像分类处理,卷积神经网络),用得到的平均特征作为该目标的检索特征。这种方法可以提高目标在检索中的准确度及鲁棒性。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述跨场景目标检索方法的方法步骤。
本发明还提供了一种基于视频跟踪的跨场景目标检索***,包括处理器、以及存储有可执行指令的存储器,当所述可执行指令被处理器执行时实现上述的跨场景目标检索方法。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
以上仅是本发明的具体步骤示例,对本发明的保护范围不构成任何限制,凡采用等同变换或者等效替换而形成的技术方案,均落在本发明权利保护范围之内。
Claims (12)
1.一种基于视频跟踪的跨场景目标检索方法,其特征在于:
对多个关联摄像头进行视频跟踪获得目标的轨迹,将该目标的轨迹作为训练样本;
根据所述训练样本进行目标的分类模型训练;
利用所述目标的分类模型构建目标特征数据库;
提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
2.如权利要求1所述的跨场景目标检索方法,其特征在于,通过视频跟踪获得目标的轨迹包括:
对每个摄像头下的目标进行检测跟踪;
对目标轨迹进行过滤,去除轨迹中的干扰项;
将多个摄像头视频中的所有该目标的轨迹进行融合;
得到目标轨迹样本集合。
3.如权利要求1所述的跨场景目标检索方法,其特征在于:
根据所述训练样本进行目标的分类模型训练包括:
获得带标签的训练样本;
对上述样本的数据进行预处理;
采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
4.如权利要求1所述的跨场景目标检索方法,其特征在于:
构建目标特征数据库包括:
对每个摄像头下的目标进行检测和跟踪,得到目标轨迹;
选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;
利用所述分类模型提取各目标特征;
将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
5.如权利要求1所述的跨场景目标检索方法,其特征在于:
所述提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算包括:
通过L2范数或余弦距离计算得出目标与数据库中各目标的相似度。
6.一种基于视频跟踪的跨场景目标检索装置,其特征在于包括:
训练样本生成装置,用于对多个关联摄像头进行视频跟踪获得目标的轨迹,将该目标的轨迹作为训练样本;
模型训练装置,用于根据所述训练样本进行目标的分类模型训练;
构建目标特征数据库装置,利用所述目标的分类模型构建目标特征数据库;
跨场景检索装置,用于提取待检索视频目标的特征,与所述目标特征数据库中已有的目标特征进行相似性度量计算,取相似度最高或前N个特征作为检索特征,对目标进行跨场景检索。
7.如权利要求6所述的跨场景目标检索装置,其特征在于:训练样本生成装置包括:
检测跟踪装置,用于对每个摄像头下的目标进行检测跟踪;
过滤装置,用于对目标轨迹进行过滤,去除轨迹中的干扰项;
融合装置,用于将多个摄像头视频中的所有该目标的轨迹进行融合;
目标轨迹样本装置,用于得到目标轨迹样本集合。
8.如权利要求6所述的跨场景目标检索装置,其特征在于,所述模型训练装置具体用于:
获得带标签的训练样本;
对上述样本的数据进行预处理;
采用卷积神经网络,提取特征表征层,通过分类层进行类别输出,完成模型训练。
9.如权利要求6所述的跨场景目标检索装置,其特征在于:构建目标特征数据库装置包括:
检测跟踪装置,用于对每个摄像头下的目标进行检测和跟踪,得到目标轨迹;
代表帧选取装置,用于选取上述目标轨迹踪中一帧或多帧图像数据作为目标代表帧;
提取装置,用于利用所述分类模型提取各目标特征;
送入装置,用于将提取出的目标特征及其对应索引送入数据库中,得到目标特征数据库。
10.如权利要求6所述的跨场景目标检索装置,其特征在于:
所述跨场景检索装置还用于通过L2范数或余弦距离计算得出目标与数据库中各目标的相似度。
11.一种计算机可读存储介质,其特征在于:
所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-5任一所述的方法步骤。
12.一种基于视频跟踪的跨场景目标检索***,其特征在于:
包括处理器、以及存储有可执行指令的存储器,当所述可执行指令被处理器执行时实现权利要求1-5任一所述的跨场景目标检索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810937002.1A CN108932509A (zh) | 2018-08-16 | 2018-08-16 | 一种基于视频跟踪的跨场景目标检索方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810937002.1A CN108932509A (zh) | 2018-08-16 | 2018-08-16 | 一种基于视频跟踪的跨场景目标检索方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108932509A true CN108932509A (zh) | 2018-12-04 |
Family
ID=64445893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810937002.1A Pending CN108932509A (zh) | 2018-08-16 | 2018-08-16 | 一种基于视频跟踪的跨场景目标检索方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108932509A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829936A (zh) * | 2019-01-29 | 2019-05-31 | 青岛海信网络科技股份有限公司 | 一种目标追踪的方法及设备 |
CN109978918A (zh) * | 2019-03-21 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 一种轨迹追踪方法、装置和存储介质 |
CN110490905A (zh) * | 2019-08-15 | 2019-11-22 | 江西联创精密机电有限公司 | 一种基于YOLOv3和DSST算法的目标跟踪方法 |
CN110517495A (zh) * | 2019-09-05 | 2019-11-29 | 四川东方网力科技有限公司 | 车辆轨迹类别的确认方法、装置、设备和存储介质 |
CN112465869A (zh) * | 2020-11-30 | 2021-03-09 | 杭州海康威视数字技术股份有限公司 | 一种轨迹关联方法、装置、电子设备及存储介质 |
CN113378005A (zh) * | 2021-06-03 | 2021-09-10 | 北京百度网讯科技有限公司 | 事件处理方法、装置、电子设备以及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413295A (zh) * | 2013-07-12 | 2013-11-27 | 长沙理工大学 | 一种视频多目标长程跟踪方法 |
CN104318588A (zh) * | 2014-11-04 | 2015-01-28 | 北京邮电大学 | 一种基于位置感知判别外观模型的多摄像机目标跟踪方法 |
CN105224912A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN106599925A (zh) * | 2016-12-19 | 2017-04-26 | 广东技术师范学院 | 一种基于深度学习的植物叶片识别***与方法 |
CN106933861A (zh) * | 2015-12-30 | 2017-07-07 | 北京大唐高鸿数据网络技术有限公司 | 一种支持特征自定义的跨镜头目标检索方法 |
CN107122439A (zh) * | 2017-04-21 | 2017-09-01 | 图麟信息科技(深圳)有限公司 | 一种视频片段查询方法及装置 |
CN107169106A (zh) * | 2017-05-18 | 2017-09-15 | 珠海习悦信息技术有限公司 | 视频检索方法、装置、存储介质及处理器 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN108073933A (zh) * | 2016-11-08 | 2018-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
US20180157899A1 (en) * | 2016-12-07 | 2018-06-07 | Samsung Electronics Co., Ltd. | Method and apparatus detecting a target |
CN108229475A (zh) * | 2018-01-03 | 2018-06-29 | 深圳中兴网信科技有限公司 | 车辆跟踪方法、***、计算机设备及可读存储介质 |
CN108229407A (zh) * | 2018-01-11 | 2018-06-29 | 武汉米人科技有限公司 | 一种视频分析中的行为检测方法与*** |
-
2018
- 2018-08-16 CN CN201810937002.1A patent/CN108932509A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413295A (zh) * | 2013-07-12 | 2013-11-27 | 长沙理工大学 | 一种视频多目标长程跟踪方法 |
CN104318588A (zh) * | 2014-11-04 | 2015-01-28 | 北京邮电大学 | 一种基于位置感知判别外观模型的多摄像机目标跟踪方法 |
CN105224912A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于运动信息和轨迹关联的视频行人检测和跟踪方法 |
CN106933861A (zh) * | 2015-12-30 | 2017-07-07 | 北京大唐高鸿数据网络技术有限公司 | 一种支持特征自定义的跨镜头目标检索方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN108073933A (zh) * | 2016-11-08 | 2018-05-25 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
US20180157899A1 (en) * | 2016-12-07 | 2018-06-07 | Samsung Electronics Co., Ltd. | Method and apparatus detecting a target |
CN106599925A (zh) * | 2016-12-19 | 2017-04-26 | 广东技术师范学院 | 一种基于深度学习的植物叶片识别***与方法 |
CN107122439A (zh) * | 2017-04-21 | 2017-09-01 | 图麟信息科技(深圳)有限公司 | 一种视频片段查询方法及装置 |
CN107169106A (zh) * | 2017-05-18 | 2017-09-15 | 珠海习悦信息技术有限公司 | 视频检索方法、装置、存储介质及处理器 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN108229475A (zh) * | 2018-01-03 | 2018-06-29 | 深圳中兴网信科技有限公司 | 车辆跟踪方法、***、计算机设备及可读存储介质 |
CN108229407A (zh) * | 2018-01-11 | 2018-06-29 | 武汉米人科技有限公司 | 一种视频分析中的行为检测方法与*** |
Non-Patent Citations (1)
Title |
---|
吴迪: "《智能环境下基于音视频多模态融合的身份识别》", 31 March 2018 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829936A (zh) * | 2019-01-29 | 2019-05-31 | 青岛海信网络科技股份有限公司 | 一种目标追踪的方法及设备 |
CN109978918A (zh) * | 2019-03-21 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 一种轨迹追踪方法、装置和存储介质 |
CN110490905A (zh) * | 2019-08-15 | 2019-11-22 | 江西联创精密机电有限公司 | 一种基于YOLOv3和DSST算法的目标跟踪方法 |
CN110517495A (zh) * | 2019-09-05 | 2019-11-29 | 四川东方网力科技有限公司 | 车辆轨迹类别的确认方法、装置、设备和存储介质 |
CN112465869A (zh) * | 2020-11-30 | 2021-03-09 | 杭州海康威视数字技术股份有限公司 | 一种轨迹关联方法、装置、电子设备及存储介质 |
CN112465869B (zh) * | 2020-11-30 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种轨迹关联方法、装置、电子设备及存储介质 |
CN113378005A (zh) * | 2021-06-03 | 2021-09-10 | 北京百度网讯科技有限公司 | 事件处理方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108932509A (zh) | 一种基于视频跟踪的跨场景目标检索方法及装置 | |
CN109697435B (zh) | 人流量监测方法、装置、存储介质及设备 | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
US10140575B2 (en) | Sports formation retrieval | |
CN103324937B (zh) | 标注目标的方法和装置 | |
CN109447169A (zh) | 图像处理方法及其模型的训练方法、装置和电子*** | |
CN104166841A (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN109743547A (zh) | 一种人工智能安全监控管理*** | |
CN106663196A (zh) | 视频中的计算机显著人物识别 | |
Ciampi et al. | Counting Vehicles with Cameras. | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及*** | |
CN103853794B (zh) | 一种基于部件关联的行人检索方法 | |
CN109271932A (zh) | 基于颜色匹配的行人再识别方法 | |
Zhang et al. | Crowd density estimation based on statistical analysis of local intra-crowd motions for public area surveillance | |
Luo et al. | Traffic analytics with low-frame-rate videos | |
CN109409250A (zh) | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 | |
CN109492534A (zh) | 一种基于Faster RCNN的跨场景多姿态的行人检测方法 | |
CN113158891A (zh) | 一种基于全局特征匹配的跨摄像头行人重识别方法 | |
Yadav et al. | An improved deep learning-based optimal object detection system from images | |
Fernández et al. | Robust Real‐Time Traffic Surveillance with Deep Learning | |
CN111899279A (zh) | 一种目标对象的运动速度检测方法及装置 | |
Vatsavai et al. | Geospatial image mining for nuclear proliferation detection: Challenges and new opportunities | |
Gupta et al. | Tree annotations in LiDAR data using point densities and convolutional neural networks | |
CN104123569A (zh) | 一种基于有监督学习的视频人数信息统计方法 | |
Mantini et al. | Camera Tampering Detection using Generative Reference Model and Deep Learned Features. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181204 |
|
RJ01 | Rejection of invention patent application after publication |