CN108764167B - 一种时空关联的目标重识别方法和*** - Google Patents
一种时空关联的目标重识别方法和*** Download PDFInfo
- Publication number
- CN108764167B CN108764167B CN201810543066.3A CN201810543066A CN108764167B CN 108764167 B CN108764167 B CN 108764167B CN 201810543066 A CN201810543066 A CN 201810543066A CN 108764167 B CN108764167 B CN 108764167B
- Authority
- CN
- China
- Prior art keywords
- time
- camera
- target
- candidate
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种时空关联的目标重识别方法,所述方法结合视频数据中目标的像素运动速率,估算出每段视频数据中目标跨越两个距离一定的相邻摄像头的时长的概率分布;基于该时长概率,即可先对出现在视频中的候选目标进行筛选预处理,滤除超出合理跨越时间区间的候选目标,降低相似目标被误匹配为跟踪目标的概率。本发明还涉及一种时空关联的目标重识别***。本发明产生的匹配结果,即受到时空位置及目标运动信息的约束,相较原先不受约束、仅依赖视觉特征的匹配结构,可有效提升重识别的准确率。
Description
技术领域
本发明涉及的是一种目标重识别技术,具体的说,涉及的是一种时空关联的目标重识别方法,以及对应的目标重识别***。
背景技术
目标重识别问题,是利用计算机视觉技术判断图像或者视频序列中是否存在特定目标的问题。具体地,在利用视频跟踪特定目标时,由于视频源来自固定位置,所以当目标离开视野范围时,需要进行跨视频接力跟踪,这时,在其他视频源中检测出该特定目标的问题则属于目标重识别问题。
目标重识别问题使用图像中获取的目标视觉特征进行特征匹配,给出可能的候选目标。由于不同的目标之间的特征具有相似度,使用特征进行匹配亦有可能出现候选目标不是真正跟踪目标的情况。
经过对现有技术的检索发现,虽然目前目标重识别技术广泛运用于接力跟踪中,但是其中的目标重识别模块,很多仅仅利用了图像中目标的视觉特征信息。如专利号CN201210201004.7,专利名称:基于GPS和GIS的智能视觉传感网络运动目标接力跟踪***,虽然结合了GPS和GIS信息,即空间信息进行筛选,但是对于时间、空间信息的利用,仅仅停留于绘制GIS地图,以及目标运动轨迹的阶段,并没有将时间信息、空间信息,直接用于目标重识别准确率提升的技术,其目标重识别模块,仍然仅仅基于视觉特征进行,依然可能由于视觉特征的相似,在不合理的时刻区间产生大量可能性很低的候选目标。
此外,虽然有结合目标时间、位置信息的专利,如申请(专利)号CN201610221993.4,是一种基于时空约束的目标重识别方法,该种方法对每对邻接的摄像头给定一个最短运动时间,并根据韦伯分布,以及测量到的候选目标出现时间,给出目标在该时刻出现的概率,并结合视觉匹配特征给出联合概率分布,但是该种方法没有考虑目标的实时运动状态,该种方法对于特定时刻目标出现概率完全依赖于测量时间,主要有两个问题:首先,该专利根据的时刻描述是各个摄像机自带时钟的本地时刻,而未描述为统一的全球定位授时信息,从而可能因为不同摄像头的时钟不同步导致时刻不同步,进而直接影响整个预测结果。此外更重要的,该专利只考虑了跨越时间、空间距离等共性问题,没有考虑目标位移方向及速度等个性问题:对邻接摄像机直接指定最短运动时间,该值体现出的信息量与GIS信息上邻接摄像机的路径距离没有本质区别,仅仅是空间距离约束的体现;而在实际情况中,不同的目标之间有速度等个性差异,有的目标运动速率较快,有的较慢,如果要更准确给出目标出现在摄像机视野内的时间估计,就必须结合目标的实时运动信息,以此来计算、预测不同目标可能的到达时间。举例说明,有两个视觉特征相似的目标在摄像机A视野内,要运动至摄像机B,一个是跟踪目标,另一个不是,按照该专利的算法,得到的两个目标进入时刻的概率分布是完全一致的韦伯分布,但是如果两个目标运动速率一个快一个慢,那么他们到达B的时间就会有较大差异,而与申请(专利)号CN201610221993.4提供的方法得出的结论就完全不一样了,导致候选目标筛选的不精确。
在进一步的检索中,目前尚未发现即结合视觉特征、时空约束,又能结合目标个体的运动信息,且采用全球统一授时来进行时间同步的目标重识别方法。
发明内容
针对现有目标重识别方法以利用目标视觉特征为主、时空关联信息利用不足的现状,提供一种时空关联的目标重识别方法。
为实现上述目的,本发明采用如下技术方案:本发明结合视频数据中目标的像素运动速率,估算出每段视频数据中目标跨越两个距离一定的相邻摄像头的时长的概率分布;基于该时长概率,即可先对出现在视频中的候选目标进行筛选预处理,滤除超出合理跨越时间区间的候选目标,降低相似目标被误匹配为跟踪目标的概率,产生的匹配结果,即受到时空位置及目标运动信息的约束,相较原先不受约束、仅依赖视觉特征的匹配结构,可有效提升重识别的准确率。
根据本发明的第一目的,提供一种时空关联的目标重识别方法,包括:
对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息,并提取待查目标a用于重识别的视觉特征;
利用GIS信息,得到空间上与摄像头Ci相邻且与待查目标a前进方向相匹配的M个摄像头集合,对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到摄像头Ci到摄像头Mj的实际路线长度Li,j;
待查目标a从摄像头Ci到临近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,利用线性速率-时间模型预测得到,利用该预测的跨越时间将摄像头Mj中出现在时间区间的目标作为重识别的候选目标,其中δ是的统计标准差,即假定服从正态分布,利用训练数据得到其标准差作为δ;
对摄像头Mj中的每个候选目标b,提取其用于重识别的视觉特征,利用候选目标b首次出现在摄像头Mj时同步采集到的全球统一的授时信息,作为该目标在摄像头Mj的出现时间te;利用运动跟踪计算得到每个候选目标b在摄像头Mj中的像素运动速率Vb,利用线性速率-时间模型预测得到其跨越的时间 对摄像头Mj中每一对(Vb,Li,j),候选目标b的跨越时间假定服从一个均值为tmean、方差为σ2的正态分布,基于该分布,计算候选目标b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mi的概率Ptimespace((te-ts))~N(tmean,σ2);
基于待查目标a及候选目标b的视觉特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
作为优选,所述利用跟踪结果获取其像素运动速率Va和运动方向信息,是指:像素运动速率是以图像像素为单位距离、图像采集时间间隔为时间单位的运动速度,并不涉及实际目标运动速率,故不需要进行标定,也无需增加额外的采集设备;运动方向则是结合摄像头标定信息,将图像在平面空间上每N度分割为一个方向区间,目标运动方向落在哪个区间,即以该区间作为目标的运动方向。
作为优选,所述利用跟踪结果获取其像素运动速率Va和运动方向信息,其中:像素运动速率是以图像像素为单位距离、图像采集时间间隔为时间单位的运动速度,并不涉及实际目标运动速率;运动方向则是结合摄像头标定信息,将图像在平面空间上每N度分割为一个方向区间,目标运动方向落在哪个区间,即以该区间作为目标的运动方向。
作为优选,所述利用GIS信息,得到空间上与摄像头Ci相邻且与待查目标a前进方向相匹配的M个摄像头集合,是指:以待查目标a运动方向区间为中心,加上空间相邻的两个区间,作为相邻摄像头的搜索范围,处在该方向范围、且与摄像头Ci空间上相邻接的摄像头,构成与待查目标a前进方向相匹配的邻接摄像头集合。
对于一个像素速度为Va的目标,跨越路径Li,j的时间,满足线性关系:
式中:ɑ、β为模型参数,这个线性关系模型利用线下采集到的训练数据,进行拟合得到模型的各个参数;模型参数能根据在线采集到的数据,进行动态学习更新。
作为优选,在图像采集时通过读取采集设备自带GPS或北斗全球授时模块,或其他全球授时设备及模块,获得的具有全球统一的授时信息,作为设备在采集本帧图像时的生成时间,并以候选目标b在Mj首次出现图像的生成时间作为出现时间te。
对于一个像素速度为Vb的目标,跨越路径Li,j的时间,满足线性关系:
式中:η、θ为模型参数,这个线性关系模型利用线下采集到的训练数据,进行拟合得到模型的各个参数;模型参数能根据在线采集到的数据,进行动态学习更新。
将候选目标b的像素运动速率,量化为M个速率等级,落在一个速率等级的像素速率Vb,用该等级区间的平均速率Vmean来代替原速率;对于每一个给定的条件组合(Vmean,Li,j),候选目标b的跨越时间服从一个参数为(tmean,σ2)的正态分布,这个正态分布的参数(tmean,σ2),由线下采集到的训练数据进行训练拟合得到;这些模型参数,也可根据在线采集到的数据,进行动态学习更新。
作为优选,所述基于该分布,计算候选目标b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mi的概率Ptimespace((te-ts))~N(tmean,σ2),是指:
假定目标b为待查目标,则其从摄像头Ci到摄像头Mj的真实跨越时间tb=te-ts,因跨越时间服从正态分布,利用正态分布模型及该真实跨越时间,计算得到以该时间跨越Ci到Mj的概率并以此概率作为候选目标b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mi的概率
根据本发明的第二目的,提供一种时空关联的目标重识别***,包括:
目标检测与跟踪模块:对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息;
视觉特征提取与重识别模块:基于目标检测与跟踪模块的结果,提取每个待查目标及候选目标的用于重识别的视觉特征;利用GIS信息得到空间上与摄像头Ci相邻、且与待查目标a前进方向相匹配的M个摄像头集合,对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到摄像头Ci到摄像头Mj的实际路线长度Li,j;待查目标a从摄像头Ci到临近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,利用线性速率-时间模型预测得到;利用该预测的跨越时间将摄像头Mj中出现在时间区间的目标作为重识别的候选目标,其中δ是的统计标准差,即假定服从正态分布,利用训练数据得到其标准差作为δ;
时空关联与目标筛选模块:对摄像头Mj中的每个候选目标b,利用其首次出现在摄像头Mj时同步采集到的全球统一的授时信息,作为该目标在摄像头Mj的出现时间te;利用运动跟踪计算得到每个候选目标在摄像头Mj中的像素运动速率Vb;同样地,利用一个线性速率-时间模型预测得到其跨越的时间对摄像头Mj中每一对(Vb,Li,j),候选目标b的跨越时间假定服从一个均值为tmean、方差为σ2的正态分布,基于该分布,计算b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mi的概率Ptimespace((te-ts))~N(tmean,σ2);
识别概率计算与重排序模块:基于待查目标a及候选目标b的视觉信息特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
本发明上述的待查目标a、候选目标b的视觉特征包括但不限于颜色纹理等传统人工设计特征,以及深度神经网络模型学习到的深度特征。本发明使用结合实际距离变化信息的视频数据进行分析,实时计算目标的运动速度,预计目标出现的时间,滤除超出合理区间范围的候选目标,提升目标重识别问题的准确率。
与现有技术相比,本发明实施例具有以下效果:
本发明所述的方法和***,是一种结合目标运动信息,对一般仅使用图像数据或时间、位置数据进行的目标重识别问题,提升重识别过程准确率的方法。
本发明所述的方法和***,利用跨摄像头视频数据在时间、空间上的关联关系,以及目标个体的运动信息,对重识别候选目标在时空上进行关联,滤除或降低时空上非关联的候选目标,从而获得更精确的候选目标范围,有效提升目标重识别的精度。
附图说明
图1为本发明一实施例中时空关联的目标重识别实施例模块示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本发明结合视频数据中目标的像素运动速率,估算出每段视频数据中目标跨越两个距离一定的相邻摄像头的时长的概率分布;基于该时长概率,即可先对出现在视频中的候选目标进行筛选预处理,滤除超出合理跨越时间区间的候选目标,降低相似目标被误匹配为跟踪目标的概率。
具体的,在本发明时空关联的目标重识别方法的实施例中,可以参照以下步骤进行:
S1:对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息,并提取其用于重识别的视觉特征;其中视觉特征包括但不限于颜色纹理等传统人工设计特征,以及深度神经网络模型学习到的深度特征。
S2:利用GIS信息,得到空间上与Ci相邻、且与待查目标前进方向相匹配的M个摄像头集合;对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到Ci—〉Mj的实际路线长度Li,j;
S4:对Mj中的每个候选目标b,一方面提取其用于重识别的视觉特征,这里视觉特征包括但不限于颜色纹理等传统人工设计特征,以及深度神经网络模型学习到的深度特征;另一方面,利用候选目标b首次出现在Mj时同步采集到的全球统一的授时信息,作为该目标在Mj的出现时间te;利用运动跟踪计算得到每个候选目标在Mj中的像素运动速率Vb;同样地,利用一个线性速率-时间模型预测得到其跨越的时间对Mj中每一对(Vb,Li,j),候选目标b的跨越时间可以假定服从一个均值为tmean,方差为σ2的正态分布。基于该分布,计算b在给定(Vb,Li,j)条件下的以时刻te出现在Mi的概率Ptimespace((te-ts))~N(tmean,σ2);
S5:基于待查目标a及候选目标b的视觉特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
当然上述实施例步骤执行顺序也可以根据实际情况做调整,并不要求严格按照上述的步骤进行,这对本领域技术人员来说,是可以理解的。
本实施例中,所述S1中:利用跟踪结果获取其像素运动速率Va和运动方向信息,是指:像素运动速率是以图像像素为单位距离、图像采集时间间隔为时间单位的运动速度,并不涉及实际目标运动速率,故不需要进行标定,也无需增加额外的采集设备;运动方向则是结合摄像头标定信息,将图像在平面空间上每N度分割为一个方向区间,目标运动方向落在哪个区间,即以该区间作为目标的运动方向。
本实施例中,所述S2中,利用GIS信息,得到空间上与C相邻、且与待查目标前进方向相匹配的M个摄像头集合,是指:以目标运动方向区间为中心,加上空间相邻的两个区间,作为相邻摄像头的搜索范围,处在该方向范围、且与C空间上相邻接的摄像头,构成与待查目标前进方向相匹配的邻接摄像头集合。
本实施例中,所述S3中,待查目标a从Ci到临近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,可利用一个线性速率-时间模型预测得到,具体是指:对于一个像素速度为Va的目标,跨越路径Li,j的时间,满足线性关系:ɑ、β为模型参数;这个线性关系模型可以利用线下采集到的训练数据,进行拟合得到模型的各个参数;这些模型参数,也可根据在线采集到的数据,进行动态学习更新。
本实施例中,所述S4中,对Mj中的每个候选目标b,利用其首次出现在Mj时同步采集到的全球统一的授时信息,作为该目标在Mj的出现时间te,具体是指:在图像采集时通过读取采集设备自带GPS或北斗全球授时模块,或其他全球授时设备及模块,获得的具有全球统一的授时信息,作为设备在采集本帧图像时的生成时间,并以目标b在Mj首次出现图像的生成时间作为b的出现时间te。
本实施例中,所述S4中,利用一个线性速率-时间模型预测得到其跨越的时间具体是指:对于一个像素速度为Vb的目标,跨越路径Li,j的时间,满足线性关系:η、θ为模型参数;这个线性关系模型可以利用线下采集到的训练数据,进行拟合得到模型的各个参数;这些模型参数,也可根据在线采集到的数据,进行动态学习更新。。
本实施例中,所述S4中,对Mj中每一对(Vb,Li,j),候选目标b的跨越时间可以假定服从一个均值为tmean,方差为σ2的正态分布,具体是指:将候选目标b的像素运动速率,量化为M个速率等级;落在一个速率等级的像素速率Vb,用该等级区间的平均速率Vmean来代替原速率;对于每一个给定的条件组合(Vmean,Li,j),目标b的跨越时间服从一个参数为(tmean,σ2)的正态分布,这个正态分布的参数(tmean,σ2),由线下采集到的训练数据进行训练拟合得到;这些模型参数,也可根据在线采集到的数据,进行动态学习更新。
本实施例中,所述S4中,基于该分布,计算b在给定(Vb,Li,j)条件下的以时刻te出现在Mi的概率Ptimespace((te-ts))~N(tmean,σ2),是指:假定目标b为待查目标,则其从Ci到Mj的真实跨越时间tb=te-ts;因为跨越时间服从正态分布,可利用正态分布模型及该真实跨越时间,计算得到以该时间跨越Ci--〉Mj的概率并以此概率作为b在给定(Vb,Li,j)条件下的以时刻te出现在Mi的概率
在上述方法基础上,本发明利用运动信息建模进行目标重识别准确率提升。在另一***实施例中,所述目标重识别***主要包括目标检测与跟踪模块、视觉特征提取与重识别模块、时空关联与目标筛选模块、识别概率计算与重排序模块组成,其中:
目标检测与跟踪模块:对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息;
视觉特征提取与重识别模块:基于目标检测与跟踪模块的结果,提取每个待查目标及候选目标的用于重识别的视觉特征,这里的视觉特征包括但不限于颜色纹理等传统人工设计特征,以及深度神经网络模型学习到的深度特征;利用GIS信息,得到空间上与摄像头Ci相邻、且与待查目标a前进方向相匹配的M个摄像头集合,对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到摄像头Ci到摄像头Mj的实际路线长度Li,j;待查目标a从摄像头Ci到临近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,利用一个线性速率-时间模型预测得到;利用该预测的跨越时间将摄像头Mj中出现在时间区间 的目标作为重识别的候选目标,其中δ是的统计标准差,即假定服从正态分布,利用训练数据得到其标准差作为δ;
时空关联与目标筛选模块:对摄像头Mj中的每个候选目标b,利用其首次出现在摄像头Mj时同步采集到的全球统一的授时信息,作为该目标在摄像头Mj的出现时间te;利用运动跟踪计算得到每个候选目标在摄像头Mj中的像素运动速率Vb;同样地,利用一个线性速率-时间模型预测得到其跨越的时间对摄像头Mj中每一对(Vb,Li,j),候选目标b的跨越时间假定服从一个均值为tmean、方差为σ2的正态分布,基于该分布,计算b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mi的概率Ptimespace((te-ts))~N(tmean,σ2);
识别概率计算与重排序模块:基于待查目标a及候选目标b的视觉信息特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
参照图1所示,在一具体实施例中:
本发明以视频监控***中的跨摄像头行人重识别为实施例,进行应用说明。视频监控***中的跨摄像头行人重识别,是指对出现在初始摄像头C中的某个特定行人目标a,当其离开C进入视频监控网络下的其他摄像头视野时,基于上述的时空关联的目标重识别方法,利用跨摄像头时空关联进行候选目标约束,并与目标本身的视觉信息融合,以联合概率的形式来辅助视觉特征以确定每个候选目标同待检目标a是同一目标的概率。
设初始摄像头C,采集的视频送入目标检测与跟踪模块,对选定的一个行人目标a,作为待查目标进行跟踪;进一步的,可以使用结合深度特征的相关滤波等先进跟踪方法,利用跟踪结果,即在连续时间上的目标跟踪框,计算跟踪框中心随时间的变化情况,获取目标a像素运动速率Va和运动方向信息。同样地,在与C相邻的目标摄像头B,采用同样的目标检测与跟踪模块,进行检测和跟踪分析,得到每个检出的候选目标的像素运动速率等信息。
待查目标摄像头C和目标摄像头B,二者目标检测与跟踪模块输出的目标检测框等内容,送入视觉特征提取与重识别模块,提取视觉特征并基于该特征进行重识别概率Pvision计算。
待查目标摄像头C和目标摄像头B,二者目标检测与跟踪模块输出的目标a像素运动速率Va和运动方向信息,传送至时空关联与目标筛选模块,结合GIS等信息进行候选目标基于时空关联的筛选,计算每个候选目标时空约束下的识别概率Ptimespace。
视觉特征提取与重识别模块、时空关联与目标筛选模块输出的两个概率,一起送到识别概率计算与重排序模块,进行概率相乘得到新的识别概率,并基于该概率进行重排序,得到最终的重识别结果。
上述实施例所述***的工作过程以及实现的功能如下:
(1)为每个检测目标和候选目标,都生成包含目标运动信息、位置信息、统一授时的时间信息,为视频分析提供准确、具体、同步的时空信息。
(2)结合视觉特征、时空约束,又能结合目标个体的运动信息,且采用全球统一授时来进行时间同步的目标重识别方法。
本发明上述实施例***中各个模块,其具体实现的技术可以采用上述目标重识别方法对应步骤中的相应技术,在此不再赘述。
综上,本发明的目标重识别方法和***,结合视觉特征、时空约束,又能结合目标个体的运动信息,且采用全球统一授时来进行时间同步,三者融合来提升目标重识别准确率。本发明产生的匹配结果,即受到时空位置及目标运动信息的约束,相较原先不受约束、仅依赖视觉特征的匹配结构,可有效提升重识别的准确率。
需要说明的是,本发明提供的所述目标重识别方法中的步骤,可以利用所述目标重识别***中对应的模块、装置、单元等予以实现,本领域技术人员可以参照所述***的技术方案实现所述方法的步骤流程,即,所述***中的实施例可理解为实现所述方法的优选例,在此不予赘述。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的***及其各个装置以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的***及其各个装置以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的***及其各项装置可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (9)
1.一种时空关联的目标重识别方法,其特征在于,包括:
对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息,并提取待查目标a用于重识别的视觉特征;
利用GIS信息得到空间上与摄像头Ci相邻且与待查目标a前进方向相匹配的M个摄像头集合,对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到摄像头Ci到摄像头Mj的实际路线长度Li,j;
待查目标a从摄像头Ci到邻近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,利用线性速率-时间模型预测得到,利用该预测的跨越时间将摄像头Mj中出现在时间区间的目标作为重识别的候选目标,其中δ是的统计标准差,即假定服从正态分布,利用训练数据得到其标准差作为δ;
对摄像头Mj中的每个候选目标b,提取其用于重识别的视觉特征,利用候选目标b首次出现在摄像头Mj时同步采集到的全球统一的授时信息,作为该目标在摄像头Mj的出现时间te;利用运动跟踪计算得到每个候选目标b在摄像头Mj中的像素运动速率Vb,利用线性速率-时间模型预测得到其跨越的时间 对摄像头Mj中每一对(Vb,Li,j),候选目标b的跨越时间假定服从一个均值为tmean、方差为σ2的正态分布,基于该分布,计算候选目标b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mj的概率Ptimespace((te-ts))~N(tmean,σ2);
基于待查目标a及候选目标b的视觉特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
2.根据权利要求1所述的一种时空关联的目标重识别方法,其特征在于,所述利用跟踪结果获取其像素运动速率Va和运动方向信息,其中:像素运动速率是以图像像素为单位距离、图像采集时间间隔为时间单位的运动速度,并不涉及实际目标运动速率;运动方向则是结合摄像头标定信息,将图像在平面空间上每N度分割为一个方向区间,目标运动方向落在哪个区间,即以该区间作为目标的运动方向。
3.根据权利要求1所述的一种时空关联的目标重识别方法,其特征在于,所述利用GIS信息,得到空间上与摄像头Ci相邻且与待查目标a前进方向相匹配的M个摄像头集合,是指:以待查目标a运动方向区间为中心,加上空间相邻的两个区间,作为相邻摄像头的搜索范围,处在该方向范围、且与摄像头Ci空间上相邻接的摄像头,构成与待查目标a前进方向相匹配的邻接摄像头集合。
5.根据权利要求1所述的一种时空关联的目标重识别方法,其特征在于,在图像采集时通过读取采集设备自带GPS或北斗全球授时模块,或其他全球授时设备及模块,获得的具有全球统一的授时信息,作为设备在采集本帧图像时的生成时间,并以候选目标b在摄像头Mj首次出现图像的生成时间作为出现时间te。
9.一种时空关联的目标重识别***,其特征在于,包括:
目标检测与跟踪模块:对于摄像头Ci中一个选定的待查目标a,记录其初始时间ts并开始进行跟踪,利用跟踪结果获取其像素运动速率Va和运动方向信息;
视觉特征提取与重识别模块:基于目标检测与跟踪模块的结果,提取每个待查目标及候选目标的用于重识别的视觉特征;利用GIS信息得到空间上与摄像头Ci相邻、且与待查目标a前进方向相匹配的M个摄像头集合,对该集合中每一个相邻摄像头Mj,利用GIS或人工测量得到摄像头Ci到摄像头Mj的实际路线长度Li,j;待查目标a从摄像头Ci到邻近摄像头Mj的跨越时间ti,j,在路径长度Li,j一定情况下,利用线性速率-时间模型预测得到;利用该预测的跨越时间将摄像头Mj中出现在时间区间的目标作为重识别的候选目标,其中δ是的统计标准差,即假定服从正态分布,利用训练数据得到其标准差作为δ;
时空关联与目标筛选模块:对摄像头Mj中的每个候选目标b,利用其首次出现在摄像头Mj时同步采集到的全球统一的授时信息,作为该目标在摄像头Mj的出现时间te;利用运动跟踪计算得到每个候选目标在摄像头Mj中的像素运动速率Vb;同样地,利用一个线性速率-时间模型预测得到其跨越的时间对摄像头Mj中每一对(Vb,Li,j),候选目标b的跨越时间假定服从一个均值为tmean、方差为σ2的正态分布,基于该分布,计算b在给定(Vb,Li,j)条件下的以时刻te出现在摄像头Mj的概率Ptimespace((te-ts))~N(tmean,σ2);
识别概率计算与重排序模块:基于待查目标a及候选目标b的视觉信息特征,利用目标重识别方法,对每个候选目标b计算其识别概率Pvision;将每个候选目标b的Pvision与Ptimespace相乘,得到的积作为该目标重识别概率,按该概率进行排序,得到重识别的最终结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810543066.3A CN108764167B (zh) | 2018-05-30 | 2018-05-30 | 一种时空关联的目标重识别方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810543066.3A CN108764167B (zh) | 2018-05-30 | 2018-05-30 | 一种时空关联的目标重识别方法和*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108764167A CN108764167A (zh) | 2018-11-06 |
CN108764167B true CN108764167B (zh) | 2020-09-29 |
Family
ID=64004566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810543066.3A Active CN108764167B (zh) | 2018-05-30 | 2018-05-30 | 一种时空关联的目标重识别方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108764167B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902551A (zh) * | 2018-11-09 | 2019-06-18 | 阿里巴巴集团控股有限公司 | 开放场景的实时人流统计方法和装置 |
CN109558831B (zh) * | 2018-11-27 | 2023-04-07 | 成都索贝数码科技股份有限公司 | 一种融合时空模型的跨摄像头行人定位方法 |
CN109598240B (zh) * | 2018-12-05 | 2019-11-05 | 深圳市安软慧视科技有限公司 | 视频目标快速重识别方法及*** |
CN110110598A (zh) * | 2019-04-01 | 2019-08-09 | 桂林电子科技大学 | 一种基于视觉特征与时空约束的行人再识别方法及*** |
CN110087039B (zh) * | 2019-04-30 | 2021-09-14 | 苏州科达科技股份有限公司 | 监控方法、装置、设备、***及存储介质 |
CN110264497B (zh) * | 2019-06-11 | 2021-09-17 | 浙江大华技术股份有限公司 | 跟踪时长的确定方法及装置、存储介质、电子装置 |
CN110728702B (zh) * | 2019-08-30 | 2022-05-20 | 深圳大学 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及*** |
CN110796074B (zh) * | 2019-10-28 | 2022-08-12 | 桂林电子科技大学 | 一种基于时空数据融合的行人再识别方法 |
CN111061825B (zh) * | 2019-12-10 | 2020-12-18 | 武汉大学 | 一种蒙面和换装伪装身份的时空关系匹配关联识别方法 |
CN111178284A (zh) * | 2019-12-31 | 2020-05-19 | 珠海大横琴科技发展有限公司 | 基于地图数据的时空联合模型的行人重识别方法及*** |
CN111666823B (zh) * | 2020-05-14 | 2022-06-14 | 武汉大学 | 基于个体步行运动时空规律协同辨识的行人重识别方法 |
CN113688776B (zh) * | 2021-09-06 | 2023-10-20 | 北京航空航天大学 | 一种用于跨视场目标重识别的时空约束模型构建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098888B1 (en) * | 2008-01-28 | 2012-01-17 | Videomining Corporation | Method and system for automatic analysis of the trip of people in a retail space using multiple cameras |
CN103810476A (zh) * | 2014-02-20 | 2014-05-21 | 中国计量学院 | 基于小群体信息关联的视频监控网络中行人重识别方法 |
CN107133575A (zh) * | 2017-04-13 | 2017-09-05 | 中原智慧城市设计研究院有限公司 | 一种基于时空特征的监控视频行人重识别方法 |
CN107255468A (zh) * | 2017-05-24 | 2017-10-17 | 纳恩博(北京)科技有限公司 | 目标跟踪方法、目标跟踪设备及计算机存储介质 |
CN107545256A (zh) * | 2017-09-29 | 2018-01-05 | 上海交通大学 | 一种结合时空和网络一致性的摄像机网络行人重识别方法 |
-
2018
- 2018-05-30 CN CN201810543066.3A patent/CN108764167B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098888B1 (en) * | 2008-01-28 | 2012-01-17 | Videomining Corporation | Method and system for automatic analysis of the trip of people in a retail space using multiple cameras |
CN103810476A (zh) * | 2014-02-20 | 2014-05-21 | 中国计量学院 | 基于小群体信息关联的视频监控网络中行人重识别方法 |
CN107133575A (zh) * | 2017-04-13 | 2017-09-05 | 中原智慧城市设计研究院有限公司 | 一种基于时空特征的监控视频行人重识别方法 |
CN107255468A (zh) * | 2017-05-24 | 2017-10-17 | 纳恩博(北京)科技有限公司 | 目标跟踪方法、目标跟踪设备及计算机存储介质 |
CN107545256A (zh) * | 2017-09-29 | 2018-01-05 | 上海交通大学 | 一种结合时空和网络一致性的摄像机网络行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
LEARNING DISCRIMINATIVE AND SHAREABLE PATCHES FOR SCENE CLASSIFICATION;Shoucheng Ni;《IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP2016)》;20160321;第1317-1321页 * |
距离度量学***;《中国计量大学学报》;20170213;第27卷(第4期);第424-428,434页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108764167A (zh) | 2018-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764167B (zh) | 一种时空关联的目标重识别方法和*** | |
Wang et al. | Tracklet association by online target-specific metric learning and coherent dynamics estimation | |
CN111144364B (zh) | 一种基于通道注意更新机制的孪生网络目标跟踪方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN112990310A (zh) | 服务于电力机器人的人工智能***及方法 | |
Azevedo et al. | Automatic vehicle trajectory extraction by aerial remote sensing | |
CN110458025B (zh) | 一种基于双目摄像头的目标识别与定位方法 | |
CN110874583A (zh) | 一种客流统计的方法、装置、存储介质及电子设备 | |
CN106251362B (zh) | 一种基于快速相关邻域特征点的滑窗目标跟踪方法及*** | |
CN106815563B (zh) | 一种基于人体表观结构的人群数量预测方法 | |
CN113592905B (zh) | 基于单目摄像头的车辆行驶轨迹预测方法 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN105825520A (zh) | 一种可创建大规模地图的单眼slam方法 | |
CN115376034A (zh) | 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置 | |
CN110119768A (zh) | 用于车辆定位的视觉信息融合***及方法 | |
CN112926522A (zh) | 一种基于骨骼姿态与时空图卷积网络的行为识别方法 | |
Ding et al. | Mit-avt clustered driving scene dataset: Evaluating perception systems in real-world naturalistic driving scenarios | |
Mancusi et al. | Trackflow: Multi-object tracking with normalizing flows | |
CN113076808A (zh) | 一种通过图像算法精准获取双向人流量的方法 | |
CN104915967B (zh) | 一种隧道内车辆运动路径的预测方法 | |
Guo et al. | [Retracted] Research and Implementation of Robot Vision Scanning Tracking Algorithm Based on Deep Learning | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN114372996B (zh) | 一种面向室内场景的行人轨迹生成方法 | |
CN114898287A (zh) | 用于餐盘检测预警的方法、装置、电子设备、存储介质 | |
Song et al. | An accurate vehicle counting approach based on block background modeling and updating |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |