CN111462200B - 一种跨视频行人定位追踪方法、***及设备 - Google Patents

一种跨视频行人定位追踪方法、***及设备 Download PDF

Info

Publication number
CN111462200B
CN111462200B CN202010259428.3A CN202010259428A CN111462200B CN 111462200 B CN111462200 B CN 111462200B CN 202010259428 A CN202010259428 A CN 202010259428A CN 111462200 B CN111462200 B CN 111462200B
Authority
CN
China
Prior art keywords
pedestrian
video
geographic
tracked
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010259428.3A
Other languages
English (en)
Other versions
CN111462200A (zh
Inventor
宋亦然
胡金星
沈策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202010259428.3A priority Critical patent/CN111462200B/zh
Priority to PCT/CN2020/085081 priority patent/WO2021196294A1/zh
Publication of CN111462200A publication Critical patent/CN111462200A/zh
Application granted granted Critical
Publication of CN111462200B publication Critical patent/CN111462200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本申请涉及一种跨视频行人定位追踪方法、***及电子设备。包括:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;对所述监控视频进行行人检测位置计算,获取行人地理位置;结合多个临近视频检测的行人位置信息,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述行人连续时空轨迹。本申请基于视频地理标定引入行人地理位置信息,在跨视频行人重识别时进行最大似然估计,减少视觉人员重识别轨迹追踪算法难度、***复杂度,在多路跨视频***场景下有更好的应用价值。

Description

一种跨视频行人定位追踪方法、***及设备
技术领域
本申请属于行人定位追踪技术领域,特别涉及一种跨视频行人定位追踪方法、***及电子设备。
背景技术
目前行人定位方法主要采用环境测量定位方法和基于摄像头的定位方法。其中,环境测量定位方法是指在室外行人定位或测距。在军用领域可以通过激光测距或超声波测距,精度达到厘米级。虽然这类方法精度高、测量行人具有地理位置信息,但难以进行连续、大范围、多行人测定。
基于摄像头的定位方法分为双目定位和单目定位,其中,双目定位应用于机器人精准定位领域通过构建三维空间的SLAM(simultaneous localization and mapping)方法,即时定位与地图构建,并不适用于公共区域摄像头监控***。且基于视频的单目测距、双目测距的方法存在构建本地数据库工作量大、提取特征信息计算量大、特征信息受外部因素影响严重等问题仍制约着视觉定位的精度和可用性。
地理信息构建方法主要基于其图像内容判断该图像的地理位置信息。一般来说需要对事先存在的带有地理位置标注的图像数据库进行训练得到分类器或者从中查找与查询图像类似的图像。因此,基于图像的地理位置识别都需要首先对图像提取视觉特征用于比对不同图像之间的相似度。然而在传统的监控场景下,无法提前获取这些先验图像数据。
基于摄像头的定位方法由于不属于测量领域,所以需引入图像地理信息构建方法才能获取行人地理信息。在跨视频追踪领域,针对同一行人追踪主要采用引入SIFT参数的方法,即尽可能多的获取待追踪行人的细节并存储到数据库,当同一行人出现会匹配数据库的行人,进行重识别。在重识别领域,常见的跨视频追踪方法有模板匹配,用给定的模板去待匹配图像区域搜索,根据计算的匹配度,得到匹配结果。但是这种行人匹配方法需要事先给定模板,对待搜索待匹配的区域要求严格,由于匹配和搜索的存在,导致在连续视频的计算效率低、耗时长,无法完全应用于多视频***。
另外,现有的行人追踪***主要采用寻找行人、定位行人的方法,在多视频联动下的跨视频追踪时,会引入更多行人特征参数的方法进行追踪。但由于无法获取行人位置信息,现有行人追踪***难以获取行人连续时空轨迹。
发明内容
本申请提供了一种跨视频行人定位追踪方法、***及电子设备,旨在至少在一定程度上解决现有技术中的上述技术问题之一。
为了解决上述问题,本申请提供了如下技术方案:
一种跨视频行人定位追踪方法,包括以下步骤:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
本申请实施例采取的技术方案还包括:在所述步骤a中,所述根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准具体包括:
采用物体识别算法对所述监控视频进行物体识别分类,得到所述监控视频中的参照点;
将所述参照点与所述物体地理数据库中的物体进行匹配,得到所述监控视频中的同名控制点地理位置信息;
采用世界地理坐标系转换方法,对所述监控视频中地面区域的同名控制点进行地理配准,使得所述监控视频具有地理位置信息。
本申请实施例采取的技术方案还包括:在所述步骤a中,所述根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准还包括:
对所述监控视频进行图像预处理,得到经过鱼眼校准的视频图像;
截取所述预处理后的视频图像中的某一帧二维图像,采用边缘检测及分水岭分割方法对所述二维图像进行边缘提取,得到所述二维图像中具有GIS信息的地面区域。
本申请实施例采取的技术方案还包括:在所述步骤b中,所述对所述监控视频进行行人检测位置计算具体为:
采用帧差法对所述监控视频中的运动物体进行检测,并结合人头检测器对待追踪行人的位置进行定位,获取待追踪行人的头部信息。
本申请实施例采取的技术方案还包括:所述人头检测器采用基于卷积神经网络CNN的行人检测方法,所述卷积神经网络包括输入层、卷积层、池化层、全连接层和输出层,复合多个卷积层和池化层对输入数据进行加工,并通过连接层进行与输出目标之间的映射。
本申请实施例采取的技术方案还包括:在所述步骤b中,所述获取行人地理位置还包括:
基于所述头部信息对所述待追踪行人进行移动检测,得到所述待追踪行人的脚下像素点,所述脚下像素点即为待追踪行人的地理位置信息。
本申请实施例采取的技术方案还包括:在所述步骤b中,所述获取行人地理位置还包括:
通过抑制摄像头本身的方法对所述待追踪行人的地理位置信息进行校准。
本申请实施例采取的技术方案还包括:在所述步骤c中,所述采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析还包括:
当所述多路监控视频内存在拍摄场景移动时,则触发地理区域重叠判定;所述地理区域重叠判定具体为:
将所述多路监控视频的拍摄场景的地理信息进行定位,根据重叠的地理位置区域划分各个摄像装置的监控区域;通过连接所述待追踪行人在连续帧中的地理信息空间坐标得到所述待追踪行人的连续轨迹,当所述待追踪行人的地理信息空间坐标超出当前摄像头的监控区域并移动到下一个摄像头的监控区域时,则触发下一个摄像头进行行人轨迹追踪。
本申请实施例采取的另一技术方案为:一种跨视频行人定位追踪***,包括:
视频地理配准模块:用于构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
跨视频行人定位追踪模块:用于对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
多视频轨迹追踪模块:用于结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
本申请实施例采取的又一技术方案为:一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的跨视频行人定位追踪方法的以下操作:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
相对于现有技术,本申请实施例产生的有益效果在于:本申请实施例的跨视频行人定位追踪方法、***及电子设备通过物体识别获取参照物位置信息进行监控视频的地理配准,通过行人检测获取行人地理位置信息、获取其移动时空轨迹,运算简单,且具有地理位置信息,在多路视频***场景下有更好的应用价值。本申请基于视频地理标定引入行人地理位置信息,在跨视频行人重识别时进行最大似然估计,减少视觉人员重识别轨迹追踪算法难度、***复杂度,在多路跨视频***场景下有更好的应用价值。
附图说明
图1是本申请实施例的跨视频行人定位追踪方法的流程图;
图2是本申请实施例的监控视频地理配准算法示意图;
图3(a)为预处理前的视频图像,图3(b)为预处理后的视频图像;
图4为摄像机成像模型示意图;
图5(a)、(b)为像素坐标与世界地理坐标的空间关系示意图,其中,图5(a)为像素坐标,图5(b)为世界地理坐标;
图6是本申请实施例的行人检测算法示意图;
图7是本申请实施例的帧差法流程图;
图8为最大似然估计示例图;
图9是本申请实施例的基于地理区域重叠判定的跨视频行人追踪算法流程图;
图10是本申请实施例的跨视频行人定位追踪***的结构示意图;
图11是本申请实施例提供的跨视频行人定位追踪方法的硬件设备结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
请参阅图1,是本申请实施例的跨视频行人定位追踪方法的流程图。本申请实施例的跨视频行人定位追踪方法包括以下步骤:
步骤100:获取待追踪行人的监控视频;
步骤200:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定监控视频像素点的地理坐标;
本步骤中,物体地理坐标数据库包括百度或者已有的BIM文件数据(建筑工程用数据,包含建筑物外观和地理位置)等第三方地理信息库。为得到更精确的GPS位置信息,采用标准WGS84坐标系的方式进行参照点标定,根据识别物体的BIM(Building InformationModeling,建筑信息模型)信息与公共区域WGS84坐标系的坐标点对应,并作为参照点,提高跟踪行人空间计算的准确度。物体地理数据库应用于世界坐标系和图像坐标系转换后的对应,利用已有物体地理信息和图像识别物体,对监控视频中的像素点与现实实际坐标进行配准,确定监控视频的空间位置坐标。
进一步地,请一并参阅图2,是本申请实施例的监控视频地理配准算法示意图。本申请实施例的监控视频地理配准算法包括:
步骤210:采用物体识别算法对监控视频进行物体识别分类,得到监控视频中的参照点,同时,对监控视频进行图像预处理,得到经过鱼眼校准的视频图像;
步210骤中,物体识别算法包括RCNN、YOLO等方法,通过对监控视频进行物体识别分类,得到监控视频中的参照点,将该参照点与物体地理数据库中的物体进行模糊匹配。
在实际情况中,摄像机由于成像原件制造水平、装配水平等因素影响,视频拍摄时会存在边缘扭曲情况,且越是广角的镜头边缘扭曲越明显,从而导致监控视频的非线性畸变,因此需要对摄像机非线性畸变纠正,提高计算的准确性。本申请通过棋盘矫正法对监控视频进行预处理,计算出鱼眼的内参和矫正系数,然后对监控视频进行矫正及剪裁,去掉部分边缘部分,得到鱼眼校准后的视频图像,预处理后的视频图像可以减少因非线性畸变导致的世界坐标系转换时的误差。具体如图3(a)、(b)所示,其中,图3(a)为预处理前的视频图像,图3(b)为预处理后的视频图像。
具体的,非线性畸变一般为几何畸变,它使像素点坐标与理想像素点坐标存在一定偏移,可表示为:
式(1)中,(u,v)为理想的像素坐标,(u′,v′)为受到畸变影响的像素坐标。非线性畸变δu、δv的表达式可写为:
式(2)中,δu、δv中的第一项受到摄像机元件的影响,第二项和第三项是由于摄像机成像原件的不准确产生,参数p1、p2、k1、k2、s1、s2为非线性畸变参数。通过计算非线性畸变参数的数值,还原图像畸变。
步骤220:将识别到的参照点与物体地理数据库中的物体进行地理配准,得到监控视频中的同名控制点地理位置信息;
步骤230:截取预处理后的视频图像中的某一帧二维图像,采用边缘检测及分水岭分割方法对该二维图像进行边缘提取,得到二维图像中具有GIS信息的地面区域;
步骤230中,利用监控视频的特殊空间结构关系,视频下方区域为地面部分,垂直物体会对地面产生遮挡。因此,本申请通过边缘检测技术和分水岭算法,计算图像的水平结构和垂直结构。
步骤240:采用世界地理坐标系转换的方法,对监控视频中地面区域的同名控制点进行地理配准,使得监控视频具有地理位置信息;
步骤240中,根据世界地理坐标系转换计算得到偏移矩阵,通过图像拉伸、填充、切割等方法,将监控视频中地面区域的每个像素点分别进行地理坐标匹配,得到监控视频中具有地理信息的平面。通过对比物体地理数据库得到识别物体的实际地理位置和观测到的物体的相对位置。由于矩阵计算一般通过四个点完成一个平面的像素坐标和世界坐标转换,因此通过世界坐标系转换矩阵计算得到的结果为预估值,并非准确值。为控制预估值的误差,本申请在有更多的同名控制点的情况下对图像进行约束计算。在有多个三维空间点Xw=(Xw,YW,ZW)T投影到成像平面得到相对应的二维平面点m=(u,v)T时,通过多次三角形区域的矩阵计算,会得到多个三维空间点Xw=(Xw,YW,ZW)T。通过带入多个同名控制点多次计算求均值的方法,可减少因形变量过大导致的计算误差。
摄像机成像模型如图4所示。将客观世界中的一个三维空间点Xw=(Xw,YW,ZW)T投影到成像平面得到相对应的二维平面点m=(u,v)T,是根据不同坐标系之间的坐标变换实现的。具体的,世界坐标系与摄像机坐标系之间的坐标变换公式为:
式(3)中,Xc=(Xc,Yc,Zc)T表示点XW在摄像机坐标系下的三维坐标:R是3×3的旋转变换矩阵,t是3×1的平移变换矩阵,R和t分别代表世界坐标系与摄像机坐标系之间的相对姿态和位置。
摄像机坐标系与图像坐标系之间的坐标变换方法是将摄像机坐标系下的一个三维空间点P(X,Y,Z)投影到成像平面得到对应的二维平面点p(x,y),x、y与X、Y的关系可表示:
式(4)中,f为摄像机焦距。通过已知的具有地理位置信息的世界地理坐标平面点P(X,Y,Z)和成像平面的二维坐标点p(x,y),可以计算出摄像机所拍摄的区域所对应的地理位置。具体如图4所示,为摄像机成像模型示意图。
根据图像坐标系o′xy和像素坐标系o′xy的坐标关系可得:
再有空间几何关系可得:
综合以上公式可得识别的物体或像素区域在地面上的垂直方向距离为:
因此通过Y值可判定出识别物体所在的高度,当Y值小于设定地面的阈值(可根据实际情况设置精确值)时,可判定地面区域,确定地面坐标。通过计算Xc=(Xc,Yc,Zc)T与像素点p(x,y)可计算出偏移矩阵,通过矩阵偏移和填充的方式,可将图片中某一块的地面区域形变为匹配物体地理数据库的实际地面矩阵,实现像素坐标和地理坐标的对应。图5(a)、(b)为像素坐标与世界地理坐标的空间关系示意图,其中,图5(a)为像素坐标,图5(b)为世界地理坐标。
在世界坐标系转换中,由于图像在成像时会存在偏移误差,会导致经过转移矩阵世界坐标系误差更大,因此,为抑制误差,本申请提出多种抑制误差的方法对行人像素点进行位置校准。识别物体后,以物体识别框底部中心点为此物体的地理位置,并作为基准点计算;首先将图像中的二维平面点(x,y)与其在像素坐标系中对应点(u,v)的关系通过下式表示:
用坐标变换形式可将上式表示为:
式(9)中,dx,dy代表像素在摄像u轴和v轴和方向上的物理距离,(u0,v0)是摄像机主点在像素坐标系下的坐标。通过联立可得:
式(10)中,fu,fv分别代表使用像素宽度和高度作单位时的焦距长度。矩阵中的参数被称为摄像机内参数,它们只受相机内部结构和成像特点的影响。矩阵R和矩阵t的参数被称为相机外参数。P=K[R,t]被称为透视投影矩阵。由此实现了平面点与摄像机点的转换,可计算出任何一点(x,y)与已知点(u,v)的距离,进而算出点(x,y)的GPS信息。
步骤300:对监控视频进行行人检测位置计算,获取待追踪行人地理位置;
请一并参阅图6,是本申请实施例的行人检测算法示意图。本申请实施例的行人检测算法包括:
步骤310:对监控视频进行人头检测,获取待追踪行人的头部信息;
步骤310中,人头检测是一种快速识别行人头部模型的方法,适用于多路的监控视频。为提高行人检测的时效性,本申请采用帧差法对监控视频中的运动物体进行检测,并结合人头检测器对人员位置进行定位。人头检测器采用基于卷积神经网络CNN的行人检测方法,卷积神经网络由输入层、卷积层、池化层、全连接层和输出层构成,其复合了多个卷积层和池化层对输入数据进行加工,并在连接层实现与输出行人之间的映射。帧差法流程图如图7所示,其具体包括:记视频序列中第n+1帧、第n帧和第n-1帧的图像分别为fn+1、fn和fn-1,三帧图像对应像素点的灰度值分别记为fn+1(x,y)、fn(x,y)和fn-1(x,y),分别得到差分图像Dn+1和Dn,对差分图像Dn+1和Dn进行操作,然后再进行阈值处理、连通性分析,最终检测出运动物体。
步骤320:基于人头检测结果对待追踪行人进行移动检测(行人位置计算),得到待追踪行人的脚下像素点,即为待追踪行人的地理位置信息;
步骤320中,由于行人是移动物体,根据视频的特点,运动物体的最下面区域为脚站立的位置,即待追踪行人的定位坐标点为脚部区域,而并不能以头部坐标点作为地理位置计算的空间坐标行人,因此本申请通过人头检测和移动检测相结合的方法快速寻找到待追踪行人运动区域对应的脚下像素点,相较于一般行人姿态检测、SIFE特征追踪等方法,本申请具有更快速的检测效率,且在复杂环境下的鲁棒性更强,在行人识别准确率上也具有很好的表现。
步骤330:对待追踪行人的地理位置信息进行校准;
步骤330中,本申请通过抑制摄像头本身的方法对待追踪行人的地理位置信息进行校准,从而减少行人移动时因模糊导致的不确定误差,提高定位准确性。
步骤400:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到待追踪行人连续时空轨迹;
步骤400中,当行人进行跨视频移动时,虽然具有待追踪行人的地理位置信息,但存在无法确定是否为同一行人的情况,本申请通过对多个视频中同一待追踪行人的移动轨迹进行最大似然估计,通过概率计算判断是否为同一行人。具体为:给定一个概率分布D,假定其概率密度函数(连续分布)或概率聚集函数(离散分布)为fD,以及一个分布参数θ,可以从该概率分布D中抽出一个具有n个值的采样x1,x2,...,xn,然后估计θ。通过利用fD计算出其概率:
P=(x1,x2,x3...,xn)=fD(x1,x2,x3...,xn|θ) (11)
最大似然估计会寻找关于θ的最可能的值(即,在所有可能的θ取值中,寻找一个值使这个采样的“可能性”最大化)。要在数学上实现最大似然估计法,首先要定义可能性:
lik(θ)=fD(x1,x2,x3...,xn|θ) (12)
并且在θ的所有取值上,使这个函数最大化。这个使可能性最大的值即为θ的最大似然估计。通过比对两个视频中获取的轨迹,判断最大似然度,设定阈值后,判断是否为同一行人。具体如图8所示,为最大似然估计示例图。
当待追踪行人存在跨视频移动时,会存在拍摄场景移动的情况,此时,本申请将触发地理区域重叠判定,具体如图9所示,是本申请实施例的基于地理区域重叠判定的跨视频行人追踪算法流程图。地理区域重叠判定是将多路监控视频的拍摄场景的地理信息进行定位后,根据重叠的地理位置区域划分各自追踪的监控区域。通过连接待追踪行人在连续帧中的地理信息空间坐标得到待追踪行人的连续轨迹,当待追踪行人的地理信息空间坐标超出当前摄像头的监控区域并移动到下一个摄像头的监控区域时,则触发下一个摄像头进行行人轨迹追踪。
请参阅图10,是本申请实施例的跨视频行人定位追踪***的结构示意图。本申请实施例的跨视频行人定位追踪***包括:
视频地理配准模块:用于构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定监控视频像素点的地理坐标;
跨视频行人定位追踪模块:用于对监控视频进行行人检测位置计算,获取待追踪行人地理位置;
多视频轨迹追踪模块:用于结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到待追踪行人连续时空轨迹。
图11是本申请实施例提供的跨视频行人定位追踪方法的硬件设备结构示意图。如图11所示,该设备包括一个或多个处理器以及存储器。以一个处理器为例,该设备还可以包括:输入***和输出***。
处理器、存储器、输入***和输出***可以通过总线或者其他方式连接,图11中以通过总线连接为例。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述方法实施例的处理方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理***。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入***可接收输入的数字或字符信息,以及产生信号输入。输出***可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器中,当被所述一个或者多个处理器执行时,执行上述任一方法实施例的以下操作:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例提供的方法。
本申请实施例提供了一种非暂态(非易失性)计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行以下操作:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
本申请实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行以下操作:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个临近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
本申请实施例的跨视频行人定位追踪方法、***及电子设备通过物体识别获取参照物位置信息进行监控视频的地理配准,通过行人检测获取行人地理位置信息、获取其移动时空轨迹,运算简单,且具有地理位置信息,在多路视频***场景下有更好的应用价值。同时,本申请基于视频地理标定引入行人地理位置信息,在跨视频行人重识别时进行最大似然估计,减少视觉人员重识别轨迹追踪算法难度、***复杂度,在多路跨视频***场景下有更好的应用价值。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本申请中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本申请所示的这些实施例,而是要符合与本申请所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种跨视频行人定位追踪方法,其特征在于,包括以下步骤:
步骤a:构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
步骤b:对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
步骤c:结合多个邻近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹;
在所述步骤c中,所述采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析还包括:
当所述多路监控视频内存在拍摄场景移动时,则触发地理区域重叠判定;所述地理区域重叠判定具体为:
将所述多路监控视频的拍摄场景的地理信息进行定位,根据重叠的地理位置区域划分各个摄像装置的监控区域;通过连接所述待追踪行人在连续帧中的地理信息空间坐标得到所述待追踪行人的连续轨迹,当所述待追踪行人的地理信息空间坐标超出当前摄像头的监控区域并移动到下一个摄像头的监控区域时,则触发下一个摄像头进行行人轨迹追踪。
2.根据权利要求1所述的跨视频行人定位追踪方法,其特征在于,在所述步骤a中,所述根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准具体包括:
采用物体识别算法对所述监控视频进行物体识别分类,得到所述监控视频中的参照点;
将所述参照点与物体地理数据库中的物体进行匹配,得到所述监控视频中的同名控制点地理位置信息;
采用世界地理坐标系转换方法,对所述监控视频中地面区域的同名控制点进行地理配准,使得所述监控视频具有地理位置信息。
3.根据权利要求2所述的跨视频行人定位追踪方法,其特征在于,在所述步骤a中,所述根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准还包括:
对所述监控视频进行图像预处理,得到经过鱼眼校准的视频图像;
截取预处理后的视频图像中的某一帧二维图像,采用边缘检测及分水岭分割方法对所述二维图像进行边缘提取,得到所述二维图像中具有GIS信息的地面区域。
4.根据权利要求1至3任一项所述的跨视频行人定位追踪方法,其特征在于,在所述步骤b中,所述对所述监控视频进行行人检测位置计算具体为:
采用帧差法对所述监控视频中的运动物体进行检测,并结合人头检测器对待追踪行人的位置进行定位,获取待追踪行人的头部信息。
5.根据权利要求4所述的跨视频行人定位追踪方法,其特征在于,所述人头检测器采用基于卷积神经网络CNN的行人检测方法,所述卷积神经网络包括输入层、卷积层、池化层、全连接层和输出层,复合多个卷积层和池化层对输入数据进行加工,并通过连接层进行与输出目标之间的映射。
6.根据权利要求4所述的跨视频行人定位追踪方法,其特征在于,在所述步骤b中,所述获取待追踪行人地理位置还包括:
基于所述头部信息对所述待追踪行人进行移动检测,得到所述待追踪行人的脚下像素点,所述脚下像素点即为待追踪行人的地理位置信息。
7.根据权利要求6所述的跨视频行人定位追踪方法,其特征在于,在所述步骤b中,所述获取待追踪行人地理位置还包括:
通过抑制摄像头本身的方法对所述待追踪行人的地理位置信息进行校准。
8.一种利用权利要求1所述跨视频行人定位追踪方法的跨视频行人定位追踪***,其特征在于,包括:
视频地理配准模块:用于构建物体地理坐标数据库,根据物体识别对监控视频进行参照点拓扑匹配、视频地理配准,确定所述监控视频像素点的地理坐标;
跨视频行人定位追踪模块:用于对所述监控视频进行行人检测位置计算,获取待追踪行人地理位置;
多视频轨迹追踪模块:用于结合多个邻近视频检测的待追踪行人地理位置,采用最大似然估计方法对多路监控视频进行行人跨视频重识别分析,得到所述待追踪行人连续时空轨迹。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述权利要求1至7任一项所述的跨视频行人定位追踪方法。
CN202010259428.3A 2020-04-03 2020-04-03 一种跨视频行人定位追踪方法、***及设备 Active CN111462200B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010259428.3A CN111462200B (zh) 2020-04-03 2020-04-03 一种跨视频行人定位追踪方法、***及设备
PCT/CN2020/085081 WO2021196294A1 (zh) 2020-04-03 2020-04-16 一种跨视频人员定位追踪方法、***及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010259428.3A CN111462200B (zh) 2020-04-03 2020-04-03 一种跨视频行人定位追踪方法、***及设备

Publications (2)

Publication Number Publication Date
CN111462200A CN111462200A (zh) 2020-07-28
CN111462200B true CN111462200B (zh) 2023-09-19

Family

ID=71680274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010259428.3A Active CN111462200B (zh) 2020-04-03 2020-04-03 一种跨视频行人定位追踪方法、***及设备

Country Status (2)

Country Link
CN (1) CN111462200B (zh)
WO (1) WO2021196294A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070003A (zh) * 2020-09-07 2020-12-11 深延科技(北京)有限公司 基于深度学习的人员追踪方法和***
CN112184814B (zh) * 2020-09-24 2022-09-02 天津锋物科技有限公司 定位方法和定位***
WO2022067606A1 (zh) * 2020-09-30 2022-04-07 中国科学院深圳先进技术研究院 一种行人异常行为检测方法、***、终端以及存储介质
CN112163537B (zh) * 2020-09-30 2024-04-26 中国科学院深圳先进技术研究院 一种行人异常行为检测方法、***、终端以及存储介质
CN112766210A (zh) * 2021-01-29 2021-05-07 苏州思萃融合基建技术研究所有限公司 建筑施工的安全监控方法、装置及存储介质
CN113190711A (zh) * 2021-03-26 2021-07-30 南京财经大学 地理场景中视频动态对象轨迹时空检索方法及***
CN113435329B (zh) * 2021-06-25 2022-06-21 湖南大学 一种基于视频轨迹特征关联学习的无监督行人重识别方法
CN113627497B (zh) * 2021-07-27 2024-03-12 武汉大学 一种基于时空约束的跨摄像头行人轨迹匹配方法
CN113837023A (zh) * 2021-09-02 2021-12-24 北京新橙智慧科技发展有限公司 一种跨摄像头行人自动追踪方法
CN114240997B (zh) * 2021-11-16 2023-07-28 南京云牛智能科技有限公司 一种智慧楼宇在线跨摄像头多目标追踪方法
CN114040168A (zh) * 2021-11-16 2022-02-11 西安热工研究院有限公司 一种用于火力电厂的智慧型电力网络监控机构
CN114550041B (zh) * 2022-02-18 2024-03-29 中国科学技术大学 一种多摄像头拍摄视频的多目标标注方法
CN114842028A (zh) * 2022-05-07 2022-08-02 深圳先进技术研究院 一种跨视频目标跟踪方法、***、电子设备以及存储介质
CN115527162B (zh) * 2022-05-18 2023-07-18 湖北大学 一种基于三维空间的多行人重识别方法、***
CN115033960B (zh) * 2022-06-09 2023-04-07 中国公路工程咨询集团有限公司 Bim模型和gis***的自动融合方法及装置
CN114862973B (zh) * 2022-07-11 2022-09-16 中铁电气化局集团有限公司 基于固定点位的空间定位方法、装置、设备及存储介质
CN115731287B (zh) * 2022-09-07 2023-06-23 滁州学院 基于集合与拓扑空间的运动目标检索方法
CN115578756B (zh) * 2022-11-08 2023-04-14 杭州昊恒科技有限公司 基于精准定位和视频联动的人员精细化管理方法及***
CN115457449B (zh) * 2022-11-11 2023-03-24 深圳市马博士网络科技有限公司 一种基于ai视频分析和监控安防的预警***
CN115856980B (zh) * 2022-11-21 2023-08-01 中铁科学技术开发有限公司 一种编组站作业人员监控方法和***
CN115808170B (zh) * 2023-02-09 2023-06-06 宝略科技(浙江)有限公司 一种融合蓝牙与视频分析的室内实时定位方法
CN115979250B (zh) * 2023-03-20 2023-06-09 山东上水环境科技集团有限公司 基于uwb模块、语义地图与视觉信息的定位方法
CN116189116B (zh) * 2023-04-24 2024-02-23 江西方兴科技股份有限公司 一种交通状态感知方法及***
CN116631596B (zh) * 2023-07-24 2024-01-02 深圳市微能信息科技有限公司 一种放射人员工作时长的监控管理***及方法
CN116740878B (zh) * 2023-08-15 2023-12-26 广东威恒输变电工程有限公司 一种多摄像头协同的全局区域双向绘制的定位预警方法
CN117185064B (zh) * 2023-08-18 2024-03-05 山东五棵松电气科技有限公司 一种智慧社区管理***、方法、计算机设备及存储介质
CN117173215A (zh) * 2023-09-04 2023-12-05 东南大学 一种跨摄像头的内河航船全程轨迹识别方法及***
CN117058331B (zh) * 2023-10-13 2023-12-19 山东建筑大学 基于单个监控摄像机的室内人员三维轨迹重建方法及***
CN117237418B (zh) * 2023-11-15 2024-01-23 成都航空职业技术学院 一种基于深度学习的运动目标检测方法和***
CN118038008A (zh) * 2024-04-15 2024-05-14 武汉人云智物科技有限公司 基于ptz多摄像头联动的水电厂人员定位方法及***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548639B1 (ko) * 2014-12-10 2015-09-01 한국건설기술연구원 감시 카메라 시스템의 객체 추적장치 및 그 방법
CN107153824A (zh) * 2017-05-22 2017-09-12 中国人民解放军国防科学技术大学 基于图聚类的跨视频行人重识别方法
CN109461132A (zh) * 2018-10-31 2019-03-12 中国人民解放军国防科技大学 基于特征点几何拓扑关系的sar图像自动配准方法
WO2019145018A1 (en) * 2018-01-23 2019-08-01 Siemens Aktiengesellschaft System, device and method for detecting abnormal traffic events in a geographical location
CN110147471A (zh) * 2019-04-04 2019-08-20 平安科技(深圳)有限公司 基于视频的轨迹跟踪方法、装置、计算机设备及存储介质
CN110375739A (zh) * 2019-06-26 2019-10-25 中国科学院深圳先进技术研究院 一种移动端视觉融合定位方法、***及电子设备
CN110706259A (zh) * 2019-10-12 2020-01-17 四川航天神坤科技有限公司 一种基于空间约束的可疑人员跨镜头追踪方法及装置
CN110717414A (zh) * 2019-09-24 2020-01-21 青岛海信网络科技股份有限公司 一种目标检测追踪方法、装置及设备
CN110765903A (zh) * 2019-10-10 2020-02-07 浙江大华技术股份有限公司 行人重识别方法、装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105472332B (zh) * 2015-12-01 2018-07-20 广东弘栎电子设备有限公司 基于定位技术与视频技术的分析方法及其分析***
CN105913037A (zh) * 2016-04-26 2016-08-31 广东技术师范学院 基于人脸识别与射频识别的监控跟踪***
US10372970B2 (en) * 2016-09-15 2019-08-06 Qualcomm Incorporated Automatic scene calibration method for video analytics
WO2018087545A1 (en) * 2016-11-08 2018-05-17 Staffordshire University Object location technique
CN107547865A (zh) * 2017-07-06 2018-01-05 王连圭 跨区域人体视频目标跟踪智能监控方法
US20200082561A1 (en) * 2018-09-10 2020-03-12 Mapbox, Inc. Mapping objects detected in images to geographic positions
CN110414441B (zh) * 2019-07-31 2022-05-10 浙江大学 一种行人行踪分析方法及***

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548639B1 (ko) * 2014-12-10 2015-09-01 한국건설기술연구원 감시 카메라 시스템의 객체 추적장치 및 그 방법
CN107153824A (zh) * 2017-05-22 2017-09-12 中国人民解放军国防科学技术大学 基于图聚类的跨视频行人重识别方法
WO2019145018A1 (en) * 2018-01-23 2019-08-01 Siemens Aktiengesellschaft System, device and method for detecting abnormal traffic events in a geographical location
CN109461132A (zh) * 2018-10-31 2019-03-12 中国人民解放军国防科技大学 基于特征点几何拓扑关系的sar图像自动配准方法
CN110147471A (zh) * 2019-04-04 2019-08-20 平安科技(深圳)有限公司 基于视频的轨迹跟踪方法、装置、计算机设备及存储介质
CN110375739A (zh) * 2019-06-26 2019-10-25 中国科学院深圳先进技术研究院 一种移动端视觉融合定位方法、***及电子设备
CN110717414A (zh) * 2019-09-24 2020-01-21 青岛海信网络科技股份有限公司 一种目标检测追踪方法、装置及设备
CN110765903A (zh) * 2019-10-10 2020-02-07 浙江大华技术股份有限公司 行人重识别方法、装置及存储介质
CN110706259A (zh) * 2019-10-12 2020-01-17 四川航天神坤科技有限公司 一种基于空间约束的可疑人员跨镜头追踪方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Aditya Vora et al.FCHD: FAST AND ACCURATE HEAD DETECTION IN CROWDED SCENES.《arXiv》.2019,第1-5页. *
卢文涛 等.基于拓扑结构的地图匹配算法研究.《测控技术》.2010,第29卷(第6期),第73-76页. *

Also Published As

Publication number Publication date
CN111462200A (zh) 2020-07-28
WO2021196294A1 (zh) 2021-10-07

Similar Documents

Publication Publication Date Title
CN111462200B (zh) 一种跨视频行人定位追踪方法、***及设备
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
JP6095018B2 (ja) 移動オブジェクトの検出及び追跡
US11270148B2 (en) Visual SLAM method and apparatus based on point and line features
Sidla et al. Pedestrian detection and tracking for counting applications in crowded situations
CN107767400B (zh) 基于层次化显著性分析的遥感图像序列动目标检测方法
CN104036524A (zh) 一种改进sift算法的快速目标跟踪方法
CN108197604A (zh) 基于嵌入式设备的快速人脸定位跟踪方法
CN103646391A (zh) 一种针对动态变化场景的实时摄像机跟踪方法
Taketomi et al. Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
CN106504274A (zh) 一种基于红外摄像头下的视觉跟踪方法及***
CN106558069A (zh) 一种基于视频监控下的目标跟踪方法及***
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置
CN111829522B (zh) 即时定位与地图构建方法、计算机设备以及装置
CN110636248A (zh) 目标跟踪方法与装置
Sen et al. SceneCalib: Automatic targetless calibration of cameras and LiDARs in autonomous driving
CN116128919A (zh) 基于极线约束的多时相图像异动目标检测方法及***
CN116259001A (zh) 一种多视角融合的三维行人姿态估计与追踪方法
CN115880643A (zh) 一种基于目标检测算法的社交距离监测方法和装置
CN113705369A (zh) 基于全景环形透镜的视觉slam***及方法
CN113256736B (zh) 一种基于可观测性优化的多相机视觉slam方法
CN117036404A (zh) 一种单目热成像同时定位与建图方法和***
Sato et al. Camera parameter estimation from a long image sequence by tracking markers and natural features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant