CN113093162A - 基于aiot与视频联动的人员轨迹追踪*** - Google Patents

基于aiot与视频联动的人员轨迹追踪*** Download PDF

Info

Publication number
CN113093162A
CN113093162A CN202110397706.6A CN202110397706A CN113093162A CN 113093162 A CN113093162 A CN 113093162A CN 202110397706 A CN202110397706 A CN 202110397706A CN 113093162 A CN113093162 A CN 113093162A
Authority
CN
China
Prior art keywords
node
image
reference node
nodes
propagation path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110397706.6A
Other languages
English (en)
Other versions
CN113093162B (zh
Inventor
徐乙馨
徐致远
沈昀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guoneng Smart Technology Development Jiangsu Co ltd
Original Assignee
Guoneng Smart Technology Development Jiangsu Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guoneng Smart Technology Development Jiangsu Co ltd filed Critical Guoneng Smart Technology Development Jiangsu Co ltd
Priority to CN202110397706.6A priority Critical patent/CN113093162B/zh
Publication of CN113093162A publication Critical patent/CN113093162A/zh
Application granted granted Critical
Publication of CN113093162B publication Critical patent/CN113093162B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/06Systems for determining distance or velocity not using reflection or reradiation using radio waves using intensity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于AIOT与视频联动的人员轨迹追踪***,包括:节点设置模块,用于设置参考节点和待定位的盲节点。环境衰减计算模块,用于获取盲节点与参考节点间的无遮挡环境衰减指数,对场景图像进行分析得到行人关键点、车辆关键点和第一参考节点,根据各车辆轮廓对传播路径的遮挡获得环境衰减补偿指数n′,并根据测距模型计算盲节点到各第一参考节点的距离。空间矩阵获取模块,用于根据参考节点图像生成参考节点矩阵,根据行人关键点得到第一定位范围图像和第二定位范围图像,为像素赋值得到空间特征矩阵。距离补偿模块,用于对空间特征矩阵进行分析得到距离补偿值,并结合之前得到的d,利用加权质心算法得到盲节点的准确坐标。

Description

基于AIOT与视频联动的人员轨迹追踪***
技术领域
本申请涉及无线定位领域,具体涉及一种基于AIOT与视频联动的人员轨迹追踪***。
背景技术
随着无线通信技术的不断发展,蓝牙、zigbee等短距离无线通信技术越来越成熟,短距离无线通信具有功耗低、易集成的特点。如今AIOT(人工智能物联网)快速崛起,AIoT需要收集终端的定位信息来进行数据的整合处理,所以利用短距离无线通信技术在小范围区域内进行精确定位对AIOT来说是必不可少的。
现有技术通常通过RSSI(接收信号强度指示)来估算待定位的无线信号收发端到多个用于参考的无线信号收发端的距离,并对待定位信号收发端进行定位。在无障碍的环境下利用RSSI进行定位准确率高,但在有障碍物的情况下,发送的信号会受障碍物影响产生阴影衰落,导致RSSI值变化,这时利用RSSI进行定位的精度会很不理想。同时信号传播的距离长短也会影响RSSI的值,传播距离较长时信号会产生多径衰落、路径损耗,如果不考虑信号在路径上的损耗也会降低定位精度。
发明内容
针对以上问题,本发明提出一种基于AIOT与视频联动的人员轨迹追踪***。***包括:节点设置模块,用于设置参考节点和待定位的盲节点。环境衰减计算模块,用于获取盲节点与参考节点间的无遮挡环境衰减指数n,对场景图像进行分析得到行人关键点、车辆关键点和第一参考节点,根据各车辆轮廓对传播路径的遮挡获得环境衰减补偿指数n′,并根据RSSI测距模型计算盲节点到各第一参考节点的距离d。空间矩阵获取模块,用于根据参考节点图像生成参考节点矩阵,以行人关键点为中心得到第一定位范围图像,平移得到第二定位范围图像,为像素赋值得到空间特征矩阵。距离补偿模块,用于对空间特征矩阵进行分析得到距离补偿值,并结合之前得到的d,利用加权质心算法得到盲节点的准确坐标。
一种基于AIOT与视频联动的人员轨迹追踪***,其特征在于,该***包括:
节点设置模块,用于设置参考节点和待定位的盲节点;
环境衰减计算模块,用于获取盲节点与参考节点间的无遮挡环境衰减指数n,对场景图像进行分析得到行人关键点、车辆关键点,选出离行人关键点最近的4个第一参考节点,将车辆关键点连接得到车辆轮廓,根据各车辆轮廓对传播路径的遮挡长度获得环境衰减补偿指数n′,所述传播路径为行人关键点和第一参考节点所连线段,根据n′、n、RSSI测距模型计算盲节点到各第一参考节点的距离;
空间矩阵获取模块,用于根据第一参考节点围成的参考节点图像生成参考节点矩阵,以行人关键点为中心得到第一定位范围图像,对第一定位范围图像进行平移得到第二定位范围图像,利用高斯核为第一定位范围图像和第二定位范围图像中像素赋值,输出第一定位范围矩阵和第二定位范围矩阵,叠加参考节点矩阵、第一定位范围矩阵、第二定位范围矩阵得到空间特征矩阵;
距离补偿模块,用于对空间特征矩阵进行分析得到距离补偿值,并结合盲节点到各第一参考节点的距离,利用加权质心算法得到盲节点的准确坐标。
所述参考节点为网格式分布,所述盲节点由行人携带。
所述无遮挡环境衰减指数的获取方法为:在无遮挡时,根据RSSI测距模型计算两两第一参考节点间传播路径的无遮挡环境衰减指数;将第i个第一参考节点Ai与行人关键点连接得到传播路径l′i,找到除Ai外离行人关键点最近的两个第一参考节点Ai1、Ai2,连接得到线段AiAi1、AiAi2,过行人关键点做到AiAi1、AiAi2垂线li1、li2,则第i个第一参考节点对应的传播路径AiAij权重为
Figure BDA0003019176500000021
j取值为1或2。
Ai到行人关键点传播路径的无遮挡环境衰减指数
Figure BDA0003019176500000022
为传播路径AiAij的无遮挡环境衰减指数。
所述环境衰减补偿指数的获取方法为:对于第i个第一参考节点与行人关键点间的传播路径l′i
Figure BDA0003019176500000023
mg为场景图像中汽车总数,lg为第g个车辆遮挡传播路径l′i的长度,Eg为第g个车辆单位遮挡长度的环境衰减补偿指数;最终获得各个第一参考节点到行人关键点传播路径上的修正环境衰减指数n″=n+n′。
所述Eg的计算方法为:对所有进入场景图像的车辆进行编号,在第g个车辆遮挡两参考节点之间的传播路径lA时,计算传播路径lA的环境衰减指数n″g,并根据lA的无遮挡环境衰减指数ng和车辆轮廓对lA的遮挡长度l′A,计算
Figure BDA0003019176500000024
所述第一定位范围图像的长宽比与参考节点图像的长宽比相同,第一定位范围图像与参考节点图像的周长之比为k,
Figure BDA0003019176500000025
lgi为第g个车辆轮廓对第i个第一参考节点与行人关键点间传播路径的遮挡长度,μ为映射因子,mg为场景图像中汽车总数。
所述对第一定位范围图像进行平移得到第二定位范围图像,具体包括:计算行人关键点(xe,ye)与参考节点图像中心点(x0,y0)的坐标差值,Δx=xe-x0,Δy=ye-y0;横坐标平移量为Δx′=kΔx、纵坐标平移量为Δy′=kΔy,根据横、纵坐标平移量对第一定位范围图像进行平移得到第二定位范围图像。
所述利用高斯核为第一定位范围图像和第二定位范围图像中像素赋值具体为:高斯核尺寸等于第一定位范围图像最长边的边长,分别以两个定位范围图像的中心点为高斯核的中心,将高斯核中的值赋给第一、第二定位范围图像对应的像素。
所述距离补偿模块包括:二维卷积编码器层,用于拟合空间特征矩阵中的空间特征,经过展开操作后得到一维特征向量;全连接网络层,用于处理一维特征向量,得到距离补偿值;定位算法层,用于根据补偿后的距离和第一参考节点的坐标,采用加权质心算法计算盲节点的准确坐标。
加权质心算法为:
Figure BDA0003019176500000031
(x、y)为盲节点的准确坐标,(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)为第一参考节点的坐标,d1、d2、d3、d4为环境衰减计算模块得到的盲节点到四个第一参考节点的距离,d′1、d′2、d′3、d′4为各个第一参考节点的距离补偿值。
本发明和现有技术相比有如下有益效果:
(1)根据图像获得参考节点到盲节点的距离,并对环境衰减系数进行加权,考虑了盲节点到参考节点的距离,提高了无障碍物时定位精度。
(2)通过神经网络识别图像中障碍物,并根据障碍物轮廓对节点间信号传播路径的阻挡调整环境衰减指数,实现了环境衰减指数的动态调整,使定位方法适应性更强,能在不同的遮挡情况下调整环境衰减指数。
(3)通过视频对行人关键点进行粗定位,结合行人关键点到节点区域四个节点的距离生成定位范围矩阵,通过神经网路提取矩阵中误差范围内点和四个节点的空间关系,来对加权质心定位算法进行补偿,能更准确地获得盲节点的定位。
附图说明
图1为***结构图。
图2为第一参考节点围成区域图。
图3为车辆遮挡图。
图4为距离补偿模块结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例一:
本发明的主要目的是实现盲节点的精确定位。
为了实现本发明所述内容,本发明设计了一种基于AIOT与视频联动的人员轨迹追踪***,***结构图如图1所示。
RSSI就是接受信号强度指示,本发明针对的是在有车辆来往的区域对携带信号收发装置的人员进行定位,在实际信号传播中,能够根据接受信号强度来确定传播距离。测距公式为
Figure BDA0003019176500000032
RSSI为信号接收节点收到信号的强度,d为信号发送节点到信号接收节点的距离,d0为参考距离,为了计算方便d0通常取1m。此时A就表示接收节点与发送节点之间距离为1m时接收节点接收到的信号强度值。n为环境衰减指数值,表示环境对信号强度的影响大小,与当前环境的复杂程度有关。在n、A、RSSI值已知后,即可根据测距公式计算节点之间的距离d。
节点设置模块。
所述节点设置模块用于接收盲节点的信号,实际应用场景中将待定位的节点称为盲节点,用于定位盲节点的节点称为参考节点,参考节点的位置是已知的。盲节点为行人携带的无线信号收发装置。要实现盲节点的定位需要获得多个参考节点到盲节点的距离d,满足多个d的位置即为盲节点的位置。
首先设置好参考节点并记录参考节点的位置,需要说明的是,参考节点为网格状分布,按顺序连接参考节点可以组成网格状区域。
环境衰减计算模块。
所述环境衰减计算模块用于根据视频来测算盲节点到参考节点的修正环境衰减指数,以提高RSSI测距的准确性。本发明通过图像数据来检测环境中知否存在遮挡,所以需要设置相机。所述相机为广角相机,拍摄范围较大,广角相机的位姿固定,能覆盖整个监控区域。盲节点由行人携带,所以可以根据图像中行人位置得到盲节点的大概位置。
本发明针对监控区域内有来往车辆的情况,计算环境衰减补偿指数n′。在监控区域内车辆是不停移动的,所以由车辆遮挡造成的阴影衰落是动态变化的,环境衰减补偿指数也应该是动态变化的。本发明通过视频识别来实时检测车辆对信号传输路径的遮挡长度来计算环境衰减补偿指数n′。
广角相机采集场景图像,并通过关键点识别网络检测场景图像中关键点,所述关键点包括行人关键点和车辆关键点,行人关键点为人体两脚中心点连线的中点,车辆关键点为车辆的轮子与地面接触的点。行人关键点即盲节点的粗定位,本发明通过人携带的信号接收装置来接收参考节点发送的信号,所以需要获取各个参考节点与行人关键点间的传播路径上车辆的遮挡长度。
关键点识别网络的训练步骤为:以多张场景图像为数据集;对数据集进行标注,标注为场景图像中行人关键点和各个汽车的车辆关键点,生成标注数据;采用均方误差损失函数进行训练。
训练完成后,将场景图像输入训练好的关键点识别网络,检测行人关键点和各个汽车的车辆关键点,并得到关键点在图像坐标系中的坐标。将属于同一汽车的车辆关键点按顺序连接得到车辆轮廓,输出关键点图像。
通过单应性矩阵进行投影变换,将关键点图像转化为俯视视角的图像。广角相机位姿固定,所以可以通过其内参外参获得单应性矩阵来将关键点图像转化为俯视图。投影变换方法多样且公知,不作为本发明的保护内容。在俯视图中建立图像坐标系,获取关键点和参考节点的坐标。
相同条件下信号传播的路径越短,信号在传播中的损耗就越小,所以根据RSSI对盲节点定位不需要所有的参考节点,只需要离行人关键点较近的参考节点即可。本发明选择离行人关键点最近的4个第一参考节点A,第一参考节点围成区域图像如图2。将行人关键点与各第一参考节点A相连,得到四个信号传播路径l′。
首先根据RSSI数学模型计算无遮挡时两两第一参考节点间的无遮挡环境衰减指数n;再将第i个第一参考节点Ai与行人关键点连接得到连线l′i,找到除Ai外离行人关键点最近的两个第一参考节点Ai1、Ai2,连接得到传播路径AiAi1、AiAi2,这两条传播路径上的无遮挡环境衰减指数是已知的,为
Figure BDA0003019176500000051
本发明对
Figure BDA0003019176500000052
进行加权运算来得到l′i对应的无遮挡环境衰减指数。过行人关键点做到AiAi1、AiAi2垂线段li1、li2,信号传播路径AiAij权重为
Figure BDA0003019176500000053
j取1或2。得到两个传播路径的权值后,将权值和对应的无遮挡环境衰减指数相乘并相加得到Ai到行人关键点传播路径的无遮挡环境衰减指数环境衰减指数
Figure BDA0003019176500000054
Figure BDA0003019176500000055
在车辆从外部进入摄像机拍摄范围内,即进入场景图像时,就会检测到车辆的轮廓,对每个车辆轮廓进行编号,可以利用目标跟踪技术在后续的场景图像中找到对应编号的车辆轮廓。
每个车辆的长度、宽度和内部的结构不同,对传播路径的遮挡程度也不同,即对应的环境衰减指数不同。参考节点间环境衰减指数是已知的,可以在车辆轮廓遮挡参考节点间传播路径时计算各个车辆单位遮挡长度的环境衰减补偿指数Eg。具体方法为:
对场景图像中所有的车辆进行编号,在第g个车辆遮挡两参考节点之间的传播路径lA且lA只被该车辆遮挡时,计算传播路径lA的环境衰减指数n″g,同时获取车辆轮廓对lA的遮挡长度l′A。已知传播路径lA的无遮挡环境衰减指数ng,则可以计算第g个车辆单位遮挡长度的环境衰减补偿指数
Figure BDA0003019176500000056
对于第i个第一参考节点与行人关键点间的传播路径l′i,则需要检测各车辆轮廓对l′i的遮挡长度并结合Eg来算出环境衰减补偿指数n′,车辆遮挡图如图3。
Figure BDA0003019176500000057
mg为场景图像中汽车总数,lg为第g个车辆遮挡传播路径l′i的长度,Eg为第g个车辆单位遮挡长度的环境衰减补偿指数。最终获得各个第一参考节点到行人关键点传播路径上的修正环境衰减指数n″=n+n′。
结合行人关键点与各个参考节点之间信号的RSSI值和修正环境衰减指数n″,即可根据RSSI测距模型计算出盲节点到各个节点的距离d,设盲节点到对应第一参考节点的四个距离分别为d1、d2、d3、d4
空间矩阵获取模块。
获得各个节点到盲节点的距离d后,即可根据加权质心算法计算盲节点的坐标,但环境衰减计算模块得到的d没有考虑到信号传播过程中的多径衰落,计算出的d不够准确,为了提高加权质心算法的精确度,本发明采用距离补偿模块进行距离补偿。
本发明通过空间特征矩阵表征盲节点和参考节点在空间上的关系,得到空间特征矩阵的步骤为:
将第一参考节点围成矩形的参考节点图像,根据参考节点图像生成参考节点矩阵,参考节点图像中一个像素对应参考节点矩阵中一个元素,给参考节点矩阵中所有元素赋0值。
以行人关键点为中心得到第一定位范围图像,所述第一定位范围图像为矩形。其长宽比和参考节点图像的长宽比相同,第一定位范围图像的长边与参考节点图像的长边平行。第一定位范围图像与参考节点图像的周长之比为k,
Figure BDA0003019176500000061
lgi为第g个车辆轮廓对第i个第一参考节点与行人关键点间传播路径的遮挡长度,mg为场景图像中汽车总数,μ为映射因子,μ的优选值为0.0045。算出k之后即可令参考节点图像的长和宽与k相乘得到第一定位范围矩阵的长和宽。
对第一定位范围图像进行平移得到第二定位范围图像,具体步骤为:计算行人关键点(xe,ye)与参考节点图像中心点(x0,y0)的坐标差值,Δx=xe-x0,Δy=ye-y0;横坐标平移量为Δx′=kΔx、纵坐标平移量为Δy′=kΔy,根据横、纵坐标平移量对第一定位范围图像进行平移后得到第二定位范围图像。
然后利用高斯核为第一定位范围图像和第二定位范围图像中像素赋值,高斯核尺寸等于第一定位范围图像最长边的边长,分别以两个定位范围图像的中心点为高斯核的中心,将高斯核中的值赋给第一、第二定位范围图像对应的像素。输出第一定位范围矩阵和第二定位范围矩阵。
将参考节点矩阵、第一定位范围矩阵、第二定位范围矩阵叠加起来得到空间特征矩阵。
距离补偿模块。包括二维卷积编码器层、全连接网络层、定位算法层,距离补偿模块结构如图4。用于分析空间特征矩阵,计算盲节点的准确坐标。
将空间特征矩阵输入距离补偿网络,运行时通过二维卷积编码器层对特征矩阵中的空间特征进行拟合,经过展开操作后得到一维特征向量;将所述一维特征向量输入全连接网络层,最终输出4个参考节点的距离补偿值d′;将d′输入定位算法层,通过补偿过的加权质心算法得到盲节点的准确坐标。所述加权质心算法为:
Figure BDA0003019176500000062
(x、y)为盲节点的准确坐标,(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)为第一参考节点的坐标,d1、d2、d3、d4为环境衰减计算模块得到的盲节点到四个第一参考节点的距离,d′1、d′2、d′3、d′4为各个第一参考节点的距离补偿值。
距离补偿网络的训练步骤为:以若干张空间特征矩阵为数据集;对数据集进行标注,标注为盲节点的真实坐标,生成标注数据;使用均方误差损失函数进行训练。
完成训练后,将空间特征矩阵输入训练好的距离补偿网络,根据空间特征计算距离补偿值,最终输出盲节点的准确坐标。
将盲节点的准确定位展示在二维GIS地图上,并且可以跟踪指定盲节点,获取盲节点的轨迹,即可以跟踪装备信号接收设备人员的移动轨迹。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于AIOT与视频联动的人员轨迹追踪***,其特征在于,该***包括:
节点设置模块,用于设置参考节点和待定位的盲节点;
环境衰减计算模块,用于获取盲节点与参考节点间的无遮挡环境衰减指数n,对场景图像进行分析得到行人关键点、车辆关键点,选出离行人关键点最近的4个第一参考节点,将车辆关键点连接得到车辆轮廓,根据各车辆轮廓对传播路径的遮挡长度获得环境衰减补偿指数n′,所述传播路径为行人关键点和第一参考节点所连线段,根据n′、n、RSSI测距模型计算盲节点到各第一参考节点的距离;
空间矩阵获取模块,用于根据第一参考节点围成的参考节点图像生成参考节点矩阵,以行人关键点为中心得到第一定位范围图像,对第一定位范围图像进行平移得到第二定位范围图像,利用高斯核为第一定位范围图像和第二定位范围图像中像素赋值,输出第一定位范围矩阵和第二定位范围矩阵,叠加参考节点矩阵、第一定位范围矩阵、第二定位范围矩阵得到空间特征矩阵;
距离补偿模块,用于对空间特征矩阵进行分析得到距离补偿值,并结合盲节点到各第一参考节点的距离,利用加权质心算法得到盲节点的准确坐标。
2.如权利要求1所述的***,其特征在于,所述参考节点为网格式分布,所述盲节点由行人携带。
3.如权利要求1所述的***,其特征在于,所述无遮挡环境衰减指数的获取方法为:
在无遮挡时,根据RSSI测距模型计算两两第一参考节点间传播路径的无遮挡环境衰减指数;
将第i个第一参考节点Ai与行人关键点连接得到传播路径l′i,找到除Ai外离行人关键点最近的两个第一参考节点Ai1、Ai2,连接得到线段AiAi1、AiAi2,过行人关键点做到AiAi1、AiAi2垂线li1、li2,则第i个第一参考节点对应的传播路径AiAij权重为
Figure FDA0003019176490000011
j取值为1或2;
Ai到行人关键点传播路径的无遮挡环境衰减指数
Figure FDA0003019176490000012
Figure FDA0003019176490000013
为传播路径AiAij的无遮挡环境衰减指数。
4.如权利要求3所述的***,其特征在于,所述环境衰减补偿指数的获取方法为:
对于第i个第一参考节点与行人关键点间的传播路径l′i
Figure FDA0003019176490000014
mg为场景图像中汽车总数,lg为第g个车辆遮挡传播路径l′i的距离,Eg为第g个车辆单位遮挡长度的环境衰减补偿指数;
最终获得各个第一参考节点到行人关键点传播路径上的修正环境衰减指数n″=n+n′。
5.如权利要求4所述的***,其特征在于,所述Eg的计算方法为:
对所有进入场景图像的车辆进行编号,在第g个车辆遮挡两参考节点之间的传播路径lA时,计算传播路径lA的环境衰减指数n″g,并根据lA的无遮挡环境衰减指数ng和车辆轮廓对lA的遮挡长度l′A,计算
Figure FDA0003019176490000021
6.如权利要求1所述的***,其特征在于,所述第一定位范围图像的长宽比与参考节点图像的长宽比相同,第一定位范围图像与参考节点图像的周长之比为k,
Figure FDA0003019176490000022
lgi为第g个车辆轮廓对第i个第一参考节点与行人关键点间传播路径的遮挡长度,μ为映射因子,mg为场景图像中汽车总数。
7.如权利要求6所述的***,其特征在于,所述对第一定位范围图像进行平移得到第二定位范围图像,具体包括:
计算行人关键点(xe,ye)与参考节点图像中心点(x0,y0)的坐标差值,Δx=xe-x0,Δy=ye-y0
横坐标平移量为Δx′=kΔx、纵坐标平移量为Δy′=kΔy,根据横、纵坐标平移量对第一定位范围图像进行平移得到第二定位范围图像。
8.如权利要求1所述的***,其特征在于,所述利用高斯核为第一定位范围图像和第二定位范围图像中像素赋值具体为:高斯核尺寸等于第一定位范围图像最长边的边长,分别以两个定位范围图像的中心点为高斯核的中心,将高斯核中的值赋给第一、第二定位范围图像对应的像素。
9.如权利要求1所述的***,其特征在于,所述距离补偿模块包括:
二维卷积编码器层,用于拟合空间特征矩阵中的空间特征,经过展开操作后得到一维特征向量;
全连接网络层,用于处理一维特征向量,得到距离补偿值;
定位算法层,用于根据补偿后的距离和第一参考节点的坐标,采用加权质心算法计算盲节点的准确坐标;
加权质心算法为:
Figure FDA0003019176490000023
(x、y)为盲节点的准确坐标,(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)为第一参考节点的坐标,d1、d2、d3、d4为环境衰减计算模块得到的盲节点到四个第一参考节点的距离,d′1、d′2、d′3、d′4为各个第一参考节点的距离补偿值。
CN202110397706.6A 2021-04-14 2021-04-14 基于aiot与视频联动的人员轨迹追踪*** Active CN113093162B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110397706.6A CN113093162B (zh) 2021-04-14 2021-04-14 基于aiot与视频联动的人员轨迹追踪***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110397706.6A CN113093162B (zh) 2021-04-14 2021-04-14 基于aiot与视频联动的人员轨迹追踪***

Publications (2)

Publication Number Publication Date
CN113093162A true CN113093162A (zh) 2021-07-09
CN113093162B CN113093162B (zh) 2022-04-01

Family

ID=76677015

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110397706.6A Active CN113093162B (zh) 2021-04-14 2021-04-14 基于aiot与视频联动的人员轨迹追踪***

Country Status (1)

Country Link
CN (1) CN113093162B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947123A (zh) * 2021-11-19 2022-01-18 南京紫金体育产业股份有限公司 人员轨迹识别方法、***、存储介质和设备
CN114399537A (zh) * 2022-03-23 2022-04-26 东莞先知大数据有限公司 一种目标人员的车辆跟踪方法及***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110030397A (ko) * 2009-09-16 2011-03-23 동국대학교 산학협력단 자기 조직화에 기반한 위치 측정 장치, 그 방법 및 기록매체
CN107734479A (zh) * 2017-09-11 2018-02-23 广东广业开元科技有限公司 一种基于无线传感技术的消防人员定位方法、***和装置
CN109782227A (zh) * 2019-02-20 2019-05-21 核芯互联科技(青岛)有限公司 一种基于蓝牙信号rssi的室内定位方法
CN110070027A (zh) * 2019-04-17 2019-07-30 南京邮电大学 基于智能物联网***的行人重识别方法
CN110109055A (zh) * 2019-05-23 2019-08-09 南通云之建智能科技有限公司 一种基于rssi测距的室内定位方法
CN110166935A (zh) * 2019-05-23 2019-08-23 南通云之建智能科技有限公司 一种基于rssi测距的加权质心定位算法
CN112184771A (zh) * 2020-09-30 2021-01-05 青岛聚好联科技有限公司 一种社区的人员轨迹跟踪的方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110030397A (ko) * 2009-09-16 2011-03-23 동국대학교 산학협력단 자기 조직화에 기반한 위치 측정 장치, 그 방법 및 기록매체
CN107734479A (zh) * 2017-09-11 2018-02-23 广东广业开元科技有限公司 一种基于无线传感技术的消防人员定位方法、***和装置
CN109782227A (zh) * 2019-02-20 2019-05-21 核芯互联科技(青岛)有限公司 一种基于蓝牙信号rssi的室内定位方法
CN110070027A (zh) * 2019-04-17 2019-07-30 南京邮电大学 基于智能物联网***的行人重识别方法
CN110109055A (zh) * 2019-05-23 2019-08-09 南通云之建智能科技有限公司 一种基于rssi测距的室内定位方法
CN110166935A (zh) * 2019-05-23 2019-08-23 南通云之建智能科技有限公司 一种基于rssi测距的加权质心定位算法
CN112184771A (zh) * 2020-09-30 2021-01-05 青岛聚好联科技有限公司 一种社区的人员轨迹跟踪的方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113947123A (zh) * 2021-11-19 2022-01-18 南京紫金体育产业股份有限公司 人员轨迹识别方法、***、存储介质和设备
CN113947123B (zh) * 2021-11-19 2022-06-28 南京紫金体育产业股份有限公司 人员轨迹识别方法、***、存储介质和设备
CN114399537A (zh) * 2022-03-23 2022-04-26 东莞先知大数据有限公司 一种目标人员的车辆跟踪方法及***
CN114399537B (zh) * 2022-03-23 2022-07-01 东莞先知大数据有限公司 一种目标人员的车辆跟踪方法及***

Also Published As

Publication number Publication date
CN113093162B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN106793086B (zh) 一种室内定位方法
CN113093162B (zh) 基于aiot与视频联动的人员轨迹追踪***
CN112946628A (zh) 一种基于雷达与视频融合的道路运行状态检测方法及***
CN113064117B (zh) 一种基于深度学习的辐射源定位方法及装置
CN110073362A (zh) 用于车道标记检测的***及方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
KR102145557B1 (ko) 이종 센서 간의 데이터 융합 장치 및 방법
CN104935893A (zh) 监视方法和装置
CN106952289A (zh) 结合深度视频分析的WiFi目标定位方法
CN111257892A (zh) 一种用于车辆自动驾驶的障碍物检测方法
CN104700408A (zh) 一种基于摄像机网络的室内单目标定位方法
CN113705376B (zh) 一种基于rfid和摄像机的人员定位方法及***
CN115731268A (zh) 基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法
CN115359130B (zh) 雷达和相机的联合标定方法、装置、电子设备及存储介质
KR101030317B1 (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
CN114200442B (zh) 一种基于毫米波雷达和视觉的道路目标检测与关联方法
CN106709432B (zh) 基于双目立体视觉的人头检测计数方法
CN116430879A (zh) 基于合作目标的无人机精准引导降落方法及***
CN109521395A (zh) 基于ut-dc的主被动传感器目标定位方法
CN115629386A (zh) 一种用于自动泊车的高精度定位***及方法
CN112884832B (zh) 一种基于多目视觉的智能小车轨迹预测方法
CN115170663B (zh) 跨时空真伪目标多模态关联超远程无源测距方法
CN113838140B (zh) 一种基于三维地图辅助的单目视频行人三维定位方法
Rampa et al. Physical model-based calibration for device-free radio localization and motion tracking
CN116958931B (zh) 用于仓储中车辆碰撞预警的方法及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Personnel Trajectory Tracking System Based on AIOT and Video Linkage

Granted publication date: 20220401

Pledgee: Bank of China Limited Yixing branch

Pledgor: Guoneng smart technology development (Jiangsu) Co.,Ltd.

Registration number: Y2024980012078

PE01 Entry into force of the registration of the contract for pledge of patent right