CN112598709B - 一种基于视频流的行人运动速度智能感知方法 - Google Patents

一种基于视频流的行人运动速度智能感知方法 Download PDF

Info

Publication number
CN112598709B
CN112598709B CN202011559927.0A CN202011559927A CN112598709B CN 112598709 B CN112598709 B CN 112598709B CN 202011559927 A CN202011559927 A CN 202011559927A CN 112598709 B CN112598709 B CN 112598709B
Authority
CN
China
Prior art keywords
pedestrian
coordinate system
frame
camera
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011559927.0A
Other languages
English (en)
Other versions
CN112598709A (zh
Inventor
寄珊珊
李特
孟启炜
朱世强
顾建军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202011559927.0A priority Critical patent/CN112598709B/zh
Publication of CN112598709A publication Critical patent/CN112598709A/zh
Application granted granted Critical
Publication of CN112598709B publication Critical patent/CN112598709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视频流的行人运动速度智能感知方法,该方法包括:采用摄像头标定方法获取摄像头内部参数和外部参数,建立图像坐标系到空间坐标系的坐标转换模型;获取监控摄像头下的实时视频流并进行行人目标检测及跟踪,得到行人ID和相应的图像坐标系下的行人检测框粗定位结果;利用人体部件分割模型对得到的行人目标进行部件分割,获取图像坐标系下的行人脚点精定位结果;利用坐标转换模型实现行人脚点从图像坐标系到真实世界中的空间坐标系的位置信息解算,结合视频流帧间隔时间计算行人的运动速度,实现基于摄像头视频流的行人运动速度智能感知方法。

Description

一种基于视频流的行人运动速度智能感知方法
技术领域
本发明涉及机器视觉及深度学习技术领域,具体地涉及一种基于视频流的行人运动速度智能感知方法。
背景技术
针对监控摄像头下的行人进行检测、跟踪、空间位置定位以及实时运动速度计算等智能感知,对于帮助建立智能安防、解放人力具有重要意义。
传统的依靠外置的传感器或者穿戴在行人身上的外部物件来获取目标行人运动信息的方法用户体验不佳,采用基于视觉的智能算法可以实现无接触式的行人空间信息感知及运动速度计算,但在精度方面,受限于图像坐标系到空间坐标系转换模型精度,尤其容易受行人检测框精度的影响。
发明内容
针对现有技术的不足,本发明提供了一种基于视频流的行人运动速度智能感知方法。
本发明的目的是通过以下技术方案实现的:一种基于视频流的行人运动速度智能感知方法,包括以下步骤:
步骤一,采集摄像头下的标定图片并进行摄像头标定,获取监控摄像头的内部参数和外部参数,建立图像坐标系到世界坐标系的坐标转换模型;
步骤二,根据流媒体协议获取监控摄像头实时视频流,采用行人检测模型及多目标跟踪模型进行行人检测及跟踪,输出行人ID及检测框,得到图像坐标系下的行人粗定位结果;
步骤三,根据步骤二中的行人检测框获取行人图片,输入训练好的人体部件分割模型进行行人部件分割,获取图像坐标系下的行人脚点精定位结果;
步骤四,根据行人脚点在图像坐标系下的像素信息,结合步骤一建立的坐标转换模型进行坐标转换计算,得到行人以地平面为二维平面XY轴且垂直于地面为Z轴的空间坐标信息;将所述空间坐标信息结合行人跟踪算法,获取间隔帧下的目标行人空间位置移动距离,再结合间隔帧时间,计算行人运动速度。
进一步地,所述摄像头标定的方法包括获取摄像头内部参数和外部参数,内部参数由棋盘格标定法获取,包括内参矩阵MC和畸变系数dist,外部参数采用ArUcoMarker二维码标定布结合所述监控摄像头的内部参数利用PNP方法进行解算,包括旋转矩阵R和平移矩阵T;
进一步地,步骤三包括如下子步骤:
(3.1)根据步骤二的行人粗定位结果,从监控摄像头实时视频流的原始图像帧中切分出所有行人图片进行批处理,然后输入训练好的人体部件分割模型进行行人分割,输出行人部件分割结果;
(3.2)根据行人分割结果判断视频帧图像中是否包含行人脚点,如果不包含行人脚点,则不进行坐标转换计算;若包含行人脚点,则通过尺度换算转换到原始视频图像帧的像素坐标,再根据行人脚点像素的下边界结果修正行人检测框的下边框,输出修正后行人检测框的左下角与右下角连线的中点,作为行人脚点精定位输出值。
进一步地,所述人体部件分割模型的训练过程为:采用PPSS dataset作为训练集,输入人体部件分割模型,采用随机梯度下降方式进行训练,设置初始学习率为0.03,并以线性衰减的学习策略来更新学习率,当训练次数或者损失函数的达到阈值后,完成对人体部件分割模型的训练。
进一步地,所述行人运动速度
Figure BDA0002860053520000021
计算过程为:
Figure BDA0002860053520000031
其中,
Figure BDA0002860053520000032
表示ID为i的行人在第N-k帧时的地面二维坐标系下的横坐标,
Figure BDA0002860053520000033
表示ID为i的行人在第N-k帧时的地面二维坐标系下的纵坐标,
Figure BDA0002860053520000034
表示ID为i的行人在第N帧时的地面二维坐标系下的横坐标,
Figure BDA0002860053520000035
表示ID为i的行人在第N帧时的地面二维坐标系下的纵坐标,f为视频流帧频率,k为间隔帧数。
与现有技术相比,本发明具有如下有益效果:采用无接触式的智能感知方法,利用坐标转换模型实现空间位置信息解算并结合视频流帧间隔时间计算行人的运动速度;在图像坐标系到空间坐标系转换中,模型精度受限于行人脚点位置信息,而仅采用行人检测模型的得到的检测框比较粗糙,且在行人遮挡情况下,行人检测框给出的行人下边界并不是真实的行人的脚点位置的下边界,容易造成较大误差;在行人检测输出的检测框的基础上采用行人部件分割网络进行人体部件分割,可以进行行人脚点判断并获得图像坐标系下更精准的像素级的行人脚点位置;从而可以得到更精确的行人空间位置,后续的行人运动速度感知的计算精度也相应的有所提升,精度可以达到厘米级。
附图说明
图1为本发明基于视频流的行人运动速度智能感知方法流程图。
具体实施方式
如图1为本发明基于视频流的行人运动速度智能感知方法流程图,所述行人运动速度智能感知方法包括如下步骤:
步骤一,采集摄像头下的标定图片并进行摄像头标定,获取监控摄像头的内部参数和外部参数,建立图像坐标系到世界坐标系的坐标转换模型;
制作内角点为11*8的棋盘格标定板,并采集不同位置、不同角度、不同姿态下的约20张左右的棋盘格标定图片;检测棋盘格标定图片的角点,并在此基础上寻找亚像素角点,对于检测出的角点数小于88的图片进行剔除,根据张氏标定法进行摄像头标定,获取摄像头内参矩阵MC和畸变系数dist,采用反向投影误差进行精度判断,并根据畸变系数进行畸变矫正,输出矫正优化后的摄像头的内部参数;
采用ArUco二维码字典生成用于外参标定的二维码marker并制作标定布,标定布上的二维码marker数量为5*5,每个marker的长度为50cm,marker之间的间隔也是50cm,选取比较大的marker尺寸是为了满足监控摄像头能够识别监控视域内较远处的二维码标志点。将二维码标定布平整的放置于地面,采集图片并检测标定图片中的二维码标志点,当检测出的二维码标志点大于等于4个时,获取标志点的像素坐标,结合摄像头内部参数进行PNP解算,计算摄像头旋转矩阵R和平移矩阵T,获取摄像头的外部参数。
根据室内监控场景下部署的监控摄像头的视场范围,建立以地平面为二维平面X轴和Y轴、垂直于地面为Z轴的三维世界坐标系,并选取适当的参考点作为坐标原点。结合摄像头内部参数和外部参数,建立图像坐标系和世界坐标系的转换关系:
Figure BDA0002860053520000041
由P-1·P=E可以得到:
Figure BDA0002860053520000042
从而得到二维图像坐标系到三维世界坐标系的转换公式:
Figure BDA0002860053520000043
其中,ZC表示相机坐标,[u,v]表示图像像素坐标,[XW,YW,ZW]表示行人目标所在的世界坐标,R表示监控摄像头旋转矩阵,T表示监控摄像头平移矩阵,MC表示监控摄像头内参矩阵。对于未知参数ZC求解如下:
Figure BDA0002860053520000051
Figure BDA0002860053520000052
R-1·T=P2,由
Figure BDA0002860053520000053
第三行为1可以得到:ZC·P1[2]=Zw·P2[2],由此得到ZC=(Zw+P2[2])/P1[2];
上述二维图像坐标系到三维世界坐标系的所有参数均已求出,并将求出的图像坐标系下的行人脚点的坐标[u,v]带入,且令三维世界坐标系中的垂直于地面坐标轴为Zw=0,即可得到行人在空间坐标系下坐标输出结果。
步骤二,根据流媒体协议获取监控摄像头实时视频流,帧率为25fps,分辨率为1920*1080;采用行人检测模型及多目标跟踪模型进行行人检测及跟踪,输出行人ID及检测框,得到图像坐标系下的行人粗定位结果;
所述行人检测模型采用YoloV3算法,主干网络为Darknet53;预处理后的输入图片尺寸为416*416,网络输出的检测框为[(13*13)+(26*26)+(52*52)]*3=10647个,然后采用非极大抑制NMS算法对输出的检测框进行后处理,并根据设置的阈值及置信度进行边框筛选,得到行人检测的输出;
所述多目标跟踪模型采用基于Deepsort的多目标跟踪算法进行行人持续跟踪,首先采用卡尔曼滤波器对行人的运动状态进行估计,并根据当前帧的检出框位置与卡尔曼滤波器预测的位置的马氏距离进行运动信息关联;外观信息关联首先采用基于Resnet50的行人ReID特征提取网络进行外观特征提取,特征维数为512,然后采用欧氏距离进行相似度计算,并通过设置的阈值进行关联成功与否的判断,最终结合运动特征和外观特征两种关联进行线性加权作为最终的关联结果;当检测框中没有匹配到任何***中的目标,则认为可能出现新目标,若连续3帧该新目标的卡尔曼预测结果都能与检测结果匹配,将该目标的***加入到跟踪列表中,分配新的ID,如果已跟踪的目标连续超过3帧没有匹配到检测框,并且通过设置最大存活周期来判断是否该目标进行删除,从而实现连续帧视频图像下的多行人持续跟踪,得到行人ID。
步骤三,根据步骤二中的行人检测框获取行人图片,输入训练好的人体部件分割模型进行行人部件分割,获取图像坐标系下的行人脚点精定位结果;
所述人体部件分割模型采用语义分割网络DeepLab V3+,主干网络采用轻量级网络MobileNet V2,所述分割模型包含编码器模块和解码器模块,编码器模块通过多层卷积层串联进行特征提取,然后通过空洞空间金字塔池化模块获取多尺度特征;解码器模块采用双线性差值进行两次上采样,其中第一次上采样融合了解码器模块网络中的具有相同分辨率特征的底层特征,通过两次上采样后分割网络可以输出恢复到原始输入尺寸的特征像素。所述人体部件分割模型的训练过程为:采用PPSS dataset作为训练集,输入人体部件分割模型,采用随机梯度下降方式进行训练,设置初始学习率为0.03,并以线性衰减的学习策略来更新学习率,当训练次数或者损失函数的达到阈值后,完成对人体部件分割模型的训练,本领域技术人员可以采用Softmax Loss损失函数作为人体部件分割模型的损失函数。
步骤三具体包括如下子步骤:
(3.1)根据步骤二的行人粗定位结果,从监控摄像头实时视频流的原始图像帧中切分出所有行人图片进行批处理,将N*C*H*W输入训练好的人体部件分割模型中进行行人分割,输出行人部件分割结果,其中N为单帧图像中的行人目标个数,C为输入图像的通道数:C=3,H为图像高:H=160,W为图像宽:W=80,经过特征编码单元得到降维后的语义特征图,然后经过特征解码单元两次上采样后恢复到原图输入分辨率的特征,特征像素值的取值集合为{0,1,2,3,4,5,6,7},分别代表人体部件:头发、脸、上身、手臂、下身、腿、脚以及背景;
(3.2)经过训练好的人体部件分割模型处理后可以在行人检测框的基础上进一步得到人体像素级别的细粒度语义分割结果,从而进一步对行人检测框进行修正;根据行人分割结果判断视频帧图像中是否包含行人脚点,如果不包含特征值6(6标志行人脚点像素值),说明当前行人不存在脚点行人脚点,则不进行坐标转换计算;应当说明的是,对于不存在脚点的情形可能是因为行人之间的遮挡现象,当目标再次出现时我们可以根据行人跟踪算法进行持续跟踪,并根据记录的时间间隔和移动距离进行后续的行人移动速度的计算。若包含行人脚点,则通过尺度换算转换到原始视频图像帧的像素坐标,再根据行人脚点像素的下边界结果修正行人检测框的下边框,输出修正后行人检测框的左下角与右下角连线的中点,作为行人脚点精定位输出值。
步骤四,根据行人脚点在图像坐标系下的像素信息,结合步骤一建立的坐标转换模型进行坐标转换计算,得到行人以地平面为二维平面XY轴且垂直于地面为Z轴的空间坐标信息;将所述空间坐标信息结合行人跟踪算法,获取间隔帧下的目标行人空间位置移动距离,再结合间隔帧时间,计算行人运动速度。
(4.1)根据行人检测框及行人部件分割网络确定的行人脚点在图像坐标系下的二维图像坐标[u,v],结合步骤一建立的图像坐标系到世界坐标系的转换模型得到:
Figure BDA0002860053520000071
带入相应的参数,即可得到行人脚点在世界坐标系下的坐标[X,Y,Z];
(4.2)结合行人跟踪算法,可以得到连续间隔帧下的行人ID及相应的行人空间坐标信息;理想情况下行人脚点在地面的高度为0,即Z=0,所以可以得到行人脚点在以地平面为二维平面的XY轴坐标[X,Y],假设对于持续跟踪的行人其身份ID为i,其在第N-k帧时的地面二维坐标下的坐标为
Figure BDA0002860053520000081
在第N帧时的地面二维坐标系的坐标为
Figure BDA0002860053520000082
视频流帧率为f,k为间隔帧数;则当前帧第N帧的行人在二维平面的移动距离可以由欧式距离计算,结合间隔帧的时间,可以得到行人运动速度:
Figure BDA0002860053520000083
通过消息中间件将行人目标ID及行人运动速度发送给前端进行可视化显示,从而完成基于视频流的行人运动速度的智能感知。
综上所述,本申请利用部署在监控点的摄像头获取视频流,采用无接触式的视觉感知算法获取目标行人的实时运动速度,对于静止行人及行人运动速度过快等行为进行判断,为监控场景下的行人智能感知***提供有效的预警及定制化服务。通过摄像头标定方法实现图像坐标系到真实世界中的空间坐标系的坐标转换,由于转换精度受限于行人脚点在图像坐标系下的定位结果,本发明在行人检测框的基础上采用人体部件分割模型进行进一步的脚点判断及精定位,从而实现更精准基于摄像头视频流的行人运动速度智能感知。

Claims (4)

1.一种基于视频流的行人运动速度智能感知方法,其特征在于,包括以下步骤:
步骤一,采集摄像头下的标定图片并进行摄像头标定,获取监控摄像头的内部参数和外部参数,建立图像坐标系到世界坐标系的坐标转换模型;
步骤二,根据流媒体协议获取监控摄像头实时视频流,采用行人检测模型及多目标跟踪模型进行行人检测及跟踪,输出行人ID及检测框,得到图像坐标系下的行人粗定位结果;
步骤三,根据步骤二中的行人检测框获取行人图片,输入训练好的人体部件分割模型进行行人部件分割,获取图像坐标系下的行人脚点精定位结果;
所述步骤三包括如下子步骤:
(3.1)根据步骤二的行人粗定位结果,从监控摄像头实时视频流的原始图像帧中切分出所有行人图片进行批处理,然后输入训练好的人体部件分割模型进行行人分割,输出行人部件分割结果;
(3.2)根据行人分割结果判断视频帧图像中是否包含行人脚点,如果不包含行人脚点,则不进行坐标转换计算;若包含行人脚点,则通过尺度换算转换到原始视频图像帧的像素坐标,再根据行人脚点像素的下边界结果修正行人检测框的下边框,输出修正后行人检测框的左下角与右下角连线的中点,作为行人脚点精定位输出值;
步骤四,根据行人脚点在图像坐标系下的像素信息,结合步骤一建立的坐标转换模型进行坐标转换计算,得到行人以地平面为二维平面XY轴且垂直于地面坐标轴为Z轴的三维世界坐标系下的空间坐标信息;将所述空间坐标信息结合行人跟踪算法,获取间隔帧下的目标行人空间位置移动距离,再结合间隔帧时间,计算行人运动速度。
2.如权利要求1所述的基于视频流的行人运动速度智能感知方法,其特征在于,所述摄像头标定的方法包括获取摄像头内部参数和外部参数,内部参数由棋盘格标定法获取,包括内参矩阵
Figure 84495DEST_PATH_IMAGE001
和畸变系数dist,外部参数采用ArUcoMarker二维码标定布结合所述监控摄像头的内部参数利用PNP方法进行解算,包括旋转矩阵R和平移矩阵T。
3.如权利要求1所述基于视频流的行人运动速度智能感知方法,其特征在于,所述人体部件分割模型的训练过程为:采用PPSS dataset作为训练集,输入人体部件分割模型,采用随机梯度下降方式进行训练,设置初始学习率为0.03,并以线性衰减的学习策略来更新学习率,当训练次数或者损失函数的达到阈值后,完成对人体部件分割模型的训练。
4.如权利要求1所述基于视频流的行人运动速度智能感知方法,其特征在于,所述行人运动速度
Figure 234854DEST_PATH_IMAGE002
计算过程为:
Figure DEST_PATH_IMAGE003
其中,
Figure 800089DEST_PATH_IMAGE004
表示ID为i的行人在第N-k帧时的地面二维坐标系下的横坐标,
Figure 326886DEST_PATH_IMAGE005
表示ID为i的行人在第N-k帧时的地面二维坐标系下的纵坐标,
Figure 323661DEST_PATH_IMAGE006
表示ID为i的行人在第N帧时的地面二维坐标系下的横坐标,
Figure 520287DEST_PATH_IMAGE007
表示ID为i的行人在第N帧时的地面二维坐标系下的纵坐标,f为视频流帧频率,k为间隔帧数。
CN202011559927.0A 2020-12-25 2020-12-25 一种基于视频流的行人运动速度智能感知方法 Active CN112598709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011559927.0A CN112598709B (zh) 2020-12-25 2020-12-25 一种基于视频流的行人运动速度智能感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011559927.0A CN112598709B (zh) 2020-12-25 2020-12-25 一种基于视频流的行人运动速度智能感知方法

Publications (2)

Publication Number Publication Date
CN112598709A CN112598709A (zh) 2021-04-02
CN112598709B true CN112598709B (zh) 2022-11-01

Family

ID=75201948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011559927.0A Active CN112598709B (zh) 2020-12-25 2020-12-25 一种基于视频流的行人运动速度智能感知方法

Country Status (1)

Country Link
CN (1) CN112598709B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658221B (zh) * 2021-07-28 2024-04-26 同济大学 一种基于单目相机的agv行人跟随方法
CN113840228B (zh) * 2021-08-25 2024-04-02 北京航空航天大学杭州创新研究院 一种基于定位匹配的行人室内定位方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983124B2 (en) * 2009-12-03 2015-03-17 National Institute Of Advanced Industrial Science And Technology Moving body positioning device
JP6276519B2 (ja) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ 人数計測装置および人物動線解析装置
US10372970B2 (en) * 2016-09-15 2019-08-06 Qualcomm Incorporated Automatic scene calibration method for video analytics
US10885667B2 (en) * 2016-09-28 2021-01-05 Chung Ang University Industry Academic Cooperation Foundation Normalized metadata generation device, object occlusion detection device and method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Multi-scale body-part mask guided attention for person reidentification;Cai, H.,et.al;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20191231;全文 *
一种基于图像坐标检测的目标定位方法;梅鸿翔;《计算机与数字工程》;20160320(第03期);全文 *
单目视频人体三维运动高效恢复;陈成等;《计算机辅助设计与图形学学报》;20090815(第08期);全文 *

Also Published As

Publication number Publication date
CN112598709A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
CN111462200B (zh) 一种跨视频行人定位追踪方法、***及设备
JP6095018B2 (ja) 移動オブジェクトの検出及び追跡
CN106846359B (zh) 基于视频序列的运动目标快速检测方法
Sidla et al. Pedestrian detection and tracking for counting applications in crowded situations
CN104204721B (zh) 单个相机距离估计
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN115439424A (zh) 一种无人机航拍视频图像智能检测方法
CN110458877B (zh) 基于仿生视觉的红外与可见光信息融合的导航方法
US20180130217A1 (en) Method and apparatus for performing background image registration
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN112598709B (zh) 一种基于视频流的行人运动速度智能感知方法
CN110941996A (zh) 一种基于生成对抗网络的目标及轨迹增强现实方法和***
CN110390685B (zh) 一种基于事件相机的特征点跟踪方法
CN111247526B (zh) 跟踪二维平面上移动的目标物***置和方向的方法和***
CN114973028B (zh) 一种航拍视频图像实时变化检测方法及***
CN114022910A (zh) 泳池防溺水监管方法、装置、计算机设备及存储介质
CN104200492A (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
CN110458862A (zh) 一种遮挡背景下的运动目标跟踪方法
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置
CN116309686A (zh) 游泳运动员视频定位测速方法、装置、设备及存储介质
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
CN111531546B (zh) 一种机器人位姿估计方法、装置、设备及存储介质
CN108986162B (zh) 基于惯性测量单元和视觉信息的菜品和背景分割方法
Vigus et al. Video object tracking using region split and merge and a Kalman filter tracking algorithm
CN103345762B (zh) 基于流形学习的贝叶斯视觉跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant