CN112200076A - 基于头部躯干特征进行多目标跟踪的方法 - Google Patents
基于头部躯干特征进行多目标跟踪的方法 Download PDFInfo
- Publication number
- CN112200076A CN112200076A CN202011076008.8A CN202011076008A CN112200076A CN 112200076 A CN112200076 A CN 112200076A CN 202011076008 A CN202011076008 A CN 202011076008A CN 112200076 A CN112200076 A CN 112200076A
- Authority
- CN
- China
- Prior art keywords
- image
- head
- human body
- target
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到***中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得***在初始化的时候获取的有效信息占比最大化。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于头部躯干特征进行多目标跟踪的方法。
背景技术
多目标跟踪即Multiple Object Tracking(MOT)。其主要任务是给定一个图像序列,找到图像序列中运动的物体,并将不同帧中的运动物体一一对应(Identity),然后给出不同物体的运动轨迹。目前学术界在多目标跟踪(MOT)问题上采用的主流框架是TBD(Tracking-by-Detection),也就是基于检测的跟踪,在这一主流的跟踪框架中,多目标跟踪问题被表述为一个关联匹配问题:某一帧获得的检测结果如果与上一帧获得的检测结果相匹配,从而认定为同一个目标。
随着近年来单目标***不断发展,出现了大量跟踪效果好且运行速度快的***。在之前的工作中,已经有人将单目标***应用于多目标跟踪任务上,并取得了一定的效果,但是单目标***在复杂场景中(例如MOT19数据集)的表现并不理想,因为复杂场景中,检测框内包含了大量的冗余特征和干扰信息,用这些特征和信息来初始化***会对跟踪效果产生极大的影响。
发明内容
有鉴于此,本发明的目的在于提供一种基于头部躯干特征进行多目标跟踪的方法,能够有效地提取检测框中的头部躯干特征,使得***在初始化的时候获取的有效信息占比最大化。
为实现上述目的,本发明采用如下技术方案:
一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:
步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;
步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;
步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;
步骤S4:将得到的单个行人的头部躯干特征输入到***中进行初始化,进而对目标进行跟踪。
进一步的,所述步骤S1具体为:
步骤S11:对视频每一帧图像进行预处理后,利用目标检测网络对其进行检测;
步骤S12:利用行人检测器对视频每一帧的信息进行检测,获得检测结果R,令R={Ki,Pj,det_x,det_y,det_w,det_h,det_c},i=1,2,...M,j=1,2,...N,表示一个视频序列中所有检测结果的集合,其中M表示一个视频序列中所有图像帧的数量,N表示一帧图像中所有被检测到的行人的数量,Ki表示一个视频序列中的第i帧图像,Pj表示此帧图像中的第j个行人,det_x,det_y,det_w,det_h分别表示这个行人的检测框左上角的x坐标、y坐标、以及检测框的宽和高,det_c表示这个检测框的置信度;
步骤S13:令行人检测置信度阈值为Td,行人宽高比阈值为Tr,删除满足下列条件的检测结果:
det_c<Td or det_w/det_h>Tr。
进一步的,所述步骤S2具体为:
步骤S21:将筛选后的检测框resize到预设的尺寸;
步骤S22:将resize后的图像进行预处理,对预处理后图像进行拷贝,将拷贝的图像水平翻转,然后把原图和翻转后的图片输入到人体关键点检测网络中;
步骤S23:获得人体关键点检测网络输出结果S,令S={Jz},z=1,2,...Z,其中Z表示该图像中人体关键点的数量;Jz={jo int_x,jo int_y,jo int_c}表示第z个关键点,其中jo int_x表示人体关键点的x坐标,jo int_y表示人体关键点的y坐标,jo int_c表示这个人体关键点的置信度;
步骤S24:令原图像的人体关键点检测结果为Ssrc,令翻转图像的人体关键点检测结果为Sflip,将两个检测结果进行融合。
进一步的,所述预处理具体为:首先使用高斯滤波去除图像尖锐噪声,接着使用USM锐化增强算法去除细小的干扰细节,计算方法如下:
其中output表示输出的图像,orign_image表示原始图像,gaus_image表示高斯滤波处理后的图像,ω表示USM系数。
进一步的,所述融合的方法如下:
其中csrc表示原图像中人体关键点的置信度,xsrc表示原图像中人体关键点的x坐标,ysrc表示原图像中人体关键点的y坐标,其中cflip表示翻转图像中人体关键点的置信度,xflip表示翻转图像中人体关键点的x坐标,yflip表示翻转图像中人体关键点的y坐标,final_x和final_y分别表示最终融合完成的人体关键点的x和y坐标,final_c表示最终融合完成的人体关键点置信度。
进一步的,所述步骤S3具体为:
步骤S31:对选取的关键点进行筛选,采用基于置信度的筛选方案,令人体关键点检测置信度阈值为Tkp,删除满足以下要求的人体关键点:
jo int_c<Tkp
步骤S32:对筛选后的关键点进行组合,令筛选后的人体关键点集合为Q,遍历集合Q,对整个集合Q分别按照x坐标和y坐标的大小进行排序,找出集合中最上端、最下端、最左端以及最右端的人体关键点,得到一个集合中的最小矩形凸包,所述矩形凸包内的图像内容就是目标的头部躯干特征。
进一步的,所述步骤S4具体为:
步骤S41:令处于正在被跟踪状态的目标集合为Otrack,该集合包含了从视频第一帧开始到当前帧所有处于跟踪状态的目标;
步骤S42:遍历处于正在被跟踪状态的目标集合Otrack,将新获得的头部躯干特征与该集合内所有目标进行IOU以及OKS计算,以确认该目标是否处于跟踪状态;
步骤S43:计算处于被跟踪状态的目标集合中,已存在被跟踪目标的边界框与新获得的头部躯干特征边界框的融合度量值,计算方法如下
若FF大于0.5,则认为该目标存在,不需要重新初始化为新目标,转步骤S1;否则该特征被认定从属于一个新的目标,进行下一步;
步骤S44:将新的头部躯干特征输入到***中进行初始化,加入处于正在被跟踪状态的目标集合Otrack,转步骤S1。
进一步的,所述IOU和OKS计算的方法如下:
其中A表示第一个目标的边界框的面积,B表示第二个目标的边界框的面积;边界框面积的计算方法就是矩形的长乘以矩形的宽;visz表示第z个关键点的可见性(大于0说明可见),dis表示已存在人体关键点和检测的人体关键点的欧氏距离,scale2表示这些关键点所占面积大小的平方根,σz表示第z个人体关键点的归一化因子。
本发明与现有技术相比具有以下有益效果:
1、本发明不依赖检测结果的好坏,即使检测框与数据集中的Ground Truth有偏差,也能够通过人体关键点检测网络进行修正;
2、本发明通过人体关键点检测网络获取的头部躯干特征用于目标跟踪,考虑监控场景拍摄的角度,因为头部躯干不容易被遮挡,所以即使在人群拥挤的监控场景中也能够提取到有效的特征进行跟踪;
3、本发明采用人体关键点检测网络获得的头部躯干特征所包含的有效信息在图像中平均占比量更大,更有利于***的初始化以及后续的跟踪。
附图说明
图1是本发明方法流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:
步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;
步骤S2:将筛选后的检测结果输入到人体关键点检测网络中,得到所有的人体关键点;可以降低对检测结果质量好坏的依赖程度,即使检测结果质量差也能通过人体关键点进行修正;
步骤S3:考虑到监控场景拍摄的角度,因为头部躯干不容易被遮挡,即使在人群拥挤的监控场景中也能够提取到有效的特征进行跟踪,所以对得到的每个行人的关键点进行筛选,之后选取头部以及肩膀的关键点进行组合,获得头部躯干特征;
步骤S4:将得到的单个行人的头部躯干特征输入到***中进行初始化,进而对目标进行跟踪,因为人体关键点检测网络获得的头部躯干特征所包含的有效信息在图像中平均占比量更大,所以更有利于***的初始化以及后续的跟踪。
在本实施例中,包括步骤S1具体包括以下步骤:
步骤S11:对视频每一帧图像进行预处理后,利用目标检测网络
对其进行检测;
步骤S12:利用行人检测器对视频每一帧的信息进行检测,获得检测结果R,令R={Ki,Pj,det_x,det_y,det_w,det_h,det_c},i=1,2,...M,j=1,2,...N,表示一个视频序列中所有检测结果的集合,其中M表示一个视频序列中所有图像帧的数量,N表示一帧图像中所有被检测到的行人的数量,Ki表示一个视频序列中的第i帧图像,Pj表示此帧图像中的第j个行人,det_x,det_y,det_w,det_h分别表示这个行人的检测框左上角的x坐标、y坐标、以及检测框的宽和高,det_c表示这个检测框的置信度;
步骤S13:令行人检测置信度阈值为Td,行人宽高比阈值为Tr,删除满足下列条件的检测结果:
det_c<Td or det_w/det_h>Tr
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:将筛选后的检测框resize到4:3的尺寸,使用344×258的大小;
步骤S22:将resize后的图像进行预处理首先使用高斯滤波去除图像尖锐噪声,之所以用高斯滤波是因为其可以更好的保留边界信息;接着使用USM锐化增强算法去除细小的干扰细节,计算方法如下:
其中output表示输出的图像,orign_image表示原始图像,gaus_image表示高斯滤波处理后的图像,ω表示USM系数。对预处理输出的图像进行拷贝,将拷贝的图像水平翻转,然后把原图和翻转后的图片输入到人体关键点检测网络中;
步骤S23:获得人体关键点检测网络输出结果S,令S={Jz},z=1,2,...Z,其中Z表示该图像中人体关键点的数量。Jz={jo int_x,jo int_y,jo int_c}表示第z个关键点,其中jo int_x表示人体关键点的x坐标,jo int_y表示人体关键点的y坐标,jo int_c表示这个人体关键点的置信度;
步骤S24:令原图像的人体关键点检测结果为Ssrc,令翻转图像的人体关键点检测结果为Sflip,将两个检测结果进行融合,这一步骤是为了达到更精确的人体关键点坐标,融合的方法如下:
其中csrc表示原图像中人体关键点的置信度,xsrc表示原图像中人体关键点的x坐标,ysrc表示原图像中人体关键点的y坐标,其中cflip表示翻转图像中人体关键点的置信度,xflip表示翻转图像中人体关键点的x坐标,yflip表示翻转图像中人体关键点的y坐标,final_x和final_y分别表示最终融合完成的人体关键点的x和y坐标,final_c表示最终融合完成的人体关键点置信度。
在本实施例中,选取具有良好跟踪特征的人体关键点,具体包括:头部(眼睛、鼻子、耳朵)以及两个肩膀的人体关键点,步骤S3具体包括以下步骤:
步骤S31:对选取的关键点进行筛选,采用基于置信度的筛选方案,令人体关键点检测置信度阈值为Tkp,删除满足以下要求的人体关键点:
jo int_c<Tkp
步骤S32:对筛选后的关键点进行组合,令筛选后的人体关键点集合为Q,遍历集合Q,对整个集合Q分别按照x坐标和y坐标的大小进行排序,找出集合中最上端、最下端、最左端以及最右端的人体关键点,得到一个集合中的最小矩形凸包。矩形凸包内的图像内容就是目标的头部躯干特征。
在本实施例中,步骤S4具体包括以下步骤:
步骤S41:令处于正在被跟踪状态的目标集合为Otrack,该集合包含了从视频第一帧开始到当前帧所有处于跟踪状态的目标。
步骤S42:遍历处于正在被跟踪状态的目标集合Otrack,将新获得的头部躯干特征与该集合内所有目标进行IOU(交并比)以及OKS(目标关键点相似性)计算,以确认该目标是否以及处于跟踪状态,其中IOU和OKS计算的方法如下:
其中A表示第一个目标的边界框的面积,B表示第二个目标的边界框的面积;边界框面积的计算方法就是矩形的长乘以矩形的宽;visz表示第z个关键点的可见性(大于0说明可见),dis表示已存在人体关键点和检测的人体关键点的欧氏距离,scale2表示这些关键点所占面积大小的平方根,σz表示第z个人体关键点的归一化因子(这个因子是通过对已有的数据集中所有Ground Truth计算的标准差而得到的,反映出当前关键点对与整体的影响程度)。
步骤S43:计算处于被跟踪状态的目标集合中,已存在被跟踪目标的边界框与新获得的头部躯干特征边界框的融合度量值,计算方法如下
若FF大于0.5,则认为该目标存在,不需要重新初始化为新目标,转步骤S11;否则该特征被认定从属于一个新的目标,进行下一步。
步骤S44:将新的头部躯干特征输入到***中进行初始化,加入处于正在被跟踪状态的目标集合Otrack,转步骤S11。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (8)
1.一种基于头部躯干特征进行多目标跟踪的方法,其特征在于,包括以下步骤:
步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;
步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;
步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;
步骤S4:将得到的单个行人的头部躯干特征输入到***中进行初始化,进而对目标进行跟踪。
2.根据权利要求1所述的基于头部躯干特征进行多目标跟踪的方法,其特征在于,所述步骤S1具体为:
步骤S11:对视频每一帧图像进行预处理后,利用目标检测网络对其进行检测;
步骤S12:利用行人检测器对视频每一帧的信息进行检测,获得检测结果R,令R={Ki,Pj,det_x,det_y,det_w,det_h,det_c},i=1,2,...M,j=1,2,...N,表示一个视频序列中所有检测结果的集合,其中M表示一个视频序列中所有图像帧的数量,N表示一帧图像中所有被检测到的行人的数量,Ki表示一个视频序列中的第i帧图像,Pj表示此帧图像中的第j个行人,det_x,det_y,det_w,det_h分别表示这个行人的检测框左上角的x坐标、y坐标、以及检测框的宽和高,det_c表示这个检测框的置信度;
步骤S13:令行人检测置信度阈值为Td,行人宽高比阈值为Tr,删除满足下列条件的检测结果:
det_c<Td or det_w/det_h>Tr。
3.根据权利要求1所述的基于头部躯干特征进行多目标跟踪的方法,其特征在于,所述步骤S2具体为:
步骤S21:将筛选后的检测框resize到预设的尺寸;
步骤S22:将resize后的图像进行预处理,对预处理后图像进行拷贝,将拷贝的图像水平翻转,然后把原图和翻转后的图片输入到人体关键点检测网络中;
步骤S23:获得人体关键点检测网络输出结果S,令S={Jz},z=1,2,...Z,其中Z表示该图像中人体关键点的数量;Jz={joint_x,joint_y,joint_c}表示第z个关键点,其中joint_x表示人体关键点的x坐标,joint_y表示人体关键点的y坐标,joint_c表示这个人体关键点的置信度;
步骤S24:令原图像的人体关键点检测结果为Ssrc,令翻转图像的人体关键点检测结果为Sflip,将两个检测结果进行融合。
6.根据权利要求1所述的基于头部躯干特征进行多目标跟踪的方法,其特征在于,所述步骤S3具体为:
步骤S31:对选取的关键点进行筛选,采用基于置信度的筛选方案,令人体关键点检测置信度阈值为Tkp,删除满足以下要求的人体关键点:
joint_c<Tkp
步骤S32:对筛选后的关键点进行组合,令筛选后的人体关键点集合为Q,遍历集合Q,对整个集合Q分别按照x坐标和y坐标的大小进行排序,找出集合中最上端、最下端、最左端以及最右端的人体关键点,得到一个集合中的最小矩形凸包,所述矩形凸包内的图像内容就是目标的头部躯干特征。
7.根据权利要求1所述的基于头部躯干特征进行多目标跟踪的方法,其特征在于,所述步骤S4具体为:
步骤S41:令处于正在被跟踪状态的目标集合为Otrack,该集合包含了从视频第一帧开始到当前帧所有处于跟踪状态的目标;
步骤S42:遍历处于正在被跟踪状态的目标集合Otrack,将新获得的头部躯干特征与该集合内所有目标进行IOU以及OKS计算,以确认该目标是否处于跟踪状态;
步骤S43:计算处于被跟踪状态的目标集合中,已存在被跟踪目标的边界框与新获得的头部躯干特征边界框的融合度量值,计算方法如下
若FF大于0.5,则认为该目标存在,不需要重新初始化为新目标,转步骤S1;否则该特征被认定从属于一个新的目标,进行下一步;
步骤S44:将新的头部躯干特征输入到***中进行初始化,加入处于正在被跟踪状态的目标集合Otrack,转步骤S1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011076008.8A CN112200076B (zh) | 2020-10-10 | 2020-10-10 | 基于头部躯干特征进行多目标跟踪的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011076008.8A CN112200076B (zh) | 2020-10-10 | 2020-10-10 | 基于头部躯干特征进行多目标跟踪的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112200076A true CN112200076A (zh) | 2021-01-08 |
CN112200076B CN112200076B (zh) | 2023-02-21 |
Family
ID=74013249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011076008.8A Active CN112200076B (zh) | 2020-10-10 | 2020-10-10 | 基于头部躯干特征进行多目标跟踪的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200076B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953015A (zh) * | 2024-03-26 | 2024-04-30 | 武汉工程大学 | 基于视频超分辨率多行人跟踪方法、***、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416258A (zh) * | 2018-01-23 | 2018-08-17 | 华侨大学 | 一种基于人体部位模型的多人体跟踪方法 |
CN109522843A (zh) * | 2018-11-16 | 2019-03-26 | 北京市商汤科技开发有限公司 | 一种多目标跟踪方法及装置、设备和存储介质 |
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测***及方法 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
-
2020
- 2020-10-10 CN CN202011076008.8A patent/CN112200076B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416258A (zh) * | 2018-01-23 | 2018-08-17 | 华侨大学 | 一种基于人体部位模型的多人体跟踪方法 |
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测***及方法 |
CN109522843A (zh) * | 2018-11-16 | 2019-03-26 | 北京市商汤科技开发有限公司 | 一种多目标跟踪方法及装置、设备和存储介质 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
AHMAD JALAL AT EL.: "Human Body Parts Estimation and Detection for Physical Sports Movements", 《2019 2ND INTERNATIONAL CONFERENCE ON COMMUNICATION, COMPUTING AND DIGITAL SYSTEMS (C-CODE)》 * |
周亮 等: "基于跟踪—关联模块的多目标跟踪方法研究", 《西南大学学报(自然科学版)》 * |
宫法明等: "基于时空双分支网络的人体动作识别研究", 《计算机技术与发展》 * |
马旋等: "基于人脸检测和关键点识别的快速人体组件划分", 《计算机应用与软件》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117953015A (zh) * | 2024-03-26 | 2024-04-30 | 武汉工程大学 | 基于视频超分辨率多行人跟踪方法、***、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112200076B (zh) | 2023-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021196294A1 (zh) | 一种跨视频人员定位追踪方法、***及设备 | |
WO2020042419A1 (zh) | 基于步态的身份识别方法、装置、电子设备 | |
US8131011B2 (en) | Human detection and tracking system | |
US6826292B1 (en) | Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation | |
CN109543641B (zh) | 一种实时视频的多目标去重方法、终端设备及存储介质 | |
CN109934065B (zh) | 一种用于手势识别的方法和装置 | |
CN110060277A (zh) | 一种多特征融合的视觉slam方法 | |
CN106885574A (zh) | 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法 | |
CN110986969B (zh) | 地图融合方法及装置、设备、存储介质 | |
CN112215155A (zh) | 一种基于多特征融合的人脸跟踪方法及*** | |
CN108257155B (zh) | 一种基于局部和全局耦合的扩展目标稳定跟踪点提取方法 | |
Tian et al. | Scene Text Detection in Video by Learning Locally and Globally. | |
CN109146920A (zh) | 一种可嵌入式实现的目标跟踪方法 | |
CN108564598A (zh) | 一种改进的在线Boosting目标跟踪方法 | |
CN111160291A (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN103617631B (zh) | 一种基于中心检测的跟踪方法 | |
CN110895683A (zh) | 一种基于Kinect的单视点手势姿势识别方法 | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
CN110555867B (zh) | 一种融合物体捕获识别技术的多目标物体跟踪方法 | |
CN111709893A (zh) | 一种基于信息熵和锐化调整的orb-slam2改进算法 | |
CN112200076B (zh) | 基于头部躯干特征进行多目标跟踪的方法 | |
Tang et al. | Place recognition using line-junction-lines in urban environments | |
CN114550219B (zh) | 行人追踪方法及装置 | |
CN106558065A (zh) | 基于图像颜色和纹理分析实现对目标的实时视觉跟踪方法 | |
CN114373203A (zh) | 图片归档方法、装置、终端设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |