CN113763427A - 一种基于从粗到精遮挡处理的多目标跟踪方法 - Google Patents

一种基于从粗到精遮挡处理的多目标跟踪方法 Download PDF

Info

Publication number
CN113763427A
CN113763427A CN202111035065.6A CN202111035065A CN113763427A CN 113763427 A CN113763427 A CN 113763427A CN 202111035065 A CN202111035065 A CN 202111035065A CN 113763427 A CN113763427 A CN 113763427A
Authority
CN
China
Prior art keywords
pedestrian
target
model
occlusion
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111035065.6A
Other languages
English (en)
Other versions
CN113763427B (zh
Inventor
路小波
张帅帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202111035065.6A priority Critical patent/CN113763427B/zh
Publication of CN113763427A publication Critical patent/CN113763427A/zh
Application granted granted Critical
Publication of CN113763427B publication Critical patent/CN113763427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于从粗到精遮挡处理的多目标跟踪方法,模型构建包括以下步骤:首先在JDE模型预测头的基础上加了一个遮挡分数预测,从而完成对非遮挡目标的完全处理以及对遮挡目标的粗处理;在这个基础上,将映射剪裁后的遮挡行人区域作为第二步模型的训练集进行训练,完成对于遮挡行人的精确检测和表观特征向量提取;从而实现对遮挡目标的精处理;综合两步模型输出的结果,利用数据关联算法完成行人的跟踪。本发明解决了现有技术中不能准确地对有遮挡情况场景下的行人跟踪问题,能够很好地适应多种时段、多种行人密度的公共环境;对行人的跟踪具有较好效果。

Description

一种基于从粗到精遮挡处理的多目标跟踪方法
技术领域
本发明属于计算机视觉和监控视频分析领域,具体涉及一种基于从粗到精遮挡处理的多目标跟踪方法。
背景技术
多目标跟踪是监控视频分析的重要组成部分。它不仅可以直接用于物体运动轨迹分析,而且可以作为物体动作识别、行为分析等高级任务的研究基础。
为了完成多目标跟踪任务,许多主流的深度学习算法都提出了基于检测进行跟踪的策略。这些方法将多目标跟踪分为检测模块和嵌入模块。检测模块完成目标检测,嵌入模块使用相关算法提取目标的特征,然而,这两个模块之间可能会出现多次重复计算,影响运行速度。为此,一些科学家提出了将检测模块和嵌入模块集成到一个神经网络的方法,这两个模块共享相同的底层特性,从而避免了重复计算,提高了性能。然而,由于自身检测框架的限制,这些方法在某些场景下对遮挡对象的检测和跟踪效果不是很好。具体来说,检测框架经常将两个被遮挡的目标检测为一个目标,这也给目标跟踪带来了一些问题。针对遮挡目标检测问题,一些改进的非最大抑制算法被提出,比如soft-NMS、softer-NMS、adaptive-NMS等,也有一些改进的损失函数被提出,如repulsion损失等,但这些方法都依赖于原始检测网络的预测结果,对于某些场景,遮挡检测的效果并不好。
发明内容
为解决上述问题,本发明公开了一种基于从粗到精遮挡处理的多目标跟踪方法,对非遮挡目标与遮挡目标的处理进行分离,在第一步模型中重点处理非遮挡目标并定位遮挡目标,实现遮挡目标的粗处理;第二步模型实现对遮挡目标的精处理,从而实现了在一些遮挡环境下行人跟踪性能的提升。
为达到上述目的,本发明的技术方案如下:
一种基于从粗到精遮挡处理的多目标跟踪方法,包括以下步骤:
步骤一、对从公共场所获得的数据集进行标注,构建行人跟踪的训练集和测试集,
步骤二、利用训练集标注的部分信息,对多目标跟踪方法的第一步模型进行训练,实现对非遮挡行人目标的检测和相应表观特征向量的提取以及遮挡行人区域的定位,从而完成对非遮挡目标的完全处理以及对遮挡目标的粗处理,
步骤三、在第一步模型训练完成的基础上,将遮挡行人区域进行映射,剪裁作为第二步模型的训练集进行训练,完成对于遮挡行人的检测和表观特征向量提取。从而实现对遮挡目标的精处理,
步骤四、综合两步模型输出的结果,利用数据关联算法完成行人的跟踪。
进一步,所述步骤一中,行人跟踪数据集是在若干公共场所摄像头所拍摄的监控视频上进行构建的,标注内容包括行人边界框id(不存在遮挡情况时标记为0,存在2个人相互遮挡时,id递增),行人id(若存在遮挡情况,标记为-1,否则从0递增),边界框位置,边界框内行人是否存在遮挡(遮挡标1,未遮挡标0),行人目标包含在哪个边界框中(当此边界框存在遮挡情况时标记为0,不存在时标记为包含此行人目标的遮挡边界框id);
进一步,所述步骤二中,所述方法的第一步模型定义了两种边界框回归,一种是单个行人无遮挡情况的边界框回归,另一种是两个行人存在遮挡情况下的边界框回归;在JDE模型的基础上,第一步模型在预测头中添加了遮挡分数预测,使得其能判别所回归的边界框中的行人是否存在遮挡;若不存在遮挡,可同时提取行人的位置和表观特征向量,若存在遮挡,则定位遮挡区域,完成遮挡行人的粗处理。
进一步,所述步骤三中,将所述步骤二中定位到的遮挡区域映射到第一步模型的小尺度特征图中并采用ROI Align算法进行剪裁作为第二步模型的输入,第二步模型对遮挡区域特征图进行精处理,获得遮挡行人的位置及表观特征向量,其中,在对遮挡行人边界框进行训练时,损失函数采用SmoothL1损失与RepGT,RepBox损失加权相结合的方式,边界框损失函数计算如下所示:
Figure BDA0003246821340000021
其中,
Figure BDA0003246821340000022
表示SmoothL1损失函数,LRepGT表示RepGT损失函数,LRepBox表示RepBox损失函数,α,β表示加权参数。
进一步,所述步骤四中,综合所述步骤一和所述步骤二中的结果,得到当前帧中所有行人目标的位置和表观特征向量,利用相邻帧之间同一个行人目标表观特征向量相似以及位置变动不大的特点来完成行人目标的匹配,最终完成多目标行人的跟踪。
本发明的有益效果为:
1)本发明创造性的提出了从粗到精的遮挡处理方法,第一步完成遮挡目标的粗处理以及非遮挡目标的全处理,第二步完成遮挡目标的精处理,最后将两步的结果进行综合得到最终的行人位置及相应的表观特征向量。
2)本发明的第一步模型在JDE模型的基础上,预测头中增加了遮挡分数预测,使得可以判别第一步模型输出的边界框内是否存在遮挡情况,若存在遮挡情况,则可定位遮挡边界框,实现遮挡目标的粗处理。
3)本发明将第一步模型定位到的遮挡行人边界框映射到第一步模型的小尺度特征图上(小尺度特征图保留有更多信息)并采用ROI Align算法进行剪裁,作为遮挡精处理模型(第二步模型)的输入。
4)本发明设计了遮挡精处理模型(第二步模型)的网络结构,并采用SmoothL1损失与RepGT,RepBox损失加权相结合的方式作为遮挡精处理模型边界框回归的损失函数。
5)本发明针对两步的模型架构,提出了两阶段的模型训练方法,第一阶段,冻结第二步模型参数,只训练第一步模型;第二阶段,在第一步模型训练完成的基础上,冻结第一部模型的参数,将第一步模型定位到的遮挡行人边界框对应的特征图作为第二步模型的输入进行训练。解决了现有技术中不能准确地对有遮挡情况场景下的行人跟踪问题,很好地适应多种时段、多种行人密度的公共环境;对行人的跟踪具有较好效果。
附图说明
图1是本发明的流程图。
图2是地铁监控视频下的场景图。
图3是基于从粗到精遮挡处理的多目标跟踪网络模型框架图。
图4是第一步模型预测头与损失函数示意图。
图5是遮挡精处理模型(第二步模型)网络结构图。
图6是多目标跟踪效果展示图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
实施例
本实施例模型训练使用的监控视频为实际地铁场景下的监控视频,场景图如图2所示。
本实施例以图2中所示地铁站监控视频为例,这些视频图像中既包含不存在遮挡情况下的行人,也包含存在遮挡情况的行人。在获取到地铁场景下的视频后,对视频中的行人进行标注,从而获得地铁行人多目标跟踪数据集。
本实例提出一个基于从粗到精遮挡处理的多目标跟踪方法,对输入图像中的遮挡目标进行从粗到精的模型处理,在此基础上结合优化损失函数,优化NMS等方式达到更好的多目标跟踪效果,该模型的框架图如图3所示,具体步骤如下所示:
1)图像输入处理:为了消除输入图像尺寸对于模型训练的不利影响并考虑分辨率等因素,视频中的每一帧图像在输入到模型之前尺寸都调整到1088*608。
2)添加遮挡分数预测:第一步模型在JDE模型的基础上,预测头中添加了遮挡分数预测,此时预测头中包含置信度预测,边界框回归预测,遮挡分数预测以及表观特征向量四项预测值;其中,置信度,遮挡分数以及表观特征向量的训练采用交叉熵损失,边界框回归的训练采用SmoothL1损失。损失函数中各部分损失值的加权参数采用自适应训练的方式进行确定。损失函数计算公式如下所示:
Figure BDA0003246821340000041
其中M为预测头的个数,
Figure BDA0003246821340000042
分别表示置信度损失、遮挡预测损失、边界框回归损失和表观特征向量损失,
Figure BDA0003246821340000043
为与每个损失相关的加权参数,建模为一个可学习参数。其示意图如图4所示:
3)特征图映射与剪裁:在第一步模型定位出遮挡边界框后,将非极大值抑制后的遮挡边界框映射到第一步模型的小尺度特征图上,并采用ROIAlign算法进行剪裁,将剪裁后的特征图作为第二步模型的输入。
4)遮挡目标精处理:遮挡精处理模型(第二步模型)的目的是准确地获取遮挡行人的边界框和相应的表观特征向量。其网络结构如图5所示,裁剪后的特征图经过一个卷积块后有两个分支,一个用于置信度预测和行人边界框的回归,另一个用于提取遮挡行人对应的表观特征向量。
5)遮挡精处理模型的损失函数:遮挡精处理模型的置信度和表观特征向量训练依然采用交叉熵损失,边界框回归的训练采用SmoothL1损失与RepGT,RepBox损失加权相结合的方式。其中SmoothL1损失的目的是使边界框预测值尽可能的接近真实值,RepGT损失的设计是为了使预测的边界框与其相邻的真实边界框尽量远离。RepBox损失的目的是使回归到不同边界框的两个边界框预测值尽量远离。这三个边界框损失相互协调,对于回归遮挡行人的边界框有积极作用。同时,边界框回归损失,置信度损失,表观特征向量损失的加权方式与第一步模型损失值的加权方式相同。
6)整合与优化:对于第二步模型(遮挡精处理模型)输出的边界框,首先移除了一些不满足要求的边界框,比如面积太小,边界框坐标超出图像区域等;同时,在用Soft-NMS算法对第二步模型输出的边界框进行了非极大值抑制处理后与第一步模型输出的边界框进行整合再进行一次Soft-NMS算法处理得到最终的结果。
7)数据关联与轨迹生成:首先以检测目标群的表观特征向量群与跟踪目标群的表观特征向量群之间的余弦距离作为主要的匹配原则,并将检测目标群的边界框和追踪目标群用卡尔曼滤波器预测的边界框之间的距离作为辅助匹配原则,两者选择的加权比分别为0.95和0.05,采用匈牙利匹配算法完成第一步匹配;其次,第二步匹配以检测目标群的边界框与跟踪目标群边界框的交并比(IOU)作为匹配原则,依然采用匈牙利算法完成匹配。对于前述未匹配到的跟踪目标标记为丢失,丢失的跟踪目标依旧参与下一帧的匹配,当丢失的跟踪目标已经连续25帧(在本文中以帧率作为此处的一个阈值)没有匹配到新目标时,将此跟踪目标从跟踪目标群中移除,不再参与跟踪目标与检测目标的匹配。
8)两阶段式模型训练:在训练第一步模型时,冻结第二步模型参数,只训练第一步模型;在第一步模型训练完成之后,冻结第一步模型参数,将第一步模型定位到的遮挡行人边界框对应的特征图作为第二步模型的输入进行训练。
本发明在完成模型的构建和训练后,可以实现对实际监控视频中的行人进行跟踪,跟踪效果如图6所示,其中相邻两张图片之间间隔25帧。
本发明提供了一种基于从粗到精遮挡处理的多目标跟踪方法。模型分为两步,第一步模型用于实现了非遮挡目标的全处理以及遮挡目标的粗处理(定位);第二步模型用于精确定位被遮挡的行人并提取其表观特征向量,实现了对遮挡目标的精处理。最后将上述两个模型的输出结果进行整合优化后进行数据关联与轨迹生成,最终完成多目标跟踪任务。本发明对于计算机视觉领域监控视频分析任务有着重要作用,具有较大的应用前景。
本发明不局限于上述实施例所述的具体技术方案,除上述实施例外,本发明还可有其他实施方式。对于本领域的技术人员来说,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等形成的技术方案,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于从粗到精遮挡处理的多目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤一、对从公共场所获得的数据集进行标注,构建行人跟踪的训练集和测试集;
步骤二、利用训练集标注的部分信息,对多目标跟踪方法的第一步模型进行训练;实现对非遮挡行人目标的检测和相应表观特征向量的提取以及遮挡行人区域的定位;从而完成对非遮挡目标的完全处理以及对遮挡目标的粗处理;
步骤三、在上述模型训练完成的基础上,将映射剪裁后的遮挡行人区域作为第二步模型的训练集进行训练,完成对于遮挡行人的精确检测和表观特征向量提取;从而实现对遮挡目标的精处理;
步骤四、综合两步模型输出的结果,利用数据关联算法完成行人的跟踪。
2.根据权利要求1所述的一种基于从粗到精遮挡处理的多目标跟踪方法,其特征在于:所述步骤一中,行人跟踪数据集是在若干公共场所摄像头所拍摄的监控视频上进行构建的,标注内容包括行人边界框id,行人id,边界框位置,边界框内行人是否存在遮挡,行人目标包含在哪个边界框中,这些信息组成了训练集和测试集中的真值标签。
3.根据权利要求1所述的一种基于从粗到精遮挡处理的多目标跟踪方法,其特征在于:所述步骤二中,所述方法的第一步模型定义了两种边界框回归,一种是单个行人无遮挡情况的边界框回归,另一种是两个行人存在遮挡情况下的边界框回归;在JDE模型的基础上,第一步模型在预测头中添加了遮挡分数预测,使得其能判别所回归的边界框中的行人是否存在遮挡;若不存在遮挡,可同时提取行人的位置和表观特征向量,若存在遮挡,则定位遮挡区域,完成遮挡行人的粗处理。
4.根据权利要求1所述的一种基于从粗到精遮挡处理的多目标跟踪方法,其特征在于:所述步骤三中,将所述步骤二中定位到的遮挡区域映射到第一步模型的小尺度特征图中并采用ROIAlign算法进行剪裁作为第二步模型的输入,第二步模型对遮挡区域特征图进行精处理,获得遮挡行人的位置及表观特征向量,其中,在对遮挡行人边界框进行训练时,损失函数采用SmoothL1损失与RepGT,RepBox损失加权相结合的方式,边界框损失函数计算如下所示:
Figure FDA0003246821330000011
其中,
Figure FDA0003246821330000012
表示SmoothL1损失函数,LRepGT表示RepGT损失函数,LRepBox表示RepBox损失函数,α,β表示加权参数。
5.根据权利要求1所述的一种基于从粗到精遮挡处理的多目标跟踪方法,其特征在于:所述步骤四中,综合所述步骤一和所述步骤二中的结果,得到当前帧中所有行人目标的位置和表观特征向量,利用相邻帧之间同一个行人目标表观特征向量相似以及位置变动不大的特点来完成行人目标的匹配,最终完成任务。
CN202111035065.6A 2021-09-05 2021-09-05 一种基于从粗到精遮挡处理的多目标跟踪方法 Active CN113763427B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111035065.6A CN113763427B (zh) 2021-09-05 2021-09-05 一种基于从粗到精遮挡处理的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111035065.6A CN113763427B (zh) 2021-09-05 2021-09-05 一种基于从粗到精遮挡处理的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN113763427A true CN113763427A (zh) 2021-12-07
CN113763427B CN113763427B (zh) 2024-02-23

Family

ID=78792988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111035065.6A Active CN113763427B (zh) 2021-09-05 2021-09-05 一种基于从粗到精遮挡处理的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113763427B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114120373A (zh) * 2022-01-24 2022-03-01 苏州浪潮智能科技有限公司 一种模型训练方法、装置、设备及存储介质
CN116129432A (zh) * 2023-04-12 2023-05-16 成都睿瞳科技有限责任公司 基于图像识别的多目标跟踪标注方法、***和存储介质
WO2023197232A1 (zh) * 2022-04-14 2023-10-19 京东方科技集团股份有限公司 目标跟踪方法及装置、电子设备、计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任珈民;宫宁生;韩镇阳;: "基于YOLOv3与卡尔曼滤波的多目标跟踪算法", 计算机应用与软件, no. 05 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114120373A (zh) * 2022-01-24 2022-03-01 苏州浪潮智能科技有限公司 一种模型训练方法、装置、设备及存储介质
WO2023197232A1 (zh) * 2022-04-14 2023-10-19 京东方科技集团股份有限公司 目标跟踪方法及装置、电子设备、计算机可读介质
CN116129432A (zh) * 2023-04-12 2023-05-16 成都睿瞳科技有限责任公司 基于图像识别的多目标跟踪标注方法、***和存储介质
CN116129432B (zh) * 2023-04-12 2023-06-16 成都睿瞳科技有限责任公司 基于图像识别的多目标跟踪标注方法、***和存储介质

Also Published As

Publication number Publication date
CN113763427B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US8045783B2 (en) Method for moving cell detection from temporal image sequence model estimation
Zhou et al. Efficient road detection and tracking for unmanned aerial vehicle
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
EP1836683B1 (en) Method for tracking moving object in video acquired of scene with camera
CN113506317B (zh) 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法
She et al. Vehicle tracking using on-line fusion of color and shape features
CN108304808A (zh) 一种基于时空信息与深度网络的监控视频对象检测方法
KR20010000107A (ko) 다중 이동물체 추적/감시 시스템
CN103077539A (zh) 一种复杂背景及遮挡条件下的运动目标跟踪方法
Shaikh et al. Moving object detection approaches, challenges and object tracking
CN110321937B (zh) 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
KR101901487B1 (ko) 저사양 영상 기기에서의 실시간 객체 추적 시스템 및 방법
CN111161325A (zh) 基于卡尔曼滤波与lstm的三维多目标跟踪方法
Ghahremannezhad et al. A new adaptive bidirectional region-of-interest detection method for intelligent traffic video analysis
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
FAN et al. Robust lane detection and tracking based on machine vision
CN110322474B (zh) 一种基于无人机平台的图像动目标实时检测方法
Davies et al. Using CART to segment road images
Chanawangsa et al. A new color-based lane detection via Gaussian radial basis function networks
CN111986233A (zh) 基于特征自学习的大场景极小目标遥感视频跟踪方法
Lande et al. Moving object detection using foreground detection for video surveillance system
Zhou et al. An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow
Jia et al. Research on Intelligent Monitoring Technology of Traffic Flow Based on Computer Vision
Pulare et al. Implementation of real time multiple object detection and classification of HEVC videos
Chen et al. Pedestrian tracking algorithm based on Kalman filter and partial mean-shift tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant