CN111209829B - 基于视觉的移动视体静态中小尺度目标识别方法 - Google Patents
基于视觉的移动视体静态中小尺度目标识别方法 Download PDFInfo
- Publication number
- CN111209829B CN111209829B CN201911406950.3A CN201911406950A CN111209829B CN 111209829 B CN111209829 B CN 111209829B CN 201911406950 A CN201911406950 A CN 201911406950A CN 111209829 B CN111209829 B CN 111209829B
- Authority
- CN
- China
- Prior art keywords
- value
- threshold
- confidence score
- short
- term memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于视觉的移动视体静态中小尺度目标识别方法,包括如下步骤:步骤S1:获取边界框信息;步骤S2:创建边界框对象集合;步骤S3:维护对象的短期记忆状态;步骤S4:当对象存在短期记忆时,将对象的置信度评分值与展示阈值比较,若置信度评分值大于等于展示阈值,则准备展示对象的识别结果;步骤S5:当对象不存在短期记忆时,将对象的置信度评分值与静态阈值比较,若置信度评分值大于等于静态阈值,则准备展示对象的识别结果;步骤S6:展示满足条件的对象的边界框;步骤S7:更新所有具有短期记忆的对象的展示阈值。
Description
技术领域
本发明涉及图像处理和计算机视觉技术,尤其是涉及了基于视觉的移动视体静态中小尺度目标识别方法。
背景技术
随着机器学习发展和硬件计算能力增强,基于图像的实时目标检测算法发展迅速。其中以Faster-RCNN、YOLO、SSD为代表的方法旨在识别数据集中多种类型物体并标注其在视场中位置,这些方法在该领域取得了突破性进展。
基于图像的目标检测是机器人等移动视体感知、认知环境的主要途径之一。当视体(传感器)在环境中移动时,某些场景(家庭环境)中存在较多中小尺寸的静态目标,目标识别***在识别它们时获得的信息往往不只单帧图片,而是视体具有微小位置变化的图片序列。
上述方法在此类环境中确已具有一定检测识别能力,但识别的准确性、鲁棒性距离实际应用依然存在较大差距,其效果不足主要体现在移动过程中检测结果跳变剧烈、识别评分不稳定和存在误检几方面。
发明内容
为解决现有技术的不足,提高识别的准确性、鲁棒性,避免检测结果跳变剧烈、识别评分不稳定和误检,本发明采用如下的技术方案:
基于视觉的移动视体静态中小尺度目标识别方法,包括如下步骤:
步骤S1:获取边界框信息,包括边界框个数、边界框坐标、边界框类别、置信度评分值;
步骤S2:创建边界框对象集合,用于储存和维护所述边界框信息;
步骤S3:维护所述对象的短期记忆状态;
步骤S4:当所述对象存在短期记忆时,将所述对象的置信度评分值与展示阈值比较,若所述置信度评分值大于等于所述展示阈值,则准备展示所述对象的识别结果;所述展示阈值是具有短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S5:当所述对象不存在短期记忆时,将所述对象的所述置信度评分值与静态阈值比较,若所述置信度评分值大于等于所述静态阈值,则准备展示所述对象的识别结果;所述静态阈值是无短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S6:展示满足条件的所述对象的边界框;
步骤S7:更新所有具有短期记忆的所述对象的展示阈值。
所述步骤S2,包括如下步骤:
步骤S2-1:以每个边界框为元素,创建边界框的集合;
步骤S2-2:差集扩充集合,将当前帧的边界框的集合与先前边界框的集合求差集,将所述差集增加到先前边界框的集合中,为扩充后的集合的元素创建不带短期记忆的对象;所述不带短期记忆的对象用于记录边界框的信息和边界框连续检测数、连续失检数;
步骤S2-3:为所述对象更新连续检测数、连续失检数,当所述对象由最近帧引入当前集合时,将所述连续检测数、所述连续失检数置零;当所述对象不由最近帧引入当前集合时,若最近帧识别到所述对象,则连续检测数加一,连续失检数置零,若最近帧未检测到所述对象,则连续检测数置零,连续失检数加一;
步骤S2-4:若所述连续失检数大于等于某一数值时,将所述对象删除,精简集合中的多余元素,所述某一数值是2以上的整数。
所述步骤S2-3,所述识别,是通过所述边界框类别和所述边界框坐标,建立的相邻帧边界框之间的映射关系实现的。融合多帧边界框以提升目标识别稳定性。
所述步骤S3,包括如下步骤:
步骤S3-1:对未创建短期记忆的所述对象进行判定,如所述对象的连续检测数大于等于某一数值,则对所述对象创建短期记忆,所述某一数值是2以上的整数,所述创建短期记忆是对所述对象创建先验知识队列,重设连续失检数;
在步骤S3-2:对已创建短期记忆的所述对象进行判定,如所述对象的连续失检数大于等于某一数值,则遗忘短期记忆,所述某一数值是2以上的整数,所述遗忘短期记忆是删除所述对象的所述先验知识队列。
所述静态阈值取值范围在0.65-0.8之间。
所述步骤S7,包括如下步骤:
步骤S7-1:将具有短期记忆的所述对象的置信度评分值置入所述先验知识队列,保存最近帧边界框的顶点坐标;
步骤S7-2:所述先验知识队列包括qa队列、qb队列,所述qa队列用于保存与学习阈值比较后的所述对象的历史置信度评分值,当所述对象的置信度评分值大于等于所述学习阈值时,将所述置信度评分值加入所述qa队列,当所述对象的置信度评分值小于所述学习阈值时,将0值加入所述qa队列,所述学习阈值是当前对象达到作为后续对象的先验知识的置信度评分值下限值;所述qb队列用于保存历史置信度评分值与展示阈值比较后的置信度评分值;当所述历史置信度评分值大于等于展示阈值时,将所述历史置信度评分值加入所述qb队列,当所述历史置信度评分值小于展示阈值时,将0值加入所述qb队列;
步骤S7-3:通过动态阈值法更新所述对象的展示阈值,对所述对象的置信度评分值使用时序相关权重进行分配,使算法能基于先前识别数据和时间权重参数调整展示阈值。
所述步骤S7-2,在与所述展示阈值比较之前,对所述历史置信度评分值进行滤波处理,所述滤波处理是对随时间剧烈变化的所述置信度评分值采用可变滑动窗口均值算法进行平滑操作,避免所述置信度评分值波动过大而影响所述对象的识别结果;
所述步骤S7-3,所述动态阈值法,是将所述qb队列中的置信度评分值作为输入数据,设计基于时间序列呈等比数列衰减的指数滤波核,建立展示阈值与所述输入数据的负相关关系,并设定展示阈值的控制范围,相关表达式如下:
所述threshold是展示阈值,所述c是动态阈值的最大值,所述表示卷积项,所述norm是归一化参数,所述a是指数滤波核,所述s是输入数据,所述i是所述qb队列中历史置信度评分值序列数;所述展示阈值的范围在[(c-scope),c]之间,所述归一化参数用于将所述卷积项的取值范围限定在(0,scope)之间,所述scope表示所述展示阈值的调节范围宽度。
本发明的优势和有益效果在于:
本发明通过映射关系融合了多帧边界框以提升目标识别稳定性,通过滤波处理避免了置信度评分值波动过大而影响识别结果,通过动态阈值法更新展示阈值使展示结果更准确,通过视体移动中产生的冗余信息较好的解决了检测结果跳变剧烈和识别评分不稳定问题,避免了误检,提高了鲁棒性,提升单帧图片中的目标检测能力。
附图说明
图1是本发明的流程图。
图2是本发明中维护边界框对象集合元素的流程图。
图3是本发明中维护对象短期记忆状态的流程图。
图4是本发明中动态阈值法更新展示阈值的流程图。
图5是本发明中实际检测评分曲线与动态实时展示阈值变化曲线的对比图。
图6是本发明中实际检测结果按时序排列的视频帧。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
如图1所示,基于视觉的移动视体静态中小尺度目标识别方法,包括如下步骤:
步骤S1:从基础识别算法获取所需相应数据,包括图像视场内标注出的边界框信息,包括边界框个数、各个边界框坐标、边界框对应目标类别、置信度评分值;将这些数据作为多帧融合算法的输入,所述置信度评分值是使用单帧目标检测算法检测时算法输出的对应所述边界框的检测评分值;
步骤S2:创建边界框对象集合,用于储存和维护所述当前边界框信息;
步骤S3:对集合中的所有元素处理,维护所述对象的短期记忆状态,将满足条件但尚未创建短期记忆的对象创建短期记忆,将部分具有短期记忆但连续数帧未检测到对象的短期记忆清除;
步骤S4:当所述对象存在短期记忆时,将所述对象的置信度评分值与集合对象中对应时刻的展示阈值比较,若所述置信度评分值大于等于所述该对象对应时刻的展示阈值,则准备展示所述对象的识别结果;所述展示阈值是具有短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S5:当所述对象不存在短期记忆时,将所述对象的所述置信度评分值与静态阈值比较,若所述置信度评分值大于等于所述静态阈值,则准备展示所述对象的识别结果;所述静态阈值是无短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S6:展示满足条件的所述对象的边界框;
步骤S7:根据最近输入的数据更新所有具有短期记忆的所述边界框对象的展示阈值,具体执行包括维护评分队列、建立评分队列与展示阈值映射关系两部分。
如图2所示,所述步骤S2,包括如下步骤:
步骤S2-1:将上一步骤从基础识别算法中获得的数据整理成集合形式,以每个边界框为元素,创建边界框的集合;
步骤S2-2:差集扩充集合,将当前帧的边界框的集合与先前边界框的集合求差集,将所述差集增加到先前边界框的集合中,设先前识别的边界框集合为A,当前输入帧的边界框集合为B,则在先前集合中增加(B-A)的元素,为扩充后的先前边界框的集合的元素创建不带短期记忆的对象;所述不带短期记忆的对象用于记录当前边界框的基本信息和当前边界框连续检测数、连续失检数;
步骤S2-3:集合扩充后,为所述集合内所有对象更新连续检测数、连续失检数两个数值,当所述对象由最近帧边界框引入当前集合时,将所述连续检测数、所述连续失检数置零;当所述对象不由最近帧引入当前集合时,若最近帧识别到所述对象,则连续检测数加一,连续失检数置零,若最近帧未检测到所述对象,则连续检测数置零,连续失检数加一;
步骤S2-4:若所述连续失检数大于等于某一数值时,将所述对象删除,精简集合中的多余元素,所述某一数值是2以上的整数。
所述步骤S2-3,所述识别,是通过所述边界框类别和所述边界框坐标,建立的相邻帧边界框之间的映射关系实现的。融合多帧边界框以提升目标识别稳定性这一动作,建立在不同帧对应边界框标注同一目标的这一基础上,映射关系指将同一目标边界框在相邻帧的对应方法。
如图3所示,所述步骤S3,包括如下步骤:
步骤S3-1:对集合中未创建短期记忆的所述对象进行判定,如所述对象的连续检测数大于等于某一数值,则对所述对象创建短期记忆,所述某一数值是2以上的整数,所述创建短期记忆是对所述对象创建先验知识队列,重设连续失检数;
在步骤S3-2:对集合中已创建短期记忆的所述对象进行判定,如所述对象的连续失检数大于等于某一数值,则遗忘短期记忆,所述某一数值是2以上的整数,所述遗忘短期记忆是删除所述对象的所述先验知识队列。
所述静态阈值取值范围在0.65-0.8之间。
如图4所示,所述步骤S7,包括如下步骤:
步骤S7-1:将具有短期记忆的所述对象的置信度评分值置入所述先验知识队列,保存最近帧边界框的顶点坐标用于建立相邻帧边界框的映射关系。
步骤S7-2:所述先验知识队列包括qa队列、qb队列,所述qa队列用于保存与学习阈值比较后的所述对象的历史置信度评分值,当所述对象的置信度评分值大于等于所述学习阈值时,将所述置信度评分值加入所述qa队列,当所述对象的置信度评分值小于所述学习阈值时,将0值加入所述qa队列,所述学习阈值是当前对象达到作为后续对象的先验知识的置信度评分值下限值;所述qb队列用于保存历史置信度评分值与展示阈值比较后的置信度评分值;当所述历史置信度评分值大于等于当前时刻的展示阈值时,将所述历史置信度评分值加入所述qb队列,当所述历史置信度评分值小于当前时刻的展示阈值时,将0值加入所述qb队列;以相同目标边界框为单位,分别处理视场中不同边界框对应的置信度评分值序列;
步骤S7-3:通过动态阈值法更新所述对象的展示阈值,所述动态阈值法是利用时间序列权重机制调整展示阈值的方法,所述时间序列权重机制,是对所述对象的置信度评分值使用时序相关权重进行分配,使算法能基于先前识别数据和时间权重参数实时调整展示阈值;先将所述qb队列与时间权重做卷积,得到卷积后的数值,再通过数学表达式建立所述对象的展示阈值和所述卷积后的数值的负相关关系,最后更新所述对象的展示阈值。
所述步骤S7-2,在与所述展示阈值比较之前,对所述历史置信度评分值进行滤波处理,所述滤波处理是对随时间剧烈变化的所述置信度评分值采用可变滑动窗口均值算法进行平滑操作,避免所述置信度评分值波动过大而影响所述对象的识别结果。
所述步骤S7-3,所述动态阈值法,是将所述qb队列中的置信度评分值作为输入数据score_smooth,设计基于时间序列呈等比数列衰减的指数滤波核conv_geo,设定衰减系数c_fee,设定卷积核尺寸设置为conv_size,使用函数关系建立展示阈值与所述输入数据的负相关关系,并设定展示阈值的控制范围,相关表达式如下:
所述threshold是展示阈值,所述0.8是动态阈值的最大值,所述表示卷积项,所述norm是归一化参数,所述a是指数滤波核,所述s是滤波后的输入数据,所述i是所述qb队列中的边界框历史置信度评分值序列数;所述展示阈值的范围在[(0.8-scope),0.8]之间,所述归一化参数用于将所述卷积项的取值范围限定在(0,scope)之间,所述scope表示所述展示阈值的调节范围宽度;若需要将展示阈值threshold控制在[0.5,0.8]范围内,则范围宽度scope为0.3,此时就应选择合适正则化参数norm,使所述卷积项的范围限定在0-0.3之间。如图5、6所示,该方法连续数帧内无失检现象。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (5)
1.基于视觉的移动视体静态中小尺度目标识别方法,其特征在于,包括如下步骤:
步骤S1:获取边界框信息,包括边界框个数、边界框坐标、边界框类别、置信度评分值;
步骤S2:创建边界框对象集合,用于储存和维护所述边界框信息,包括如下步骤:
步骤S2-1:以每个边界框为元素,创建边界框的集合;
步骤S2-2:差集扩充集合,将当前帧的边界框的集合与先前边界框的集合求差集,将所述差集增加到先前边界框的集合中,为扩充后的集合的元素创建不带短期记忆的对象;
所述不带短期记忆的对象用于记录边界框的信息和边界框连续检测数、连续失检数;
步骤S2-3:为所述对象更新连续检测数、连续失检数,当所述对象由最近帧引入当前集合时,将所述连续检测数、所述连续失检数置零;当所述对象不由最近帧引入当前集合时,若最近帧识别到所述对象,则连续检测数加一,连续失检数置零,若最近帧未检测到所述对象,则连续检测数置零,连续失检数加一;
步骤S2-4:若所述连续失检数大于等于某一数值时,将所述对象删除,所述某一数值是2以上的整数;
步骤S3:维护所述对象的短期记忆状态,包括如下步骤:
步骤S3-1:对未创建短期记忆的所述对象进行判定,如所述对象的连续检测数大于等于某一数值,则对所述对象创建短期记忆,所述某一数值是2以上的整数,所述创建短期记忆是对所述对象创建先验知识队列,重设连续失检数;
在步骤S3-2:对已创建短期记忆的所述对象进行判定,如所述对象的连续失检数大于等于某一数值,则遗忘短期记忆,所述某一数值是2以上的整数,所述遗忘短期记忆是删除所述对象的所述先验知识队列;
步骤S4:当所述对象存在短期记忆时,将所述对象的置信度评分值与展示阈值比较,若所述置信度评分值大于等于所述展示阈值,则准备展示所述对象的识别结果;所述展示阈值是具有短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S5:当所述对象不存在短期记忆时,将所述对象的所述置信度评分值与静态阈值比较,若所述置信度评分值大于等于所述静态阈值,则准备展示所述对象的识别结果;所述静态阈值是无短期记忆的所述对象达到展示条件的置信度评分下限值;
步骤S6:展示满足条件的所述对象的边界框;
步骤S7:更新所有具有短期记忆的所述对象的展示阈值,包括如下步骤:
步骤S7-1:将具有短期记忆的所述对象的置信度评分值置入所述先验知识队列,保存最近帧边界框的顶点坐标;
步骤S7-2:所述先验知识队列包括qa队列、qb队列,所述qa队列用于保存与学习阈值比较后的所述对象的历史置信度评分值,当所述对象的置信度评分值大于等于所述学习阈值时,将所述置信度评分值加入所述qa队列,当所述对象的置信度评分值小于所述学习阈值时,将0值加入所述qa队列,所述学习阈值是当前对象达到作为后续对象的先验知识的置信度评分值下限值;所述qb队列用于保存历史置信度评分值与展示阈值比较后的置信度评分值;当所述历史置信度评分值大于等于展示阈值时,将所述历史置信度评分值加入所述qb队列,当所述历史置信度评分值小于展示阈值时,将0值加入所述qb队列;
步骤S7-3:通过动态阈值法更新所述对象的展示阈值,对所述对象的置信度评分值使用时序相关权重进行分配,使算法能基于先前识别数据和时间权重参数调整展示阈值。
2.根据权利要求1所述的基于视觉的移动视体静态中小尺度目标识别方法,其特征在于,所述步骤S2-3,所述识别,是通过所述边界框类别和所述边界框坐标,建立的相邻帧边界框之间的映射关系实现的。
3.根据权利要求1所述的基于视觉的移动视体静态中小尺度目标识别方法,其特征在于,所述静态阈值取值范围在0.65-0.8之间。
4.根据权利要求1所述的基于视觉的移动视体静态中小尺度目标识别方法,其特征在于,所述步骤S7-2,在与所述展示阈值比较之前,对所述历史置信度评分值进行滤波处理,所述滤波处理是对随时间剧烈变化的所述置信度评分值采用可变滑动窗口均值算法进行平滑操作。
5.根据权利要求1所述的基于视觉的移动视体静态中小尺度目标识别方法,其特征在于,所述步骤S7-3,所述动态阈值法,是将所述qb队列中的置信度评分值作为输入数据,设计基于时间序列呈等比数列衰减的指数滤波核,建立展示阈值与所述输入数据的负相关关系,并设定展示阈值的控制范围,相关表达式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911406950.3A CN111209829B (zh) | 2019-12-31 | 2019-12-31 | 基于视觉的移动视体静态中小尺度目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911406950.3A CN111209829B (zh) | 2019-12-31 | 2019-12-31 | 基于视觉的移动视体静态中小尺度目标识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111209829A CN111209829A (zh) | 2020-05-29 |
CN111209829B true CN111209829B (zh) | 2023-05-02 |
Family
ID=70787928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911406950.3A Active CN111209829B (zh) | 2019-12-31 | 2019-12-31 | 基于视觉的移动视体静态中小尺度目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111209829B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564009A (zh) * | 2017-08-30 | 2018-01-09 | 电子科技大学 | 基于深度卷积神经网络的室外场景多目标分割方法 |
CN110097568A (zh) * | 2019-05-13 | 2019-08-06 | 中国石油大学(华东) | 一种基于时空双分支网络的视频对象检测与分割方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599827A (zh) * | 2016-12-09 | 2017-04-26 | 浙江工商大学 | 一种基于深度卷积神经网络的小目标快速检测方法 |
CN107818575A (zh) * | 2017-10-27 | 2018-03-20 | 深圳市唯特视科技有限公司 | 一种基于分层卷积的视觉对象跟踪方法 |
US20190130191A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Bounding box smoothing for object tracking in a video analytics system |
US20190370551A1 (en) * | 2018-06-01 | 2019-12-05 | Qualcomm Incorporated | Object detection and tracking delay reduction in video analytics |
CN108710868B (zh) * | 2018-06-05 | 2020-09-04 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测***及方法 |
CN110321923B (zh) * | 2019-05-10 | 2021-05-04 | 上海大学 | 不同尺度感受野特征层融合的目标检测方法、***及介质 |
-
2019
- 2019-12-31 CN CN201911406950.3A patent/CN111209829B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564009A (zh) * | 2017-08-30 | 2018-01-09 | 电子科技大学 | 基于深度卷积神经网络的室外场景多目标分割方法 |
CN110097568A (zh) * | 2019-05-13 | 2019-08-06 | 中国石油大学(华东) | 一种基于时空双分支网络的视频对象检测与分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111209829A (zh) | 2020-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127513B (zh) | 一种多目标跟踪方法 | |
CN108062531B (zh) | 一种基于级联回归卷积神经网络的视频目标检测方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN112836640B (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN111260688A (zh) | 一种孪生双路目标跟踪方法 | |
CN111310662B (zh) | 一种基于集成深度网络的火焰检测识别方法及*** | |
US20040213460A1 (en) | Method of human figure contour outlining in images | |
CN110120065B (zh) | 一种基于分层卷积特征和尺度自适应核相关滤波的目标跟踪方法及*** | |
CN110838145B (zh) | 一种室内动态场景的视觉定位与建图方法 | |
CN110852241B (zh) | 一种应用于护理机器人的小目标检测方法 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及*** | |
CN112364865B (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN110111370B (zh) | 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法 | |
US11367206B2 (en) | Edge-guided ranking loss for monocular depth prediction | |
CN112200056A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN112528974A (zh) | 测距方法、装置、电子设备及可读存储介质 | |
CN109978908B (zh) | 一种适应大尺度形变的单目标快速跟踪定位方法 | |
CN111462184A (zh) | 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法 | |
CN111429485A (zh) | 基于自适应正则化和高信度更新的跨模态滤波跟踪方法 | |
CN112131991B (zh) | 一种基于事件相机的数据关联方法 | |
CN113313179A (zh) | 一种基于l2p范数鲁棒最小二乘法的噪声图像分类方法 | |
CN111209829B (zh) | 基于视觉的移动视体静态中小尺度目标识别方法 | |
CN110751670A (zh) | 一种基于融合的目标跟踪方法 | |
CN110827318A (zh) | 一种基于多层语义特征与多响应图融合的目标跟踪方法 | |
CN113570713B (zh) | 一种面向动态环境的语义地图构建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |