CN112101207A - 一种目标跟踪方法、装置、电子设备及可读存储介质 - Google Patents

一种目标跟踪方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN112101207A
CN112101207A CN202010965896.2A CN202010965896A CN112101207A CN 112101207 A CN112101207 A CN 112101207A CN 202010965896 A CN202010965896 A CN 202010965896A CN 112101207 A CN112101207 A CN 112101207A
Authority
CN
China
Prior art keywords
tracking object
candidate
target tracking
target
segmentation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010965896.2A
Other languages
English (en)
Other versions
CN112101207B (zh
Inventor
朱晓宁
李忠义
吴喆峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingying Digital Technology Co Ltd
Original Assignee
Jingying Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingying Digital Technology Co Ltd filed Critical Jingying Digital Technology Co Ltd
Priority to CN202010965896.2A priority Critical patent/CN112101207B/zh
Publication of CN112101207A publication Critical patent/CN112101207A/zh
Application granted granted Critical
Publication of CN112101207B publication Critical patent/CN112101207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种目标跟踪方法、装置、电子设备及可读存储介质,通过将获取到当前帧图像以及下一帧真实图像输入至训练好的实例分割模型中,确定出当前帧图像对应的第一分割结果,以及下一帧真实图像的第二分割结果,基于确定出的第一分割结果预测目标跟踪对象在当前帧图像对应的下一帧预测图像中的预测分割结果;最后,基于目标跟踪对象的预测分割结果,以及至少一个候选跟踪对象的第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象,有助于更加准确地从视频帧图像中识别出目标跟踪对象。

Description

一种目标跟踪方法、装置、电子设备及可读存储介质
技术领域
本申请涉及图像处理技术领域,尤其是涉及一种目标跟踪方法、装置、电子设备及可读存储介质。
背景技术
目标跟踪是计算机视觉领域中重要的研究方向和应用方法,因此,目标跟踪技术也被广泛应用于人类生产生活的各个领域,例如,视频监控等,在视频监控技术领域中,通常是对输入视频中的人或物进行轨迹追踪,从而准确地确定出人或物的移动轨迹。
但是,当视频中包括多个较为相似的目标物体时,无法准确地从下一视频帧图像中准确地识别出当前视频帧图像中的目标物体,从而在后续的过程中也无法对目标的轨迹进行追踪,如何准确地确定出每一视频帧图像中的目标物体成为了亟待解决的问题。
发明内容
有鉴于此,本申请的目的在于提供一种目标跟踪方法、装置、电子设备及可读存储介质,能够准确地确定出目标跟踪对象在每一视频帧中的位置,有助于更加准确地从视频帧图像中识别出目标跟踪对象。
本申请实施例提供了一种目标跟踪方法,所述目标跟踪方法包括:
将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果;
基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果;
基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
进一步的,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,所述基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象,包括:
基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;
将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,在所述基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比之后,所述目标跟踪方法还包括:
基于所述目标跟踪对象的预测编码信息,确定出所述目标跟踪对象在所述下一帧预测图像中的预测位置边框;
基于每个候选跟踪对象的候选编码信息,确定出每个候选跟踪对象在所述下一帧真实图像中的真实位置边框;
基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离;
将与所述目标跟踪对象之间中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述中心距离最小的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,在所述基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离之后,所述目标跟踪方法还包括:
确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象;
若存在,将与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,在所述确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象之后,所述目标跟踪方法还包括:
若所述至少一个候选跟踪对象中不存在所述目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围;
若所述至少一个候选跟踪对象中存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象。
进一步的,在所述基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象之后,所述目标跟踪方法还包括:
基于所述目标跟踪对象在所述当前帧图像中的位置,以及所述匹配跟踪对象在所述下一帧真实图像中的位置,确定所述目标跟踪对象的移动轨迹。
本申请实施例还提供了一种目标跟踪装置,所述目标跟踪装置包括:
第一确定模块,用于将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果;
预测模块,用于基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果;
第一匹配模块,用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
进一步的,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,所述第一匹配模块在用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象时,所述第一匹配模块用于:
基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;
将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置还包括第二匹配模块,所述第二匹配模块用于:
基于所述目标跟踪对象的预测编码信息,确定出所述目标跟踪对象在所述下一帧预测图像中的预测位置边框;
基于每个候选跟踪对象的候选编码信息,确定出每个候选跟踪对象在所述下一帧真实图像中的真实位置边框;
基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离;
将与所述目标跟踪对象之间中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述中心距离最小的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置还包括第三匹配模块,所述第三匹配模块用于:
确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象;
若存在,将与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置还包括对象确定模块,所述对象确定模块用于:
若所述至少一个候选跟踪对象中不存在所述目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围;
若所述至少一个候选跟踪对象中存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象。
进一步的,所述目标跟踪装置还包括轨迹跟踪模块,所述轨迹跟踪模块用于:
基于所述目标跟踪对象在所述当前帧图像中的位置,以及所述匹配跟踪对象在所述下一帧真实图像中的位置,确定所述目标跟踪对象的移动轨迹。
本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如上述的目标跟踪方法的步骤。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述的目标跟踪方法的步骤。
这样,本申请通过将获取到当前帧图像以及下一帧真实图像输入至训练好的实例分割模型中,确定出当前帧图像对应的第一分割结果,以及下一帧真实图像的第二分割结果,基于确定出的第一分割结果预测目标跟踪对象在当前帧图像对应的下一帧预测图像中的预测分割结果;最后,基于目标跟踪对象的预测分割结果,以及至少一个候选跟踪对象的第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象,有助于更加准确地从视频帧图像中识别出目标跟踪对象。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例所提供的一种目标跟踪方法的流程图;
图2为分割模型的架构示意图;
图3为LSTM网络结构示意图;
图4为LSTM单元结构示意图;
图5为本申请另一实施例提供的一种目标跟踪方法的流程图;
图6为本申请实施例所提供的一种目标跟踪装置的结构示意图之一;
图7为本申请实施例所提供的一种目标跟踪装置的结构示意图之二;
图8为本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的每个其他实施例,都属于本申请保护的范围。
首先,对本申请可适用的应用场景进行介绍。本申请可应用于图像处理技术领域。将获取到的当前帧图像以及当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,确定出当前帧图像中目标跟踪对象的第一分割结果,以及下一帧真实图像中至少一个候选对象的第二分割结果;基于目标跟踪对象在当前帧图像的第一分割结果,确定目标跟踪对象在当前帧图像对应的下一帧预测帧图像中的预测分割结果;基于预测分割结果以及第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象。
经研究发现,当视频中包括多个较为相似的目标物体时,无法准确地从下一视频帧图像中准确地识别出当前视频帧图像中的目标物体,从而在后续的过程中也无法对目标的轨迹进行追踪,如何准确地确定出每一视频帧图像中的目标物体成为了亟待解决的问题。
基于此,本申请实施例提供了一种目标跟踪方法,能够准确地确定出目标跟踪对象在每一视频帧中的位置,从而实现对于目标跟踪对象移动轨迹的追踪,有助于提高追踪结果的准确性。
请参阅图1,图1为本申请实施例所提供的一种目标跟踪方法的流程图。如图1中所示,本申请实施例提供的目标跟踪方法,包括:
S101、将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果。
该步骤中,分别将获取到的当前帧图像以及当前帧图像对应的下一帧真实图像输入至预先训练好的实例分割模型中,通过实例分割模型分别确定出当前帧图像中目标跟踪对象的第一分割结果,以及在下一帧真实图像中至少一个候选跟踪对象的第二分割结果。
其中,所述第一分割结果可以包括目标跟踪对象的目标编码信息、目标跟踪对象在当前帧图像中的目标位置边框以及目标跟踪对象的类别等。
所述第二分割结果可以包括候选跟踪对象的候选编码信息、候选跟踪对象在下一真实帧图像中的候选位置边框以及候选跟踪对象的类别等。
其中,目标编码信息为目标跟踪对象的二进制掩码信息,是指在当前帧图像中将目标跟踪图像对应的像素用1来表示,将其他位置处的像素用0来表示。同理,候选编码信息为候选跟踪对象的二进制掩码信息,是指在下一帧真实图像中将候选跟踪图像对应的像素用1来表示,将其他位置处的像素用0来表示。
需要说明的是,本申请通过以下步骤确定目标跟踪对象的第一分割结果和候选跟踪对象的第二分割结果:
步骤1:将获取到的当前帧图像输入至训练好的实例分割模型中。
步骤2:从当前帧图像提取出目标跟踪对象的第一特征信息。
步骤3:基于目标跟踪对象的第一特征信息,构建当前帧图像的第一特征金字塔。
步骤4:基于第一特征金字塔,确定当前帧图像的第一原型网络以及当前帧图像中目标跟踪对象对应的第一初始网络系数。
步骤5:对确定出的第一初始网络系数进行阈值化处理,得到第一目标网络系数。
步骤6:基于第一原型网络以及得到的第一目标网络系数,确定在当前帧图像中目标跟踪对象对应的第一分割结果。
具体的,请参阅图2,图2为实例分割模型的架构示意图。将获取到的当前帧图像输入至训练好的实例分割模型中,通过实例分割模型从当前帧图像中提取出目标跟踪对象的第一特征信息,并基于提取出的第一特征信息,构建当前帧图像对应的第一特征金字塔;进而,基于当前帧图像的第一特征金字塔,确定出当前帧图像的第一原型网络,以及当前帧图像中目标跟踪对象对应的第一初始网络系数。
对确定出的第一初始网络系数进行阈值化处理,具体的,可以通过非极大值抑制算法(non maximum suppression,NMS),计算得到目标跟踪对象对应的第一目标网络系数;基于确定出的第一原型网络以及第一目标网络系数,确定出分割后的当前帧图像,并基于分割后的当前帧图像,确定出当前帧图像中目标跟踪对象对应的第一分割结果。
其中,第一特征信息可以包括目标跟踪对象的纹理特征、颜色特征以及质地特征等,可以用于从当前帧图像中分割出目标跟踪对象的特征。
同样的,可以通过步骤1~6确定出下一帧真实图像中至少一个候选跟踪对象的第二分割结果,在此不再赘述。
进一步的,通过以下步骤训练实例分割模型:获取多个样本帧图像,以及每个样本帧图像对应的真实分割结果;将所述多个样本帧图像作为输入特征,将每个真实分割结果作为输出特征,训练构建好的完全卷积模型,直至训练次数达到预设训练轮次,得到训练好的分割模型。
其中,完全卷积模型可以为一种FCNs型实时实例分割模型YOLACT,具体的,YOLACT将目标跟踪对象的分割过程拆分成了两个相互并行的分支,一个分支是使用FCN(FullyConvolutional Networks)去生成当前帧图像对应的原型网络,而另一个分支则是去预测每一个目标跟踪对象所对应的网络系数。YOLACT的主干网络为ResNet-101和FPN(Featurepyramid networks),同时,YOLACT得到的掩膜质量较Mask-RCNN、FCIS更高。这得益于较大的掩膜尺寸和没有特征repooling带来的信息损失。同时,在我们将YOLACT算法用于目标跟踪对象的实例分割中,在视频中得到的掩膜质量也相对较稳定,可以满足场景中对于实例分割算法性能的要求。
S102、基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果。
该步骤中,基于确定出的当前帧图像对应的第一分割结果,预测目标跟踪对象在与当前帧图像对应的下一帧预测图像中对应的预测分割结果,即对目标跟踪对象在下一帧真实图像中的位置进行预测。
其中,预测编码信息为目标跟踪对象在下一帧预测图像中的二进制掩码信息,是指在下一帧预测图像中将目标跟踪图像对应的像素用1来表示,将其他位置处的像素用0来表示。
具体的,将确定出的当前帧图像对应的第一分割结果输入至训练好的预测模型中,对目标跟踪对象在下一帧真实图像中的编码信息以及对象边框进行预测,得到目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中的预分割结果。
其中,预测模型可以为长短期记忆模型(Long Short-Term Memory,LSTM),具体的使用过程为:
(1)将当前帧图像对应的图像编码矩阵输入到LSTM模型进行预测;
(2)LSTM模型输出下一帧预测图像的预测编码矩阵,其中,预测编码矩阵中包括目标跟踪对象的预测编码信息和预测对象边框。
对应于上述实施例,我们假设当前帧图像为第t帧图像,将第t帧图像的第一分割结果X<t>输入至LSTM模型进行预测,预测出下一帧预测图像,即t+1帧的预测分割结果为Y<t>
进一步的,通过以下步骤训练所述预测模型:获取每个样本帧图像对应的样本分割结果,以及所述样本帧图像中每个样本跟踪对象的真实分割结果;将获取到的所述样本分割结果作为输入特征,将每个样本跟踪对象的真实分割结果作为输出特征,训练构建好的长短期记忆模型,直至训练次数达到预设训练轮次,得到训练好的预测模型分割模型。
其中,长短期记忆模型是由Sepp Hochreiter和Jurgen Schmidhuber在1997的一篇论文中所提出来的,这是一篇开创性的论文,其在序列模型上有着重要的意义。LSTM模型改变了RNN的隐藏层,使其可以更好地捕捉深层的连接,并改善了梯度消失的问题。
进一步的,如图3、图4所示,图3为LSTM网络结构示意图,图4为LSTM单元结构示意图。LSTM的核心思想是通过门控单元来决定记忆细胞和激活值是否进行更新,即如果不更新,则当前的记忆细胞会“记住”之前的信息,如果选择更新,则记忆细胞会被新的候选值所代替。在经典的LSTM模型中,门控单元一共有三个,即更新门、遗忘门和输出门。这里我们用c<t>表示t时刻的记忆细胞的值,则有:
Figure BDA0002682293700000121
Γu=sigmoid(wu[a<t-1>,x<t>]+bu);
Γf=sigmoid(wf[a<t-1>,x<t>]+bf);
Γo=sigmoid(wo[a<t-1>,x<t>]+bo);
Figure BDA0002682293700000122
a<t>=Γo*tanh(c<t>);
其中,a<t>为t时刻的激活值;Γu、Γf、Γo分别为更新门、遗忘门、输出门;wc、bc、wu、bu、wf、bf、wo、bo分别为对应的权重与偏置;
Figure BDA0002682293700000123
为t时刻记忆细胞的候选值;sigmoid的函数表达式为
Figure BDA0002682293700000124
S103、基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
该步骤中,基于预测出的目标跟踪对象在下一帧预测图像中的预测分割结果,以及确定出的在下一帧真实图像中的至少一个候选对象的第二分割结果,从下一帧真实图像中的至少一个候选对象中确定出目标跟踪对象对应的匹配跟踪对象。
这样,本申请通过将获取到当前帧图像以及下一帧真实图像输入至训练好的实例分割模型中,确定出当前帧图像对应的第一分割结果,以及下一帧真实图像的第二分割结果,基于确定出的第一分割结果预测目标跟踪对象在当前帧图像对应的下一帧预测图像中的预测分割结果;最后,基于目标跟踪对象的预测分割结果,以及至少一个候选跟踪对象的第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象,有助于更加准确地从视频帧图像中识别出目标跟踪对象。
请参阅图5,图5为本申请另一实施例提供的一种目标跟踪方法的流程图。如图5中所示,本申请实施例提供的目标跟踪方法,包括:
S501、将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果。
S502、基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果。
S503、基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
S504、基于所述目标跟踪对象在所述当前帧图像中的位置,以及所述匹配跟踪对象在所述下一帧真实图像中的位置,确定所述目标跟踪对象的移动轨迹。
该步骤中,确定目标跟踪对象在当前帧图像中所处的位置,以及与目标跟踪对象对应的匹配跟踪对象在下一帧真实图像中所处的位置,确定出目标跟踪对象的移动轨迹。
其中,S501至S503的描述可以参照S101至S103的描述,并且能达到相同的技术效果,对此不做赘述。
进一步的,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,步骤S503包括:基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
该步骤中,基于确定出的目标跟踪对象在下一帧预测图像中的预测编码信息,以及每个候选跟踪对象在下一帧真实图像中的候选编码信息,分别计算目标跟踪对象与候选跟踪对象之间的交并比。
在确定出每个候选跟踪对象与目标跟踪对象之间的交并比之后,将交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象。
将参考跟踪对象中,与目标跟踪对象之间交并比最大的参考跟踪对象,确定为目标跟踪对象对应的匹配跟踪对象。
这里,交并比表示目标跟踪对象与候选跟踪对象之间的重叠区域的大小,通过以下公式计算所述交并比:
Figure BDA0002682293700000141
其中,I为目标跟踪对象与候选跟踪对象之间的交并比,C为目标跟踪对象的预测编码信息,G为候选跟踪对象的候选编码信息。
进一步的,在所述基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比之后,所述目标跟踪方法还包括:基于所述目标跟踪对象的预测编码信息,确定出所述目标跟踪对象在所述下一帧预测图像中的预测位置边框;基于每个候选跟踪对象的候选编码信息,确定出每个候选跟踪对象在所述下一帧真实图像中的真实位置边框;基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离;将与所述目标跟踪对象之间中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象;将与所述目标跟踪对象之间所述中心距离最小的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
该步骤中,基于目标跟踪对象在下一帧预测图像中的预测编码信息,确定出目标跟踪对象在下一帧预测图像中的预测位置边框;基于每个候选跟踪对象在下一帧真实图像中的候选编码信息,确定出每个候选跟踪对象在下一帧真实图像中的真实位置边框。
确定预测位置边框的中心位置,以及每个真实位置边框的中心位置;计算出目标跟踪对象的预测位置边框的中心位置与每个候选跟踪对象的真实位置边框的中心位置之间的中心距离。
在确定出每个候选跟踪对象与目标跟踪对象之间的中心距离之后,将中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象。
将参考跟踪对象中,与目标跟踪对象之间中心距离最小的参考跟踪对象,确定为目标跟踪对象对应的匹配跟踪对象。
进一步的,在所述基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离之后,所述目标跟踪方法还包括:确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象;若存在,将与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
该步骤中,在确定出每个候选跟踪对象与目标跟踪对象之间的交并比以及中心距离后,确定至少一个候选跟踪对象中是否存在与目标跟踪对象之间交并比最大,且中心距离最小的候选跟踪对象,若存在,则将其确定为目标跟踪对象对应的匹配跟踪对象。
若确定出的交并比最大的候选跟踪对象,与确定出的中心距离最小的候选跟踪对象不是同一个候选跟踪对象时,以交并比为主,选取交并比最大的候选跟踪对象,作为目标跟踪对象对应的匹配跟踪对象。
进一步的,在所述确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象之后,所述目标跟踪方法还包括:若所述至少一个候选跟踪对象中不存在所述目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围;若所述至少一个候选跟踪对象中存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象。
该步骤中,若在下一帧真实图像中的至少一个候选跟踪对象中不存在目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围。
若在下一帧真实图像中的至少一个候选跟踪对象中,存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象,即首次出现在视频中。
示例性的,假设第t+1帧图像对应的第二分割结果记作X<t+1>,经过预测模型预测出的下一帧预测图像对应的预测分割结果为Y<t>,这里所述的分割结果为一个编码矩阵,我们将这个编码矩阵设置为m行n列,假设目标跟踪对象的个数为
Figure BDA0002682293700000161
个,这
Figure BDA0002682293700000162
个目标跟踪对象的预测编码信息记作
Figure BDA0002682293700000163
而第t+1帧图像对应的第二分割结果为X<t+1>。对于预测的预测分割结果Y<t>中的每一个目标跟踪对象,我们从将其放到X<t+1>中去匹配,例如,第t+1帧的第i个目标跟踪对象的预测编码信息为
Figure BDA0002682293700000164
我们对于Y<t>这个预测分割结果来说,只保留
Figure BDA0002682293700000165
的信息,于是这个分割结果就变成了一个只包含第i个目标跟踪对象的分割结果,即只有第i个对象的位置处的元素值为1,其他位置处的坐标都是0,此时,我们将这个只包含有第i个目标跟踪对象的分割结果记作
Figure BDA0002682293700000166
接着使用这个
Figure BDA0002682293700000167
分割结果与第二分割结果X<t+1>进行匹配,其中,假设X<t+1>中检测到的候选跟踪对象为dt+1个,具体匹配过程为:将
Figure BDA0002682293700000168
与X<t+1>中的每一个候选跟踪对象进行匹配,考虑的匹配准则为交并比和边界框中心位置的中心距离,如果目标跟踪对象与X<t+1>中的某个候选跟踪对象的交并比最大(越接近于1表明交并比越大),且边框中心之间的中心距离较近(最小),则我们认为预测的第i个目标跟踪对象在下一帧真实图像中匹配到了一个对应的匹配跟踪对象,这个匹配跟踪对象所处的位置就是目标跟踪对象在下一帧真实图像中的移动位置;反之,如果我们没有匹配到候选跟踪对象,我们则认为这个目标跟踪对象匹配失败,认为其对应的候选跟踪对象在下一帧真实图像中“消失”;在对预测分割结果Y<t>中的
Figure BDA0002682293700000171
个目标跟踪对象都进行匹配之后,如果第二分割结果X<t+1>中还有一些候选跟踪对象没有被匹配到,则认为这些候选跟踪对象是新加入的,即首次出现在视频中。
这样,本申请通过将获取到当前帧图像以及下一帧真实图像输入至训练好的实例分割模型中,确定出当前帧图像对应的第一分割结果,以及下一帧真实图像的第二分割结果,基于确定出的第一分割结果预测目标跟踪对象在当前帧图像对应的下一帧预测图像中的预测分割结果;最后,基于目标跟踪对象的预测分割结果,以及至少一个候选跟踪对象的第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象,最后,根据目标跟踪对象对应的候选跟踪对象,确定出目标跟踪对象的移动轨迹,有助于提高追踪结果的准确性。
请参阅图6、图7,图6为本申请实施例所提供的一种目标跟踪装置的结构示意图之一,图7为本申请实施例所提供的一种目标跟踪装置的结构示意图之二。如图6中所示,所述目标跟踪装置600包括:
第一确定模块610,用于将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果;
预测模块620,用于基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果;
第一匹配模块630,用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
进一步的,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,所述第一匹配模块630在用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象时,所述第一匹配模块630用于:
基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;
将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置600还包括第二匹配模块640,所述第二匹配模块640用于:
基于所述目标跟踪对象的预测编码信息,确定出所述目标跟踪对象在所述下一帧预测图像中的预测位置边框;
基于每个候选跟踪对象的候选编码信息,确定出每个候选跟踪对象在所述下一帧真实图像中的真实位置边框;
基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离;
将与所述目标跟踪对象之间中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述中心距离最小的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置600还包括第三匹配模块650,所述第三匹配模块650用于:
确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象;
若存在,将与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
进一步的,所述目标跟踪装置600还包括对象确定模块660,所述对象确定模块660用于:
若所述至少一个候选跟踪对象中不存在所述目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围;
若所述至少一个候选跟踪对象中存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象。
进一步的,所述目标跟踪装置600还包括轨迹跟踪模块670,所述轨迹跟踪模块670还用于:
基于所述目标跟踪对象在所述当前帧图像中的位置,以及所述匹配跟踪对象在所述下一帧真实图像中的位置,确定所述目标跟踪对象的移动轨迹。
这样,本申请通过将获取到当前帧图像以及下一帧真实图像输入至训练好的,确定出当前帧图像对应的第一分割结果,以及下一帧真实图像的第二分割结果,基于确定出的第一分割结果预测目标跟踪对象在当前帧图像对应的下一帧预测图像中的预测分割结果;最后,基于目标跟踪对象的预测分割结果,以及至少一个候选跟踪对象的第二分割结果,从至少一个候选跟踪对象中确定出目标跟踪对象对应的匹配跟踪对象,有助于更加准确地从视频帧图像中识别出目标跟踪对象。
请参阅图8,图8为本申请实施例所提供的一种电子设备的结构示意图。如图8中所示,所述电子设备800包括处理器810、存储器820和总线830。
所述存储器820存储有所述处理器810可执行的机器可读指令,当电子设备800运行时,所述处理器810与所述存储器820之间通过总线830通信,所述机器可读指令被所述处理器810执行时,可以执行如上述图1以及图5所示方法实施例中的目标跟踪方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时可以执行如上述图1以及图5所示方法实施例中的目标跟踪方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种目标跟踪方法,其特征在于,所述目标跟踪方法包括:
将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果;
基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果;
基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
2.根据权利要求1所述的目标跟踪方法,其特征在于,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,所述基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象,包括:
基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;
将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
3.根据权利要求2所述的目标跟踪方法,其特征在于,在所述基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比之后,所述目标跟踪方法还包括:
基于所述目标跟踪对象的预测编码信息,确定出所述目标跟踪对象在所述下一帧预测图像中的预测位置边框;
基于每个候选跟踪对象的候选编码信息,确定出每个候选跟踪对象在所述下一帧真实图像中的真实位置边框;
基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离;
将与所述目标跟踪对象之间中心距离小于预设距离的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述中心距离最小的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
4.根据权利要求3所述的目标跟踪方法,其特征在于,在所述基于所述预测位置边框以及每个候选跟踪对象的真实位置边框,确定所述目标跟踪对象的中心位置与每个候选跟踪对象的中心位置之间的中心距离之后,所述目标跟踪方法还包括:
确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象;
若存在,将与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
5.根据权利要求4所述的目标跟踪方法,其特征在于,在所述确定所述至少一个候选跟踪对象中是否存在与所述目标跟踪对象之间所述交并比最大,且所述中心距离最小的候选跟踪对象之后,所述目标跟踪方法还包括:
若所述至少一个候选跟踪对象中不存在所述目标跟踪对象对应的匹配跟踪对象,则确定所述目标跟踪对象移出当前监控范围;
若所述至少一个候选跟踪对象中存在无对应目标跟踪对象的候选跟踪对象,则确定无对应目标跟踪对象的候选跟踪对象为新增跟踪对象。
6.根据权利要求1所述的目标跟踪方法,其特征在于,在所述基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象之后,所述目标跟踪方法还包括:
基于所述目标跟踪对象在所述当前帧图像中的位置,以及所述匹配跟踪对象在所述下一帧真实图像中的位置,确定所述目标跟踪对象的移动轨迹。
7.一种目标跟踪装置,其特征在于,所述目标跟踪装置包括:
第一确定模块,用于将获取到的当前帧图像以及所述当前帧图像对应的下一帧真实图像输入至训练好的实例分割模型中,分别确定所述当前帧图像中目标跟踪对象的第一分割结果以及所述下一帧真实图像中至少一个候选跟踪对象的第二分割结果;
预测模块,用于基于所述第一分割结果,预测所述目标跟踪对象在与所述当前帧图像对应的下一帧预测图像中对应的预测分割结果;
第一匹配模块,用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象。
8.根据权利要求7所述的目标跟踪装置,其特征在于,当所述第二分割结果包括每个候选跟踪对象的候选编码信息,以及所述预测分割结果包括所述目标跟踪对象的预测编码信息时,所述第一匹配模块在用于基于所述预测分割结果以及所述第二分割结果,从所述至少一个候选跟踪对象中确定出所述目标跟踪对象对应的匹配跟踪对象时,所述第一匹配模块用于:
基于所述目标跟踪对象的预测编码信息以及每个候选跟踪对象的候选编码信息,计算所述目标跟踪对象与每个候选跟踪对象之间的交并比;
将与所述目标跟踪对象之间交并比大于预设比值的候选跟踪对象,确定为参考跟踪对象;
将与所述目标跟踪对象之间所述交并比最大的参考跟踪对象,确定为所述目标跟踪对象对应的匹配跟踪对象。
9.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至6中任一项所述的目标跟踪方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至6中任一项所述的目标跟踪方法的步骤。
CN202010965896.2A 2020-09-15 2020-09-15 一种目标跟踪方法、装置、电子设备及可读存储介质 Active CN112101207B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010965896.2A CN112101207B (zh) 2020-09-15 2020-09-15 一种目标跟踪方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010965896.2A CN112101207B (zh) 2020-09-15 2020-09-15 一种目标跟踪方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN112101207A true CN112101207A (zh) 2020-12-18
CN112101207B CN112101207B (zh) 2023-12-22

Family

ID=73758583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010965896.2A Active CN112101207B (zh) 2020-09-15 2020-09-15 一种目标跟踪方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN112101207B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033428A (zh) * 2021-03-30 2021-06-25 电子科技大学 一种基于实例分割的行人属性识别方法
CN113361519A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 目标处理方法、目标处理模型的训练方法及其装置
CN113538512A (zh) * 2021-07-02 2021-10-22 北京理工大学 基于多层旋转记忆模型的光电信息处理方法
CN114418093A (zh) * 2022-01-19 2022-04-29 北京百度网讯科技有限公司 训练路径表征模型、输出信息的方法和装置
CN115018886A (zh) * 2022-08-09 2022-09-06 腾讯科技(深圳)有限公司 运动轨迹识别方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016034059A1 (zh) * 2014-09-04 2016-03-10 成都理想境界科技有限公司 基于颜色-结构特征的目标对象跟踪方法
CN109544598A (zh) * 2018-11-21 2019-03-29 电子科技大学 目标跟踪方法、装置及可读存储介质
CN109658442A (zh) * 2018-12-21 2019-04-19 广东工业大学 多目标跟踪方法、装置、设备及计算机可读存储介质
CN111612822A (zh) * 2020-05-21 2020-09-01 广州海格通信集团股份有限公司 对象跟踪方法、装置、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016034059A1 (zh) * 2014-09-04 2016-03-10 成都理想境界科技有限公司 基于颜色-结构特征的目标对象跟踪方法
CN109544598A (zh) * 2018-11-21 2019-03-29 电子科技大学 目标跟踪方法、装置及可读存储介质
CN109658442A (zh) * 2018-12-21 2019-04-19 广东工业大学 多目标跟踪方法、装置、设备及计算机可读存储介质
CN111612822A (zh) * 2020-05-21 2020-09-01 广州海格通信集团股份有限公司 对象跟踪方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陕硕;周越;: "基于实例分割的多目标跟踪", 中国体视学与图像分析, no. 02 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033428A (zh) * 2021-03-30 2021-06-25 电子科技大学 一种基于实例分割的行人属性识别方法
CN113361519A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 目标处理方法、目标处理模型的训练方法及其装置
CN113361519B (zh) * 2021-05-21 2023-07-28 北京百度网讯科技有限公司 目标处理方法、目标处理模型的训练方法及其装置
CN113538512A (zh) * 2021-07-02 2021-10-22 北京理工大学 基于多层旋转记忆模型的光电信息处理方法
CN114418093A (zh) * 2022-01-19 2022-04-29 北京百度网讯科技有限公司 训练路径表征模型、输出信息的方法和装置
CN114418093B (zh) * 2022-01-19 2023-08-25 北京百度网讯科技有限公司 训练路径表征模型、输出信息的方法和装置
CN115018886A (zh) * 2022-08-09 2022-09-06 腾讯科技(深圳)有限公司 运动轨迹识别方法、装置、设备及介质

Also Published As

Publication number Publication date
CN112101207B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
CN112101207A (zh) 一种目标跟踪方法、装置、电子设备及可读存储介质
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
JP7335274B2 (ja) ジオロケーションの予測のためのシステムおよび方法
Kumagai et al. Mixture of counting cnns: Adaptive integration of cnns specialized to specific appearance for crowd counting
CN110245579B (zh) 人流密度预测方法及装置、计算机设备及可读介质
CN111524112B (zh) 追钢识别方法、***、设备及介质
JP2022122984A (ja) 画像処理システム、画像処理方法及びプログラム
Yang et al. An improving faster-RCNN with multi-attention ResNet for small target detection in intelligent autonomous transport with 6G
CN111652181B (zh) 目标跟踪方法、装置及电子设备
CN112418195B (zh) 一种人脸关键点检测方法、装置、电子设备及存储介质
Kumagai et al. Mixture of counting CNNs
CN111368634B (zh) 基于神经网络的人头检测方法、***及存储介质
CN111105017A (zh) 神经网络量化方法、装置及电子设备
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
CN113283368B (zh) 一种模型训练方法、人脸属性分析方法、装置及介质
WO2021012263A1 (en) Systems and methods for end-to-end deep reinforcement learning based coreference resolution
CN114266897A (zh) 痘痘类别的预测方法、装置、电子设备及存储介质
KR20200092450A (ko) 데이터 라벨링을 수행하기 위한 기법
CN114091594A (zh) 模型训练方法及装置、设备、存储介质
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
CN115035158A (zh) 目标跟踪的方法及装置、电子设备和存储介质
CN114359592A (zh) 模型训练及图像处理方法、装置、设备、存储介质
CN114998814B (zh) 目标视频生成方法、装置、计算机设备和存储介质
CN116543333A (zh) 电力***的目标识别方法、训练方法、装置、设备和介质
CN114049539B (zh) 基于去相关二值网络的协同目标识别方法、***及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant